PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller G70/GeForce 7800 GTX Sammelthread


Seiten : 1 2 3 [4]

Mr. Lolman
2005-07-02, 14:37:12
Nein sind es nicht, sonst würde es keine solchen Brüche geben können.

Imo doch. Hier die Screenshots in Voller Auflösung:

R420 4xAA (http://www.hwupgrade.it/articoli/1311/immagini_g70/x850/aa/3dmark03/AA4x01669.jpg)
G70 4xAA Gammakorrekt (http://www.hwupgrade.it/articoli/1311/immagini_g70/g70/aa/3dmark03/AA4xGC01669.jpg)
G70 4xAA (http://www.hwupgrade.it/articoli/1311/immagini_g70/g70/aa/3dmark03/AA4x01669.jpg)

Polygonkanten sind ja schomal insofern wahrscheinlicher, weil der R420 alphatestkanten garnicht filtern kann, und die Kanten hier im bild nicht nur gefiltert sind, sondern eine bessere Glättung als beim G70 und beim NV50 aufweisen...

Coda
2005-07-02, 14:37:58
Jaja ich hab's mir angesehen. Das ist Alphatesting. Sonst würde TSSAA ja nichts bringen.

aths
2005-07-02, 14:39:37
Ich habe die Karte zur Zeit nicht mehr - werde mir aber wohl demnächst ne billige 9550er kaufen um die Sache genauer anzuschauen.Trotzdem würde mich interessieren, wo du Flimmern wahrgenommen hast. Vielleicht bekomme ich das bei mir nachgestellt.

Grestorn
2005-07-02, 14:39:54
Zweige sind gar nie nicht ausmodelliert, erst recht nicht, wenn es die Blätter nicht sind (die auf jeden Fall weniger Polygone benötigen würden als die Zweige).

Coda
2005-07-02, 14:40:45
Ich hab da so ein UT2004 Level, das zuverlässig flimmert (ONS-CBP2-Brassed) ;)

Und ja LOD war auf 0.0.

Öh? Scheinbar ist das mit 77.72 HQ verschwunden, was ist denn jetzt los?

Dr.Dirt
2005-07-02, 14:44:23
P.S: Von welcher Map sind Deine Shots? Dann mach ich mit der 7800GTX auch mal welche.

Bin zwar nicht Dunkeltier, mich würde aber interessieren, ob es Unterschiede gibt.


Die Map ist "ns_eclipse" aus dem Mod "Natural Selection" für Half-Life Classic

Mr. Lolman
2005-07-02, 14:44:52
Jaja ich hab's mir angesehen. Das ist Alphatesting. Sonst würde TSSAA ja nichts bringen.

TSAA bringt ja nur an den Blättern was, und die komisch zerstückelten Äste bleiben trotzdem:

Dunkeltier
2005-07-02, 14:44:59
@Dunkeltier:

Ich hab mir die Mühe gemacht und NS mal downgeloadet und installiert.

Das erste was mir ins Auge viel, waren die üblen Bilinear-Kanten.

In der Konsole das Kommando "gl_texturemode GL_LINEAR_MIPMAP_LINEAR" eingeben, und schon sind die Kanten weg.

Probier das mal!

P.S: Von welcher Map sind Deine Shots? Dann mach ich mit der 7800GTX auch mal welche.

Meine Shots sind von der Map ns_eclipse. Wenn du da als Marine auf der linken Seite aus der Base rausläufst, triffste direkt auf die böse Wand. Mache von dort angelehnt mal bitte einen Shot, OHNE SSAA.

ShadowXX
2005-07-02, 14:45:10
Ich hab da so ein UT2004 Level, das zuverlässig flimmert (ONS-CBP2-Brassed) ;)

Und ja LOD war auf 0.0.

UT2004 ist die denkbar schlechteste Auswahl....da macht der nV-Treiber sowieso was er will, egal was man einstellt.

Um genau zu sein wird AFAIK bei UT2004 immer bilinear gefiltert (zumindest auf TS > 0).

Grestorn
2005-07-02, 14:45:30
Ich hab da so ein UT2004 Level, das zuverlässig flimmert (ONS-CBP2-Brassed) ;)

Und ja LOD war auf 0.0.
Wo krieg ich das Level her? Bin kein großer Multiplayer-Spieler, kenn mich da nicht so aus...

Coda
2005-07-02, 14:45:54
Macht doch nix, es ist ja TS 0 was geflimmert hat. Scheinbar ist das mit dem neuen Treiber gegessen.

Mr. Lolman
2005-07-02, 14:47:50
Zweige sind gar1 nie nicht ausmodelliert, erst recht nicht, wenn es die Blätter nicht sind (die auf jeden Fall weniger Polygone benötigen würden als die Zweige).

Hä? Diese kleinen Ästlein kann man mit 1-2 Polygon modellieren. (Wenn du sie 3 Dimensional haben willst, dann halt min 3). Die Rundung in den Blättern braucht deutlich mehr.

Und nochmal: Wieso glättet ATi dann aufeinmal Alphatests? Das ist unmöglich! Es sind Polygonäste!

Coda
2005-07-02, 14:50:00
Das hat aber wenn dann überhaupt was mit dem Rasterizing zu tun und nicht mit dem AA. Fragt sich wer hier nach der DX Spezifikation "korrekter" rendert...

Bilder ohne AA wären jetzt hilfreich...

Blaire
2005-07-02, 14:59:28
kann ich nicht bestätigen, allerdings stelle ich meine settings nur per nvidia treiber ein, force immer high quality
nur wenn ich quality nehme fängt es an zu flimmern

Ich hab schon alle Kombinationen ausprobiert. Quality (alle 3 Optimierungen manuell ausgestellt) und HighQuality im Treiber. Bei allen sah ich dieses grieseln bzw. flimmern. :(

Grestorn
2005-07-02, 15:00:42
Bitte schön (alle Bilder sind .png in 1600x1200, alles weitere steht im Bild)

Treibereinstellungen: Default (Also "Q", Default Optimierungen)

http://grestorn.webinit.de/NS noAF trilinear.png
http://grestorn.webinit.de/NS 16xAF bilinear.png
http://grestorn.webinit.de/NS 16xAF trilinear.png

Man sieht genau, dass Du Deine Shots Bilinear gemacht hast...

Dr.Dirt
2005-07-02, 15:10:09
Hab das auch mal kurz getestet mit meiner X850 XT.

Mit 8xAF und AI off sind an der Wand auch zwei Bugwellen.

Nach Eingabe des Befehls "gl_texturemode GL_LINEAR_MIPMAP_LINEAR" in die Console sind diese verschwunden, danke grestorn.

Dunkeltier
2005-07-02, 15:16:55
(...)

Ok, ich gebe dir Recht. War bei mir doch nicht ganz richtig eingestellt. Dafür habe ich aber neue Nettigkeiten gefunden. Und zwar ein EXTREMES Unschärfeband. Und zwar wenn du ein paar Schritte geradeaus gehst und dich dann nach links und rechts bewegst. Das sieht dann mit HQ(!) und 16xaF so aus:
http://img265.imageshack.us/img265/4913/bla2vn.jpg

Achte bitte auf die Stelle unter der Lampe rechts vom Fadenkreuz. Und sag mir jetzt bitte nicht, du siehst kein gigantisches Unschärfeband?! :confused:

Im übrigen liegt es wohl daran, das mein Treiber mit der "Mipmaps erzwingen" Trilinear was anderes wie das Spiel wollte, und es daher vorher nicht lief.

Grestorn
2005-07-02, 15:21:38
Achte bitte auf die Stelle unter der Lampe rechts vom Fadenkreuz. Und sag mir jetzt bitte nicht, du siehst kein gigantisches Unschärfeband?! :confused: Ja, das ist extrem und liegt am winkelabhängigen AF. Und sieht somit auf ATI Hardware genauso aus.

Im übrigen liegt es wohl daran, das mein Treiber mit der "Mipmaps erzwingen" Trilinear was anderen wie das Spiel wollte, und es daher vorher nicht lief.
Wenn ein Spiel von sich aus MipMaps verwendet, sollte man diese Option wohl besser auch nicht verwenden...

Xmas
2005-07-02, 15:44:50
Im übrigen liegt es wohl daran, das mein Treiber mit der "Mipmaps erzwingen" Trilinear was anderes wie das Spiel wollte, und es daher vorher nicht lief.
Ich dachte, Mipmaps erzwingen im Treiberpanel funktioniert sowieso nicht? Außerdem heißt Mipmaps erzwingen nicht Trilinear erzwingen.

Blaire
2005-07-02, 15:46:34
LOD-Clamp aktiviert?

Auch probiert, ein bissl besser Problem ist trotzdem weiterhin vorhanden. :(

Grestorn
2005-07-02, 15:54:49
Ich dachte, Mipmaps erzwingen im Treiberpanel funktioniert sowieso nicht? Außerdem heißt Mipmaps erzwingen nicht Trilinear erzwingen.
Man kann bei "MipMap erzwingen" aber Bilnear oder Trilinear auswählen.

Das "MipMaps erzwingen" nicht geht wurde bei GTA festgestellt. Kann auch sein, dass das nur für dieses Spiel gilt. Es ist schon ne Weile her, dass es Spiele gab, die von sich aus keine MipMaps verwendeten...

Grestorn
2005-07-02, 17:09:37
Also, auf Wunsch von Blaire habe ich mir jetzt mal die BF2 Demo geholt und die 7800GTX mit der 6800GT verglichen, speziell das Flimmern, das bei diesem Spiel sehr stark ausgeprägt sein soll.

Mein Ergebnis:

Ja, die 7800GTX flimmert in der Tat stärker als die 6800GT (16xAF, kein AA).

Allerdings musste ich den Test in 1024x768 machen, denn das Spiel war in 1600x1200 auf der 6800GT unspielbar. Selbst auf 1024x768 empfand ich es noch etwas rucklig.

Die 7800GTX schafft bei 1600x1200 inklusive 4xAA sogar noch 60 fps, davon ist die 6800GT weit weit weg. Das hätte ich nicht gedacht.

Dennoch, was das Flimmern angeht muss ich den Kritikern recht geben. Optisch würde ich auch sagen, dass die Bodentexturen ein wenig schärfer wirken bei der 7800GTX. Das würde auch zusammenpassen zu dem Flimmern.

Dummerweise wüsste ich nicht, wie ich ein 100% Vergleichsshot mit den beiden Karten machen sollte, bei dem ich an exakt der selben Stelle stehe... So muss ich mich auf meine Augen verlassen.

Fazit für mich: Offensichtlich wird bei der 7800GTX bei BF2 aggresiv optimiert. Sonst kann ich den Geschwindigkeitsvorteil, den die 7800GTX gegenüber einer 6800GT hat, kaum nachvollziehen. Die Optimierung sieht man aber auch. Allerdings würde ich - wäre BF2 überhaupt etwas für mich - die Geschwindigkeit in diesem Falle vorziehen. Auf der 6800GT hat das Spiel auch in 1024x768 ohne AA nicht wirklich Spaß gemacht...

Bei anderen Spielen kann ich diesen Unterschied beim Filtern übrigens bisher nicht nachweisen...

A.Wesker
2005-07-02, 17:20:01
bei mir lief das game auf einer 6800 Ultra einwandfrei auf 1280x9xx 4AA/16AF (immer um die 50-70 FPS). mit der 7800 GTX ist nun 1600x1200 8xS TSAA/16AF kein prob.

Mr. Lolman
2005-07-02, 17:20:47
Grestorn:

Kannst mal bei Farcry folgende Stelle aufm G70 testen?: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3213366#post3213366

Grestorn
2005-07-02, 18:04:22
Grestorn:

Kannst mal bei Farcry folgende Stelle aufm G70 testen?: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3213366#post3213366
Für heute reichts mit testen, ein andermal gern...

Gast
2005-07-03, 13:09:47
Dennoch, was das Flimmern angeht muss ich den Kritikern recht geben. Optisch würde ich auch sagen, dass die Bodentexturen ein wenig schärfer wirken bei der 7800GTX. Das würde auch zusammenpassen zu dem Flimmern.



agressiveres LOD beim G70?

was passiert denn wenn man dieses leicht positiv einstellt, bekommt man dann anähernd identische bilder zum nv40?

Razor
2005-07-03, 19:12:06
Auf der 6800GT hat das Spiel auch in 1024x768 ohne AA nicht wirklich Spaß gemacht... Echt?
Also ich spiele das Game mit 4xAA und 8xAF auf meiner 'leicht' gemoddeten 6800LE (OK, ist eine nU+ ;-)...

Lediglich die Texturen hab' ich auf Medium, da mir für die 'High'-Einstellung die notwendigen 1,25Gig Hauptspeicher fehlen... ist leider nur ein Gig. Und ach ja... Treiber ist selbstredend der bei Battlefield2 beiliegende 77.30. Auch spreche ich hier über die Retail-Variante des Games.

Razor

(del676)
2005-07-03, 19:17:15
btw. is noch jemand hier der sich von TR SSAA mehr erwartet hat?
also es eliminiert das flimmern von AT schon deutlich, aber imho sieht 2x2SSAA besser aus (z.b. in CSS auf der map compound)

Grestorn
2005-07-03, 19:58:36
btw. is noch jemand hier der sich von TR SSAA mehr erwartet hat?
also es eliminiert das flimmern von AT schon deutlich, aber imho sieht 2x2SSAA besser aus (z.b. in CSS auf der map compound)
TR SSAA kann das Flimmern von Texturen, die kein Alpha-Testing enthalten, nicht beseitigen. Deswegen ist 2x2 SS natürlich überlegen.

(del676)
2005-07-03, 20:10:06
TR SSAA kann das Flimmern von Texturen, die kein Alpha-Testing enthalten, nicht beseitigen. Deswegen ist 2x2 SS natürlich überlegen.

ich meine aber die zäune von CSS, die sind imho ATs

thade
2005-07-03, 20:25:17
Also, auf Wunsch von Blaire habe ich mir jetzt mal die BF2 Demo geholt und die 7800GTX mit der 6800GT verglichen, speziell das Flimmern, das bei diesem Spiel sehr stark ausgeprägt sein soll.

Mein Ergebnis:

Ja, die 7800GTX flimmert in der Tat stärker als die 6800GT (16xAF, kein AA).

Allerdings musste ich den Test in 1024x768 machen, denn das Spiel war in 1600x1200 auf der 6800GT unspielbar. Selbst auf 1024x768 empfand ich es noch etwas rucklig.

Die 7800GTX schafft bei 1600x1200 inklusive 4xAA sogar noch 60 fps, davon ist die 6800GT weit weit weg. Das hätte ich nicht gedacht.

Dennoch, was das Flimmern angeht muss ich den Kritikern recht geben. Optisch würde ich auch sagen, dass die Bodentexturen ein wenig schärfer wirken bei der 7800GTX. Das würde auch zusammenpassen zu dem Flimmern.

Dummerweise wüsste ich nicht, wie ich ein 100% Vergleichsshot mit den beiden Karten machen sollte, bei dem ich an exakt der selben Stelle stehe... So muss ich mich auf meine Augen verlassen.

Fazit für mich: Offensichtlich wird bei der 7800GTX bei BF2 aggresiv optimiert. Sonst kann ich den Geschwindigkeitsvorteil, den die 7800GTX gegenüber einer 6800GT hat, kaum nachvollziehen. Die Optimierung sieht man aber auch. Allerdings würde ich - wäre BF2 überhaupt etwas für mich - die Geschwindigkeit in diesem Falle vorziehen. Auf der 6800GT hat das Spiel auch in 1024x768 ohne AA nicht wirklich Spaß gemacht...

Bei anderen Spielen kann ich diesen Unterschied beim Filtern übrigens bisher nicht nachweisen...


Also BF2 lief bei mir mit ner 6800GT eigentlich sehr sehr gut. Sogar in 1280*1024 4FSAA/8AF und alles auf HIGH.

Und das mit dem Flimmern in BF2 bei der 7800er kann ich auch nicht bestätigen.

BTW die 7800er hat deutlich mehr Rohpower als die 6800gt und ich denke nicht das NVidia bei Bf2 groß trickst.

Was das TR SSAA angeht bin ich hellauf begeistert. Alleine für das lohnt es sich die Karte zu kaufen. Alles wirkt noch feiner und schärfer.

GTR sieht einfach bombastisch aus damit, Hl2 ebenfalls.

So zufrieden war ich bei keiner bisherigen Graka :)

Dunkeltier
2005-07-03, 21:07:48
Also BF2 lief bei mir mit ner 6800GT eigentlich sehr sehr gut. Sogar in 1280*1024 4FSAA/8AF und alles auf HIGH.

Und das mit dem Flimmern in BF2 bei der 7800er kann ich auch nicht bestätigen.

BTW die 7800er hat deutlich mehr Rohpower als die 6800gt und ich denke nicht das NVidia bei Bf2 groß trickst.

Was das TR SSAA angeht bin ich hellauf begeistert. Alleine für das lohnt es sich die Karte zu kaufen. Alles wirkt noch feiner und schärfer.

GTR sieht einfach bombastisch aus damit, Hl2 ebenfalls.

So zufrieden war ich bei keiner bisherigen Graka :)

Bezogen auf die Rohleistung und den leisen Referenzlüfter gebe ich dir Recht, bei allen anderen ist die Geforce 7800 GTX einfach nur ein Stück Müll.

thade
2005-07-03, 21:12:36
Bezogen auf die Rohleistung und den leisen Referenzlüfter gebe ich dir Recht, bei allen anderen ist die Geforce 7800 GTX einfach nur ein Stück Müll.

ich habe keinerlei Probleme mit dem guten Stück. Im Gegenteil alles läuft super gut. Und mit Nvidia Treiber hatte ich eigentlich nie große Probleme.

Was da an ATI so viel besser sein soll :rolleyes: .

BTW hatte auch ne X800XT PE :)

Dunkeltier
2005-07-03, 21:14:39
ich habe keinerlei Probleme mit dem guten Stück. Im Gegenteil alles läuft super gut. Und mit Nvidia Treiber hatte ich eigentlich nie große Probleme.

Sicher, wenn man seine Augen vor allem verschließt. Ich sage nur Probleme in FarCry, Bf², der Overlay-Bug, der TAA-Performance Bug, etc.

Sicher, da ist nichts. Bilde ich mir mit meiner Geforce 7800 GTX alles nur ein.



Was da an ATI so viel besser sein soll :rolleyes: .

BTW hatte auch ne X800XT PE :)


Die Treiber! Das alte CP.

Gast
2005-07-03, 21:18:42
ich habe keinerlei Probleme mit dem guten Stück. Im Gegenteil alles läuft super gut. Und mit Nvidia Treiber hatte ich eigentlich nie große Probleme.

Was da an ATI so viel besser sein soll :rolleyes: .

BTW hatte auch ne X800XT PE :)
Die Treiber sind bei ATI besser und viel wichtiger, die Texturen flimmern nicht. Ein Freund hat seine 7800GTX gleich mal wieder am Freitag einpackt und zurückgeschickt, nachdem wir uns am Donnerstag Abend das Texturflimmern angucken mussten. Ich habe es ihm gleich gesagt. :D Da hilft auch das tollste Alphatest-AA nix, wenn dafür die Texturen flimmern wie sau.

Also lieber auf den R520 warten, denn der kann zwangsläufig nur erheblich besser werden.

thade
2005-07-03, 21:19:47
Sicher, wenn man seine Augen vor allem verschließt. Ich sage nur Probleme in FarCry, Bf², der Overlay-Bug, der TAA-Performance Bug, etc.

Sicher, da ist nichts. Bilde ich mir mit meiner Geforce 7800 GTX alles nur ein.




Die Treiber! Das alte CP.


von was bitte redest du???

Probleme in FarCry,Bf2 Transp. FSAA Peformance???

Kann ich überhaupt net bestätigen!!!

cR@b
2005-07-03, 21:23:07
Die Treiber sind bei ATI besser und viel wichtiger, die Texturen flimmern nicht. Ein Freund hat seine 7800GTX gleich mal wieder am Freitag einpackt und zurückgeschickt, nachdem wir uns am Donnerstag Abend das Texturflimmern angucken mussten. Ich habe es ihm gleich gesagt. :D Da hilft auch das tollste Alphatest-AA nix, wenn dafür die Texturen flimmern wie sau.

Also lieber auf den R520 warten, denn der kann zwangsläufig nur erheblich besser werden.

Das ist der einzigste Grund warum ich mir keine Karte von nVidia zukünftig antun werde, auch wenn ich dabei auf Digital Vibrance verzichten muss !

thade
2005-07-03, 21:26:27
Die Treiber sind bei ATI besser und viel wichtiger, die Texturen flimmern nicht. Ein Freund hat seine 7800GTX gleich mal wieder am Freitag einpackt und zurückgeschickt, nachdem wir uns am Donnerstag Abend das Texturflimmern angucken mussten. Ich habe es ihm gleich gesagt. :D Da hilft auch das tollste Alphatest-AA nix, wenn dafür die Texturen flimmern wie sau.

Also lieber auf den R520 warten, denn der kann zwangsläufig nur erheblich besser werden.


Und noch was. Bei dem R520 Hype wird Der ganz sicher ne Entäuschung.

Was erwartet ihr eigentlich von dem angeblichen Wunderchip???

Grestorn
2005-07-03, 21:27:41
Sicher, wenn man seine Augen vor allem verschließt. Ich sage nur Probleme in FarCry, Bf², der Overlay-Bug, der TAA-Performance Bug, etc.

Sicher, da ist nichts. Bilde ich mir mit meiner Geforce 7800 GTX alles nur ein.




Die Treiber! Das alte CP.
Wenn Du die 7800GTX so scheiße findest, schenkst Du sie mir? Oder verkaufst Du sie mir wenigstens günstig?

Das mit dem Flimmern ist ärgerlich. Es muss herausgefunden werden, woran es liegt und ob es behoben werden kann.

Egal ob mit oder ohne Flimmern - die 7800GTX ist eine exzellente Karte. Müll sieht anders aus.

(Ich hasse die allgemeinen Kurzurteile. Nur weil ich nicht Deiner Meinung bin, behaupte ich ja auch nicht, Du wärst ein Idiot)

aths
2005-07-03, 21:29:49
agressiveres LOD beim G70?

was passiert denn wenn man dieses leicht positiv einstellt, bekommt man dann anähernd identische bilder zum nv40?Ein negatives LOD-Bias wäre aus Performance-Sicht ungünstig. Unterfilterung kann mit einem positiven LOD-Bias nicht repariert werden, es flimmert weiter.

aths
2005-07-03, 21:31:29
Das mit dem Flimmern ist ärgerlich. Es muss herausgefunden werden, woran es liegt und ob es behoben werden kann.Es liegt daran, dass Nvidia darauf setzte dass bei den ersten Tests keiner richtig auf die Texturen guckt und man die Chance nutzen wollte, per Unterfilterung Bandbreite zu sparen um somit die Benchmark-Werte zu steigern.

Egal ob mit oder ohne Flimmern - die 7800GTX ist eine exzellente Karte. Müll sieht anders aus.Eine Karte die ständig flimmert – und bei der 7800 GTX ist das mit aktuellen Treibern der Fall, sofern die Texturen nicht stark geblurrt sind – halte ich für nicht exzellent, sondern für unbrauchbar.

Dunkeltier
2005-07-03, 21:47:00
von was bitte redest du???

Probleme in FarCry,Bf2 Transp. FSAA Peformance???

Kann ich überhaupt net bestätigen!!!

Nochmal:
- eine Geforce 7800 GTX hat in jeden Spiel Texturflimmern (überschärft) - es grieselt
- mit gammakorrigierten AA (nicht TAA, Schreibfehler meinerseits) gibt es in einigen Spielen herbe Performance-Einbrüche
- Bf² Schattenfehler
- FarCry Lichtfehler (mit Patch 1.32)
- Overlay-Bug, die Hz-Zahl und Auflösung verändert sich bei beenden eines Videos bei mir drastisch (den Fehler schleppt nVidia schon Jahre mit sich rum)
- etc.

Dunkeltier
2005-07-03, 21:48:10
Und noch was. Bei dem R520 Hype wird Der ganz sicher ne Entäuschung.

Was erwartet ihr eigentlich von dem angeblichen Wunderchip???

Anständige Treiber, evtl. verbessertes AA/AF.

Dunkeltier
2005-07-03, 21:49:29
(...)

Eine Karte die ständig flimmert – und bei der 7800 GTX ist das mit aktuellen Treibern der Fall, sofern die Texturen nicht stark geblurrt sind – halte ich für nicht exzellent, sondern für unbrauchbar.



:ulove3:


Wenigstens einer hat es erkannt.

arcon
2005-07-03, 21:53:28
das prob ist, dass nur wenige ne 7800 GTX bisher haben .... und daher nich mitreden können... warten wir einfach weitere Treiber releases ab und dann reden wir nochmals drüber.... bis dahin happy fragging :D

Dunkeltier
2005-07-03, 21:56:13
das prob ist, dass nur wenige ne 7800 GTX bisher haben .... und daher nich mitreden können... warten wir einfach weitere Treiber releases ab und dann reden wir nochmals drüber.... bis dahin happy fragging :D


Es haben schon einige aus diesem Forum hier eine entsprechene Karte, von daher halte ich deinen Einwand für sinnfrei.

(del676)
2005-07-03, 22:00:57
Nochmal:
- eine Geforce 7800 GTX hat in jeden Spiel Texturflimmern (überschärft) - es grieselt
bei mir nicht


- mit gammakorrigierten AA (nicht TAA, Schreibfehler meinerseits) gibt es in einigen Spielen herbe Performance-Einbrüche
danke für die absolut neue erkenntnis, ich meine das schon im 3dc review gelesen zu haben als "bekannter bug im treiber" (auf welchen nvidia hingewiesen hat)


- Bf² Schattenfehler

habe keine Schattenfehler in BF2, benutze den letzten offiziellen Treiber


- FarCry Lichtfehler (mit Patch 1.32)
ebenfalls nicht, weder mit HDR oder normal + AA, benutze den letzten offiziellen Treiber


- Overlay-Bug, die Hz-Zahl und Auflösung verändert sich bei beenden eines Videos bei mir drastisch (den Fehler schleppt nVidia schon Jahre mit sich rum)

habe ich noch nicht festgestellt, benutze den letzten offiziellen Treiber

- etc.
Beispiel?

Quasar
2005-07-03, 22:02:48
Es liegt daran, dass Nvidia darauf setzte dass bei den ersten Tests keiner richtig auf die Texturen guckt und man die Chance nutzen wollte, per Unterfilterung Bandbreite zu sparen um somit die Benchmark-Werte zu steigern.
Bandbreite dürfte kaum der ausschlaggebende Faktor gewesen sein.

Dunkeltier
2005-07-03, 22:06:48
bei mir nicht

(...)

Ab hier brauchen wir gar nicht mehr weiterdiskutieren, denn wer das offensichtliche Grieseln nicht sieht, scheint wohl auch sonst nicht viel zu merken. Erinnert mich ein wenig an die Leute, die sagen: "Mein TFT schliert doch gar nicht!" Oder noch besser, "Mein CRT schliert überhaupt nicht!" Ist halt alles eine Sache der korrekten Wahrnehmung. Was die Bugs angeht, der Bf² Bug mag zwar gefixt worden sein mit den letzten Treiber. Das ändert aber nichts an den anderen Fehlern. Im übrigen hast du wohl kaum eine aktuelle, aufgepatche FarCry Vision. Denn diesen Fehler haben eigenartigerweise auch Leute mit einer Geforce 6800 GT.

Demirug
2005-07-03, 22:15:25
Ab hier brauchen wir gar nicht mehr weiterdiskutieren, denn wer das offensichtliche Grieseln nicht sieht, scheint wohl auch sonst nicht viel zu merken. Erinnert mich ein wenig an die Leute, die sagen: "Mein TFT schliert doch gar nicht!" Oder noch besser, "Mein CRT schliert überhaupt nicht!" Ist halt alles eine Sache der korrekten Wahrnehmung.

Meine Hervorhebung.

Die gibt es leider nicht und das ist das große Problem wenn es darum geht zu definieren was richtig und was falsch ist. Wenn dem nämlich nicht so wäre hätten wir schon lange Testprogramme welche die Bildqualität einer Grafikkarte objektiv bewerten können.

Gerade das Thema flimmern ist sehr heikel. Da gilt etwas schon als flimmerfrei wenn 90% kein Flimmern wahrnehmen.

Grestorn
2005-07-03, 22:17:33
Nochmal:
- eine Geforce 7800 GTX hat in jeden Spiel Texturflimmern (überschärft) - es grieseltStimmt nicht. Kein Flimmern in KotoR2 & Psychonauts (spiel ich gerade)

- mit gammakorrigierten AA (nicht TAA, Schreibfehler meinerseits) gibt es in einigen Spielen herbe Performance-EinbrücheGenau, das wird immer so bleiben und dieser Bug ist so schwerwiegend, dass die Karte voll der Müll ist.
- Bf² SchattenfehlerSiehe vorangehender Punkt
- FarCry Lichtfehler (mit Patch 1.32)Siehe vorangehender Punkt
- Overlay-BugSiehe vorangehender Punkt

die Hz-Zahl und Auflösung verändert sich bei beenden eines Videos bei mir drastisch (den Fehler schleppt nVidia schon Jahre mit sich rum)- etc.Davon hab ich noch nie gehört. Was genau muss ich machen, damit das passiert? Bei mir hat sich weder die Hz-Zahl noch die Auflösung jemals geändert. Vielleicht liegt das Problem an der SW die Du zum Anzeigen von Videos nutzt?

thade
2005-07-03, 22:18:20
Ab hier brauchen wir gar nicht mehr weiterdiskutieren, denn wer das offensichtliche Grieseln nicht sieht, scheint wohl auch sonst nicht viel zu merken. Erinnert mich ein wenig an die Leute, die sagen: "Mein TFT schliert doch gar nicht!" Oder noch besser, "Mein CRT schliert überhaupt nicht!" Ist halt alles eine Sache der korrekten Wahrnehmung. Was die Bugs angeht, der Bf² Bug mag zwar gefixt worden sein mit den letzten Treiber. Das ändert aber nichts an den anderen Fehlern. Im übrigen hast du wohl kaum eine aktuelle, aufgepatche FarCry Vision. Denn diesen Fehler haben eigenartigerweise auch Leute mit einer Geforce 6800 GT.


also ich kann dich net vestehen. Auf was achtest du beim Spielen???

Ich hatte vor kurzem noch ne 6800gt drin und die "flimmert" genauso wie die 7800er.

Und ich hatte 5 Monate ne X800XT PE und konnte keine Unterschiede feststellen. Außer das mir das Bild der 6800er irgendwie farbenfroher vorkam :P . Vor allem bei CS:S

thade
2005-07-03, 22:20:42
Eine Karte die ständig flimmert – und bei der 7800 GTX ist das mit aktuellen Treibern der Fall, sofern die Texturen nicht stark geblurrt sind – halte ich für nicht exzellent, sondern für unbrauchbar.


Hast du die Karte zu Hause dass du das beurteilen kannst, oder hast du sie getestet??

Finde es schon traurig wie viele Leute den G70 einfach nur schlecht reden :mad:

Dabei hat Nvidia super Arbeit abgeliefert, das sollte ATI erstmal nachmachen :rolleyes:

arcon
2005-07-03, 22:25:05
man muß nicht verstehen, warum manche leutz hier ... unbedingt ihre meinung anderen aufdrängen müssen .... und das mit einer energie... wirklich beachtlich.... is scho amüsant

Dunkeltier
2005-07-03, 22:33:07
(...)

Gerade das Thema flimmern ist sehr heikel. Da gilt etwas schon als flimmerfrei wenn 90% kein Flimmern wahrnehmen.

Erinnert mich an ein "bißchen schwanger". Entweder es ist flimmerfrei, oder eben nicht. Leider ist ja letzteres der Fall.

Dunkeltier
2005-07-03, 22:35:54
Stimmt nicht. Kein Flimmern in KotoR2 & Psychonauts (spiel ich gerade)

Ich betone, entweder man nimmt es wahr, oder nicht. Wenn du das Grieseln vor deinen inneren Auge ausblendest, bitte. Sei dir überlassen.


Genau, das wird immer so bleiben und dieser Bug ist so schwerwiegend, dass die Karte voll der Müll ist.

Tolle Begründung.


Siehe vorangehender Punkt

Spam?


Siehe vorangehender Punkt

Spam?


Siehe vorangehender Punkt

Spam?


Davon hab ich noch nie gehört. Was genau muss ich machen, damit das passiert? Bei mir hat sich weder die Hz-Zahl noch die Auflösung jemals geändert. Vielleicht liegt das Problem an der SW die Du zum Anzeigen von Videos nutzt?


VideoLanClient starten, auf Vollbild vergrößern und dann beenden. Dann crasht es desöfteres. Kann ich gerne mal auf Video aufzeichnen mit meiner DigiCam.

Dunkeltier
2005-07-03, 22:36:27
also ich kann dich net vestehen. Auf was achtest du beim Spielen???

Ich hatte vor kurzem noch ne 6800gt drin und die "flimmert" genauso wie die 7800er.

Und ich hatte 5 Monate ne X800XT PE und konnte keine Unterschiede feststellen. Außer das mir das Bild der 6800er irgendwie farbenfroher vorkam :P . Vor allem bei CS:S

Wenigstens einer der das Flimmern sieht... :rolleyes:

Dunkeltier
2005-07-03, 22:37:06
Hast du die Karte zu Hause dass du das beurteilen kannst, oder hast du sie getestet??

Finde es schon traurig wie viele Leute den G70 einfach nur schlecht reden :mad:

Dabei hat Nvidia super Arbeit abgeliefert, das sollte ATI erstmal nachmachen :rolleyes:


Braucht er gar nicht. Was einmal flimmert, flimmert immer. Punkt. Im übrigen rede ich nicht den G70, sondern die Treiber schlecht. Welche einfach nur kaputtoptimiert sind.

(del676)
2005-07-03, 22:39:16
Erinnert mich an ein "bißchen schwanger". Entweder es ist flimmerfrei, oder eben nicht. Leider ist ja letzteres der Fall.

BF2 ist bei mir flimmerfrei, wenn du es nicht schaffst die Treiberoptionen richtig einzustellen dann ist das ein Userfehler

eventuell solltest du dir hilfe von einem fachmann holen, am besten du packst deinen pc zusammen und gehst in den nächsten pc laden deines vertrauens, ich bin mir sicher die können dir dabei helfen.

Grestorn
2005-07-03, 22:40:42
Ich betone, entweder man nimmt es wahr, oder nicht. Wenn du das Grieseln vor deinen inneren Auge ausblendest, bitte. Sei dir überlassen.Darf ich Dich daran erinnern, dass ich das Flimmern in BF2 bestätigt habe?

Hast Du Dir alle Spiele angesehen?

Tolle Begründung.Gell? Finde ich auch. Hast Du ein Argument dagegen?

Ein Bug macht eine Karte nicht zu "Müll".

VideoLanClient starten, auf Vollbild vergrößern und dann beenden. Dann crasht es desöfteres. Kann ich gerne mal auf Video aufzeichnen mit meiner DigiCam.
Schon mal auf die Idee gekommen, dass das an diesem VideoLanClient liegt?

Ich hatte wie gesagt noch nie einen Crash beim Video gucken (mit MediaPlayerClassic).

thade
2005-07-03, 22:41:01
Braucht er gar nicht. Was einmal flimmert, flimmert immer. Punkt. Im übrigen rede ich nicht den G70, sondern die Treiber schlecht. Welche einfach nur kaputtoptimiert sind.

Also ist es nicht ATI, die bei ihrer X800 eine Optimierung eingebaut haben, die man nur über die Registry abschalten konnte :tongue:

Demirug
2005-07-03, 22:45:10
Erinnert mich an ein "bißchen schwanger". Entweder es ist flimmerfrei, oder eben nicht. Leider ist ja letzteres der Fall.

Du hast mich nicht verstanden. Flimmern ist kein objektiv erfassbarer Zustand. Ob etwas flimmert oder nicht kann jeder nur für sich selbst bestimmen. Im Allgemeinen spricht man davon das etwas flimmerfrei ist wenn 90% der Testpersonen kein flimmern erkennen können. Die anderen 10% sind dann natürlich gekniffen.

Die Sensibilität für das Wahrnehmen von flimmern kann sich zudem auch noch verändern. So empfinden viele die jahrelang 60 Hz Fernsehen hatten das 50 Hz Pal als unerträglich. Dagegen beschwert sich kaum jemand der nur das 50 Hz Pal kennt darüber.

Oder das Kantenflimmern ist auch so eine Sache. Jemand der jahrelang ohne AA gespielt hat und an das Kantenflimmern gewöhnt ist kann zu dem Urteil kommen das AA die Kanten unscharf macht und er es deswegen nicht habe will.

Die Wahrnehmung ist und bleibt subjektiv.

Quasar
2005-07-03, 22:46:16
Erinnert mich an ein "bißchen schwanger". Entweder es ist flimmerfrei, oder eben nicht. Leider ist ja letzteres der Fall.
Kannst du zuverlässig "shaderflimmern" von Polygonflimmern, von Kantenflimmern, von Texturflimmern A, von Texturfilmmern B unterscheiden?

Texturflimmern A Texturen flimmern, weil an den Filtern herumgemurkst wurden, Texturflimmern B Texturen flimmern, weil die Content-Designer unachtsam waren oder gar absichtlich flimmern gegen Schärfeeindruck getauscht haben?

Dunkeltier
2005-07-03, 22:47:25
Also ist es nicht ATI, die bei ihrer X800 eine Optimierung eingebaut haben, die man nur über die Registry abschalten konnte :tongue:


:conf2: Bei Ati flimmert und grieselt wenigstens nichts. Bei nVidia flimmerts ja auch wenn man auf HQ+ geht. Wobei flimmern und grieseln zwei paar Schuhe sind. Und von welcher Optimierung genau möchtest du sprechen? AI? Das kann man über den Treiber ausschalten.

Dunkeltier
2005-07-03, 22:53:28
Kannst du zuverlässig "shaderflimmern" von Polygonflimmern, von Kantenflimmern, von Texturflimmern A, von Texturfilmmern B unterscheiden?

Texturflimmern A Texturen flimmern, weil an den Filtern herumgemurkst wurden, Texturflimmern B Texturen flimmern, weil die Content-Designer unachtsam waren oder gar absichtlich flimmern gegen Schärfeeindruck getauscht haben?

Momentan kenne ich nur folgendes:
1) Polygonkantenflimmern A - in manchen Spielen an der Kante zu sehen (weiße Punkte) (ATI)
2) Polgonkantenfehler B - manche Polygonkaten passen nicht 100%-ig und ein schwarzer Strich ist sichtbar (nVidia)
3) Shaderfehler - weiße Punkte inmitten auf geshaderten Zeugs, zum Bleistift im 3D Mark 2005 (sowohl mit ATI als auch nVidia zu sehen)
4) Texturflimmern A - aufgrund kritischer Muster bzw. scheiß Content (ATI & nVidia)
5) Texturflimmern B (grieseln) - völlig überzogen scharfe Texturen, die in Bewegung (!) einfach nur...komisch wirken (nVidia)

Das sind so die Sachen, dir mir ins Auge fallen. Insbesondere Punkt 5 stört mich, und das ist garantiert nicht das Contentflimmern. Ist halt schwierig zu beschreiben, man muß es einfach sehen (können & wollen).

Quasar
2005-07-03, 23:17:32
Tjo, und diese Dinge gibts eben, je nach Anwendung, auch noch woanders zu sehen, als bei den von dir beschrieben Herstellern. :)

Dunkeltier
2005-07-03, 23:19:03
Tjo, und diese Dinge gibts eben, je nach Anwendung, auch noch woanders zu sehen, als bei den von dir beschrieben Herstellern. :)


Könntest du ein wenig genauer werden? Ich mag keine Andeutungen, die ich nicht verstehe.

Quasar
2005-07-03, 23:19:48
Das war keine Andeutung.

aths
2005-07-03, 23:27:37
Hast du die Karte zu Hause dass du das beurteilen kannst, oder hast du sie getestet??

Finde es schon traurig wie viele Leute den G70 einfach nur schlecht reden :mad:

Dabei hat Nvidia super Arbeit abgeliefert, das sollte ATI erstmal nachmachen :rolleyes:Bei dem AF und dem Treiber, der die Texturen auf "flimmrig" stellt, möchte ich nicht von "super Arbeit" sprechen. Meine FX 5900 XT liefert bessere Texturen. Selbst eine GeForce3 liefert bessere Texturen.

aths
2005-07-03, 23:29:27
BF2 ist bei mir flimmerfrei, wenn du es nicht schaffst die Treiberoptionen richtig einzustellen dann ist das ein UserfehlerIch halte es für sogut wie sicher, dass die 7800 GTX beim aktuellen Treiber auch im HQ-Modus unterfiltert. Weniger stark als mit Q (wobei Q geringfügig stärker flimmert als Q auf einem NV40) aber selbst im OpenGL-Filtertester von Xmas wird auf einer 7800 GTX bei aktiviertem unterfiltert, auch im HQ-Modus.

Dafür spricht:

- Damien Triolet hat es untersucht.

- Ich habe G70-Bildmaterial untersucht und mit eigenen Screenshots (NV43) vergleichen. Bislang allerdings nur flüchtig, etwa Mitte kommender Woche werde ich das genauer unter die Lupe nehmen.

- Leonidas hat festgestellt, dass beim AF ein guter Teil des Zuwachses nicht durch die erhöhte Texel-Leistung kommt. Zaubern kann auch Nvidia nicht, er schreibt diplomatisch "die andere Hälfte kommt aus internen Veränderungen".

aths
2005-07-03, 23:31:23
Bandbreite dürfte kaum der ausschlaggebende Faktor gewesen sein.Bei 32-Bit-Texturen schon.

Gast
2005-07-03, 23:34:50
Bei dem AF und dem Treiber, der die Texturen auf "flimmrig" möchte ich nicht von "super Arbeit" sprechen. Meine FX 5900 XT liefert bessere Texturen. Selbst eine GeForce3 liefert bessere Texturen.

Erwartest du, dass ATI mit dem R520 irgendwas texturmässig verbessert? Beide haben sich auf schlechtere BQ, als mit der vorhandenen Leistung möglich wäre, eingeschossen. Es würde mich überraschen, wenn Transistoren Sparmeister ATI für bessere BQ dieselbigen 'verschwenden' würde. Bei Nvidia sehe ich da grössere Chancen, wenn auch frühestens, und das gilt in dem Fall für beide, mit WGF2.0. Das gleiche gilt auch für das AF obwohl da vielleicht bei Nvidia etwas über den Treiber gehen könnte.

aths
2005-07-03, 23:43:38
Erwartest du, dass ATI mit dem R520 irgendwas texturmässig verbessert?Die Hoffnung stirbt zuletzt.
Beide haben sich auf schlechtere BQ, als mit der vorhandenen Leistung möglich wäre, eingeschossen. Es würde mich überraschen, wenn Transistoren Sparmeister ATI für bessere BQ dieselbigen 'verschwenden' würde. Bei Nvidia sehe ich da grössere Chancen, wenn auch frühestens, und das gilt in dem Fall für beide, mit WGF2.0. Das gleiche gilt auch für das AF obwohl da vielleicht bei Nvidia etwas über den Treiber gehen könnte.Ich hoffe dass sich die Vernunft am Ende durchsetzt. Erst kein vollständiges AF applizieren, dann trilinear verweigern, dann unterfiltern – etwa 2007 hätten wir dann die Texturqualität einer PSOne erreicht.

Man muss ATI zugute halten, obwohl sie echtes trilinear verweigern wie sie auch stellenweise unter- oder überfiltern: Im Gegensatz zu den Nvidia-"Optimierungen" fällt es bei ATI nur auf, wenn man es untersucht. Bei Nvidia fällts sofort ins Auge.

Quasar
2005-07-03, 23:47:33
Bei 32-Bit-Texturen schon.
Aber sicherlich nicht bei massivem AF-Einsatz und woanders kommt diese Unterfilterung doch nicht zum Einsatz, oder?

aths
2005-07-03, 23:52:32
Aber sicherlich nicht bei massivem AF-Einsatz und woanders kommt diese Unterfilterung doch nicht zum Einsatz, oder?Warum nicht Bandbreite sparen bei massivem AF-Einsatz? (Die Unterfilterung findet meines Wissens nur bei aktiviertem AF statt, ja.)

Coda
2005-07-03, 23:59:23
Gut dass sich das rausstellt. Ich wollte schon eine 7800 kaufen, aber das werde ich mir jetzt sicher nicht antun.

Bei NV40 ist es erst mit 77.72 möglich UT2004 flimmerfrei zu spielen - komischerweiße gerade beim G70 Launch. Wahrscheinlich wollte man die Balken der alten Generation drücken.

Quasar
2005-07-04, 00:04:40
Warum nicht Bandbreite sparen bei massivem AF-Einsatz? (Die Unterfilterung findet meines Wissens nur bei aktiviertem AF statt, ja.)
Verstehe mich nicht falsch - Bandbreite sparen ist immer gut, aber IMO in diesem Falle nicht der Hauptgrund für das Einsparen von Samples.

Vielmehr soll vermieden werden, daß die Pipelines blockieren, während Texturen gesampled werden.

aths
2005-07-04, 00:26:02
Gut dass sich das rausstellt. Ich wollte schon eine 7800 kaufen, aber das werde ich mir jetzt sicher nicht antun.

Bei NV40 ist es erst mit 77.72 möglich UT2004 flimmerfrei zu spielen - komischerweiße gerade beim G70 Launch. Wahrscheinlich wollte man die Balken der alten Generation drücken.Das ist ein altbekanntes Muster, und dass es so ähnlich kommen würde, hatte ich schon befürchtet.

aths
2005-07-04, 00:26:45
Verstehe mich nicht falsch - Bandbreite sparen ist immer gut, aber IMO in diesem Falle nicht der Hauptgrund für das Einsparen von Samples.

Vielmehr soll vermieden werden, daß die Pipelines blockieren, während Texturen gesampled werden.Dann muss man eben einen geringeren AF-Maximalgrad wählen. Unterfilterung ist keine akzeptable Lösung.

Quasar
2005-07-04, 00:28:04
Dann muss man eben einen geringeren AF-Maximalgrad wählen. Unterfilterung ist keine akzeptable Lösung.
Ich glaube, du hast nicht verstanden, was ich sagte.

"soll vermieden werden..." = Hauptgrund für die Unterfilterung. Nicht Bandbreite sparen.


Daß ich das nur wenig begeisternd finde, dürfte klar sein.

aths
2005-07-04, 00:28:51
Bei 32-Bit-Texturen sehe ich Bandbreite als Flaschenhals, lange vor der theoretischen Texelfüllrate.

Wenn du das Gefühl hast, dass der andere nicht in der Lage ist, dich zu verstehen, könnte eine verständlichere Formulierung hilfreich sein.

Quasar
2005-07-04, 00:30:02
Bei 32-Bit-Texturen sehe ich Bandbreite als Flaschenhals, lange vor der theoretischen Texelfüllrate.
Welcher populäre Benchmark und damit welche Balkenlänge wird denn noch mit unkomprimierten 32Bit-Texturen erzeugt?

Es geht, btw, auch nicht um Texelfill, sondern um Staus in den Pipes.

aths
2005-07-04, 00:30:44
Welcher populäre Benchmark und damit welche Balkenlänge wird denn noch mit unkomprimierten 32Bit-Texturen erzeugt?Das weiß ich nicht. Viele Spiele nutzen es noch.

Es geht, btw, auch nicht um Texelfill, sondern um Staus in den Pipes.Wenn der Shader auf die TMU warten muss, heißt da ja im Prinzip Texelfüllraten-Limitierung. Und die sehe als weniger schlimm als die Bandbreiten-Limitierung bei 32-Bit-Texturen.

Quasar
2005-07-04, 00:33:08
Das weiß ich nicht. Viele Spiele nutzen es noch.
Du weißt so gut wie ich, daß Spiele das sind, was hinter den Top 10-Benchmarks und deren Balkenlänge an letzter Stelle kommt, was Prioritäten bei der Treiberentwicklung angeht.

Unkomprimierte 32Bit-Texturen dürften heute eher die Ausnahme darstellen, IMO.

aths
2005-07-04, 00:35:23
Du weißt so gut wie ich, daß Spiele das sind, was hinter den Top 10-Benchmarks und deren Balkenlänge an letzter Stelle kommt, was Prioritäten bei der Treiberentwicklung angeht.

Unkomprimierte 32Bit-Texturen dürften heute eher die Ausnahme darstellen, IMO.Offensichtlich weiß ich nicht so gut wie du, dass beinahe alle relevanten Spiele auf DXT1 oder DXT5 setzen sollen.

Gibt es auch komprimierte 32-Bit-Texturen?

Quasar
2005-07-04, 00:41:09
Offensichtlich weiß ich nicht so gut wie du, dass beinahe alle relevanten Spiele auf DXT1 oder DXT5 setzen sollen.

Gibt es auch komprimierte 32-Bit-Texturen?
Ja, 32-Bit Texturen, die mit DXT komprimiert wurden und m.E. den Standard verwendeter Texturen in aktuellen Games darstellen.

Aber egal - ich will dir ja nichts aufschwatzen.

aths
2005-07-04, 07:46:28
Ja, 32-Bit Texturen, die mit DXT komprimiert wurden und m.E. den Standard verwendeter Texturen in aktuellen Games darstellen.

Aber egal - ich will dir ja nichts aufschwatzen.Das sind für mich komprimierte Texturen, je man dem mit 4 oder 8 bpt. In einem Artikel der kürzlich erschien legte ich dar, warum ich DXT1 als komprimierte 16-Bit-Textur und nicht komprimierte 32-Bit-Textur sehe, obwohl das Ausgangsmaterial wahrscheinlich als 32-Bit-Textur vorliegt. Dass DXT schon überall dort, wo es sinnvoll ist, angewendet würde, wäre neu für mich.

Coda
2005-07-04, 15:56:39
Also die allermeisten modernen Spiele benützen wirklich Texturkompression. Es fällt halt nicht auf.

reunion
2005-07-05, 15:01:57
http://www.vr-zone.com/?i=2403&s=1

Godmode
2005-07-05, 15:05:14
Super, 100$ billiger! Wenn sich die gut OCen lässt werd ich mir das Teil wohl holen.

mapel110
2005-07-05, 15:08:12
http://www.vr-zone.com/?i=2403&s=1
100 Mhz weniger Coretakt bei der GT :O
Das glaube ich nicht. Das wären satte 20 % weniger Füllrate. Da hätte ja die GTX das bessere Preisleistungsverhältnis. :|

Hakim
2005-07-05, 15:11:16
Bei Hartware.de (http://www.hartware.de/news_38127.html) wird berichtet das die GF 7800 Gt nächste woche vorgestellt wird. Unterschied soll nur an der niedrigeren Mhz zu GTX liegen, 335/550 MHz statt 430/600 Mhz. Und Preis soll 100€ weniger sein. Na dann, mal sehen ob die 6800 PCIe karten dann auch günstiger werden

MadManniMan
2005-07-05, 15:33:54
Mir will nicht in den Kopf, warum bei den GTs 2.0er Ram verbaut werden soll, wenn sie mit 550 MHz takten... :|

Gast
2005-07-05, 15:37:50
Das glaube ich nicht. Das wären satte 20 % weniger Füllrate.

muss ja fast sein, sonst wäre der unterschied zur eigenen konkurrenz zu gering, und nachdem ati in dem sektor nichts neues zu bieten hat, hat nvidia auch keinen grund den core höher zu takten und damit den eigenen yield zu verringern.

dildo4u
2005-07-05, 15:39:12
100 Mhz weniger Coretakt bei der GT :O
Das glaube ich nicht. Das wären satte 20 % weniger Füllrate. Da hätte ja die GTX das bessere Preisleistungsverhältnis. :|
Hmm vieleicht wirkt sich das nicht so stark aus der Speichertakt ist ja Kaum niedriger.Wär nett wenn ein paar GTX user mal mit diesem Takt testen könnten.

reunion
2005-07-05, 15:41:27
muss ja fast sein, sonst wäre der unterschied zur eigenen konkurrenz zu gering, und nachdem ati in dem sektor nichts neues zu bieten hat, hat nvidia auch keinen grund den core höher zu takten und damit den eigenen yield zu verringern.


ACK, das ist eben der Nachteil, wenn es keine Konkurrenz gibt.
Auch der Verkaufspreis von 499$ ist ja nicht gerde verlockend.

Was mit etwas seltsam erscheint, sind die angegebenen 2ns Speicher, wie will man denn damit 1.1Ghz erreichen?

dildo4u
2005-07-05, 15:43:32
ACK, das ist eben der Nachteil, wenn es keine Konkurrenz gibt.
Wenn die meisten GTX schon locker 500mhz core schaffen werden whol 400-450mhz bei der GT kein Problem sein.

reunion
2005-07-05, 15:46:23
Wenn die meisten GTX schon locker 500mhz core schaffen werden whol 400-450mhz bei der GT kein Problem sein.

Wenn man Glück hat, vielleicht - und dennoch fehlt jegliche Garantie dazu.
Und jede Karte erreicht diesen Wert sicherlich nicht, sonst würde man die Taktrate höher ansetzen.

deekey777
2005-07-05, 15:55:08
nVidia kann sich zZ und auch in den nächsten Monaten jeden Preis verlangen - nur der Preiskampf zw. den einzelnen Herstellern kann den Prei vielleicht nach unten drücken.

Hakim
2005-07-05, 16:34:53
Gelten die Angaben über die Taktraten als 100% sicher? wenn ja kann doch einer vom den Glücklichen besitzern der GTX version mal einen Vergleichsbench machen? Ich denk die 7800nU wird sicher ähnliche Taktraten wie die GT haben aber halt nur mit 16 pipes.

q@w
2005-07-05, 16:39:45
Auch mit 20% weniger Füllrate sollte die 7800 GT noch ein ordentliches Geschoss sein.
Vermutlich hat man anhand der 6800GT/6800u gesehen, daß das zweitgrößte Modell dem größten sehr viele Käufer wegkanibalisierte. Nur wenige GTs haben den Ultra-Takt nicht geschafft. Diese Schere wird jetzt einfach weiter geöffnet.

Außerdem wird damit das PCIe-Speed-Binning obsolet, denn damit gibt es keinen Grund mehr für eine PCIe-Ultra und man kann die GTs wieder ein kleines Stückchen günstiger machen.

MadManniMan
2005-07-05, 16:53:29
Auch mit 20% weniger Füllrate sollte die 7800 GT noch ein ordentliches Geschoss sein.
Vermutlich hat man anhand der 6800GT/6800u gesehen, daß das zweitgrößte Modell dem größten sehr viele Käufer wegkanibalisierte. Nur wenige GTs haben den Ultra-Takt nicht geschafft. Diese Schere wird jetzt einfach weiter geöffnet.

Außerdem wird damit das PCIe-Speed-Binning obsolet, denn damit gibt es keinen Grund mehr für eine PCIe-Ultra und man kann die GTs wieder ein kleines Stückchen günstiger machen.

Q, ich freue mich ja immer über deine Posts, aber was zum Henker heißt der zweite Absatz auf deutsch?

Gast
2005-07-05, 17:52:37
ACK, das ist eben der Nachteil, wenn es keine Konkurrenz gibt.


richtig, wenn es konkurrenz gibt wird dafür jeder treiber kaputtoptimiert um das letzte quäntchen leistung rauszuholen, man kann es halt nie allen rechtmachen ;)

LovesuckZ
2005-07-05, 18:29:30
100 Mhz weniger Coretakt bei der GT :O
Das glaube ich nicht. Das wären satte 20 % weniger Füllrate. Da hätte ja die GTX das bessere Preisleistungsverhältnis. :|

Die 5800U hatte gegenüber der 5800 einen 25% höheren Coretakt.
Bei der X800XTPE sah es noch dramatischer aus.
Diese Vorgehen ist also nicht unüblich.
Man sollte die Sache aber gelassen sehen.: Für ca. 399€ wird man keine schlechte Karte erhalten. Und leistungstechnisch wird sie wohl auf X800XTPE Niveau sein und das mit dem deutlich besseren featureset.

mapel110
2005-07-05, 18:32:14
Die 5800U hatte gegenüber der 5800 einen 25% höheren Coretakt.
Bei der X800XTPE sah es noch dramatischer aus.
Diese Vorgehen ist also nicht unüblich.
Man sollte die Sache aber gelassen sehen.: Für ca. 399€ wird man keine schlechte Karte erhalten. Und leistungstechnisch wird sie wohl auf X800XTPE Niveau sein und das mit dem deutlich besseren featureset.
Du meinst 499$. Schlecht nicht, aber bei dem Preisverhältnis würde ich eher zur GTX raten.

LovesuckZ
2005-07-05, 18:40:42
Du meinst 499$. Schlecht nicht, aber bei dem Preisverhältnis würde ich eher zur GTX raten.

Oh,
verlesen.

/edit: Lag der Preis der GTX bei 599$?

VooDoo7mx
2005-07-05, 18:50:36
Das würde bei einer 7800GT also immer noch 420-450€ bedeuten.
Das würde die Lücke zwischen der doch recht großen Kluft PCIe 6800GT/U schließen.

Allerdings braucht man für 550MHz Speichertakt 1,8NS RAM.

Mich würde auch interessieren, ob die 7800GT ein anderes Layout haben wird.

Dunkeltier
2005-07-05, 18:56:16
Das würde bei einer 7800GT also immer noch 420-450€ bedeuten.
Das würde die Lücke zwischen der doch recht großen Kluft PCIe 6800GT/U schließen.

Allerdings braucht man für 550MHz Speichertakt 1,8NS RAM.

Mich würde auch interessieren, ob die 7800GT ein anderes Layout haben wird.

450 Euro? Die Geforce 7800 GTX gibt es mittlerweile schon ab 510 Euro, da lohnt die Geforce 7800 GT nicht.

Quasar
2005-07-05, 18:58:25
Q, ich freue mich ja immer über deine Posts, aber was zum Henker heißt der zweite Absatz auf deutsch?
Der bezog sich noch auf den Teil mit der 6800-Reihe.
Speed-Binning nennt man die Selektierung nach Taktfrequenz. Wie jeder Schritt in der Produktion kostet er Geld, fällt er weg, wächst die Marge oder man kann weiter runter mit dem Preis.
Wenn jetzt eine 7800GT mit ~335MHz rauskommt, ist die 6800u für PCIe irgendwie überflüssig - die kann man nicht soviel billiger machen, daß sie sich ggü. einer 7800 GT noch lohnen würde (und nicht gleichzeitig den kompletten Markt "darunter" kannibalisiert).
Also läßt man dieses Modell auslaufen und verkauft fürderhin nur noch die 6800 GT als neue Mitte. Hier muss man preislich arbeiten, um mit der X800 XL mithalten zu können - da freut sich der Hersteller über jeden Cent den er in der Produktion sparen kann, also auch das Speed-Binning.

Jetzt klarer?

VooDoo7mx
2005-07-05, 19:01:59
450 Euro? Die Geforce 7800 GTX gibt es mittlerweile schon ab 510 Euro, da lohnt die Geforce 7800 GT nicht.

Dann rechne eben von diesen 510€ die 100€ runter.

Wo ich letzte mal nach 7800GTX Karten geschaut habe, haben die 520-550€ gekostet. Davon habe ich mir oben den fiktiven 7800GT Preis errechnet.

@Q

Die 6800U auf PCIe fällt sowieo weg. Jetzt werden nur Restbestände verkauft.
NV lässt sowieo nichts mehr bei IBM herstellen.

Der NV48 ist jetzt der 110nm tsmc 16Piper. Dieser Chip düfte viel billiger als der Nv40 + HSI(=NV45) sein.

MadManniMan
2005-07-05, 19:07:45
Danke Q, der Begriff war mir nicht geläufig!

Wenn die 7800 GT die 6800 Ultra aber verdrängen sollte, besteht immernoch ein riesiges Preisloch: die 68GT gibts für 230,-, die 78GT für 430,- ?

IMHO zuviel.

Gast
2005-07-05, 19:10:04
Wichtige Frage zur 7800GTX ----> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=233510

Quasar
2005-07-05, 19:10:17
Eigentlich ja, aber gibt's denn nicht nur die AGP-Versionen so derbe günstig?

Vor allem wundert mich, daß sie anscheinend nur mit dem Takt runtergehen - das würde ja bedeuten, sie hätten verdächtig wenige Dies, die Defekte aufweisen. :|

zeckensack im Exil
2005-07-05, 19:10:45
Der bezog sich noch auf den Teil mit der 6800-Reihe.
Speed-Binning nennt man die Selektierung nach Taktfrequenz. Wie jeder Schritt in der Produktion kostet er Geld, fällt er weg, wächst die Marge oder man kann weiter runter mit dem Preis.
Wenn jetzt eine 7800GT mit ~335MHz rauskommt, ist die 6800u für PCIe irgendwie überflüssig - die kann man nicht soviel billiger machen, daß sie sich ggü. einer 7800 GT noch lohnen würde (und nicht gleichzeitig den kompletten Markt "darunter" kannibalisiert).
Also läßt man dieses Modell auslaufen und verkauft fürderhin nur noch die 6800 GT als neue Mitte. Hier muss man preislich arbeiten, um mit der X800 XL mithalten zu können - da freut sich der Hersteller über jeden Cent den er in der Produktion sparen kann, also auch das Speed-Binning.Ich halte es für wahrscheinlicher, dass die 6800GT einfach ausläuft, bzw schon nicht mehr produziert wird. Der Preisdruck bei diesen Karten ist im Moment schon extrem. Das riecht verdächtig nach totalem Abverkauf.
(die Produktion von nativen 3-Quaddern, ergo 6800 vanilla, könnte noch profitabel sein)

Fürderdings, irgendeinen Funktionstest muss man trotzdem machen. Ich schätze mal, dass das Binning an sich kein separater Arbeitsschritt ist, sondern mit dem Funktionstest in einem Aufwisch erledigt wird. Selbst wenn nicht, ich meine mal bei Heise gelesen zu haben dass das Binning von CPUs nur wenige Sekunden dauert. Wenn es erlaubt ist, diese (möglicherweise falsche) Erinnerung auf Grafikchips zu übertragen, dann möchte ich fast meinen dass die Kosten zum Umbau des Produktionsablaufs die mögliche Erspärnis überschreiten. Täten. Oder so.

dildo4u
2005-07-05, 19:10:58
Danke Q, der Begriff war mir nicht geläufig!

Wenn die 7800 GT die 6800 Ultra aber verdrängen sollte, besteht immernoch ein riesiges Preisloch: die 68GT gibts für 230,-, die 78GT für 430,- ?

IMHO zuviel.
Kannste nicht vergleichen guck mal was eine PCI-E 6800GT Kostet dann haut das wieder hin.

mapel110
2005-07-05, 19:11:36
Danke Q, der Begriff war mir nicht geläufig!

Wenn die 7800 GT die 6800 Ultra aber verdrängen sollte, besteht immernoch ein riesiges Preisloch: die 68GT gibts für 230,-, die 78GT für 430,- ?

IMHO zuviel.
Die 6800 GT AGP gibts für 230 €, die 6800 GT PCIe gibts für 350 €.

mapel110
2005-07-05, 19:15:05
Eigentlich ja, aber gibt's denn nicht nur die AGP-Versionen so derbe günstig?

Vor allem wundert mich, daß sie anscheinend nur mit dem Takt runtergehen - das würde ja bedeuten, sie hätten verdächtig wenige Dies, die Defekte aufweisen. :|
Die Defekten werden sicher auch noch kommen.
335 Mhz deutet auch darauf hin, dass Viele keinen wirklich hohen Takt mitmachen. Sonst hätte man die Latte auch höher setzen können.

Gast
2005-07-05, 19:16:48
übertreib mal net, die gibbet auch für 320€
ich denke die wird in laufe dernöchsten wochen auf 250-280€ sinken die 6800U dann auf 320€
so dass die auch net verdrängt wird von der 7800GT
diese ist auch deutlich schneller von da aus wird sie die Ultra vorerst nicht verdrängen
kommen natürlich weitere 7800 modelle, dann wird dies passieren, oder wenn nach einem halben jahr die 7800gt nur noch 350€ kostet

(del676)
2005-07-05, 19:17:02
Die Defekten werden sicher auch noch kommen.
335 Mhz deutet auch darauf hin, dass Viele keinen wirklich hohen Takt mitmachen. Sonst hätte man die Latte auch höher setzen können.

sowas dachte ich mir auch, die haben schon länger produziert, und eben schön alles aussortiert

Gast
2005-07-05, 19:18:20
ich denke auch das ne 16pipe(oder odhc 20) kommen wird
alleine schon um die defekten zu verwerten
wenn die dann mit 350 mhz taktet, ist sie ca. so schnell wie ne 6800U
spätestens dann wird diese vom markt verdrängt

Quasar
2005-07-05, 19:18:28
Ich halte es für wahrscheinlicher, dass die 6800GT einfach ausläuft, bzw schon nicht mehr produziert wird. Der Preisdruck bei diesen Karten ist im Moment schon extrem. Das riecht verdächtig nach totalem Abverkauf.
(die Produktion von nativen 3-Quaddern, ergo 6800 vanilla, könnte noch profitabel sein)
Klingt nachvollziehbar, aber damit gäbe man das Mittelfeld quasi kampflos preis. Und Ultras haben noch weniger Möglichkeiten, nach unten zu gehen (und die Chips, die keine 400 schaffen, liegen auf Halde oder müssen an einen OEM verschleudert werden), da man hier ein aufwendigeres Board, mehr Spannungsdinger und den teureren 1,6ns-RAM (in Ermangelung von 1,8ns) braucht.
Und die 6800-Vanilla ist zu schwach, um gegen X800 und X800Pro/XL zu bestehen.

Fürderdings, irgendeinen Funktionstest muss man trotzdem machen. Ich schätze mal, dass das Binning an sich kein separater Arbeitsschritt ist, sondern mit dem Funktionstest in einem Aufwisch erledigt wird. Selbst wenn nicht, ich meine mal bei Heise gelesen zu haben dass das Binning von CPUs nur wenige Sekunden dauert. Wenn es erlaubt ist, diese (möglicherweise falsche) Erinnerung auf Grafikchips zu übertragen, dann möchte ich fast meinen dass die Kosten zum Umbau des Produktionsablaufs die mögliche Erspärnis überschreiten. Täten. Oder so.
Das wäre in der Tat denkbar. Allerdings meine ich wiederum, mal gelesen zu haben, daß das Speed-Binning nicht so easy ist, wie ein reiner Funktionstest. Könnte aber auch reine Profilierung von Leuten gewesen sein, die "selektierte Chips" auf ihren tollen, bunt-leuchtenden Grafikkarten anbieten.

MadManniMan
2005-07-05, 19:22:14
Wuss? 230,- zu 320,- bei AGP gegenüber PCIe? DAS finde ich noch viel lustiger, als den überzogenen Preis für die 78GT ;)

Quasar
2005-07-05, 19:23:37
Die Defekten werden sicher auch noch kommen.
335 Mhz deutet auch darauf hin, dass Viele keinen wirklich hohen Takt mitmachen. Sonst hätte man die Latte auch höher setzen können.
24*335 = 8040
16*X= 8040

Grafikkarte mit 16 Pipes und X-Takt? ;)
Klartext: Das wäre genau die Füllrate der X800XT.
edit: Cool, man kann Smileys ja auch durchstreichen *gg*

Daß es solche Riesenunterschiede gibt, daß (womöglich) selektierte Review-Karten locker die 500 MHz (OC) mitmachen, andere aber nur 335 MHz, glaube ich ehrlich gesagt nicht.
Dagegen sprechen eigentlich alle größeren Chips, die in den letzten Jahren rausgekommen sind - zwischen GT und Ultra lagen 50MHz, zur LE nochmal 50 MHz, zwischen X800 XTPE und SE lagen IIRC nur knapp 120MHz usw.
Einziges Gegenbeispiel sind AFAIK die kleineren Ableger, die man für möglichst billig verkaufen will (X700, GF6600).

Quasar
2005-07-05, 19:24:07
Wuss? 230,- zu 320,- bei AGP gegenüber PCIe? DAS finde ich noch viel lustiger, als den überzogenen Preis für die 78GT ;)
Bei PCIe haste noch die Option auf SLI - das mag den Preis evtl. hochhalten.

reunion
2005-07-05, 20:38:20
http://www.xbitlabs.com/news/video/display/20050705093528.html

reunion
2005-07-05, 20:41:34
Keine Ahnung, ob das schon bekannt ist:

I just verified it, during some new test sessions with core clock monitoring we noticed that the G70 although clocked at 430 standard will in 3D applications immediately jump towards 468 MHz. Even overclocked at 480 Mhz the clock will jump towards 522 MHz, again that ~40 MHz difference.
[...]
We currently think that the Pixel and Vertex pipes or triangle setup might be clocked differently to explain that differential. Or even Shader Clock 430 MHz/Rop Clock:430MHz/Geometry Clock:470MHz.


http://www.guru3d.com/newsitem.php?id=2827

dildo4u
2005-07-05, 20:46:23
Keine Ahnung, ob das schon bekannt ist:

I just verified it, during some new test sessions with core clock monitoring we noticed that the G70 although clocked at 430 standard will in 3D applications immediately jump towards 468 MHz. Even overclocked at 480 Mhz the clock will jump towards 522 MHz, again that ~40 MHz difference.
[...]
We currently think that the Pixel and Vertex pipes or triangle setup might be clocked differently to explain that differential. Or even Shader Clock 430 MHz/Rop Clock:430MHz/Geometry Clock:470MHz.


http://www.guru3d.com/newsitem.php?id=2827
jap wurde hier schon von so gut wie allen 7800GTX usern bestätigt.

Razor
2005-07-06, 00:40:46
Mir will nicht in den Kopf, warum bei den GTs 2.0er Ram verbaut werden soll, wenn sie mit 550 MHz takten... :|Aus dem gleichen Grund, bei dem 1,67ns RAM mit 625MHz getaktet wird.
Ist halt übertaktet (ohne Luft nach oben ;-)

10% mehr RAM-Takt durch OC ist doch wirklich nichts besonderes, oder?
;)

/edit: Lag der Preis der GTX bei 599$?Nein, bei 549,- (MST)...

Vor allem wundert mich, daß sie anscheinend nur mit dem Takt runtergehen - das würde ja bedeuten, sie hätten verdächtig wenige Dies, die Defekte aufweisen. :|Das ließe sich auch anderes deuten...

Keine Ahnung, ob das schon bekannt ist:
http://www.guru3d.com/newsitem.php?id=2827Ja... und es ist totaler Unsinn!
nVidia hat ja schon geantwortet, aber Hilli hat's wieder mal total mißverstanden:

"Hey Hilbert,

As our chips become more advanced, we are implementing more complex clocking inside the chip. 430MHz is the primary clock speed of the chip and can be verified by fill rate tests.

We will work with Rivatuner to read the correct registers in order to report the right clock.

Hope this makes sense."

Ja, das macht Sinn.
Es werden schlicht falsche Register (oder die richtigen falsch) ausgelesen... that's it!
(und ASUS hat mit der eigenen 'Werbung' mächtig ins Klo gegriffen ;-)

Razor

ShadowXX
2005-07-06, 10:02:10
Daß es solche Riesenunterschiede gibt, daß (womöglich) selektierte Review-Karten locker die 500 MHz (OC) mitmachen, andere aber nur 335 MHz, glaube ich ehrlich gesagt nicht.


Ack....bisher hab ich noch von keinem GTX-User gelesen, das er die Karte nicht auf mindestens 480MHz GPU-Clock bekommen hat (meine macht z.B. locker 500MHz mit).

Beim Ram dagegen ist es wohl wirklich davon abhängig, welche Marge gerade auf der Karte verbaut wurde....bei mit sind z.B. noch 1360MHz drin.

(Beide Taktrate (also 500/1360) liefen ohne irgendwelche Fehler mit dem Standardkühler 5 Stunden im 3dMark05...bei 30 Grad Raumtemperatur.....(Das Battle of Proxyirgendetwas 2 des 3dMurks05 wäre bei diesen Takraten übrigens ohne Probs spielbar))

Irgendwie glaube ich deshalb nicht wirklich an Yield und/oder Taktungsprobleme bei nV....

Und so wie och das gesehen habe, läufts Grestorns SLI-GTX-Verband sogar mit 520MHz GPU-Takt ohne Probs.....

Mal was anderes...habt ihr mal den Füllratentester auf die GTX losgelassen??
Entweder misst der bei der GTX nur Mist oder die Karte ist zu 4x schneller in manchen Tests (wobei das minimum beim PS2.0 FP32 PerPixel-Light Test mit gerade mal einer Steigerung von "nur" etwas über 100% lag).
Wenn ich zuhause bin kann ich das Ergebnis-File nochmal Posten....als ich mein 68U-Ergebnis-File dagegen verglichen habe, sahr das eher aus, als wenn ich eine 6200 gegen eine 7800 zu vergleiche.

Coda
2005-07-06, 10:09:37
"Hey Hilbert,

As our chips become more advanced, we are implementing more complex clocking inside the chip. 430MHz is the primary clock speed of the chip and can be verified by fill rate tests.

We will work with Rivatuner to read the correct registers in order to report the right clock.

Hope this makes sense."Das kann man auch durchaus so verstehen, dass bestimmte Chipbereiche mit +40Mhz laufen. Da Asus von Geometric-Irgendwas gesprochen hat könnten das die Vertexshader sein.

Grestorn
2005-07-06, 10:11:06
Und so wie och das gesehen habe, läufts Grestorns SLI-GTX-Verband sogar mit 520MHz GPU-Takt ohne Probs.....
Wenn ich 2 GTXe hätte würde ich das gern ausprobieren... :) Hab aber (momentan) nur eine, die läuft aber in der Tat mit 520 MHz.

ShadowXX
2005-07-06, 10:40:54
Das kann man auch durchaus so verstehen, dass bestimmte Chipbereiche mit +40Mhz laufen. Da Asus von Geometric-Irgendwas gesprochen hat könnten das die Vertexshader sein.

Diesen verdacht (das die VS mit höherem Takt laufen) hatte ich auch schon mal in dem "was sind diese 40MHz Delta-Clock"-Thread geäußert.

Könnte man das anhand irgendwelcher Benchamrks vielleicht nachvollziehen ?
(also so in der Art: theoretisch müsste Sie bei 430MHZ so und soviel VS-Leistung haben, aber lt. Bench kommt dann was höheres raus (oder eben auch nicht))

@Grestorn:
Sorry...irgendwie war ich der Meinung gewesen, das du auch schon GTX-SLI hättest....

DrumDub
2005-07-06, 11:32:21
Diesen verdacht (das die VS mit höherem Takt laufen) hatte ich auch schon mal in dem "was sind diese 40MHz Delta-Clock"-Thread geäußert.

Könnte man das anhand irgendwelcher Benchamrks vielleicht nachvollziehen ?
(also so in der Art: theoretisch müsste Sie bei 430MHZ so und soviel VS-Leistung haben, aber lt. Bench kommt dann was höheres raus (oder eben auch nicht)) also wenn ich mir die werte hier angucke, kommt das nicht hin mit 470mhz takt für die vs-einheiten: http://www.xbitlabs.com/articles/video/display/g70-indepth_14.html

für 8vs bei 430mhz ist der zuwachs im schnitt gute 10% unter dem theoretischem maximum, wenns man von exakt denselben vs-einheiten wie beim nv40 ausgeht. kann natürlich noch andere limitierungen geben, aber die ergebnisse sprechen nicht gerade für die 470mhz takt der vs-einheiten.

Gast
2005-07-06, 11:43:49
Wenn ich 2 GTXe hätte würde ich das gern ausprobieren... :) Hab aber (momentan) nur eine, die läuft aber in der Tat mit 520 MHz.

Das kannst du aber nur durch das Nvidia eigene Übertakter Tool zu 100%iger Sicherheit eingestellt haben, da alle anderen Tools die Register falsch auslesen.
Falls du es so eingestellt hast, was liest denn der Rivatuner da aus ^^

reunion
2005-07-06, 11:50:41
http://www.xbitlabs.com/images/video/geforce-7800/fillrate_nocolor_z.gif

By the way, the GeForce 6800 Ultra and GeForce 7800 GTX both exceed the theoretical maximum in this test. We don’t know yet how to explain this fact.

http://www.xbitlabs.com/articles/video/display/g70-indepth_12.html

Vielleicht sind nur die ROPs höher getaktet?
Allerdings müsste das dann auch auf den NV40 zutreffen.

Demirug
2005-07-06, 12:40:20
http://www.xbitlabs.com/images/video/geforce-7800/fillrate_nocolor_z.gif

By the way, the GeForce 6800 Ultra and GeForce 7800 GTX both exceed the theoretical maximum in this test. We don’t know yet how to explain this fact.

http://www.xbitlabs.com/articles/video/display/g70-indepth_12.html

Vielleicht sind nur die ROPs höher getaktet?
Allerdings müsste das dann auch auf den NV40 zutreffen.

Ich habe mehrfach bei nVidia nachgefragt und inzwischen auch von dem Autor des entsprechenden Dokuments eine Bestätigung das es ein Fehler ist.

Die ROPs gehöhren zur Taktdomäne des Cores.

Was den Test angeht so vermute ich das der Test einfach den Z-Buffer füllt. Es könnte daher sein das der Treiber dies als "fehlerhaft" programmierte Clear Operation erkennt und daher nicht rendert sondern löscht.

MadManniMan
2005-07-06, 12:57:30
Demi, was sagst du eigentlich zur "+40 MHz" Problematik?

Soll das wirklich ein simpler Auslesefehler des Rivatuners sein?

Dunkeltier
2005-07-06, 14:05:41
Ack....bisher hab ich noch von keinem GTX-User gelesen, das er die Karte nicht auf mindestens 480MHz GPU-Clock bekommen hat (meine macht z.B. locker 500MHz mit).

(...)


Autsch. Meine macht zum Beispiel keine 480 Mhz Coretakt mit. Entweder kann ich 470/665 Mhz fahren, oder aber 460/675 Mhz.

ShadowXX
2005-07-06, 17:06:52
Autsch. Meine macht zum Beispiel keine 480 Mhz Coretakt mit. Entweder kann ich 470/665 Mhz fahren, oder aber 460/675 Mhz.

Gut...dann sagen wir eben, die meisten GTX User. Du bist wirklich der erste, von dem ich lese, das er nur so wenig den Coretakt anheben kann.

Das das Mem eine andere Geschichte ist, ist klar.......

Gast
2005-07-06, 18:47:52
Autsch. Meine macht zum Beispiel keine 480 Mhz Coretakt mit. Entweder kann ich 470/665 Mhz fahren, oder aber 460/675 Mhz.

Mit welchem Tool übertaktest du?

Dunkeltier
2005-07-06, 22:14:29
Mit welchem Tool übertaktest du?


Ich benutze je nach Lust und Laune den
- Treiber
- Rivatuner
- oder das ASUS OC-Tool.

Gast
2005-07-06, 23:09:41
Ich nehme mal an nur das eingebaute im NV Treiber bringt die wahre Taktrate zum Vorschein, Rivatuner soll ja teils falsch Register auslesen, das könnte auch auf das Asus Tool zutreffen, aber das ist mal Speku.

Aber leider müssen wir wohl ein wenig warten um zu erfahren, wie die GPU denn nun wirklich taktet wenn sie zwischen 2D-3D hin und herwechselt, das zeigt uns der Treiber ja leider nicht an.

Razor
2005-07-06, 23:30:17
Das kann man auch durchaus so verstehen, dass bestimmte Chipbereiche mit +40Mhz laufen. Da Asus von Geometric-Irgendwas gesprochen hat könnten das die Vertexshader sein.Ich glaube kaum, dass da etwas mit "+40MHz" taktet... ganz sicher wird es aber zumindest so von nicht angepaßten Tools interpretiert.

Wie dem auch sei, dass das 'clocking' einer derart komplexen Architektur eben immer komplexer wird und aufgrund dessen bestimmte Chipteile schneller oder langsamer laufen, liegt doch wohl auf der Hand... wird bei CPU's ganz sicher ähnlich sein (obwohl lange nicht so komplex!).

Aber letztlich ist es doch vollkommen uninteressant, was der Chip da so intern treibt. Wichtig ist, was von 'aussen', also vom Bios und von der Karte vorgegeben wird (und inwieweit sich das für OC'er anpassen läßt ;-).

-

Im übrigen ist das Thema auch nicht ganz neu... schließlich hatten wir ja schon mit der 6800'er Serie einen merkwürdigen Effekt, der den Chip bei mehr Takt kühler werden ließ (i.e. die 'magische' Grenze von 350MHz).

Aber vielleicht kommen wir ja jetzt über den 'Umweg' 7800 zu der Ursache, so manch merkwüdiger Verhaltensweisen.
:D

Razor

P.S.: allerdings vermute ich mal, dass nVidia hierzu nicht allzuviel sagen wird. Schließlich geht's dabei ja schon über spezifische Chip-Interna, die den Enduser (vor allem aber die Konkurrenz ;-) u.U. überhaupt nichts angehen. Da wird einfach nur kommen: Der Takt ist der primäre Core... paßt Eure Tools entsprechend an.

Xmas
2005-07-07, 02:46:45
Razor, ich traue Unwinder durchaus zu den Treiber korrekt auseinanderzunehmen.
http://www.beyond3d.com/forum/viewtopic.php?t=24615&start=60

Der Chip hat drei Clock Domains, eine davon wird im 3D-Betrieb 40 MHz höher getaktet.

ShadowXX
2005-07-07, 09:53:25
Razor, ich traue Unwinder durchaus zu den Treiber korrekt auseinanderzunehmen.
http://www.beyond3d.com/forum/viewtopic.php?t=24615&start=60

Der Chip hat drei Clock Domains, eine davon wird im 3D-Betrieb 40 MHz höher getaktet.

Nach Unwinder ist das die Geometric Clock Domain......was auch zu dem (inzwischen entfernten) passt passt, was auf der Asus 7800GTX-Page stand.

Jetzt müsste man nur noch wissen, welche Teile des Chips mit der "Geometric Clock Domain" gemeint sind bzw. von diese getaktet werden.

Ein paar vermuten, das damit das Triangle-Setup + Drumherum damit gemeint sind (aber nicht die VS).

Im neuen Rivatuner (kommt aber erst nachdem Unwinder aus dem Urlaub zurück ist, also frühestens 8.-9. August) sollen übrigens dann grafische Anzeigen für alle 3 Clock Domains sein....(und das es 3 sind, wurde inzwischen auch von nV bestätigt, zusätzlich das die Rop-Domain & die Shader-Domain Standardmässig mit 430 getaktet sind, mehr wollten Sie dann allerdings nicht mehr sagen...)

dildo4u
2005-07-08, 14:25:19
"People have said that G70 doesn't have any new architecture, but that's not really true. It has new architecture, it's just not always visible.

"The chip was designed from the ground up to use less power. In doing that, we used a lot of tricks that we learned from doing mobile parts. The clock speeds within the chip are dynamic - if you were watching them with an oscilloscope, you'd see the speeds going up and down all the time, as different parts of the chip come under load."

"We asked David what the three visible clocks did (that's the ROP clock, pixel clock and geometry clock if you're still playing catchup). "You're making the assumption there's only three clocks," was his cryptic reply. "The chip is large - it's 300m transistors. In terms of clock time, it's a long way across the chip, it makes sense for different parts of the chip to be doing things at different speeds."

What of the speculation that certain parts of the chip only overclock in multiples of more than 1MHz, appearing to restrict overclocking? "Well, the chip is actually better for overclocking, since it's so low-power and low-heat," Kirk tells us. "We're going to have to work with the guys at RivaTuner, because it could be that it makes sense for overclocking tools only to offer options that are really going to give a performance benefit, rather than letting users hunt around for the best combinations and multiples that work. Because of the way the chip works, it makes sense for different parts to be working in multiples."

http://www.bit-tech.net/news/2005/07/07/g70_clock_speed/

r@w
2005-07-08, 14:45:38
Jo... hab' ich auch grad' gelesen...

Wie ich also dachte: analog den Stromsparern im Mobile-Bereich (und auch dem AMD "Cool'n'"-Zeugs ;-) arbeitet der G70 chipintern mit diversen Takten und multipliern von diesen... wie ja nun auch von nVidia höchstpersönlich bestätigt. Allerdings finde ich folgende Aussage schon fast lustig:

"You're making the assumption there's only three clocks,"
Was ja wohl alles sagen dürfte...

Auch 'instruieren' sie wohl gerade Freund unwinder, nun jetzt nicht alle internen clocks offen zu legen und den OC'ern zur Verfügung zu stellen, sondern vielmehr eine sinnvolle Methode für's OC'en zu finden.

Interessant aber allemal, dass nVidia dem Punkt "overclocking" offenbar sehr aufgeschlossen gegenüber steht.

Razor

DrumDub
2005-07-08, 15:01:41
Interessant aber allemal, dass nVidia dem Punkt "overclocking" offenbar sehr aufgeschlossen gegenüber steht. war doch eigentlich schon immer so. zumindest kann man doch schon iirc seit der gf3 über das cp übertakten.

deekey777
2005-07-08, 20:47:15
Razor, ich traue Unwinder durchaus zu den Treiber korrekt auseinanderzunehmen.
http://www.beyond3d.com/forum/viewtopic.php?t=24615&start=60

Der Chip hat drei Clock Domains, eine davon wird im 3D-Betrieb 40 MHz höher getaktet.

Auf iXBT.com gibt es ein paar Worte (http://www.ixbt.com/news/hard/index.shtml?news119236id) zu diesem Thema, leider auf Russisch, denn auf Digit-Life steht noch nichts.

VooDoo7mx
2005-07-08, 22:20:52
war doch eigentlich schon immer so. zumindest kann man doch schon iirc seit der gf3 über das cp übertakten.

Ich kenne den CoolBits Tweak schon seit meiner Riva TNT2.
Den gab es aber selbst da schon sicher vorher.

HockleXX
2005-07-12, 08:44:58
:smile: Soooo,

Ich habe heute meine MSI 7800GTX bekommen. Verpackung etc halt MSI :D Riddick war dabei. Nach dem Arbeiten mach ich mal paar Pics....:)

Mal schauen wie die 7800GTX im Flight Simulator abgeht...

DrumDub
2005-07-12, 12:05:00
Ich kenne den CoolBits Tweak schon seit meiner Riva TNT2.
Den gab es aber selbst da schon sicher vorher. ah. ok. dann wirds wohl schon mit dem riva128 oder der tnt da gewesen sein.

arcon
2005-07-12, 16:11:27
bin ma gespannt auf die Taktfreudigkeit der 7800GT :)

HockleXX
2005-07-12, 23:52:44
HMmm,

7800GTX eingebaut - Treiber installiert - Schwarz/weisse Streifen... :eek: Kein Windows mehr - Neustart - läuft alles?!

Komisch, hat das noch jemand gehabt? Treiber ist der 77.72

Dunkeltier
2005-07-13, 00:33:19
HMmm,

7800GTX eingebaut - Treiber installiert - Schwarz/weisse Streifen... :eek: Kein Windows mehr - Neustart - läuft alles?!

Komisch, hat das noch jemand gehabt? Treiber ist der 77.72


Hatte ich auch einmal gehabt.

Razor
2005-07-13, 05:27:24
Hatte ich auch einmal gehabt.Was für ein Wunder, wenn nicht...
Sorry für OT!

Razor

P.S.: Es nervt langsam wirklich...

Dunkeltier
2005-07-13, 07:23:55
Was für ein Wunder, wenn nicht...
Sorry für OT!

Razor

P.S.: Es nervt langsam wirklich...


Du nervst ebenfalls. Wenns dir nicht passt, geh woanders hin.

MadManniMan
2005-07-13, 10:58:02
Was für ein Wunder, wenn nicht...
Sorry für OT!

Razor

P.S.: Es nervt langsam wirklich...

Ui, die Realität nervt langsam?

Razor, warum immernoch deine nV-Affinität? Selbst das einstige 3dfx-Kiddy MadManniMan wurde vernünftig und guckt aufs Faktum - oder bist Du inzwischen zu alt, um Dich zu änder? ;)

dildo4u
2005-07-13, 11:00:01
Ui, die Realität nervt langsam?

Razor, warum immernoch deine nV-Affinität? Selbst das einstige 3dfx-Kiddy MadManniMan wurde vernünftig und guckt aufs Faktum - oder bist Du inzwischen zu alt, um Dich zu änder? ;)
Aussagen wie hatte ich auch mal sind einfacher Spam und sind mher als OT.

arcon
2005-07-13, 11:59:21
es gibt Treiber-bugs, Hardware-bugs & user-fehler .... letzteres sind 80%

mehr sag ich hierzu nicht, denn diese ganze kinderkacke geht mir langsam echt aufn piss

Crushinator
2005-07-13, 12:41:57
Du nervst ebenfalls. Wenns dir nicht passt, geh woanders hin.
Ich habe einen besseren Vorschlag: Entweder Ihr klärt das per PN, oder ich erkläre Euch beiden die Forumsregeln in Praxis und zwar in Orange. Das möchtet Ihr bestimmt nicht, was nur einen logischen Schluß zuläßt, nämlich daß Ihr aufhört Euch gegenseitig hochzuputschen. Punkt aus Ende!

reunion
2005-07-13, 13:56:46
GeForce 7800GT to have 20 pipes: launched on August 11th (http://www.anandtech.com/news/shownews.aspx?i=24552)

mapel110
2005-07-13, 14:06:01
GeForce 7800GT to have 20 pipes: launched on August 11th (http://www.anandtech.com/news/shownews.aspx?i=24552)
macht schon mehr Sinn als 335 Mhz Takt und 24 Pipes. Aber trotzdem bleibt die GTX da (für mich) attraktiver.

dildo4u
2005-07-13, 14:10:09
Aber trotzdem bleibt die GTX da (für mich) attraktiver.Kommt drauf an ob man wieder pipes freischalten kann *g*

arcon
2005-07-13, 14:14:38
das wäre natürlich ne feine Sache :)

Spasstiger
2005-07-13, 14:18:59
24 Pipelines wären natürlich netter gewesen, speziell hinsichtlich Overclocking. Aber so ists auch nicht schlecht, zumindest, wenn es Pipelinemods geben wird. Denn dann hat man auf jeden Fall schon mal 400 MHz Chiptakt ohne übertakten zu müssen ;).

Gast
2005-07-13, 15:17:50
Wie warm wird eure 7800GTX ? Meine bei GTA:SA ca. 66C normal?

ciao
Hocklexx

deekey777
2005-07-13, 15:51:08
GeForce 7800GT to have 20 pipes: launched on August 11th (http://www.anandtech.com/news/shownews.aspx?i=24552)

Habe ich aber einen Blödsinn zur 7800GT geschrieben...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3191557&postcount=13

Schade, daß die Texel-Füllrate niedriger wird, aber sonst könnte die 7800GT eine Hammergrafikkarte werden, nur der Takt (die Takte neuerdings) könnte etwas höher sein.

€: Der Takt ist ja bei 400MHz!!!

Spasstiger
2005-07-13, 17:11:38
€: Der Takt ist ja bei 400MHz!!!

Hehe, ein Blitzmerker. Die 24 Pipes bei 335 MHz Chiptakt wurden wahrscheinlich von einer Angabe von 8 Gigapixel/s abgeleitet, denn das hat man auch bei 20 Pipes und 400 MHz.

Coda
2005-07-13, 17:21:06
Ändert doch am Ergebnis eh nix. Naja Stencil-Füllrate dürfte so etwas höher sein, es sei denn man hat die ROPs auch kastriert.

deekey777
2005-07-13, 18:21:26
Hehe, ein Blitzmerker. Die 24 Pipes bei 335 MHz Chiptakt wurden wahrscheinlich von einer Angabe von 8 Gigapixel/s abgeleitet, denn das hat man auch bei 20 Pipes und 400 MHz.

Texelfüllrate, ;) denn die Anzahl der ROPs bleibt bei 16 -> 6.4 GP/s.
Ob der Geometry Clock bei +40 MHz bleibt?

Coda
2005-07-13, 18:25:19
Ob der Geometry Clock bei +40 MHz bleibt?Sehr wahrscheinlich. Aber es ist ja immer noch unklar um welche Einheiten es sich dabei handelt.

Spasstiger
2005-07-13, 18:32:08
Texelfüllrate, ;) denn die Anzahl der ROPs bleibt bei 16 -> 6.4 GP/s.


Ok, da hast du mich jetzt auch erwischt ;).

deekey777
2005-07-14, 11:47:43
Auf iXBT.com gibt es ein paar Worte (http://www.ixbt.com/news/hard/index.shtml?news119236id) zu diesem Thema, leider auf Russisch, denn auf Digit-Life steht noch nichts.

On the clock rates of GeForce 7800 GTX GPU (http://www.digit-life.com/news.html?119317#119317)

Das ganze jetzt halbwegs verständlich auf Englisch erklärt.

"But this actually means one thing: from now on you can´t say 'this GPU works at this clock rate', or at least you should also mention which clock rate this is: ROP or the Shader Unit, since they affect performance most."

Gouvernator
2005-07-16, 22:08:28
On the clock rates of GeForce 7800 GTX GPU (http://www.digit-life.com/news.html?119317#119317)

Das ganze jetzt halbwegs verständlich auf Englisch erklärt.

"But this actually means one thing: from now on you can´t say 'this GPU works at this clock rate', or at least you should also mention which clock rate this is: ROP or the Shader Unit, since they affect performance most."

ich habe kein Bock eine Karte zu kaufen die man nicht bzw. schlecht übertakten kann , ich kann mich noch gut erinnern wie meine FX5900 die Taktraten selbst "angepasst" hat , echt ein Horror.

Gast
2005-07-20, 12:18:40
Ich bin in anderen Foren aktiv und wollte hier nur mal einen bescheidenen Beitrag mit meinen Erfahrungen zu der MSI NX 7800GTX . Von Tag der Ankunft, über den Anbau einer Wakü bis hin zu Benches:



Habe die Karte zusammen mit einem Neuen Board ( Asus A8N-E ) bekommen..
http://img335.imageshack.us/img335/3302/karanso7800gtxmachstmglichchch.jpg
Der G70-Grafikprozessor ist ab Werk mit 430 MHz Core und 1200 MHz 256 MByte DDR3-Grafikspeicher mit 1,6 ns Zugriffszeit getaktet.
Mit dem MSI eigenen D.O.T.-Feature lässt sich diese Leistung durch eine Übertaktung von bis zu 10% nochmals steigern

Grafikchip Bezeichnung GeForce 7800 GTX
Taktfrequenz 430 MHz
Pixel-Pipelines 24
Speicher Kapazität 256 MB
Typ GDDR3
Taktfrequenz 1200 MHz
Speicheranbindung 256 Bit

Herzstück des 7800GTX-Grafikprozessors ist der neue G70-Core mit einer vielzahl neuer Funktionen, wie etwa die neue NVIDIA CineFX 4.0 Engine.
Diese ermöglicht noch komplexere visuelle Effekte in atemberaubendem Tempo dank zweier Shader-Fließkommaeinheiten mit 64-bit Texturfilter. Sie wird, vor allem bei Szenen mit einer vielfachen Anzahl von Lichtquellen und Objekten, wie id Software’s DOOM 3, von der NVIDIA® UltraShadow™ II Technologie ergänzt. Außergewöhnliche Bildqualität gewährleistet dabei die ebenfalls neue NVIDIA® Intellisample™ 4.0 Technik dank Kantenglättung mit erweiterter Belichtungskorrektur und verbesserten anisotropischen Filtern

In Punkto Multimedia und Unterhaltung sorgt die integrierte NVIDIA Purevideo Technologie für Videowiedergabe in Heimkino-Qualität. Die eigene Videoprozessoreinheit im GeForce 7800GTX Grafikkern beschleunigt dabei die Videobearbeitung, speziell die HDTV-Wiedergabe und –Aufzeichnung, und bietet optimale Unterstützung für Micorsoft Windows Media Video 9 (WMV9). Diese hardwareseitige MPEG-2- und WMV9-Decodierung ist High-Definition (HDTV) tauglich bis zu einer maximalen Auflösung von 1080p (1920x1080 Bildpunkte mit Vollbild-Wiedergabe).

Zum Inhalt des Paketes:
Anleitung, 2x DVI auf VGA Adapter, Stromadapter,
einen kombinierten Video-Ein- und Video-Ausgang mit HDTV-Unterstützung. Neben einer hierzu passenden VIVO-Kabelpeitsche und einem S-Videokabel liegen der Karte noch die Treiber- und Anwendungs-CDs sowie die Vollversion des Spiels „The Chronicles of Riddick: Escape from Butcher Bay” bei.

Preis der Karte: 520€
http://img221.imageshack.us/img221/2231/cimg00475em.th.jpg (http://img221.imageshack.us/my.php?image=cimg00475em.jpg)

Die Neu Installation auf meinem neuen Board/ Force 4 auf Raid 0 und das einspielen des Grafiktreibers 77.50 verlief ohne Probleme. Die Karte ist mit dem Orginallüfter wirklich sehr leise und im idle bei 41°. Das dynamische Übertaktungstool hielt im 2D Zustand die Karte bei 275MHz Core und 1200MHz Speichertakt. Die Karte ist sehr flach.
http://img155.imageshack.us/img155/4787/cimhgfjffg00528yv.th.jpg (http://img155.imageshack.us/my.php?image=cimhgfjffg00528yv.jpg)

Gast
2005-07-20, 12:20:42
Der 2. Teil...

Das anbringen eines Wasserkühlers an die 7800GTX.

Die ersten Probleme gingen schon los als ich versuchte den Lüfter samt Kühlkörper abzubauen. 2 Schrauben der 16! waren unter dem MSI Aufkleber versteckt und dieser musste mit einem flachen Schraubenzieher soweit angehoben werden das er nicht reisst und trotzdem die Schrauben gelöst werden können. Das hat nicht ganz geklappt, der Kleber war leider sehr stark.
http://img260.imageshack.us/img260/2137/schraubeunterlfter1iz.th.jpg (http://img260.imageshack.us/my.php?image=schraubeunterlfter1iz.jpg)

Nachdem ich dann endlich den Lüfter ab hatte widmete ich mich dem Wakü von Innovatek, es war laut Beschreibung das gleiche Modell wie für einen 6800LE Karte ohne Spannungskühler!
So hilfreich war dann auch die Anleitung, Improvisieren war mal wieder angesagt.
Bastelte also recht unkompliziert den Kühler auf die Karte.
Soweit so gut.
http://img260.imageshack.us/img260/8829/7800gtxohnelfter1ze.th.jpg (http://img260.imageshack.us/my.php?image=7800gtxohnelfter1ze.jpg) http://img134.imageshack.us/img134/2295/7800gtxmitwak8js.th.jpg (http://img134.imageshack.us/my.php?image=7800gtxmitwak8js.jpg)

Jetzt steckte die Karte also im Board und ich begann alle Schläuche neu zu verlegen. Da merkte ich das die 2 mitgelieferten Anschlüsse so gar nicht verbaut werden können, durch den starren Hals lässt sich nur einer eindrehen, der andere geht nicht!
http://img260.imageshack.us/img260/4113/2schraub0ad.th.jpg (http://img260.imageshack.us/my.php?image=2schraub0ad.jpg)

Also wieder Improvisieren und dort Anschlüsse tauschen, da welche aus dem karton kramen, hier los und da wieder ran.... hab es dann letztendlich doch geschafft die Karte und alles andere zu verschließen und began das Wasser in den Kreislauf zu pumpen.
http://img112.imageshack.us/img112/5508/karteeingebautnah3cv.th.jpg (http://img112.imageshack.us/my.php?image=karteeingebautnah3cv.jpg)

Dann kam der grosse Momemt! Würde die Karte auch ohne Lüfter, der einen 4-pol Anschluß hat, laufen, oder würde sie meckern und den Dienst verweigern.
Erst da wurde mir klar das ich an diesen Punkt nicht gedacht hatte.
Inzwischen habe ich ein Leck behoben und alles restliche verschraubt und Windows installiert.
http://img112.imageshack.us/img112/6040/offenesgehusekompletteeee3cf.th.jpg (http://img112.imageshack.us/my.php?image=offenesgehusekompletteeee3cf.jpg)
http://img94.imageshack.us/img94/4092/offenesgehusekompletteeee8bu.jpg

Die Karte läuft, ist Idle 39°/last 45° und macht bis jetzt keinerlei auffälliges.
Meine System konnte ich auch wieder erfolgreich pushen und das alles macht mich happy :D
http://img112.imageshack.us/img112/3084/geschlossenesgehuseee2yt.th.jpg (http://img112.imageshack.us/my.php?image=geschlossenesgehuseee2yt.jpg)

Gast
2005-07-20, 12:21:34
Der 3. Teil...die Benches

Die ersten Benches die ich gemacht habe waren 3DMark 05, -03, -01 und den Aquamark !
Alles in den default Einstellungen. Im Grakamenü AA und AF aus.
Die CPU lief auf 1800Mhz/@2440MHz
GPU auf 465MHz/648MHz
Speicher 220MHz bei 2-3-2-5
http://img331.imageshack.us/img331/2670/everestbestbykaransooo8mk.th.jpg (http://img331.imageshack.us/my.php?image=everestbestbykaransooo8mk.jpg)

Beim 3D Mark hat es mich fast von den Socken gehauen, alles war viel schärfer, die Kanten genauer und klarer. Besonders beim ersten Gametest war der Unterschied zu meiner 6800GT phänomemal.
Die Tests lies ich mit dem automatischen Übertaktungsprogramm von MSI durchführen und kann daher noch nicht genau sagen wie die Taktfrequenzen waren. Ich schätze aber um die 495MHz Core und 625 MHz Speichertakt.

Hier die ersten Ergebnisse:
Im Vergleich zu der 6800 Ultra von MSI, ebenfalls mit dem D.O.T. ( Dynamisches Overcklocking Tool ),
bereit gestellt von @Shaqiiii ~Vielen Dank~
3DMark 05:8419 Pkt~~~~~3DMark 05:5727 Pkt
7800GTX# ############## 6800 Ultra
http://img331.imageshack.us/img331/773/mark05bykarannnnso8bs.th.jpg (http://img331.imageshack.us/my.php?image=mark05bykarannnnso8bs.jpg)~~~~~http://img29.imageshack.us/img29/8339/jgzhkjhggshaqiiii7sx.th.jpg (http://img29.imageshack.us/my.php?image=jgzhkjhggshaqiiii7sx.jpg)

3D Matk 03:17422 Pkt
http://img331.imageshack.us/img331/2837/mark03byyyykaranso8wf.th.jpg (http://img331.imageshack.us/my.php?image=mark03byyyykaranso8wf.jpg)

3DMark 01: 27109 Pkt
http://img331.imageshack.us/img331/4891/mark01bbbbbbykaranso5xd.th.jpg (http://img331.imageshack.us/my.php?image=mark01bbbbbbykaranso5xd.jpg)

Aquamark : 85888 Pkt
http://img331.imageshack.us/img331/5585/aquamarbykaransok0he.th.jpg (http://img331.imageshack.us/my.php?image=aquamarbykaransok0he.jpg)

Die 7800GTX mag noch nicht im Gleichgewicht zur dem was heute die CPU leisten kannzu stehen, wenn also noch Leistungsreserven bei bessere CPU geweckt werden würden bin ich mehr wie zufrieden und in voller Erwartung. Denn meine Karte laüft bis heute kühl, schnell und liefert Bilder in einer scharfen farbigen Pracht das ich es nicht bereue :shake: 520€ :shake: bezahlt zu haben.


http://img335.imageshack.us/img335/5378/karansogeforcelogoblacksmall2t.jpg

Gast
2005-07-20, 12:22:59
-------Neues Update--------

CPU A64 3000@2440MHz
7800GTX @498/1440MHz
2x 512 MB OCZ 220MHz 2-3-2-5

8998 Pkt


http://img329.imageshack.us/img329/867/marko5bykaranso8998pkt177058af.th.jpg (http://img329.imageshack.us/my.php?image=marko5bykaranso8998pkt177058af.jpg)

Viel Spaß noch, Jungs


Gruß
Karanso


P.S.
Es gibt keine zweite Gelegenheit für einen ersten Eindruck!
~My PC~ (http://www.nethands.de/pys/show.php4?id=35288)
°Oder hier° (http://www.kaltmacher.de/mysystem.php?u=12199)

dildo4u
2005-07-24, 00:13:58
Test der Cpu Skalierung auf firingsquad


http://firingsquad.com/hardware/athlon_64_geforce_7800_gtx_scaling/

(del676)
2005-07-24, 00:38:08
boa echt grindig wie diese cpu lastige source engine an der cpu nuggelt
http://firingsquad.com/hardware/athlon_64_geforce_7800_gtx_scaling/images/hl21600.gif

ich hoffe das wird den "wäää ohne gscheide cpu is eine 7800 gtx sinnlos und für sli gibts eh noch keine cpu" jammerer endlich das maul stopfen :)

(del676)
2005-07-24, 00:39:28
und battlefield erst, sogar in 1024
http://firingsquad.com/hardware/athlon_64_geforce_7800_gtx_scaling/images/bf21024.gif

mapel110
2005-07-24, 01:06:30
ich hoffe das wird den "wäää ohne gscheide cpu is eine 7800 gtx sinnlos und für sli gibts eh noch keine cpu" jammerer endlich das maul stopfen :)
Joah, wobei sichs richtig lohnt bei 1600er Auflösung. Bei 1280x1024 auch schon, aber nicht so extrem.
Na mal schauen, erst TFT, danach Ram und dann seh ich weiter. =)

drdope
2005-07-24, 01:12:58
Joah, wobei sichs richtig lohnt bei 1600er Auflösung. Bei 1280x1024 auch schon, aber nicht so extrem.
Na mal schauen, erst TFT, danach Ram und dann seh ich weiter. =)

Auch zeigt der Test sehr schön, das zum Gamen in hohen Auflösungen mit viel AF/AA ein A64 3000+ P/L-Technisch die beste Wahl ist und man jede an der CPU gesparte Mark (Euro) in die Graka investieren sollte.

mapel110
2005-07-24, 01:24:28
Auch zeigt der Test sehr schön, das zum Gamen in hohen Auflösungen mit viel AF/AA ein A64 3000+ P/L-Technisch die beste Wahl ist und man jede an der CPU gesparte Mark (Euro) in die Graka investieren sollte.
Wobei das bei SLI wieder anders aussehen kann. Leider nicht mitgetestet worden. :(

dildo4u
2005-07-27, 21:05:53
BFG 7800GTX OC Review

http://www.beyond3d.com/reviews/bfg/7800gtxoc/index.php?p=02

Oblivion
2005-07-27, 21:09:47
BFG 7800GTX OC Review

http://www.beyond3d.com/reviews/bfg/7800gtxoc/index.php?p=02

Eh so wie man es sich denken kann ;)

dildo4u
2005-07-27, 21:12:14
Eh so wie man es sich denken kann ;)
Ist ja keine Ganz normale 7800GTX.Von daher fand ichs schon Ganz interesant wobei ich nicht weiss warum die Karte eine Höhere Bandbreite haben soll weil der ram eigentlich mit normal Takt läuft.

Oblivion
2005-07-27, 21:16:35
Ist ja keine Ganz normale 7800GTX.Von daher fand ichs schon Ganz interesant wobei ich nicht weiss warum die Karte eine Höhere Bandbreite haben soll weil der ram eigentlich mit normal Takt läuft.

groß und kleinschreibung ;)

hmm ok - das hab ich gar net gesehn, man sollt vll nicht nur die Benches anschaun ;)

das macht ihn gleich um einiges interessanter, werd ihn mir mal ganz durchlesen

deekey777
2005-08-03, 19:18:40
Laut iXBT (http://www.ixbt.com/news/hard/index.shtml?news120029id) soll die Quadro FX 4500 mit 550MHz für ROPs und Pixelshader, aber mit "normalen" 470MHz für den Geometrie-Block geliefert werden.

dildo4u
2005-08-03, 20:18:07
EVGA bringt 7800GTX mit 490/1300 mit Spezial Kühler!

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/evga_geforce_7800_gtx/

doom1
2005-08-03, 20:48:03
KO Edition ;D OhMann :biggrin: aber die Kühlung könnte auf Nforce4 Brettern von Nutzen :tongue: sein

schied die haben nen Patent druff.... :P

DrumDub
2005-08-04, 10:48:42
Laut iXBT (http://www.ixbt.com/news/hard/index.shtml?news120029id) soll die Quadro FX 4500 mit 550MHz für ROPs und Pixelshader, aber mit "normalen" 470MHz für den Geometrie-Block geliefert werden. das erklärt also den fetten kühler...

SKYNET
2005-08-04, 11:16:58
ähhmmm, soll das heißen das unterschiedliche teile des chips mit unterschiedlichem takt angesprochen werden können? :|

Demirug
2005-08-04, 11:21:38
ähhmmm, soll das heißen das unterschiedliche teile des chips mit unterschiedlichem takt angesprochen werden können? :|

Ja, da diese Teile sowieso über FIFOs/Caches entkoppelt sind ist das kein Problem.

SKYNET
2005-08-04, 11:23:03
danke. =)

deekey777
2005-08-04, 11:32:27
ähhmmm, soll das heißen das unterschiedliche teile des chips mit unterschiedlichem takt angesprochen werden können? :|

Ja, genau wie bei allen G70. :biggrin:


€: Doch der niedrige Geometrie-Takt ist doch überraschend.

r3ptil3
2005-08-05, 14:06:10
XFX Geforce 7800 GT:

• 20 Pixel-Pipelines
• 420 MHz Chiptakt
• 500 MHz Speichertakt
• 256 MB GDDR3 RAM
• 256 Bit Speicherinterface

(nicht offiziell)

[img=http://img126.imageshack.us/img126/8881/xfx7800gt6rd.th.jpg] (http://img126.imageshack.us/my.php?image=xfx7800gt6rd.jpg)

dildo4u
2005-08-05, 20:43:57
Asus bringt jetzt auch eine Top edition mit Silencer.

"Asus schickt sich an, eine weitere Grafikkarte auf Basis des 7800 GTX-Chips auf den Markt zu bringen, wie die Kollegen von HKEPC berichten. Dabei wird bei der Asus N7800 GTX TOP Edition nicht nur mehr Performance, sondern auch mehr Laufruhe versprochen.

Damit die Karte im Wettkampf mit den im Takt erhöhten Modellen von EVGA und XFX mithalten kann, hat Asus die Geschwindigkeit der GPU auf 486 MHz angehoben. Beim Grafikspeicher handelt es sich um GDDR3-RAM mit 1,6 Nanosekunden, welcher mit 675 MHz (1350 DDR) betrieben wird"

http://pics.computerbase.de/news/11439/1.jpg

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/geforce_7800_gtx_top_edition_asus/

Quasar
2005-08-05, 20:48:27
Das sieht mir aber brandgefährlich für die Spannungswandler aus... Hoffentlich hat Asus da intensiv und gründlich langzeitgetestet...

Winter[Raven]
2005-08-05, 20:55:14
Das sieht mir aber brandgefährlich für die Spannungswandler aus... Hoffentlich hat Asus da intensiv und gründlich langzeitgetestet...

Sollte es?

Meine GF 6800 Ultra hat den selben Kühler drauf, und ist auf 465/1250 übertaktet... und bis jetzt keine Probleme mit den Spannungswandlern :)

P.S.

Bei 465/1250 müsste die Karte ähnlich soviel wie der G70 (auch übertaktet) ziehen...

BvB123
2005-08-05, 23:04:01
6800 Ultra braucht mehr als 7800GTX =)

up¦²
2005-08-09, 19:21:31
Sieht ja Klasse aus, die Arctic Cooling!

Merlin31
2005-08-10, 12:06:46
Ist von der Seite NV schon irgendwas gesagt worden bezüglich des Flimmern ?
Kann das per Treiber behoben werden ?

unficyp
2005-08-19, 09:57:42
Ist von der Seite NV schon irgendwas gesagt worden bezüglich des Flimmern ?
Kann das per Treiber behoben werden ?

es steht auf www.nvnews.net auf der titelseite (such nach "shimmering issue")
http://www.nvnews.net/

das problem ist bei nvidia bekannt und wird gefixt.

Gast
2005-08-23, 10:49:02
Wann wird es denn kleinere Karten (Low- und Mittelklasse geben), die auf dem neuem Chip aufbauen?

Winter[Raven]
2005-08-23, 11:17:31
Meinst du die 7800 LE? Ich nehm mal stark an, Nvidia wird da wwas bringen. In dem Sinne ist aber die 6800 Gt/Ultra heute schon Mittelklase ;) Werden im Q4 durch 0.9nm ersetzt.

Gast
2005-08-23, 11:24:16
']Meinst du die 7800 LE? Ich nehm mal stark an, Nvidia wird da wwas bringen. In dem Sinne ist aber die 6800 Gt/Ultra heute schon Mittelklase ;) Werden im Q4 durch 0.9nm ersetzt.
meine zb neue einstiegschips... für kleine karten

Winter[Raven]
2005-08-23, 11:26:36
Nun die kommen ja z.b. die Gf 6500 aber auch 6800 XT.

Matrix316
2005-08-23, 12:16:21
Das sieht mir aber brandgefährlich für die Spannungswandler aus... Hoffentlich hat Asus da intensiv und gründlich langzeitgetestet...
Tja, wieso kommt Arctic Cooling nicht mal auf die Idee unter dem Lüfter Löcher in das Plastik zu machen? Dann wäre das Problem doch gelöst...

Gast
2005-08-23, 12:34:36
']Nun die kommen ja z.b. die Gf 6500 aber auch 6800 XT.


infos? wann?

Winter[Raven]
2005-08-23, 12:40:28
Nächstens .. kann dir jetzt echt ned sagen, habe ned im Kopf ^^

deekey777
2005-08-24, 18:05:00
ASUS Extreme N7800 GTX 256MB, ASUS Extreme N7800 GTX TOP 256MB (http://www.digit-life.com/articles2/video/g70-5.html)@Digit-Life.

ASUS Extreme N7800 GTX TOP 256MB
Interface: PCI-Express x16
Frequencies (ROP/Shader/Geometry unit/memory - physical (memory - effective): 486/486/526/675 (1350) MHz (nominal — 430/430/470/600 (1200) MHz)

Autsch. :biggrin:


Conclusions

ASUS Extreme N7800 GTX 256MB is an ordinary product based on the standard GeForce 7800 GTX. There is nothing special about it. It's not manufactured by ASUSTeK. Yep, it's a reference card distributed by NVIDIA among its partners. So if the price is raised too high, there is no reason to chase the brand, you will get the same features from any other NVIDIA's partner (but for a lower price). It has an advantage - a good bundle with a bonus of a leather CD album.

ASUS Extreme N7800 GTX TOP 256MB is also based on a reference card, but the selection guarantees it to run at higher frequencies. Thus this card is an absolute leader in performance and wins our attention. Add a very efficient and quiet cooling system, which drives the heat away from a system unit. It's the nicest looking accelerator I've ever reviewed. Of course, the price will play a pivotal role. I hope retailers won't raise it so that it would be more reasonable to buy a regular card with moneyback plus an Arctic Cooling device and to try and overclock the 7800GTX to the same frequencies as in the product from ASUS.

sth
2005-08-24, 20:17:42
Wobei ich mich immernoch Frage, ob die Karten wirklich alle von nVidia (oder einer einzelnen Partner-Firma) produziert werden oder ob nVidia nur das Platinen-Layout an die Kartenhersteller lizensiert.

Gouvernator
2005-08-26, 16:55:07
Ich würde gerne wissen wie gut eine oder zwei 7800GTX in Battelfield 2 unter 16xAA performen - einfach eine Karte eurer Wahl mit 1280*1024 16xAA testen und minimalen und mittleren FPS sagen . Und wenn die Leistung doch ziemlich im Keller ist dann bitte mit minimalen Einstellungen testen . Die Sichtweite aber bei 100 lassen . Danke.

dildo4u
2005-09-08, 20:58:33
Bei Alternate gibts jetzt die 7800GT von Gainward für 333€.

http://www.alternate.de/html/shop/productDetails.html?artno=JAXW24&

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/september/alternate_geforce_7800_gt_330_euro/

Supermax2004
2005-10-21, 17:36:05
Gibts schon irgendwelche Hinweise über den Nachfolger der 7800? Von 6800U auf 7800GTX zu wechseln lohnt sich nämlich in meinen Augen wenig deshalb warte ich gespannt auf den starken Nachfolger :D Wann soll der rauskommen?

Avalox
2005-10-21, 19:05:28
nVidia hat erstmal eine 7800GTX mit 512MB Speicher angekündigt, von einer Ultra fehlt jede Spur.

Vielleicht bastelt nVidia erst mal eine neue Revision, welche dann auch den WHQL Shader Model 3.0 Test besteht?

Demirug
2005-10-21, 19:37:41
nVidia hat erstmal eine 7800GTX mit 512MB Speicher angekündigt, von einer Ultra fehlt jede Spur.

Vielleicht bastelt nVidia erst mal eine neue Revision, welche dann auch den WHQL Shader Model 3.0 Test besteht?

Müssen sie nicht. Der Test sagt nur aus das sie nicht das gleiche Rendern wie der Refrast. Trotzdem ist das Ergebniss konform zur Spec sonst würden sie ja keine WHQL Treiber haben.

Avalox
2005-10-21, 19:42:48
Ich habe da keinen Überblick. Das einzelne Rendering Ergebnis darf wohl nicht mehr als 15% von der Referenz abweichen.

Haben die Karten wirklich WHQL Treiber? Einge der Panik News lesen sich anders.
Auf jeden Fall eine Steilvorlage.

mapel110
2005-10-21, 19:45:36
nVidia hat erstmal eine 7800GTX mit 512MB Speicher angekündigt,

Hab ich was verpasst?! afaik haben sie das nämlich nicht.

Avalox
2005-10-21, 19:49:44
Lief durch den Heise Ticker.

"....

Gegen ATIs Flaggschiff Radeon X1800 XT wollen die Kalifornier weiter den GeForce 7800 GTX ins Rennen schicken. Ein GeForce 7800 "Ultra" mit höheren Taktfrequenzen soll vorerst nicht geplant sein, dafür aber eine Version mit 512 MByte Speicher. (Manfred Bertuch) (law/c't) "

http://www.heise.de/newsticker/meldung/65212

Demirug
2005-10-21, 19:54:24
Ich habe da keinen Überblick. Das einzelne Rendering Ergebnis darf wohl nicht mehr als 15% von der Referenz abweichen.

Haben die Karten wirklich WHQL Treiber? Einge der Panik News lesen sich anders.
Auf jeden Fall eine Steilvorlage.

Um den Test zu bestehen muss man ein zu 85% identische Bild liefern. Tut man das nicht kann aber nachweisen das man sich an die Spec hält bekommt man WHQL trotzdem. Das kommt daher das die Spec an manchen Punkte Spielraum lässt und der Refrast nur eine mögliche Interpretation der Spec darstellt. Die Tests bei denen nVidia nicht direkt bestehen kann haben alle was mit den Texturefiltern zu tun. nVidia weicht da ja zum Beispiel bei der Mipmap Selektion vom Refrast ab. Es gibt aber keine genaue Vorschrift wie die Mipmap selektiert werden muss.

aths
2005-10-22, 10:26:42
Die Tests bei denen nVidia nicht direkt bestehen kann haben alle was mit den Texturefiltern zu tun. nVidia weicht da ja zum Beispiel bei der Mipmap Selektion vom Refrast ab.Könntest du hier konkreter werden? Gerade was die MIP-Map-Auswahl angeht, sehe ich eigentlich keinen Spielraum für Interpretationen. Die MIP-Stufe lässt sich doch direkt aus dem LOD bestimmen.

Demirug
2005-10-22, 10:39:31
Könntest du hier konkreter werden? Gerade was die MIP-Map-Auswahl angeht, sehe ich eigentlich keinen Spielraum für Interpretationen. Die MIP-Stufe lässt sich doch direkt aus dem LOD bestimmen.

Ja aber der LOD lässt sich ja auf unterschiedliche Art berechnen.

Die Ursache für die nicht bestandenen Tests ist das nVidia aus einer anderen Mipmap samplet als der Refrast. Die Ursache dafür ist die unterschiedliche LOD Formel.

Jetzt verständlicher?

aths
2005-10-22, 11:03:34
Nein. Mehr Details bitte.

Die LOD-Berechnung hat sich im NV40 geändert, um das eher kreisförmige Muster zu erreichen, meinst du das mit den Unterschieden in der LOD-Formel?

Demirug
2005-10-22, 11:11:35
Nein. Mehr Details bitte.

Die LOD-Berechnung hat sich im NV40 geändert, um das eher kreisförmige Muster zu erreichen, meinst du das mit den Unterschieden in der LOD-Formel?

Was soll ich den sonst meinen? Wird sonst noch ein LOD berechnet der mit dem Mipmaps im Zusammehang steht?

aths
2005-10-22, 11:57:10
Ich hatte dich erst so verstanden, dass eine ganz andere MIP-Auswahl zum Einsatz kommt, doch mit dem LOD steht die MIP ja praktisch fest. Ob man das LOD nun traditionell (mit dem Maximum der einzelnen Komponenten der Gradienten) oder nach der besseren Methode (mit der tatsächlichen Länge der Gradienten) berechnet, hielt ich in diesem Zusammenhang für nebensächlich.

A.Wesker
2005-10-22, 12:34:01
Lief durch den Heise Ticker.

"....

Gegen ATIs Flaggschiff Radeon X1800 XT wollen die Kalifornier weiter den GeForce 7800 GTX ins Rennen schicken. Ein GeForce 7800 "Ultra" mit höheren Taktfrequenzen soll vorerst nicht geplant sein, dafür aber eine Version mit 512 MByte Speicher. (Manfred Bertuch) (law/c't) "

http://www.heise.de/newsticker/meldung/65212
das sollte für eine X1800XT auch reichen.

WEGA
2005-10-22, 13:23:33
http://www.hardwareluxx.de/story.php?id=3034

Onkeltom421
2005-10-22, 13:56:55
http://www.hardwareluxx.de/story.php?id=3034

schau mal bitte bitte nur diese seite hier an, 4 posts über deinem -.-

WEGA
2005-10-22, 14:45:57
schau mal bitte bitte nur diese seite hier an, 4 posts über deinem -.-

was soll da sein? *auslach*

Supermax2004
2005-10-22, 15:04:45
Mhh ne 7800 mit 512mb ist natürlich auch net schlecht......aber ich nehm dann doch lieber den Nachfolger denk ich mal! Wann ist denn so ne 512er Variante möglich? Noch dieses Jahr? Oder 1. Quartal 06 wohl eher....

Grestorn
2005-10-22, 16:28:18
was soll da sein? *auslach*
Eine Erklärung, warum die Tests fehlschlagen.

Wen lachst Du aus? Dich selbst?

exodus 18:11
2005-11-05, 10:15:15
Wie sieht das nun aus mit dem aktuellen Stand der Texturflimmerproblematik? Ich will mir demnächst eine neue Grafikkarte zulegen und schwanke noch zwischen einer X850XT-PE und einer 7800GTX ...

ist die bildqualität der 7800er serie immernoch schlechter als bei der x850 und was hat es mit den nicht korrekt unterstützten shadermodell 3 auf sich?

:confused:

Winter[Raven]
2005-11-05, 10:29:36
Wie sieht das nun aus mit dem aktuellen Stand der Texturflimmerproblematik? Ich will mir demnächst eine neue Grafikkarte zulegen und schwanke noch zwischen einer X850XT-PE und einer 7800GTX ...

ist die bildqualität der 7800er serie immernoch schlechter als bei der x850 und was hat es mit den nicht korrekt unterstützten shadermodell 3 auf sich?

:confused:

An deiner Stelle würde ich entweder zu der X1xx Reihe zugreifen, oder zu der 7800 GTX.

X850XT-PE == 7800GTX AF Qualität, bei der X1xx Reihe sieht das AF besser aus, da es nicht winkelabhänig ist.

Du musst entscheiden was dir wichtig ist, mehr Perf oder etwas bessere IQ.

exodus 18:11
2005-11-05, 10:33:24
aber die x850xt-pe hat doch nicht dieses nervige texturflimmern oder? und kostet nur noch 399,00 ... im vergleich zu ner x1800xt die in den nächsten 1-2 monaten erstmal mit 500 aufwärts zu buche schlägt... (und die verfügbarkeit is auch noch nicht so gut ... jedenfalls bei den renomierten herstellern wie asus und co.)

Winter[Raven]
2005-11-05, 10:56:08
aber die x850xt-pe hat doch nicht dieses nervige texturflimmern oder? und kostet nur noch 399,00 ... im vergleich zu ner x1800xt die in den nächsten 1-2 monaten erstmal mit 500 aufwärts zu buche schlägt... (und die verfügbarkeit is auch noch nicht so gut ... jedenfalls bei den renomierten herstellern wie asus und co.)

Flimmern tritt soweit ich jetzt mal mitbekommen habe mit den neuen Treibern fast garnicht mehr auf...

mbee
2005-11-05, 11:12:46
Nicht nur fast gar nicht mehr, sondern auf HQ gar nicht mehr, bei Q hängt es extrem vom jeweiligen Spiel ab.
@exodus 18:11: Wenn Du noch ein wenig Zeit hast, würde ich auf jeden Fall noch die 7800 GTX mit 512 MB und den höheren Taktraten abwarten, diese dann mit der 1800 XT vergleichen und mich dann für eine dieser beiden Karten entscheiden. Die X850 XT wäre imo verschwendetes Geld in diesem Fall, da veraltet und mit Erscheinen der 512MB-GTX werden wohl bei beiden Herstellern die Preise nochmals purzeln.

exodus 18:11
2005-11-05, 11:33:22
nagut ... momentan liebäugle ich ja mit der "Sapphire Hybrid Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe, full retail >>> 489,00 EURO

mbee
2005-11-05, 11:40:44
Wenn sie erhältlich ist und für Dich die Vorteile (HQ AF, weniger Einbruch z.B. bei F.E.A.R. in hohen Auflösungen mit AA) gegenüber den Nachteilen (lauter, Crossfire IMO zu umständlich) überwiegen, dann kauf Dir doch eine, wenn Du nicht warten magst.

Die 7800 GTX mit 256MB hat IMO im Moment nur den Vorteil des Preises, der besseren Verfügbarkeit, der geringeren Lautstärke und (für Dich wohl unwichtig) der breiteren Verfügbarkeit an SLI-Boards.

Wenn SLI/Crossfire kein Thema ist, würde ich momentan bei einer einzelnen Grafikkarte auch zur X1800 mit 512MB greifen, zumal die 7800 GTX mit 512MB eh noch nicht verfügbar ist.