PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller G70/GeForce 7800 GTX Sammelthread


Seiten : 1 2 [3] 4

MarcWessels
2005-06-25, 16:26:28
warum?
wenn man ein halbwegs aktuelles system hat braucht man nurs mainboard mit upgraden.
wenn man ne ram/cpu kombination hat für die es kein pci-e mainboard gibt ist die cpu sowieso zu langsam.
man kann ned ewig altlasten mitschleppen.
ne agp variante heisst verdammt viel mehraufwand für nvidia.

*lol*Meine CPU ist mit Siche rheit NICHT zu langsam. ;D

Dass irgendwann Schluß ist, ist klar; die sollen aber wenigstens noch warten, bis es den Pentium M "offiziell" für den Desktop gibt - dann hätte ich nichts dagegen.

Gast
2005-06-25, 16:28:39
Jo stimmt hat was mit der vertex Leistung zu tun wird die beim sli addiert?

bei AFR (was imo beim 3dmark zur anwendung kommt) ja.

Bei Computerbase.de steht das der G70 32 Pipelines hat, man hat aber nur 24 aktiviert um die Chip ausbeute hoch genug zu halten.

kann ich mir nicht vorstellen, aber rivatuner müsste das eigentlich anzeigen können.

302Mio. sind auch imo zu wenig für 32 pipes.

Gast
2005-06-25, 16:49:22
VR-zone review
http://www.vr-zone.com/?i=2367&s=1


Tjo wie man hier schön sieht hat mal selbst mit einem FX55 mit einem 7800SLI eine CPU limitierung auch beim 3Dmark 05 :)

http://www.vr-zone.com/reviews/NVIDIA/G70/Graphs/3DMark05-CPUScale.gif
Auch in 1600x1200 mit AA?

Dass die 7800GTX CPU-limitiert ist, ist einfach Unsinn. Wenn es so wäre, würden die Werte in allen Auflösungen und Einstellungen gleich sein, was aber in keinem Review der Fall ist...

PS Boah, das Forum ist heute unerträglich...man kann noch nicht mal einen Beitrag loswerden. :(

dildo4u
2005-06-25, 16:53:27
Auch in 1600x1200 mit AA?

Dass die 7800GTX CPU-limitiert ist, ist einfach Unsinn. Wenn es so wäre, würden die Werte in allen Auflösungen und Einstellungen gleich sein, was aber in keinem Review der Fall ist...

PS Boah, das Forum ist heute unerträglich...man kann noch nicht mal einen Beitrag loswerden. :(
Es ging mir Speziell und den 3Dmark 05 weil viele immer noch behaupten das selbst mit einer 7800 es nur GK limitiert ist.

Gast
2005-06-25, 16:55:32
Es ging mir Speziell und den 3Dmark 05 weil viele immer noch behaupten das selbst mit einer 7800 es nur GK limitiert ist.
Ist es auch. Du musst nur die Auflösung erhöhen.
Die 7800GTX wird nicht durch die CPU limitiert, sondern durch die Speicherbandbreite...

dildo4u
2005-06-25, 16:56:46
Ist es auch. Du musst nur die Auflösung erhöhen.
Die 7800GTX wird nicht durch die CPU limitiert, sondern durch die Speicherbandbreite...
Ich rede vom Default test.Aber egal genug OT.

Gast
2005-06-25, 17:02:43
Ich rede vom Default test.Aber egal genug OT.
Warum sollte das OT sein? :confused:
Ein CPU-Limit sieht in etwa so aus:
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=190&seite=9
bezogen auf die 7800GTX.

Bei den anderen Benches verliert die 7800GTX an Performance, wenn man die Einstellungen verschärft, was auf ein Limit der Speicherbandbreite (oder auch GPU-Power) schliessen lässt.
Damit ist das Fazit mit dem CPU-Limit von hardwareluxx einfach falsch.

Spasstiger
2005-06-25, 17:05:45
Ich rede vom Default test.Aber egal genug OT.

In einem Geforce 7800 GTX Thread über Limitierungen der Karte zu reden ist doch nicht OT.
Die 7800 GTX ist auf jeden Fall ordentlich Speicherbandbreitenlimitiert, in hohen Auflösungen hat sie halt den Vorteil der großen Füllrate.
Ob 3DM05 bei default-Einstellungen schon deutlich CPU-limitiert ist, glaub ich nicht, die SLI-Ergebenisse der GeForce 6800 Ultra zeigen ja auch eine Verdoppelung der Punktzahlen mit zwei Karten.

reunion
2005-06-25, 17:09:24
Ob 3DM05 bei default-Einstellungen schon deutlich CPU-limitiert ist, glaub ich nicht, die SLI-Ergebenisse der GeForce 6800 Ultra zeigen ja auch eine Verdoppelung der Punktzahlen mit zwei Karten.


Es hat zwar schon jemand angesprochen, aber offensichtlich ist das nicht wirklich bei allen angekommen. Die CPU limitiert je nach Frame unterschiedlich stark, wodurch sich solche Ergebnisse erklären lassen. Spätestens mit SLi ist eine 7800GTX bei Standardeinstellungen IMHO zumindest tw. CPU-limitiert.

Gast
2005-06-25, 17:12:10
Spätestens mit SLi ist eine 7800GTX bei Standardeinstellungen IMHO zumindest tw. CPU-limitiert.
Wen interessiert 1024x768?
Mich nicht. :)

up¦²
2005-06-25, 17:15:13
Hat der G70 schon 32 Pixel Pipelines und sind also bei der GTX 8 deaktiviert?

With G70 now fully dissected we know have a little greater understanding of the part. Of course one element that characterises G70 is that of die size: its big.

Estimates of the die size put it in the order of around 330mm2, which on a 12" wafer would give in the order of around 150-170 full die to the wafer. Now, the issues here are one of yield - the fewer die there are on a wafer the more likely they are prone to defects. An analyst has suggested to us that there may be as many as 130-160 defects per wafer for earlier 110nm lines from TSMC (although the process is now more mature so that is likely to have decreased) which could give could potentially give very low yields for the chips should everyone need to work without any defects at all.

Now, one thing that we have been used to over the past few years releases is that of utilising defect cores in as lower performance products. The pixel pipelines, followed by the vertex pipelines, are taking the majority of the die space on products such as these and so a natural process defect is most likely to manifest itself in one of these areas; by disabling the pixel quad or vertex shader the defect has manifested itself in the IHV is then still able to recoup much of the cost of that particular piece of silicon, rather than wasting the entire die area.

The difference with G70 is that it is even larger than previous die sizes, which means that it is quite possible that full product yields may be quite small. Could it be that, in order to alleviate this, the defect rate is already built in to the current GeForce 7800 GTX and 24 fragment shaders is not the full number that G70 supports? Whilst many have speculated on an Ultra variant still to come and have been looking at the overclocks of the GTX’s to speculate where it may hit, perhaps it could be the case that there are 32 fragment pipelines in G70 and the fully working die are quietly being collected for use at a later date?

Quelle:
http://www.beyond3d.com/#news24313

Gast
2005-06-25, 17:19:05
Hat der G70 schon 32 Pixel Pipelines und sind also bei der GTX 8 deaktiviert?





hat schon mal jemand versucht die defekten quads mit rivatuner freizuschalten?

glaub ich jedenfalls nicht, und spätestens bei den tests mit 16/6 pipelines gegen die 6800 ultra hätte doch irgendjemandem auffallen müssen dass da eigentlich mehr quads vorhanden sind.

von daher kann ich mir das irgendwie nicht vorstellen

deekey777
2005-06-25, 17:52:33
hat schon mal jemand versucht die defekten quads mit rivatuner freizuschalten?

glaub ich jedenfalls nicht, und spätestens bei den tests mit 16/6 pipelines gegen die 6800 ultra hätte doch irgendjemandem auffallen müssen dass da eigentlich mehr quads vorhanden sind.

von daher kann ich mir das irgendwie nicht vorstellen

Digit-Life bzw. ixbt haben mit Rivatuner getestet und auch 2 Quads abgeschaltet. Hätten die weitere Quads gesehen, hätten die das gemeldet.

Gast
2005-06-25, 18:00:26
warum macht nv keine aussage wann die agp karten kommen ? die übergroße masse aller leute haben agp mainboards :(

die geben so mit verfügbarkeit an ,ja aber nur für die minderheit der pci-e leute

Gast
2005-06-25, 18:03:44
warum macht nv keine aussage wann die agp karten kommen ? die übergroße masse aller leute haben agp mainboards :(

die geben so mit verfügbarkeit an ,ja aber nur für die minderheit der pci-e leute
Nvidia muss erstmal HSI Version 2 entwickeln, weil HSI1 bei einer 7800GTX die Grätsche machen würde...

Gast
2005-06-25, 18:05:43
ja gut aber trotzdem könnten sie uns ein termin geben,denn 2 monate können sie uns nicht warten lassen

dildo4u
2005-06-25, 18:06:07
Nvidia muss erstmal HSI Version 2 entwickeln, weil HSI1 bei einer 7800GTX die Grätsche machen würde...
Warum?

Gast
2005-06-25, 18:07:42
nochwas,warum wurde nicht gesagt wann die anderen modelle kommen ? es gibt z.z grad mal ein modell :(

Gast
2005-06-25, 18:10:30
Warum?
Weil es so ist. :)
Ist ein Zusammenhang aus Fertigungsprozess, Ausbeute und elektrischer Belastbarkeit.
HSI1 ist schon vom Design her nicht fähig eine 7800GTX ohne Schaden zu unterstützen.

dildo4u
2005-06-25, 18:10:49
nochwas,warum wurde nicht gesagt wann die anderen modelle kommen ? es gibt z.z grad mal ein modell :(
Nach unten abgerundet wird erst im Herbst hat ein PR Typ von Nvidia bei giga am letzten Mittwoch gesagt.

LordDeath
2005-06-25, 18:11:37
ist jetzt ein nv43 nochfolger geplant? also G73 ^^! wenn ja, wann würde der vielleicht angekündigt werden? oder werden einfach die jetztigen 12pipe karten von nvidia dieses preissegment belagern? wär ja blöd, wenn wir keine 12pipe karte (schätzung) basierend auf den g70 bekommen, die auch die zusätzlichen neuen optimierungen und features bietet...

Gast
2005-06-25, 18:12:14
Nach unten abgerundet wird erst im Herbst hat ein PR Typ von Nvidia bei giga am letzten Mittwoch gesagt.
Ist doch klar, jedes Unternehmen will die schnelle Kohle machen...
Deswegen wartet man auch nicht auf schnelleren Speicher...

Gast
2005-06-25, 18:13:10
bin ich der einzige der es merkwürdig findet das nv nur ein startmodel anbietet ?

nv hatte immer 2 startmodelle - gf4 4400,4600 usw

LovesuckZ
2005-06-25, 18:14:23
Weil es so ist. :)
Ist ein Zusammenhang aus Fertigungsprozess, Ausbeute und elektrischer Belastbarkeit.
HSI1 ist schon vom Design her nicht fähig eine 7800GTX ohne Schaden zu unterstützen.

Quelle?

Coda
2005-06-25, 18:14:34
Weil es so ist. :)
Ist ein Zusammenhang aus Fertigungsprozess, Ausbeute und elektrischer Belastbarkeit.
HSI1 ist schon vom Design her nicht fähig eine 7800GTX ohne Schaden zu unterstützen.Schwachsinn. Das Ding ist dazu da Daten zu konvertieren und der Bus ist bei der 7800 auch nicht schneller als bei NV40.

dildo4u
2005-06-25, 18:17:07
Hier gibt die Komplette nvidia Präsentation inklusive Techdemo videos in HD.
http://www.giga.de/index.php?storyid=121726

Gast
2005-06-25, 18:20:35
Hi

Ich eben meinen g70 bekommen (xfx).aber leider bin ich noch net so ganz sicher ob ich ihn auch behalten soll.
Ich müsste zuerst ein neues board holen wegen pci express.

Tja und wenn schon ein neues board dann vielleicht gleich eines wo fsb 1066 unterstützt,dass mann später nicht wieder in der aufrüstfalle sitzt.Tja,dann seh ich dass es aber nur boards mit fsb 10066 gibt wo ddr2 unterstützen,das heisst ich dürfte meins schnelles ddr1 ram (corsar 2 2 2 5) gegen langsameres oder gleichschnelles ram austauschen und dabei kräftig draufzahlen......und will mann sich alle optionen offen halten,sprich dass auch zukünftige Pentium D´s eventuell mit allen 4 threads laufen dann darf mann auch gleich fast 200 euro für ein board mit 955ger chipsatz ausgeben.
(intel)

Ich glaube ich wart dann doch lieber noch ein weilchen.Das ganze wird irgendwie zu komplex.Vor allem schmeisst ja intel alle halbes jahr ihre roadmap wieder über den haufen und mann steckt jedesmal doch wieder in der aufrüstsackgasse.
Und an den benchmarks sieht mann onehin,dass mann auch ne schnelle cpu für den g70 braucht,der 3,ghz (habe ich auch) von 3dcenter ist ja stellenweise schon an die grenzen gestossen beim g70.

Das ist zudem pure absicht dass die karten erstmal für pci-e rauskommen um diese technik etwas zu pushen.
Normal sollte mann sowas ja boykottieren.Ja,ja das gleiche hab ich bei hf² und steam auch gesagt und es dann doch gespielt.

Trotzdem ist das ganze doch etwas ärgerlich.
Naja,ich werds mir nochmal durch den kopf gehen lassen.

Wenn ich die packung hier so sehe....hergeben will ich ihn eigentlich auch nicht mehr :D

gruss
der flotte otto

Gast
2005-06-25, 18:20:40
Hier gibt die Komplette nvidia Präsentation inklusive Techdemo videos in HD.
http://www.giga.de/index.php?storyid=121726

sweeeeeta...der dildo unser mr. link :D

Gast
2005-06-25, 18:23:47
Schwachsinn. Das Ding ist dazu da Daten zu konvertieren und der Bus ist bei der 7800 auch nicht schneller als bei NV40.
Der Bus nicht, aber die Daten. :)

Dunkeltier
2005-06-25, 18:24:21
Hi

Ich eben meinen g70 bekommen (xfx).aber leider bin ich noch net so ganz sicher ob ich ihn auch behalten soll.
Ich müsste zuerst ein neues board holen wegen pci express.

Tja und wenn schon ein neues board dann vielleicht gleich eines wo fsb 1066 unterstützt,dass mann später nicht wieder in der aufrüstfalle sitzt.Tja,dann seh ich dass es aber nur boards mit fsb 10066 gibt wo ddr2 unterstützen,das heisst ich dürfte meins schnelles ddr1 ram (corsar 2 2 2 5) gegen langsameres oder gleichschnelles ram austauschen und dabei kräftig draufzahlen......und will mann sich alle optionen offen halten,sprich dass auch zukünftige Pentium D´s eventuell mit allen 4 threads laufen dann darf mann auch gleich fast 200 euro für ein board mit 955ger chipsatz ausgeben.
(intel)

Ich glaube ich wart dann doch lieber noch ein weilchen.Das ganze wird irgendwie zu komplex.Vor allem schmeisst ja intel alle halbes jahr ihre roadmap wieder über den haufen und mann steckt jedesmal doch wieder in der aufrüstsackgasse.
Und an den benchmarks sieht mann onehin,dass mann auch ne schnelle cpu für den g70 braucht,der 3,ghz (habe ich auch) von 3dcenter ist ja stellenweise schon an die grenzen gestossen beim g70.

Das ist zudem pure absicht dass die karten erstmal für pci-e rauskommen um diese technik etwas zu pushen.
Normal sollte mann sowas ja boykottieren.Ja,ja das gleiche hab ich bei hf² und steam auch gesagt und es dann doch gespielt.

Trotzdem ist das ganze doch etwas ärgerlich.
Naja,ich werds mir nochmal durch den kopf gehen lassen.

Wenn ich die packung hier so sehe....hergeben will ich ihn eigentlich auch nicht mehr :D

gruss
der flotte otto


Dumm nur das ein P4 mit DDR2 dich nicht nur teurer kommt, sondern auch in Spielen erheblich langsamer als ein entsprechender Athlon 64 ist. Zu deutsch, ein P4 mit 3,6-3,8 Ghz wird locker von einen AMD Athlon 64 mit etwa 2,4-2,6 Ghz zum Frühstück verspeist. Und solche High-End Karten sind auf eine entsprechend potente CPU angewiesen, sonst rennst du die ganze Zeit vor eine CPU-limitierte Wand.

Gast
2005-06-25, 18:25:11
Weil es so ist. :)
Ist ein Zusammenhang aus Fertigungsprozess, Ausbeute und elektrischer Belastbarkeit.
HSI1 ist schon vom Design her nicht fähig eine 7800GTX ohne Schaden zu unterstützen.

so ein quatsch, das ding konvertiert doch nur PCIe-signale in AGP-signale und umgekehrt, und das funktioniert mit jedem grafikchip. prinzipiell könnte sich sogar ati HSI-bridges kaufen und für ihre karten verwenden.

Gast
2005-06-25, 18:31:27
Quelle?

Ne, Aldi

Gast
2005-06-25, 18:33:32
so ein quatsch, das ding konvertiert doch nur PCIe-signale in AGP-signale und umgekehrt, und das funktioniert mit jedem grafikchip. prinzipiell könnte sich sogar ati HSI-bridges kaufen und für ihre karten verwenden.
Dann kannst du mir auch sicherlich erklären, warum HSI bei den 6600GT Karten einen Kühler braucht und Rialto gar bei einer X800XL nicht? ;)

LovesuckZ
2005-06-25, 18:34:43
Ne, Aldi

Du weißt es also nicht.

Gast
2005-06-25, 18:35:45
Dann kannst du mir auch sicherlich erklären, warum HSI bei den 6600GT Karten einen Kühler braucht und Rialto gar bei einer X800XL nicht? ;)

was hat das damit zu tun, du könntest ja prinzipiell auch für ati-karten ein layout entwerfen um den chip zu kühlen.

vielleicht ist nvidia aber auch einfach vorsichtiger, und kühlt den chip deshalb, man weiß ja nie in welches gehäuse so eine karte verbaut wird.

Gast
2005-06-25, 18:36:00
Du weißt es also nicht.
*Scherz*

Coda
2005-06-25, 18:36:20
Der Bus nicht, aber die Daten. :)Der Bus bestimmt wieviel Daten durchkommen. Selbst die Speicherbandbreite einer FX 5200 ist höher als der AGP Durchsatz, also limitiert ausschließlich der AGP.

Der HSI wird sicher nicht chipabhängig heißer - purer Blödsinn.

Gast
2005-06-25, 18:37:14
was hat das damit zu tun, du könntest ja prinzipiell auch für ati-karten ein layout entwerfen um den chip zu kühlen.
Du hast keine Ahnung...

vielleicht ist nvidia aber auch einfach vorsichtiger, und kühlt den chip deshalb, man weiß ja nie in welches gehäuse so eine karte verbaut wird.
Ja, deswegen wird der HSI-Chip so heiss... xD

MarcWessels
2005-06-25, 18:38:05
Ich finde es erstaunlich, dass oppainter nur die GPU mit Wasser kühlt und sowohl die Ram-Chips, als auch die Spannungswandler lediglich passiv, ohne jeglichen Luftstrom.

Da scheint sich, verglichen mit den HiEnd-Vorgängern, also einiges getan zu haben.

Coda
2005-06-25, 18:42:31
Ja, deswegen wird der HSI-Chip so heiss... xDEr wird heiß genug dass man ihn passiv kühlen muss - das ist relativ schnell der Fall.

Gast
2005-06-25, 18:42:35
Hier könnts mal reinschaun, WIE CPU Limitiert der 3DMark05 wirklich ist, warum testet man sowas nicht eher ^^

Ein FX-55 von 2GHz bis 2,932GHz

http://www.vr-zone.com/?i=2367&s=12

dildo4u
2005-06-25, 18:43:28
Hier könnts mal reinschaun, WIE CPU Limitiert der 3DMark05 wirklich ist, warum testet man sowas nicht eher ^^

Ein FX-55 von 2GHz bis 2,932GHz

http://www.vr-zone.com/?i=2367&s=12
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3187325#post3187325

Gast
2005-06-25, 18:45:20
Du hast keine Ahnung...



und du schon :lol:



Ja, deswegen wird der HSI-Chip so heiss... xD

kann aber nicht so schlimm sein, sonst würde ein NV40 auf pci-express deutlich heißer werden und wahrscheinlich auch nicht so gut taktbar sein wie auf AGP, schließlich heizt der HSI-chip ja die GPU mit auf.

dildo4u
2005-06-25, 19:01:20
Hier noch ein Paar bench Ergebnisse aus dem Hardwareluxx Forum der hat eine xfx bekommen


Karte
http://www.forumdeluxx.de/forum/showpost.php?p=2036191&postcount=80

Ergebnisse
http://www.forumdeluxx.de/forum/showpost.php?p=2037343&postcount=128

Gast
2005-06-25, 19:03:30
Ups nicht gesehen, da das Forum öfters mal wegbricht, verliert man zuweilen den Fahden.

Man muss das Thema CPU Limitierung auch mal mit 2 Augen sehen. Gibt Leute wie mich die einen A3200+ haben und mit der 7800GTX einfach nur hohe Auflösung + TAA/AF haben wollen damit endlich die Monster Alpha Texturen in Spielen wie Daoc und WoW endlich mal gescheit aussehen und nicht wie ne Schüssel Crispys.

Es kommt auch stark auf das Spiel an, welche Komponente bremmst, aber wenn ich nur 1600 in 8xaa betrachte muss ich mich ja nicht wundern das die Karte da einsackt, die hat dann ca. die Füllrate einer großen GF4...

Fazit: Die Karte is das beste was der Markt imoment hergibt, Speed in Standart Scenarien ist nicht mehr wichtig, es gilt immer stärker Grafikqualität in hoher Auflösung darbieten zu können.
Ich hoffe das FSAA mit SS+MS Kombinationen Salongfähig wird, denn egal wieviele Spezialeffekte ich auf den Screen zauber, bringt nix wenn die Flimmern und Treppen haben!

Gast
2005-06-25, 19:15:16
Es kommt auch stark auf das Spiel an, welche Komponente bremmst, aber wenn ich nur 1600 in 8xaa betrachte muss ich mich ja nicht wundern das die Karte da einsackt, die hat dann ca. die Füllrate einer großen GF4...



bei 8xS bleibt noch immer eine füllrate von ca. 5,2 Mpixel/s über, was nur knapp unter einer 6800GT liegt.

BlackArchon
2005-06-25, 19:41:23
Er wird heiß genug dass man ihn passiv kühlen muss - das ist relativ schnell der Fall.
Da drängt sich mir gleich eine Frage auf: warum wird der HSI bei den AGP-6600ern passiv gekühlt, bei den PCIe-6800ern aber aktiv? Ist das nur eine Entscheidung aus Platzmangel (bei den PCIe-6800ern), oder warum ist das so?

deekey777
2005-06-25, 19:44:25
Sitzt der HSI-Chip bei der NV45 nicht direkt auf dem Chip neben dem NV40 Core?
Wo wir schon dabei sind: Welche Chips werden eigenltich bei der 6800 Vanilla AGP verbaut - NV40 (mies) oder NV41/NV42+HSI?

€: Zum Thema zurück. Kann der G70 eigentlich h264 in Hardware mit seinem Videoprozessor decodieren?

Gast
2005-06-25, 20:08:26
Da drängt sich mir gleich eine Frage auf: warum wird der HSI bei den AGP-6600ern passiv gekühlt, bei den PCIe-6800ern aber aktiv? Ist das nur eine Entscheidung aus Platzmangel (bei den PCIe-6800ern), oder warum ist das so?

Es gibt keinen HSI Chip auf PCIe Karten. Bis auf den NV44a sind alle Chips mit nativem PCIe Interface ausgestattet.

Gast
2005-06-25, 20:14:44
Wo wir schon dabei sind: Welche Chips werden eigenltich bei der 6800 Vanilla AGP verbaut - NV40 (mies) oder NV41/NV42+HSI?

NV40


€: Zum Thema zurück. Kann der G70 eigentlich h264 in Hardware mit seinem Videoprozessor decodieren?

irgendwo mein ich gelesen zu haben dass es wohl erst zum jahreswechsel entsprechende treiber/decoder geben wird.

ShadowXX
2005-06-25, 20:14:56
Hier noch ein Paar bench Ergebnisse aus dem Hardwareluxx Forum der hat eine xfx bekommen


Karte
http://www.forumdeluxx.de/forum/showpost.php?p=2036191&postcount=80

Ergebnisse
http://www.forumdeluxx.de/forum/showpost.php?p=2037343&postcount=128

Wenn er das OCing mit dem Standardkühler hinbekommen hat muss ich sagen "hut ab nVidia"...

Normal läuft die XFX-Karte mit 450/625......mal sehen ob meine XFX auch 490/675 mitmacht....Montag oder Dienstag sollte Sie kommen.

ShadowXX
2005-06-25, 20:17:02
irgendwo mein ich gelesen zu haben dass es wohl erst zum jahreswechsel entsprechende treiber/decoder geben wird.

Wobei ich es von nV immer noch doof finde, das man zum beschleunigten En/Decoden noch spezielle SW braucht, die nicht mitgeliefert wird.

Zumindest bei den GTXen sollte man eigentlich erwarten können, das Sie entsprechende SW mitliefern....ist teuer genug.

Blaire
2005-06-25, 20:23:55
Hab mal ein paar Sachen getestet

AMD64 3500@2500
2x 7800GXT (430/1200)
Forceware 77.72

Battlefield 2 Timedemo ( auf Guru3d.com kann man sie downloaden)
1600x1200 4xFSAA/16xAF High Quality (alle Optimierungen aus!)
85 fps

3D Mark 2005
11100

Doom3 1600x1200 4xFSAA/16xAF High Quality Opt.aus Demo1
81,4 fps

Doom3 1600x1200 8xFSAA/16xAF High Quality Opt.aus Demo1
50 fps

Farcry HDR Mode "7" (Quality Mode Opt.an) Training Timedemo
1600x1200 8xAF
49 fps

Halflife2
1600x1200 8xFSAA/16xAF HQ Opt.aus
Canalsdemo: 64 fps

BlackArchon
2005-06-25, 20:28:24
Es gibt keinen HSI Chip auf PCIe Karten. Bis auf den NV44a sind alle Chips mit nativem PCIe Interface ausgestattet.
Lol, und was ist dann ein paar Millimeter unter der GPU meiner PCIe-6800 GT? :D

Coda
2005-06-25, 20:32:13
Da drängt sich mir gleich eine Frage auf: warum wird der HSI bei den AGP-6600ern passiv gekühlt, bei den PCIe-6800ern aber aktiv? Ist das nur eine Entscheidung aus Platzmangel (bei den PCIe-6800ern), oder warum ist das so?Der HSI ist beim NV45 mit auf dem Package. Auf den eh schon großen NV40 Boards war wohl kein Platz für einen HSI auf dem PCB.

Gast
2005-06-25, 20:39:16
Wobei ich es von nV immer noch doof finde, das man zum beschleunigten En/Decoden noch spezielle SW braucht, die nicht mitgeliefert wird.


ist doch irgendwie logisch oder? du brauchst immer eine decoder-software, oder verlangst du von nvidia etwa auch dass sie gleich mal einige gratis SM3-spiele rausbringen?

deekey777
2005-06-25, 20:43:06
ist doch irgendwie logisch oder? du brauchst immer eine decoder-software, oder verlangst du von nvidia etwa auch dass sie gleich mal einige gratis SM3-spiele rausbringen?

Nein, irgendwie unlogisch, denn die Grafikkarten haben einen umworbenen Videoprozessor, für den die Kunden zahlen dürfen.
Bei meiner 9800pro ist es dagegen anders, ich kann mich gegenüber ATi nicht beschweren, sondern nur auf die passende Software wie zB der DivX Player warten.

Raff
2005-06-25, 21:15:24
Nett, Blaire. Die Karten sind einfach zu schnell. ;)
Wäre übrigens super, wenn du im Benchmarking-Forum in den einzelnen Threads mitmischen würdest. Das gibt beste Vergleichbarkeit. =)

MfG,
Raff

ShadowXX
2005-06-25, 21:27:05
Nein, irgendwie unlogisch, denn die Grafikkarten haben einen umworbenen Videoprozessor, für den die Kunden zahlen dürfen.
Bei meiner 9800pro ist es dagegen anders, ich kann mich gegenüber ATi nicht beschweren, sondern nur auf die passende Software wie zB der DivX Player warten.

Juppsss...genau das meinte ich.

Ich will ja gar nicht einen SW-DVD-Player mit dabei liegen haben, sondern nur die passenden Plug-Ins für die am Markt gängigen Media-Player.

Das gleiche gilt fürs Encoden....

BlackArchon
2005-06-25, 21:31:24
...Auf den eh schon großen NV40 Boards war wohl kein Platz für einen HSI auf dem PCB.Eben dieser Punkt interessiert mich sehr. Gibt es da irgendwo offizielle Stellungnahmen von Nvidia o.ä.?

Gast
2005-06-25, 21:38:07
Nein, irgendwie unlogisch, denn die Grafikkarten haben einen umworbenen Videoprozessor, für den die Kunden zahlen dürfen.
Bei meiner 9800pro ist es dagegen anders, ich kann mich gegenüber ATi nicht beschweren, sondern nur auf die passende Software wie zB der DivX Player warten.

du hast auch den videoprozessor in deiner grafikkarte, das man dafür software braucht ist doch klar, und niemand hält MS auf den mediaplayer entsprechen zu programmieren dass der VP benutzt wird (was ja auch gemacht wurde)

wenn du eine cpu kaufst hast duch auch noch nix davon, die software dazu musst du auch extra kaufen. ebenso wie du von der graka nix hast wenn es keine software dazu gibt.

Quasar
2005-06-25, 23:00:13
Eben dieser Punkt interessiert mich sehr. Gibt es da irgendwo offizielle Stellungnahmen von Nvidia o.ä.?

Auf den AGP-Karten der nV40, auf den PCIe-Karten sollte der nV41 (2?) jedenfalls der mit 12/5 in HW zu finden sein.

BlackArchon
2005-06-25, 23:06:58
Nein, das meinte ich nicht. Mir gings darum, ob der HSI-Chip bei den PCIe-6800 GTs und -Ultras vom GPU-Kühler aktiv gekühlt wird, weil der zu heiß wird oder weil das platztechnisch nicht anders ging.

Quasar
2005-06-25, 23:12:52
Als Anhaltspunkt dürfte taugen, daß der GT/Ultra-Referenzkühler schon weit vor den gebrückten Karten existierte und sich 'dank' Bridge-on-Package auch direkt dazu eignete, diese mitzukühlen.
Bei den 6600ern waren die PCIe-Versionen ja zuerst da. Hier musste eine externe Lösung für die Bridge gefunden werden.

Gast
2005-06-25, 23:34:42
Nein, das meinte ich nicht. Mir gings darum, ob der HSI-Chip bei den PCIe-6800 GTs und -Ultras vom GPU-Kühler aktiv gekühlt wird, weil der zu heiß wird oder weil das platztechnisch nicht anders ging.


ich schätz mal dass es so einfach billiger war die karte herzustellen, außerdem hatte man damit nun den tollen "nv45"-chip ;)

(del676)
2005-06-26, 10:35:20
http://www.nvnews.net/articles/chrisray_iq/7800gtx/hl4xnorm.png
http://www.nvnews.net/articles/chrisray_iq/7800gtx/hl4xtsaagamma.png

einmal ohne einmal mit TR SSAA
warum ist das Geländer das man durch den Zaun sieht auf dem Shot mit TRSSAA so weiss?

Xmas
2005-06-26, 11:32:32
Ist ein Bug, der mit aktiviertem TSAA in HL2 an mehreren Stellen auftritt und NVidia schon bekannt ist.

Hellfire-Torrod
2005-06-26, 13:17:31
http://www.ldlc.ch/fiche/PB00030399.html
http://www.ldlc.ch/fiche/PB00030411.html

Was kann man dazu sagen ?

SKYNET
2005-06-26, 13:59:41
http://www.ldlc.ch/fiche/PB00030399.html
http://www.ldlc.ch/fiche/PB00030411.html

Was kann man dazu sagen ?


bestellen?

Hellfire-Torrod
2005-06-26, 14:05:08
bestellen?

Ich verstehe leider kein Französisch.

Gast
2005-06-26, 14:08:29
Ich kenn nen Trottel, der sich 2x 6800 Ultras gekauft hat :D

Dunkeltier
2005-06-26, 14:09:59
Ich kenn nen Trottel, der sich 2x 6800 Ultras gekauft hat :D


Und nun nicht mehr den längsten Balken hat? :biggrin:

Gast
2005-06-26, 14:11:36
Der beste bisher veröffentlichte Test ist meiner Meinung nach (wieder einmal) von Beyond3D.

Ich will absolut keinen Stunk machen, sondern für Verbesserung motivieren: der bisherige 3DCenter Test ist einfach schwach.


Ich halte den Beyond3D-Test auch für den besten. Ich möchte aber anmerken, daß die gesamten englischsprachigen Tests alle viel mehr Zeit hatten als ich. Ich konnte nur ein Sparprogramm fahren.

L. @ Mozilla
2005-06-26, 14:12:16
Ich halte den Beyond3D-Test auch für den besten. Ich möchte aber anmerken, daß die gesamten englischsprachigen Tests alle viel mehr Zeit hatten als ich. Ich konnte nur ein Sparprogramm fahren.


PS: Posting von L. @ Mozilla

(del676)
2005-06-26, 14:14:56
Ich kenn nen Trottel, der sich 2x 6800 Ultras gekauft hat :D

?
warum ist der ein Trottel?

Mumins
2005-06-26, 14:24:28
bestellen?

Wenn man den Zoll draufrechnet, kannste auch in D bestellen.

Hellfire-Torrod
2005-06-26, 14:25:54
Wenn man den Zoll draufrechnet, kannste auch in D bestellen.

100€ Zoll?

SKYNET
2005-06-26, 14:27:58
Wenn man den Zoll draufrechnet, kannste auch in D bestellen.


innerhalb der EU gibt es kein zoll.... :P

Hellfire-Torrod
2005-06-26, 14:29:07
innerhalb der EU gibt es kein zoll.... :P

Aber die Schweiz is doch garnicht in der EU (hat aber ein besonderes handelsabkommen(zollfrei?!))

dildo4u
2005-06-26, 14:33:30
100€ Zoll?
bei 450€ und 16% zoll sinds 72€ also 525€ insgesammt.

SKYNET
2005-06-26, 14:34:09
Aber die Schweiz is doch garnicht in der EU (hat aber ein besonderes handelsabkommen(zollfrei?!))


oooops, habe garnicht druff geachtet das es französische schweiz ist...
nur franz sprache gesehn... mhh, das ändert die sache natürlich etwas.
aber ich denke nicht das man aus der schweiz zoll drücken muss... :|

Cyberboy
2005-06-26, 14:34:30
Aber die Schweiz is doch garnicht in der EU (hat aber ein besonderes handelsabkommen(zollfrei?!))

Richtig, nur billaterale Abkommen...
Es wird garantiert Einfuhrzoll erhoben...

Cyberboy
2005-06-26, 14:35:44
aber ich denke nicht das man aus der schweiz zoll drücken muss... :|

aber 100% garantiert...

Spasstiger
2005-06-26, 14:41:03
bei 450€ und 16% zoll sinds 72€ also 525€ insgesammt.

Man rechnet normalerweise 16% Mehrwertsteuer + 4% Zoll, also 20% draufschlagen.
Sind dann bei 450€ im Endeffekt 540€ + Versand.

Uzundiz
2005-06-26, 14:50:04
Hallo wollte mal fragen ob die 7800 nun auch 3DC hat? Im neuen 3dcenter-Artikel steht nix davon. Aber in einem früheren Interview wurde bestätigt, dass die neue Generation 3DC unterstützt.

Hellfire-Torrod
2005-06-26, 14:51:03
Hallo wollte mal fragen ob die 7800 nun auch 3DC hat? Im neuen 3dcenter-Artikel steht nix davon. Aber in einem früheren Interview wurde bestätigt, dass die neue Generation 3DC unterstützt.

3DC ist ATI only!

Hat bisher auber auch 0 gebraucht

Hauwech
2005-06-26, 14:52:12
3DC ist ATI only!

Hat bisher auber auch 0 gebraucht

Schon NV40 kann 3DC, wenn auch nur per Emulation.

Gast
2005-06-26, 14:53:09
Hallo wollte mal fragen ob die 7800 nun auch 3DC hat? Im neuen 3dcenter-Artikel steht nix davon. Aber in einem früheren Interview wurde bestätigt, dass die neue Generation 3DC unterstützt.

treibermäßig kann es auch der nv40, aber die entsprechende hardwaremäßige unterstützung ist wohl nicht vorhanden.

Uzundiz
2005-06-26, 15:05:42
Hallo, ich weiß, dass der NV40 es treibermäßig kann. Aber beim G70 sollte es durch Hardware realisiert werden. Das hatte ich mal irgendwo gelesen. Außerdem dachte ich bisher, dass 3DC ein "Open Source Projekt" (richtiges wort? :D ) ist, und daher nicht ATI-Only!

Gast
2005-06-26, 15:07:21
prinzipiell kann es jeder einbauen, auch nvidia, offenbar sehen sie es aber nicht als sinnvoll genug.

Uzundiz
2005-06-26, 15:12:13
Also ich find es doch schon sinvoll, obsohl es nur eine 2:1 komprimierung ist... Ich habe mal bilder gesehen von SS2 mit 3DC und ohne 3DC. Mann konnte sehr viel mehr details sehen. Für mich würde es sich lohnen....

Außerdem soll es ja laut ATI für die Spieleentwickler leicht programierbar sein...

Spasstiger
2005-06-26, 15:18:05
Also ich find es doch schon sinvoll, obsohl es nur eine 2:1 komprimierung ist... Ich habe mal bilder gesehen von SS2 mit 3DC und ohne 3DC. Mann konnte sehr viel mehr details sehen. Für mich würde es sich lohnen....

Außerdem soll es ja laut ATI für die Spieleentwickler leicht programierbar sein...

Ist eine 4:1 Komprimierung.
Bin mal gespannt, ob in SS2 dann auch für Nvidia-Karten 3Dc-Support gegeben ist und welchen Einfluss dieser bei ATI und Nvidia auf die Performance hat.

Coda
2005-06-26, 15:20:34
Also ich find es doch schon sinvoll, obsohl es nur eine 2:1 komprimierung ist... Ich habe mal bilder gesehen von SS2 mit 3DC und ohne 3DC. Mann konnte sehr viel mehr details sehen. Für mich würde es sich lohnen....4:1. Die Emulation von nVIDIA komprimiert immer noch 2:1.

Außerdem soll es ja laut ATI für die Spieleentwickler leicht programierbar sein...Nein. Man muss jeden Shader dafür seperat anpassen. Außerdem funktioniert es nicht wenn man auch negative Normalen braucht.

Gast
2005-06-26, 15:58:47
Also ich find es doch schon sinvoll, obsohl es nur eine 2:1 komprimierung ist... Ich habe mal bilder gesehen von SS2 mit 3DC und ohne 3DC. Mann konnte sehr viel mehr details sehen. Für mich würde es sich lohnen....

Außerdem soll es ja laut ATI für die Spieleentwickler leicht programierbar sein...

es komprimiert 2:1, eine komponente der normale wird einfach weggelassen und muss im pixel-shader rekonstruiert werden, wodurch es nicht mal "einfach" integrierbar ist, und bei shaderlimitierung auch noch leistung kosten kann.

dank der treiber-emulation kannst du z.b. in SS2 auch ohne probleme die qualitativ höherwertigen normalmaps mit 3Dc benutzen, und zumindest farcry zeigt auch nicht wirklich performancevorteile durch 3Dc auf der radeon.

außerdem kann DXTC mit renormalisierung (was beim NV40+ ja quasi "for free" ist) auch vergleichbare ergebnisse erreichen.

knallebumm
2005-06-26, 17:53:30
K.Ahnung obs alt ist, aber hier eine Spekultation von p3dnow, wonach selektierte 7800er Karten mit funktionsfähigen 32 pipes gesammelt werden. Die bisher ausgelieferten haben also 8 deaktivierte, wenn ich das richtig verstanden hab.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1119787107

mapel110
2005-06-26, 17:58:08
K.Ahnung obs alt ist, aber hier eine Spekultation von p3dnow, wonach selektierte 7800er Karten mit funktionsfähigen 32 pipes gesammelt werden. Die bisher ausgelieferten haben also 8 deaktivierte, wenn ich das richtig verstanden hab.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1119787107
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=231251
Bezüglich dessen gibts dort schon eine Diskussion.

-=CHICKEN=-
2005-06-26, 22:14:37
was mir grad einfiel:
die 7800 ist ja CPU begrenzt und jeder würde doch gerne mal wissen, was sie ohne CPU limitierung wohl leisten könnte.
die neuen AMD X2 könnten da schon die antwort bringen.
bleibt nur die frage ob es neue spiele gibt, die multi-CPUs unterstützen. falls ja, muß "nur noch" jemand die 7800 mit dem 4800 X2 kombinieren und mit dem spiel benchen.
am besten wäre es, wenn es ein spiel ist, das mit den X2 nahezu doppelt so schnell läuft.
gibt es schon solche spiele?

das ergebnis würde wohl jeden interressieren :smile:

Zippi
2005-06-26, 22:19:24
soweit ich weiß, ist q3 dualcpu fähig

Gast
2005-06-26, 22:44:04
was mir grad einfiel:
die 7800 ist ja CPU begrenzt und jeder würde doch gerne mal wissen, was sie ohne CPU limitierung wohl leisten könnte.


spätestens mit 16xFSAA ist da keine cpu-limitierung mehr zu sehen.

Hellfire-Torrod
2005-06-26, 22:59:54
K.Ahnung obs alt ist, aber hier eine Spekultation von p3dnow, wonach selektierte 7800er Karten mit funktionsfähigen 32 pipes gesammelt werden. Die bisher ausgelieferten haben also 8 deaktivierte, wenn ich das richtig verstanden hab.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1119787107


Sollte das stimmen finde ich es, gerade im vergleich zur vorherigen generation, doch etwas verwunderlich, das die ausbäute an funktionsfähigen chips doch so hoch ist, das man dierekt zum Launch den markt versorgen kann, gleichzeitig aber auch in der lage ist bestimmte chips in massen zu selektieren.

Gast
2005-06-26, 23:45:33
wann war eigentlich das tape out vom g70?

Hellfire-Torrod
2005-06-26, 23:47:55
wann war eigentlich das tape out vom g70?

imho irgendwan vor Weihnachten!? ich meine da geisterte mal ne news durch das net. Damals noch als NV47 .

Sep.pel
2005-06-27, 00:49:48
;D ich glaube ich werde mir eine 7800gtx gönnen

mal sehen was zukünftige treibe ncoh aus der karte raushollen.

HOT
2005-06-27, 09:31:17
und du schon :lol:



kann aber nicht so schlimm sein, sonst würde ein NV40 auf pci-express deutlich heißer werden und wahrscheinlich auch nicht so gut taktbar sein wie auf AGP, schließlich heizt der HSI-chip ja die GPU mit auf.

Der Chip ist nichts weiter als ein AGP/PCIe Converter, der AGP 3.0 Signale in PCIe Signale verwandelt. Das Ding funktioniert in alle Richtungen und mit allen Chips des jeweiligen Herstellers. Der NV Chip ist wohl generell etwas wärmer als der von ATI (vielleicht günstigerer Fertigungsprozess).
Diesen Chip interessiert nicht, welche Daten dadurch fliessen, sondern er bekommt immer das durchgeblasen, was die CPU an jeden x-beliebigen Grafikchip senden würde. Bei der NV45 ist der HSI schon im Chipgehäuse mit eingebettet um das Kartenlayout möglichst wenig verändern zu müssen, das ist denke ich der einzige Grund. Natürlich wäre es problemlos möglich eine AGP Karte mit G70 zu bauen, das eigentliche Problem hierbei ist aber wohl ähnlich wie beim NV45: Wird der HSI nicht ins Chipgehäuse eingesetzt, so wird das Design der Karte mit solchen Leistungsdaten recht aufwändig: Stromversorgung, Kühlung (die ja bei den HighEnd NV Chips recht grosszügig ausfällt) und 256MB 256Bit VRAM müssen mit GPU und der Bridge sinnvoll angeordnet werden. Es liegt nun bei den Kartenherstellern. Bei ATI hat man das Problem gelöst, indem man den HSI hinten auf das PCB gekleister hat, das wird aber vergleichsweise unpraktisch, wenn der auchnoch gekühlt werden muss.

robbitop
2005-06-28, 11:01:08
Der Chip ist nichts weiter als ein AGP/PCIe Converter, der AGP 3.0 Signale in PCIe Signale verwandelt. Das Ding funktioniert in alle Richtungen und mit allen Chips des jeweiligen Herstellers. Der NV Chip ist wohl generell etwas wärmer als der von ATI (vielleicht günstigerer Fertigungsprozess).
Diesen Chip interessiert nicht, welche Daten dadurch fliessen, sondern er bekommt immer das durchgeblasen, was die CPU an jeden x-beliebigen Grafikchip senden würde. Bei der NV45 ist der HSI schon im Chipgehäuse mit eingebettet um das Kartenlayout möglichst wenig verändern zu müssen, das ist denke ich der einzige Grund. Natürlich wäre es problemlos möglich eine AGP Karte mit G70 zu bauen, das eigentliche Problem hierbei ist aber wohl ähnlich wie beim NV45: Wird der HSI nicht ins Chipgehäuse eingesetzt, so wird das Design der Karte mit solchen Leistungsdaten recht aufwändig: Stromversorgung, Kühlung (die ja bei den HighEnd NV Chips recht grosszügig ausfällt) und 256MB 256Bit VRAM müssen mit GPU und der Bridge sinnvoll angeordnet werden. Es liegt nun bei den Kartenherstellern. Bei ATI hat man das Problem gelöst, indem man den HSI hinten auf das PCB gekleister hat, das wird aber vergleichsweise unpraktisch, wenn der auchnoch gekühlt werden muss.

Kleine Korrektur: beim NV45 sitzt der HSI lediglich mit auf dem Package. In den Chip ist er nicht eingebettet.
Ist IMO die beste Variante. Allerdings ist der Hersteller dann unflexibler, da er das gekaufte Package nicht auseinanderreissen kann.

Ailuros
2005-06-28, 11:06:58
wann war eigentlich das tape out vom g70?

Q4 2004.

Ailuros
2005-06-28, 11:13:26
Ich kenn nen Trottel, der sich 2x 6800 Ultras gekauft hat :D

a) Rechne den momentanen Leistungsunterschied im Durchschnitt zwischen 6800U und 7800GTX aus.

b) Rechne den momentanen Leistungsunterschied im Durschnitt zwischen 6800U und 6800U@SLi aus.

Jetzt rechne obrige Resultate von folgenden Zahlen ab:

2*6800U:

1275M Vertices/sec
13.6 GPixels/sec

7800GTX:

860M Vertices/sec
10.3 GPixels/sec

deekey777
2005-06-28, 12:28:38
Moment, wie wird jetzt die Pixelfüllrate berechnet? VPU-Takt x Anzahl der ROPs, oder?

HOT
2005-06-28, 12:43:56
Kleine Korrektur: beim NV45 sitzt der HSI lediglich mit auf dem Package. In den Chip ist er nicht eingebettet.
Ist IMO die beste Variante. Allerdings ist der Hersteller dann unflexibler, da er das gekaufte Package nicht auseinanderreissen kann.

Package = Chipgehäuse ;)
Zumindest war es so gemeint.

MadManniMan
2005-06-28, 12:48:28
Moment, wie wird jetzt die Pixelfühlrate berechnet? VPU-Takt x Anzahl der ROPs, oder?

Joar, die Pixelfüllrate schon.

Die Pixelfühlrate ermittelst du, indem du die eben errechnete Fühlrate durch das Reziproke der Bandbreite teilst :D

deekey777
2005-06-28, 12:57:03
Joar, die Pixelfüllrate schon.

Die Pixelfühlrate ermittelst du, indem du die eben errechnete Fühlrate durch das Reziproke der Bandbreite teilst :D

:P
Hab mich verschrieben. Wenn du es mir nicht glaubst, suche nach "Pixelfühlrate". ;D

MadManniMan
2005-06-28, 13:07:44
:P
Hab mich verschrieben. Wenn du es mir nicht glaubst, suche nach "Pixelfühlrate". ;D

Dein Schreibfehler wird auf immer und ewig durch mein Zitat erkenntlich bleiben - HARRHARR! :naughty:

Genug des Spams, zurück zum Thema :|

DrumDub
2005-06-28, 13:12:11
was ailuros für die 7800gtx ausgerechnet hat, ist imho falsch. die texelfüllrate der 7800gtx beträgt 10,32 gtexel/sec, die pixelfüllrate aber nur 6,88 gpixel/sec.

Gast
2005-06-28, 13:45:38
was ailuros für die 7800gtx ausgerechnet hat, ist imho falsch. die texelfüllrate der 7800gtx beträgt 10,32 gtexel/sec, die pixelfüllrate aber nur 6,88 gpixel/sec.

Eigentlich ja.
Ist aber sowieso sinnlos, da jede reale Anforderund noch deutlich andere Hürden aufstellt, so daß man froh sein kann, überhaupt am Ende 1 Mrd. Pixel die ROPs pro Takt verlassen zu sehen.

dildo4u
2005-06-28, 21:01:56
Leadtek gibt jetzt für ihre 7800GTX Karten auch ein OC bios frei 450/1250 sind die neuen Taktraten die Garantie bleibt erhalten.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/juni/leadtek_takt_7800_gtx-karten/

Godmode
2005-06-28, 21:10:27
Was ist eigentlich mit dem On Die/Package SLI, davon war ja mal die Rede? Könnte man sowas einfach realisieren?

Gast
2005-06-28, 21:33:18
Was ist eigentlich mit dem On Die/Package SLI, davon war ja mal die Rede? Könnte man sowas einfach realisieren?

wäre relativ sinnlos, du hast die nachteile von SLI (keine 100%ige mehrleistung, teilweise inkompatibilitäten) ohne dessen vorteile (leichtere fertigung da weniger transistoren/die, leichtere kühlung bei 2 getrennten DIEs...)

es wäre da sinnvoller einen einzelnen CHIP mit doppelter pipe-anzahl zu fertigen, braucht weniger transistoren (viele sachen brauchen nicht doppelt vorhanden zu sein) und ist wesentlich effizienter.

SKYNET
2005-06-29, 11:23:26
unneu?:
http://www.xtremesystems.org/forums/showthread.php?t=67161

Xmas
2005-06-29, 17:50:41
wäre relativ sinnlos, du hast die nachteile von SLI (keine 100%ige mehrleistung, teilweise inkompatibilitäten) ohne dessen vorteile (leichtere fertigung da weniger transistoren/die, leichtere kühlung bei 2 getrennten DIEs...)
Für zwei Dice pro Package trifft das aber so nicht zu. Dort hätte man gegenüber einem Die mit doppelter Pipe-Anzahl den Yield-Vorteil (der im High-End-Bereich recht groß sein kann). On-Package kann man auch viel schneller kommunizieren als mit SLI-Brücke, siehe Xenos.

Ich halte es durchaus für möglich dass wir bald Dual-Die sehen werden. Redundante Teile kann man ja permanent abschalten und somit auch die höhere Leistungsaufnahme eindämmen.

Gast
2005-06-29, 18:27:30
Für zwei Dice pro Package trifft das aber so nicht zu.


ob das sinnvoll kühlbar wäre?

BvB123
2005-06-30, 16:43:28
Hi,

Hier Bilder einer XFX 7800GTX

http://img117.imageshack.us/img117/7390/p62900547ot.th.jpg (http://img117.imageshack.us/my.php?image=p62900547ot.jpg)

http://img117.imageshack.us/img117/801/p62900375zc.th.jpg (http://img117.imageshack.us/my.php?image=p62900375zc.jpg)

http://img117.imageshack.us/img117/6125/p62900410kj.th.jpg (http://img117.imageshack.us/my.php?image=p62900410kj.jpg)

http://img117.imageshack.us/img117/5788/p62900498jx.th.jpg (http://img117.imageshack.us/my.php?image=p62900498jx.jpg)

deekey777
2005-06-30, 18:06:24
Dein Schreibfehler wird auf immer und ewig durch mein Zitat erkenntlich bleiben - HARRHARR! :naughty:

Genug des Spams, zurück zum Thema :|


Du bringst mich zum Heulen... ;(

Leadtek WinFast PX7800 GTX TDH MyVIVO (http://www.hardwarezone.com/articles/view.php?id=1646&cid=3&pg=1)

... Nach dem BIOS-Update. Das Etwas an Takten bringt etwas. :D

dildo4u
2005-06-30, 19:18:30
MSI’s GeForce 7800 GTX 256 MB Review von Game PC

BF2
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=7


Farcry HDR
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=11

Splinter cell 3 Hier wurde whol HDR(SM3.0) und SM2.0 zusammengewürfelt.
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=10

Hellfire-Torrod
2005-06-30, 19:24:00
MSI’s GeForce 7800 GTX 256 MB


btw. weis jemand wann Alternate den gewinner seines Gewinnspiels preis gibt?

Quasar
2005-06-30, 21:56:15
MSI’s GeForce 7800 GTX 256 MB Review von Game PC
BF2
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=7

Wie kann eine X850 XTPE ~14,8% schneller sein, als eine X850 XT? Die "Methode" stinkt.

Gast
2005-07-01, 08:20:08
btw. weis jemand wann Alternate den gewinner seines Gewinnspiels preis gibt?

vielleicht nie... die behalten die karte für sich.....

Crushinator
2005-07-01, 12:18:47
Wie kann eine X850 XTPE ~14,8% schneller sein, als eine X850 XT? Die "Methode" stinkt.
Ich stehe gerade auf dem Schlauch. Steht da nicht was von XT und XT Platinum? :confused:

[Edit]
Ich bin jetzt wieder vom Schlauch runter, Post bitte einfach übersehen, ksrythx.

deekey777
2005-07-01, 12:59:59
MSI’s GeForce 7800 GTX 256 MB Review von Game PC

BF2
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=7


Farcry HDR
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=11

Splinter cell 3 Hier wurde whol HDR(SM3.0) und SM2.0 zusammengewürfelt.
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=10

http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=12
:|
Da ist wohl ein Fehler...

DrumDub
2005-07-01, 13:32:08
http://www.gamepc.com/labs/view_content.asp?id=7800gtx&page=12
:|
Da ist wohl ein Fehler... allerdings. wobei ich von den werten der ati-karten darauf schleiße, dass es sich um ein mpeg2 hd video handelt. die werte für g70 und nv40 sind definitiv zu schlecht: http://www.xbitlabs.com/articles/video/display/g70-indepth_17.html

deekey777
2005-07-01, 13:36:15
allerdings. wobei ich von den werten der ati-karten darauf schleiße, dass es sich um ein mpeg2 hd video handelt. die werte für g70 und nv40 sind definitiv zu schlecht: http://www.xbitlabs.com/articles/video/display/g70-indepth_17.html

"Windows Media HD Video Playback"

Bei einem Intel Pentium 4 660 (3.6 GHz) müßte es schon passen. Bei einem HD-MPEG2 Video wäre die CPU-Auslastung dagegen beinahe zu hoch.

DrumDub
2005-07-01, 13:52:35
"Windows Media HD Video Playback"

Bei einem Intel Pentium 4 660 (3.6 GHz) müßte es schon passen. Bei einem HD-MPEG2 Video wäre die CPU-Auslastung dagegen beinahe zu hoch. hmm... stimmt auch wieder. auf jeden fall sind die werte für den g70 zu hoch.

TiggleD
2005-07-01, 14:32:05
?? WMV ist Mpeg-4 ??

Ich finde das passt schon
http://www.xbitlabs.com/images/video/geforce-7800/divx.gif

DrumDub
2005-07-01, 14:42:56
?? WMV ist Mpeg-4 ??

Ich finde das passt schon
mehr als doppelt so hohe durchschnittswerte beim g70, weil es bei dem einen test ne p4 550@3,6ghz und beim anderen nen p4 660 ist? irgendwas ist da faul..

deekey777
2005-07-01, 15:02:38
?? WMV ist Mpeg-4 ??

Ich finde das passt schon
http://www.xbitlabs.com/images/video/geforce-7800/divx.gif

Jein. WMV9 ist zwar ein MPEG4 Codec, aber leider ein eigenes Süppchen.

Getestet wurde mit DivX als Codec, ich bin mir aber auch nicht sicher, ob die DivX Beschleunigung der DX9 Radeons mit dem WMP funktioniert.

TiggleD
2005-07-01, 15:19:01
Jein. WMV9 ist zwar ein MPEG4 Codec, aber leider ein eigenes Süppchen.

Getestet wurde mit DivX als Codec, ich bin mir aber auch nicht sicher, ob die DivX Beschleunigung der DX9 Radeons mit dem WMP funktioniert.Habe ich auch bemerkt. Diese Grafik wäre die richtige:
http://www.xbitlabs.com/images/video/geforce-7800/hdtv.gif
ATI beschleunigt nur WMV. Der R520 soll auch ... wie die 7800...wenn die Treiber fertig sind.

Die unterschiede sind merkwürdig. Ob Xbitlabs auch wirklich die wmv-beschleunigung aktiviert hat...?

i muss ma ebn andre tests b-guggn gehn...

Edit (endlich was gefunden...):
http://www.pcper.com/images/reviews/150/hddecode.gif
trau, schau, wem. Am besten man testet selbst. :mad:

Diese Disziplin wird wohl eh erst richtig interessant, wenn ATI die R520 raus hat und nVidia ihren Treiber fertig (~ende 2005?). Dann sollen beide H.264 beschleunigen können. Nicht nur den ollen wmv... Hoffentlich gibts dann auch mal ein paar Tests die sich näher und ausführlicher mit der Videobeschleunigung befassen. :smile:

Coda
2005-07-01, 17:45:53
Der Videoprozessor (wenn er funktioniert) der GeForce 6/7 Serie sollte so gut wie alles beschleunigen können.

deekey777
2005-07-01, 17:48:43
Der 7800GTX hat doch jetzt eine h264 Beschleunigung seit dem 80er Treiber, doch mit welcher Software?

Kladderadatsch
2005-07-01, 22:13:29
das passt jetzt zwar nicht so wirklich; aber warum kommt the inquirer erst wochen nach g70 release darauf, dass dieser ein refresh chip (http://www.theinquirer.net/?article=24306) ist:confused:

oder wurde der von nv wirklich als neuentwicklung beworben?

Quasar
2005-07-01, 22:30:52
das passt jetzt zwar nicht so wirklich; aber warum kommt the inquirer erst wochen nach g70 release darauf, dass dieser ein refresh chip (http://www.theinquirer.net/?article=24306) ist:confused:

oder wurde der von nv wirklich als neuentwicklung beworben?
Weil The INQ dir auch die Tatsache als Sensation verkaufen würde, daß die Erde um die Sonne kreist.

Und genügend Leute klicken dann auch noch auf deren dümmliche Seite um das selbst zu lesen. So funktioniert INQ.

Blaire
2005-07-02, 00:37:30
Es scheint leider so zu sein das Nvidia mit der 7800GTX Reihe es nicht mehr möglich macht , alle! Optimierungen auszustellen.
Vorher war dies mit den 6800 Karten noch problemlos möglich...
Das hat nun zur Folge das ich trotz "HighQuality" im Treiber in fast jedem Game ein grieseln bzw. flimmern wahrnehme , als wären die Optimerungen enabled.
Bei den 6800er Karten die ich vorher hatte, war im HighQuality Modus niemals ein Flimmern oder Grieseln sichtbar.
Ich finde das eine Riesensauerei von Nvidia. Speed ist nunmal nicht alles! :(

Gast
2005-07-02, 00:46:44
Es scheint leider so zu sein das Nvidia mit der 7800GTX Reihe es nicht mehr möglich macht , alle! Optimierungen auszustellen.
Vorher war dies mit den 6800 Karten noch problemlos möglich...
Das hat nun zur Folge das ich trotz "HighQuality" im Treiber in fast jedem Game ein grieseln bzw. flimmern wahrnehme , als wären die Optimerungen enabled.
Bei den 6800er Karten die ich vorher hatte, war im HighQuality Modus niemals ein Flimmern oder Grieseln sichtbar.
Ich finde das eine Riesensauerei von Nvidia. Speed ist nunmal nicht alles! :(

Und wo scheint das so zu sein? Ich seh in WoW kein unterschied und hab ne 6800GT als auch ne 7800GTX, und TSAA ist ein Segen ;)

Blaire
2005-07-02, 00:54:14
Ich seh den Unterschied in jedem Game was ich bisher getestet habe. Supersampling elimiert dieses Grieseln bzw.Flimmern zwar nahezu komplett,
aber ich möchte auch ein sauberes Bild bei Standardsettings!!
Unter normalen Settings z.b. 4xFSAA/16xAF und HighQuality im Treiber sieht man überall ein grieseln oder flimmern (Battlefield2,Ut2004,Halflife2 oder Doom3 überall das gleiche, kein Vergleich zu meinen vorherigen 6800GTs da flimmerte oder grieselte garnix...)

(del676)
2005-07-02, 01:31:21
Ich seh den Unterschied in jedem Game was ich bisher getestet habe. Supersampling elimiert dieses Grieseln bzw.Flimmern zwar nahezu komplett,
aber ich möchte auch ein sauberes Bild bei Standardsettings!!
Unter normalen Settings z.b. 4xFSAA/16xAF und HighQuality im Treiber sieht man überall ein grieseln oder flimmern (Battlefield2,Ut2004,Halflife2 oder Doom3 überall das gleiche, kein Vergleich zu meinen vorherigen 6800GTs da flimmerte oder grieselte garnix...)

kann ich nicht bestätigen, allerdings stelle ich meine settings nur per nvidia treiber ein, force immer high quality
nur wenn ich quality nehme fängt es an zu flimmern

DanMan
2005-07-02, 02:04:35
Ich seh den Unterschied in jedem Game was ich bisher getestet habe. Supersampling elimiert dieses Grieseln bzw.Flimmern zwar nahezu komplett,
aber ich möchte auch ein sauberes Bild bei Standardsettings!!
Unter normalen Settings z.b. 4xFSAA/16xAF und HighQuality im Treiber sieht man überall ein grieseln oder flimmern (Battlefield2,Ut2004,Halflife2 oder Doom3 überall das gleiche, kein Vergleich zu meinen vorherigen 6800GTs da flimmerte oder grieselte garnix...)
LOD-Clamp aktiviert?

Razor
2005-07-02, 07:30:50
Es scheint leider so zu sein das Nvidia mit der 7800GTX Reihe es nicht mehr möglich macht , alle! Optimierungen auszustellen.
Vorher war dies mit den 6800 Karten noch problemlos möglich...
Das hat nun zur Folge das ich trotz "HighQuality" im Treiber in fast jedem Game ein grieseln bzw. flimmern wahrnehme , als wären die Optimerungen enabled.
Bei den 6800er Karten die ich vorher hatte, war im HighQuality Modus niemals ein Flimmern oder Grieseln sichtbar.
Ich finde das eine Riesensauerei von Nvidia. Speed ist nunmal nicht alles! :(Sorry, dass ich so blöd Frage...
...bitte ignorieren, wenn bekannt!

Aber:

Du hast im frisch installierten Treiber (!) auf "Quality" gestellt, alle Optimierungen manuell deaktiviert und NegLODbias auf "Clamp", um dann auf "High Quality" zu switchen und das 'griseln' wahr zu nehmen?

War halt oftmals ein 'Problem' bei den vorherigen Treibern...
Welche hast Du übrigens getestet?

Razor

Dunkeltier
2005-07-02, 07:59:42
Sorry, dass ich so blöd Frage...
...bitte ignorieren, wenn bekannt!

Aber:

Du hast im frisch installierten Treiber (!) auf "Quality" gestellt, alle Optimierungen manuell deaktiviert und NegLODbias auf "Clamp", um dann auf "High Quality" zu switchen und das 'griseln' wahr zu nehmen?

War halt oftmals ein 'Problem' bei den vorherigen Treibern...
Welche hast Du übrigens getestet?

Razor


Das Grieseln ist trotz High Quality auch bei mir auf meiner Geforce 7800 GTX vorhanden. Außer dem "Grieseln" gibt es auch noch zwei sichtbare Bugwellen. Soviel zum Thema High-Quality (AF).

(del676)
2005-07-02, 10:08:40
Das Grieseln ist trotz High Quality auch bei mir auf meiner Geforce 7800 GTX vorhanden. Außer dem "Grieseln" gibt es auch noch zwei sichtbare Bugwellen. Soviel zum Thema High-Quality (AF).

dann hast du nur falsch eingestellt. bei mir kann ich das grieseln und die bugwellen per treiber deaktivieren - sieht man besonders in BF2 sofort.

oder siehst du hier bugwellen?
http://img253.exs.cx/img253/2932/bf20uq.jpg

Quasar
2005-07-02, 10:10:26
dann hast du nur falsch eingestellt. bei mir kann ich das grieseln und die bugwellen per treiber deaktivieren - sieht man besonders in BF2 sofort.

oder siehst du hier bugwellen?
http://img253.exs.cx/img253/2932/bf20uq.jpg
In dem Bild sind zwei, drei Stellen, wo man eine vermuten könnte. Ja.

Dunkeltier
2005-07-02, 10:30:02
dann hast du nur falsch eingestellt. bei mir kann ich das grieseln und die bugwellen per treiber deaktivieren - sieht man besonders in BF2 sofort.

oder siehst du hier bugwellen?
http://img253.exs.cx/img253/2932/bf20uq.jpg


Dann sind alle nVidia-Besitzer blind. Im übrigen hat diese Bugwelle auch meine Radeon X850 XT gehabt, aber bei der war wenigstens das nervige flimmern der Texturen nicht so grausam. Dafür hat sie aber ab und an das Problem mit den weißen Punkten an den Polygonkanten sowie den weichgespülten Texturen. Irgendwie sieht alles...scheiße aus! ;(

http://img257.imageshack.us/img257/641/noqual6os.jpg
(Bild wurde auf einer Geforce 7800 GTX geschossen.)


Fest steht, auch die Geforce 7800 GTX hat ein Flimmer- sowie ein Bugwellenproblem. :P :mad:


/edit: Habe das Bild mit IrfanView ein wenig aufgehellt (Gamma angehoben), damit man was erkennt. Wäre sonst wohl zu dunkel.

Tjell
2005-07-02, 11:05:11
...
Du hast im frisch installierten Treiber (!) auf "Quality" gestellt, alle Optimierungen manuell deaktiviert und NegLODbias auf "Clamp", um dann auf "High Quality" zu switchen und das 'griseln' wahr zu nehmen?
...
Genau. Diese Reihenfolge zu mißachten nehmen einige Treiber krumm und belassen dann einige "Optimierung" in eingeschaltetem Zustand.

Dunkeltier
2005-07-02, 11:07:41
Genau. Diese Reihenfolge zu mißachten nehmen einige Treiber krumm und belassen dann einige "Optimierung" in eingeschaltetem Zustand.


High-Quality! :P

Quasar
2005-07-02, 11:13:00
Wenn du die Bugwellen auch auf der X850 hattest: Hast du im Treiber die AF-Stufe angefordert, oder im Game? Wenn du es im Game tust, kann dir da auch der Developer einen Streich spielen, indem er bestimmte Texturen nur bilinear filtern läßt.

Gast
2005-07-02, 11:15:54
Sachmal....lauft ihr beim Zocken nur durch die gegen und schaut wo was flimmert oder wo kanten net genug geglättet worden sind??? Was seid ihr für welche?? Also wenn ich zocke dann auchte ich da nich drauf...ich will ja schließlich was vom Spiel und dem Flair mitbekomme....

Mr. Lolman
2005-07-02, 11:18:30
Fest steht, auch die Geforce 7800 GTX hat ein Flimmer- sowie ein Bugwellenproblem. :P :mad:


Und zwar ein größeres als der NV40. (Bei dem ja die Grafik mit HQ noch was taugt)

Mr. Lolman
2005-07-02, 11:22:36
Sachmal....lauft ihr beim Zocken nur durch die gegen und schaut wo was flimmert oder wo kanten net genug geglättet worden sind??? Was seid ihr für welche?? Also wenn ich zocke dann auchte ich da nich drauf...ich will ja schließlich was vom Spiel und dem Flair mitbekomme....

Hier gehts um die vermeintliche Leistungsfähigkeit der Karten. Flimmern = ungenaues schnelleres Berechnen = unfairer Wettbewerbsvorteil. Macht ATi das jetzt publik oder bauen sie auch nen schlechteren Filter ein?

Wär dir das auch wurscht,wenn ATi pfeilschnelles 8xAA anbieten würde, (und in Pressemitteilungen fleissig erklärte, dass es die Kanten besser filtert als NVs 8xS), und in Wahrheit ists nur 4xTAA?

Das Auge
2005-07-02, 11:23:51
Dann sind alle nVidia-Besitzer blind. Im übrigen hat diese Bugwelle auch meine Radeon X850 XT gehabt, aber bei der war wenigstens das nervige flimmern der Texturen nicht so grausam. Dafür hat sie aber ab und an das Problem mit den weißen Punkten an den Polygonkanten sowie den weichgespülten Texturen. Irgendwie sieht alles...scheiße aus! ;(

[Bild gesnippt]
(Bild wurde auf einer Geforce 7800 GTX geschossen.)


Fest steht, auch die Geforce 7800 GTX hat ein Flimmer- sowie ein Bugwellenproblem. :P :mad:

Mal so ne Frage am Rande: Für was braucht man bei so einem Spiel eine 7800GTX??? Bei dem Screenie dache ich auf den ersten Blick es handelt sich um RTCW (wegen der Waffe), und das lief selbst auf meiner Ti4200 fantastisch.
Also mal ehrlich: Da holst du dir so eine Karte für 560 Euro und spielst dann Games die auf deiner X850 natürlich niiiiemals spielbar gewesen wären und motzt dann auch noch rum, daß es scheiße ausschaut. Also imho würde der Screenie auch mit dem genialsten AF und AA scheiße ausschauen...
Ich kann da echt nur den Kopf schütteln. Erst wird ne Schweinekohle ausgeben und dann wird in stundenlanger Arbeit versucht ein Spiel, das ohnehin scheiße ausschaut, in minimalen Nuancen zu optimieren ;D

Wie wärs wenn du (und andere) sich einfach mal wieder auf das Spiel als solches konzentrieren würde und nicht krampfhaft versucht alles auf Teufel komm raus zu optimieren? Zumal die unterschiede beim zocken selber wenn gerade mitten im Gefecht ist o.ä. ja auch ganz bestimmt auffallen :|

Tjell
2005-07-02, 11:26:45
High-Quality! :P
In Ordnung, da Du es nicht verstanden zu haben scheinst:

Ich hatte es auf meiner 6800 GT auch mal mit Flimmern und Bugwellen zu tun, als ich einfach von Qualität auf Hohe Qualität geschaltet habe.

Also zurück mit der Einstellung auf Qualität und dann einzeln die Optimierungen ausgeschaltet, LOD-Bias auf Clamp und dann auf Hohe Qualität gewechselt. Siehe da, kein Flimmern, keine Bugwellen.

Liegt/lag an einigen Treiberversionen und konnte von mir immer behoben werden.

Gast
2005-07-02, 11:29:25
Genau. Diese Reihenfolge zu mißachten nehmen einige Treiber krumm und belassen dann einige "Optimierung" in eingeschaltetem Zustand.
Wo ist das Problem für Nvidia das zu ändern? Sind nur ein paar Zeilen Code.
Wenn ich die Optimierungen ausschalte, kommte eine Schleife, die alles andere erledigt. Fertig.
Oder will Nvidia das etwa nicht, weil sonst jede Menge Leistung flöten geht.
Leute, lasst euch von Nvidia weiterhin verarschen, viel Spass!

Mr. Lolman
2005-07-02, 11:32:53
Mal so ne Frage am Rande: Für was braucht man bei so einem Spiel eine 7800GTX??? Bei dem Screenie dache ich auf den ersten Blick es handelt sich um RTCW (wegen der Waffe), und das lief selbst auf meiner Ti4200 fantastisch.
Also mal ehrlich: Da holst du dir so eine Karte für 560 Euro und spielst dann Games die auf deiner X850 natürlich niiiiemals spielbar gewesen wären und motzt dann auch noch rum, daß es scheiße ausschaut. Also imho würde der Screenie auch mit dem genialsten AF und AA scheiße ausschauen...
Ich kann da echt nur den Kopf schütteln. Erst wird ne Schweinekohle ausgeben und dann wird in stundenlanger Arbeit versucht ein Spiel, das ohnehin scheiße ausschaut, in minimalen Nuancen zu optimieren ;D

Wie wärs wenn du (und andere) sich einfach mal wieder auf das Spiel als solches konzentrieren würde und nicht krampfhaft versucht alles auf Teufel komm raus zu optimieren? Zumal die unterschiede beim zocken selber wenn gerade mitten im Gefecht ist o.ä. ja auch ganz bestimmt auffallen :|
Redet ihm das bloß nicht aus. Wenigstens einer bemüht sich hier Beweise für die Vermutung bezügl. Beschneidung der Filterqualität zu finden, und damit seine eigenen Beobachtungen zu festigen.

Es geht nicht an, dass die NV Karten min seit dem NV40 unfair gebencht werden. Anscheinend habens vierle HW Reviewer immernoch nicht drauf, valide Aussagen bezügl Filterqualität zu tätigen.

Nochmal zum Mitschreiben: NV Karten werden prinzipiell mit Q (und tw. Opts) getestet. Nun stellt Dunkeltier fest, dass seine neue G70 Karte mit HQ mehr flimmert als seine alte ATi (und ich bin mir ziemlich sicher, dass sie auch mehr flimmert als ne NV40). Beim Wechsel auf HQ verliert man schon mal 30%...

Zieht mal 30% von den Ergebnissen ab:
http://www.hardware.fr/medias/photos_news/00/13/IMG0013247.gif

http://www.hardware.fr/medias/photos_news/00/13/IMG0013241.gif

http://www.hardware.fr/medias/photos_news/00/13/IMG0013294.gif

Gast
2005-07-02, 11:37:05
Totaler Quatsch, HQ frisst vieleicht mal 5% und das wars, das haben viele Seiten schon getestet u.a. auch das 3dCenter.
Da ist nur jmd aufm Ati tripp und viele haben alte Versionen ihrer Tweak Programme die wahrscheinlich die falschen Registry Einträge setzen.
Ich hab beide Karten und bei MMORPG´s setzt einem sofort fehlendes Filtering ins Auge, weil man weite Flache Landschaften zu hauf hat, und da flimmert nix mehr/weniger, selber Rotz ^^

Nur meine FX5900 bringt ein besseres Bild, und selbst die bricht mit HQ nicht um 30% ein.

Auserdem schön das der Herr Lolman immer wieder die selben Benchmarks anführt aus einer Quelle, das genügt nicht.

A.Wesker
2005-07-02, 11:39:40
Mal so ne Frage am Rande: Für was braucht man bei so einem Spiel eine 7800GTX??? Bei dem Screenie dache ich auf den ersten Blick es handelt sich um RTCW (wegen der Waffe), und das lief selbst auf meiner Ti4200 fantastisch.
Also mal ehrlich: Da holst du dir so eine Karte für 560 Euro und spielst dann Games die auf deiner X850 natürlich niiiiemals spielbar gewesen wären und motzt dann auch noch rum, daß es scheiße ausschaut. Also imho würde der Screenie auch mit dem genialsten AF und AA scheiße ausschauen...
Ich kann da echt nur den Kopf schütteln. Erst wird ne Schweinekohle ausgeben und dann wird in stundenlanger Arbeit versucht ein Spiel, das ohnehin scheiße ausschaut, in minimalen Nuancen zu optimieren ;D

Wie wärs wenn du (und andere) sich einfach mal wieder auf das Spiel als solches konzentrieren würde und nicht krampfhaft versucht alles auf Teufel komm raus zu optimieren? Zumal die unterschiede beim zocken selber wenn gerade mitten im Gefecht ist o.ä. ja auch ganz bestimmt auffallen :|

wer auf 2048x1536 zocken möchte, kommt um eine 7800 GTX nicht herum.
die Bildqualität hat sich auch sehr stark verbessert.

Gast
2005-07-02, 11:43:36
Mal so ne Frage am Rande: Für was braucht man bei so einem Spiel eine 7800GTX??? Bei dem Screenie dache ich auf den ersten Blick es handelt sich um RTCW (wegen der Waffe), und das lief selbst auf meiner Ti4200 fantastisch.

Wer TSAA oder 8xS/16xAF in hoher Auflösung fahren will brauch sie :)
Und warum brauch man das, weils gut ausschaut und damit viele Content Schnitzer ausgebügelt werden können.

Dunkeltier
2005-07-02, 11:44:07
Mal so ne Frage am Rande: Für was braucht man bei so einem Spiel eine 7800GTX??? Bei dem Screenie dache ich auf den ersten Blick es handelt sich um RTCW (wegen der Waffe), und das lief selbst auf meiner Ti4200 fantastisch.

Nur weil ich eine Grafikkarte der neueste Generation habe heißt das noch lange nicht, das ich auf "alte Spiele" verzichten will. Spielspaß bleibt Spielspaß.


Also mal ehrlich: Da holst du dir so eine Karte für 560 Euro und spielst dann Games die auf deiner X850 natürlich niiiiemals spielbar gewesen wären und motzt dann auch noch rum, daß es scheiße ausschaut.

Sicher motz ich rum, wenn mit jeder neuen Karte die Qualität immer schlechter wird. Eigentlich habe ich mir die Geforce 7800 GTX gekauft, um mehr Qualität in Form von AA, TAA und AF zu genießen. Nur was nützt mir das tollste AF, wenn nVidia es nicht einmal hinbekommt die simpelsten Stellen anständig zu filtern. Auch auf meiner Geforce 6800 GT sah es damals schlimm aus, aber nicht so schlimm wie jetzt. Bei Ati habe ich eine Bugwelle weniger und das Geflimmer der überschärften Texturen gar nicht. Nirgends, in keinem Spiel. Bei nVidia ist es überall, egal wieviel "hohe Qualität" ich in den Treibern einstelle und wieviele Optimierungen ich ausschalte.


Also imho würde der Screenie auch mit dem genialsten AF und AA scheiße ausschauen...

PENG! Du hast dir gerade ins Bein geschossen. Falsch, mit 8xS siehst imho anständiger aus. Hier der Vergleich:

OpenGL mit 4x
http://img257.imageshack.us/img257/641/noqual6os.jpg

Direct3D mit 4x
http://img138.imageshack.us/img138/5396/d3d4dd.jpg

OpenGL mit 8xS
http://img154.imageshack.us/img154/5459/8xs2mz.jpg


Ich kann da echt nur den Kopf schütteln. Erst wird ne Schweinekohle ausgeben und dann wird in stundenlanger Arbeit versucht ein Spiel, das ohnehin scheiße ausschaut, in minimalen Nuancen zu optimieren ;D

Wieso sieht das Spiel auf einer Geforce 3 oder 4 sowie eine Radeon (zwar nicht ganz so gut, aber immerhin trotzdem) besser aus?


Wie wärs wenn du (und andere) sich einfach mal wieder auf das Spiel als solches konzentrieren würde und nicht krampfhaft versucht alles auf Teufel komm raus zu optimieren? Zumal die unterschiede beim zocken selber wenn gerade mitten im Gefecht ist o.ä. ja auch ganz bestimmt auffallen :|

Ich möchte die Spiele ohne Bugwellen und Texturflimmern genießen. Das nervt einfach extrem. Punkt. Mehr gibt es dazu nicht zu sagen.

Dunkeltier
2005-07-02, 11:45:28
(...)
die Bildqualität hat sich auch sehr stark verbessert.


Gegenüber der Geforce 6800 GT noch weiter verschlechtert. Ich spreche aus Erfahrung. :mad:

Dunkeltier
2005-07-02, 11:47:41
In Ordnung, da Du es nicht verstanden zu haben scheinst:

Ich hatte es auf meiner 6800 GT auch mal mit Flimmern und Bugwellen zu tun, als ich einfach von Qualität auf Hohe Qualität geschaltet habe.

Also zurück mit der Einstellung auf Qualität und dann einzeln die Optimierungen ausgeschaltet, LOD-Bias auf Clamp und dann auf Hohe Qualität gewechselt. Siehe da, kein Flimmern, keine Bugwellen.

Liegt/lag an einigen Treiberversionen und konnte von mir immer behoben werden.


Ok, ich werde wieder resetten und mich nochmals melden.

Gast
2005-07-02, 11:49:08
Totaler Quatsch, HQ frisst vieleicht mal 5% und das wars,

:lol:
Sag mal, willst mich verscheissern?
Je nach Spiel hat man bis zu 40% weniger Peformance mit HQ, zumindest ist es auf meiner 6800GT so. Die BQ ist dann aber sehr gut. Ein paar Spiele, die auf Nvidia immer flimmern, mal ausgenommen.

A.Wesker
2005-07-02, 11:49:55
Gegenüber der Geforce 6800 GT noch weiter verschlechtert. Ich spreche aus Erfahrung. :mad:
ich hatte vorher auch einen NV40/45 (6800 Ultra) und ich habe nur verbesserungen festgestellt. (siehe BF2 oder far cry)

Dunkeltier
2005-07-02, 11:50:58
In Ordnung, da Du es nicht verstanden zu haben scheinst:

Ich hatte es auf meiner 6800 GT auch mal mit Flimmern und Bugwellen zu tun, als ich einfach von Qualität auf Hohe Qualität geschaltet habe.

Also zurück mit der Einstellung auf Qualität und dann einzeln die Optimierungen ausgeschaltet, LOD-Bias auf Clamp und dann auf Hohe Qualität gewechselt. Siehe da, kein Flimmern, keine Bugwellen.

Liegt/lag an einigen Treiberversionen und konnte von mir immer behoben werden.



MUAHAHAHAHAHAHA! Die Qualität ist immer noch genauso scheiße wie vorher, prüft es selber nach ihr Geforce 7800 GTX Besitzer! Ich kann auch gerne noch weitere Spiele auffahren, wo man solche Sachen überdeutlich sieht.

Dunkeltier
2005-07-02, 11:52:10
ich hatte vorher auch einen NV40/45 (6800 Ultra) und ich habe nur verbesserungen festgestellt. (siehe BF2 oder far cry)


Insbesondere BF² strotzt nur vor Wellen und Flimmerei, FarCry steht aber in den Innenlevels in nichts nach. ;( Sagt mal, seht ihr alle das nicht? Die Texturen sind total überschärft und flimmrig, und überall Bugwellen beim gehen. Oder traut sich niemand zu sagen, mit 550 Euro noch weniger AF-Qualität als vorher zu haben?

A.Wesker
2005-07-02, 11:53:49
Insbesondere BF² strotzt nur vor Wellen und Flimmerei, FarCry steht aber in den Innenlevels in nichts nach. ;( Sagt mal, seht ihr alle das nicht? Die Texturen sind total überschärft und flimmrig, und überall Bugwellen beim gehen. oder traut sich niemand zu sagen, mit 550 Euro noch weniger AF-Qualität als vorher zu haben?
ich habe diese bugwellen nicht ( bei der 6800 Ultra nur, wenn lod bais = allow ist).

Gast
2005-07-02, 11:59:17
@Dunkeltier:
Kannst du auch mal Vergleiche machen zwischen Quality mit Optimierungen, Quality ohne Opts und HQ?
Mich würde jetzt ja interessieren, ob sich da überhaupt irgendwas verändert.

Dunkeltier
2005-07-02, 12:03:18
@Dunkeltier:
Kannst du auch mal Vergleiche machen zwischen Quality mit Optimierungen, Quality ohne Opts und HQ?
Mich würde jetzt ja interessieren, ob sich da überhaupt irgendwas verändert.


Kann ich machen, dauert einen Moment. Muß vorher noch testen, ob mir diverse Tweaktools meine gewünschte Qualität "forcen" können.

Mr. Lolman
2005-07-02, 12:06:48
ich hatte vorher auch einen NV40/45 (6800 Ultra) und ich habe nur verbesserungen festgestellt. (siehe BF2 oder far cry)

Sei da mal vorsichtig. Denn es werden gerade Programme entwickelt die bald beweisen können, dass es (nach aktuellem Kenntnisstand, hinsichtlich AF) genau andersrum aussieht.

Mr. Lolman
2005-07-02, 12:08:43
Totaler Quatsch, HQ frisst vieleicht mal 5% und das wars, das haben viele Seiten schon getestet u.a. auch das 3dCenter.


Link?

Dunkeltier
2005-07-02, 12:10:03
@Dunkeltier:
Kannst du auch mal Vergleiche machen zwischen Quality mit Optimierungen, Quality ohne Opts und HQ?
Mich würde jetzt ja interessieren, ob sich da überhaupt irgendwas verändert.


So, hier schon einmal Quality mit allen Optimierungen an:
http://img137.imageshack.us/img137/1057/qualmitopt6cf.jpg
(OpenGL, 1280x1024@32Bit, 4xMSAA, TAA:SS, 16xtri-aF, etc.)

Gamma nachträglich auf 1.40 wie bei den anderen Bildern auch aufgedreht.


/edit: Im Vergleich zu oben sieht man hier sogar Point Sampling arbeiten. :mad: nVidia suckt beim AF im Gegensatz zu ATI.



Und hier Quality OHNE Optimierungen:
http://img137.imageshack.us/img137/671/qualohneopt3gn.jpg

Rest (Settings) siehe oben.

Dunkeltier
2005-07-02, 12:17:03
ich habe diese bugwellen nicht ( bei der 6800 Ultra nur, wenn lod bais = allow ist).


Glaube ich dir nicht. Zeige mir bitte die gleichen Stellen aus dem Spiel, und versichere an Eidesstaat nicht mit 8xS zu schummeln.

Horimoto
2005-07-02, 12:18:12
Ich hab schon etliche 6800U in Aktion gesehn, und auf den ersten Blick (im stehen) viel mir Kein Unterschied zu ATi auf, im gehen dann auber gewaltig. Die texturen flimmern echt abnormal, so könnt und wollt ich nciht spielen.
Was mir aber aufgefallen ist:
Mit dem Cat5.5 flimmern in CSS die TExturen auch teils, seien wir ehrlich:
GF5 und R9700 hatten die beste IQ, und umso höher die Zahl (GF6/7/8..) umso schlechter die IQ, auch bei ATi.
Wenn man alle optimierungen ausschalten würde, wären die Karten sicher nur ~70% schnelelr als die 9700 Reihe.......... ich vermisse die alte Zeit, und hoffe dass nVidia das flimmerporb behebt (wollt mir auch eine GF7 holen, und mein X850XT in Rente schicken) baer wenn ich das so sehe.................
ICh hoffe jetzt auf den R520, dass er mir die IQ gibt, die ich mit einer 9700 hatte...
Ich bleibe bei meiner Meinung dass die 9700 die beste GraKa war, die es je gab (konnte von 275 zu 450 Mhz ocen!) mit der besten IQ!

A.Wesker
2005-07-02, 12:19:48
Glaube ich dir nicht. Zeige mir bitte die gleichen Stellen aus dem Spiel, und versichere an Eidesstaat nicht mit 8xS zu schummeln.
habe das game leider net.
BF2 habe ich bis jetzt eh nur mit 8xS TSAA /16 AF gezockt und far cry mit 4x TSAA/16AF. Welche stelle soll ich bei far cry nehmen?

dildo4u
2005-07-02, 12:21:07
Totaler Quatsch, HQ frisst vieleicht mal 5% und das wars, das t.
Es sind ca 15% bei ati sinds 12%
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/14/#abschnitt_1600x1200_4xaa_16xaf

Dunkeltier
2005-07-02, 12:21:29
habe das game leider net.
BF2 habe ich bis jetzt eh nur mit 8xS TSAA /16 AF gezockt und far cry mit 4x TSAA/16AF. Welche stelle soll ich bei far cry nehmen?


Hast du Half-Life²? Da kenne ich auch eine Million Stellen...

Mr. Lolman
2005-07-02, 12:22:16
Welche stelle soll ich bei far cry nehmen?

@ Dunkeltier: Poste auch gleich ein Savegame von der Stelle, dass es wirklich vergelichbar bleibt. Dann kann ich auch mit Bildern von NV40 und R300 aufwarten...

A.Wesker
2005-07-02, 12:23:30
Hast du Half-Life²? Da kenne ich auch eine Million Stellen...
im mom leider net, könnte es aber zu morgen besorgen

Dunkeltier
2005-07-02, 12:24:53
@ Dunkeltier: Poste auch gleich ein Savegame von der Stelle, dass es wirklich vergelichbar bleibt. Dann kann ich auch mit Bildern von NV40 und R300 aufwarten...


Es gibt kein Savegame. Dies ist ein nicht speicherbares Multiplayerspiel. Die Map ist "ns_eclipse" aus dem Mod "Natural Selection" für Half-Life Classic.

Mr. Lolman
2005-07-02, 12:28:49
Es sind ca 15% bei ati sinds 12%
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/14/#abschnitt_1600x1200_4xaa_16xaf

Im Durchschnitt. Was jedoch sehr von den jew. Spielen abhängt. Bei UT sinds zwischen treibrdefault und HQ 45%. Wobei HQ iirc bei Ut2003/04 ja immernoch brilinear filtert...

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004

Mr. Lolman
2005-07-02, 12:29:11
Es gibt kein Savegame. Dies ist ein nicht speicherbares Multiplayerspiel. Die Map ist "ns_eclipse" aus dem Mod "Natural Selection" für Half-Life Classic.

Ich meinte ein Savegame von Farcry...

Dunkeltier
2005-07-02, 12:37:21
Hier nochmal was mit 16xS. Man sieht immer noch 'ne Bugwelle. Meine Fresse... :frown: Zwar keine zwei, aber auch eine reicht. Ich dachte, 16xS macht alles weg? :confused:


http://img299.imageshack.us/img299/9002/16xs2yc.jpg

@ Lolman, muß mir das Spiel mal kurz wieder installieren und aufpatchen.

dildo4u
2005-07-02, 12:38:53
Hier nochmal was mit 16xS. Man sieht immer noch 'ne Bugwelle. Meine Fresse... :frown: Zwar keine zwei, aber auch eine reicht. Ich dachte, 16xS macht alles weg? :.
Ähm dafür ist das AF zuständig.

Gast
2005-07-02, 12:39:12
Hier nochmal was mit 16xS. Man sieht immer noch 'ne Bugwelle. Meine Fresse... :frown: Zwar keine zwei, aber auch eine reicht. Ich dachte, 16xS macht alles weg? :confused:

Den fehlenden trilinearen Filter kann man durch Supersampling nicht ersetzen.

Dunkeltier
2005-07-02, 12:39:49
Ähm dafür ist das AF zuständig.


Das arbeitet ja auch so "toll". :rolleyes: Du weißt hoffentlich, das SSAA ähnlich "gut" auf Texturen wirkt?

Dunkeltier
2005-07-02, 12:40:18
Den fehlenden trilinearen Filter kann man durch Supersampling nicht ersetzen.


Du meinst wohl eher den kaputt-optimierten Filter... ;)

arcon
2005-07-02, 12:47:49
in Sachen Bildquali ... gibbet nen aktuellen Test, welcher die Quali der verschiedenen Grakagenerationen mit aktuellen Treiber aufzeigt?! Mir fehlt da der Vergleich hatte nie ne ATI... bin damals von 3dfx direkt zu nvidia und dabei geblieben :)

ShadowXX
2005-07-02, 12:48:36
Du meinst wohl eher den kaputt-optimierten Filter... ;)

Sorry...ich glaube das ihr eure Systeme nur inzwischen "kaputtgespielt" habt.

Ich hab Windows beim Einbau der 7800GTX neu aufgesetzt und nur einen einzigen Treiber installiert und habe nicht mehr und nicht weniger Flimmern als vorher.

Diverse AF-Tester bescheinigen ebenfalls identische Filterung zur 6800Ultra....

Und sowas gruseliges wie Dunkeltier bekomme ich nicht mal hin, wenn ich mit Qualtity + allen Optimierungen Games angucke....

Mr. Lolman
2005-07-02, 12:52:20
Diverse AF-Tester bescheinigen ebenfalls identische Filterung zur 6800Ultra....


Vergiss die AF-Tester. Der AF-Blumen sagen nichts über die Sampleanzahl aus, und genau da wurde gedreht. Entweder will mans nicht sehen, oder man ist nicht sensibilisiert genug wirklich einen unterschied zu entdecken.

Aber glaub mir, es wurde definitiv was an der AF Qualität geschraubt - und zwar zum ngeativen hin!

Grestorn
2005-07-02, 12:53:34
Ich gebe Shadow Recht...

Wenn Du die Möglichkeit hast, Dunkeltier, mach ne frische Windowsinstallation (auf ner anderen Partition/Platte z.B.), installier die wichtigsten Treiber (Chipsatz, GraKa, Soundkarte) und probiers dort mal.

Ich würde fast wetten, dass das Problem dann weg ist. Jedenfalls kann ich es nicht nachvollziehen.

Mr. Lolman
2005-07-02, 12:53:49
in Sachen Bildquali ... gibbet nen aktuellen Test, welcher die Quali der verschiedenen Grakagenerationen mit aktuellen Treiber aufzeigt?! Mir fehlt da der Vergleich hatte nie ne ATI... bin damals von 3dfx direkt zu nvidia und dabei geblieben :)

Hm. Wenn du Bock hast, kannst du dir 3x30MB an Videos ziehen, wo man eindeutig feststellen kann, dass NV40 HQ gerade mal mit ATiAF mithalten kann...

VooDoo7mx
2005-07-02, 12:54:16
Ich hab es mal mit einer 6200Go probiert.
Solche Bugwellen bekomme ich beim besten Willen nicht hin.

Selbst bei Q mit allen Optimierungen + 4xAF sieht das besser aus als bei Dunkeltier.

Das letzte mal hatte ich solche Bugwellen bei meiner TNT2 wo bei Quake3 die Leistung nicht mehr für den trilinearen Filter gereicht hat. :|

Für mich sieht das aus wie nen puren bilinearen Filter...

Gast
2005-07-02, 12:54:22
Hier nochmal was mit 16xS. Man sieht immer noch 'ne Bugwelle. Meine Fresse... :frown: Zwar keine zwei, aber auch eine reicht. Ich dachte, 16xS macht alles weg? :confused:


könnte vielleicht sein dass das spiel einfach einige texturen nur bilinear filtern lässt?

btw.: dass dieses hochfrequente gitter flimmern soll ist aber auch wirklich kein wunder, das flimmert ja schon wenn ich im browser auf- und niederscrolle.

Mr. Lolman
2005-07-02, 12:54:54
Ich gebe Shadow Recht...

Wenn Du die Möglichkeit hast, Dunkeltier, mach ne frische Windowsinstallation (auf ner anderen Partition/Platte z.B.), installier die wichtigsten Treiber (Chipsatz, GraKa, Soundkarte) und probiers dort mal.

Ich würde fast wetten, dass das Problem dann weg ist. Jedenfalls kann ich es nicht nachvollziehen.

Ja genau, Dunkeltier mal das Windows neu aufsetzen lassen... :crazy:
Wart mal ab bis er ein paar Farcry Screenshots postet, dann können wir ja alle mitvergleichen...

Dunkeltier
2005-07-02, 12:56:54
Sorry...ich glaube das ihr eure Systeme nur inzwischen "kaputtgespielt" habt.

Ich hab Windows beim Einbau der 7800GTX neu aufgesetzt und nur einen einzigen Treiber installiert und habe nicht mehr und nicht weniger Flimmern als vorher.

Diverse AF-Tester bescheinigen ebenfalls identische Filterung zur 6800Ultra....

Und sowas gruseliges wie Dunkeltier bekomme ich nicht mal hin, wenn ich mit Qualtity + allen Optimierungen Games angucke....


Die Blumendinger sind leicht auszutricksen. Sowas hat Ato doch schon seit der Radeon 9600 drin. Und wann liefert mir ein Geforce 7800 GTX Besitzer nun endlich mal den Gegenbeweis? Zieh dir mal bitte die Mod von www.natural-selection.org und zeig mir die gleiche Stelle!

Dunkeltier
2005-07-02, 12:58:03
Ich gebe Shadow Recht...

Wenn Du die Möglichkeit hast, Dunkeltier, mach ne frische Windowsinstallation (auf ner anderen Partition/Platte z.B.), installier die wichtigsten Treiber (Chipsatz, GraKa, Soundkarte) und probiers dort mal.

Ich würde fast wetten, dass das Problem dann weg ist. Jedenfalls kann ich es nicht nachvollziehen.


Habe ich mein Kind, habe ich. Komplett neu aufgesetzt. Von Anfang an. Und das der Rest korrekt arbeitet, sieht man ja am AA und so. Es ist einfach das grottige AF von NVIDIA, damals wie heute. Flimmer hier, Bugwelle da.

Demirug
2005-07-02, 12:58:25
Dunkeltier, in letzter Zeit mal RivaTuner oder ähnliches benutzt? Der RT macht mir nämlich immer die Einstellungen in der Registry kaputt was dazu führt das meine Engine immer verrückt spielt.

Dunkeltier
2005-07-02, 12:58:56
Ich hab es mal mit einer 6200Go probiert.
Solche Bugwellen bekomme ich beim besten Willen nicht hin.

Selbst bei Q mit allen Optimierungen + 4xAF sieht das besser aus als bei Dunkeltier.

Das letzte mal hatte ich solche Bugwellen bei meiner TNT2 wo bei Quake3 die Leistung nicht mehr für den trilinearen Filter gereicht hat. :|

Für mich sieht das aus wie nen puren bilinearen Filter...


Screenshot bitte von der selben Situation, dann sehen wir weiter.

Dunkeltier
2005-07-02, 13:01:02
Dunkeltier, in letzter Zeit mal RivaTuner oder ähnliches benutzt? Der RT macht mir nämlich immer die Einstellungen in der Registry kaputt was dazu führt das meine Engine immer verrückt spielt.

Das AF war schon vor dem Rivatuner kaputt. Und auch ein Treiber neu ausetzen bringt wie schon erwähnt nichts. Und selbst das komplette System neu aufsetzen bringt das selbe Ergebniss. Wie schon tausendmal gesagt, eine nVidia-Karte läßt Texturen viel mehr Flimmern und bringt auch mehr Bugwellen mit. War schon damals mit meiner Geforce 6800 GT so.

Dunkeltier
2005-07-02, 13:01:35
Dunkeltier, in letzter Zeit mal RivaTuner oder ähnliches benutzt? Der RT macht mir nämlich immer die Einstellungen in der Registry kaputt was dazu führt das meine Engine immer verrückt spielt.


Meinste den AF-Blumentester? Soll ich den mal anwerfen? :confused:

Demirug
2005-07-02, 13:05:53
Meinste den AF-Blumentester? Soll ich den mal anwerfen? :confused:

Der AF-Tester ist der AF-Tester und hat nichts mit meiner Engine zu tun. Allerdings kann man mit dem zumindestens prüfen ob das Mipmapping richtig funktioniert. Denn auf deinen Screenshots habe ich den Eindruck das es nur BI bzw bestenfalls High Performace ist was da eingestellt ist.

VooDoo7mx
2005-07-02, 13:06:02
@Dunkeltier

Hast du vielleicht Max Payne 2?

Da sieht man sowas meines erachtens noch besser, da die Boden und Wände recht fein texturiert sind.

Ich hab mich wo ich mir letztes Jahr die X800 gekauft habe, auch über die schlechet Filterqualität vom NV35 weg gewundert. Im Endeffekt war es zum Großteil nur ein Einstellungsfehler.

Also ahst du Max Payne 2? =)

Dunkeltier
2005-07-02, 13:07:05
Der AF-Tester ist der AF-Tester und hat nichts mit meiner Engine zu tun. Allerdings kann man mit dem zumindestens prüfen ob das Mipmapping richtig funktioniert. Denn auf deinen Screenshots habe ich den Eindruck das es nur BI bzw bestenfalls High Performace ist was da eingestellt ist.


Hm, muß ich bei diesen D3D irgendwelche bestimmten Schalter drücken? Und wieso braucht der über 5 Minuten?

Dunkeltier
2005-07-02, 13:08:12
@Dunkeltier

Hast du vielleicht Max Payne 2?

Da sieht man sowas meines erachtens noch besser, da die Boden und Wände recht fein texturiert sind.

Ich hab mich wo ich mir letztes Jahr die X800 gekauft habe, auch über die schlechet Filterqualität vom NV35 weg gewundert. Im Endeffekt war es zum Großteil nur ein Einstellungsfehler.

Also ahst du Max Payne 2? =)


Max Payne habe ich nicht, weder den ersten noch den zweiten Teil. Im übrigen sieht man die Stellen besser, wenn die Texturen sehr niedrig aufgelöst sind. Weil...es fällt einem aufgrund der wenigen Details dann erst recht ins Auge.

Quasar
2005-07-02, 13:11:05
Im Durchschnitt. Was jedoch sehr von den jew. Spielen abhängt. Bei UT sinds zwischen treibrdefault und HQ 45%. Wobei HQ iirc bei Ut2003/04 ja immernoch brilinear filtert...

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004
Wenn du daran den 7800GTX-Verlust zu echtem "HQ" festmachen willst, dann solltest du in selbigem Link auch mal schauen, wieviel die X8xx-Reihe so verliert ohne A.I..

Mr. Lolman
2005-07-02, 13:12:36
Wenn du daran den 7800GTX-Verlust zu echtem "HQ" festmachen willst, dann solltest du in selbigem Link auch mal schauen, wieviel die X8xx-Reihe so verliert ohne A.I..

Das Problem ist, dass ich noch auf keinem einzigen Screenshot einen UNterschied zw. A.I. default und A.I. off gesehen hab...

Quasar
2005-07-02, 13:14:21
Das Problem ist, dass ich noch auf keinem einzigen Screenshot einen UNterschied zw. A.I. default und A.I. off gesehen hab...

Ach so, es geht dir nur darum, wer besser bescheissen kann. Verstehe. =)

aths
2005-07-02, 13:14:36
Hier nochmal was mit 16xS. Man sieht immer noch 'ne Bugwelle. Meine Fresse... :frown: Zwar keine zwei, aber auch eine reicht. Ich dachte, 16xS macht alles weg? :confused: Inwiefern sollte denn Supersampling MIP-Banding beseitigen können?

Dass "brilineare" Filterung durch höhere Auflösung (oder Supersampling) nicht beseitigt werden kann war ein Mitgrund, warum ich mit Nvidia wegen dem damaligen Zwang zu brilinearer Filterung in Artikeln hart ins Gericht gegangen bin.

VooDoo7mx
2005-07-02, 13:15:38
Hmm niedrig aufgelöste Texturen...
Ich probier mal Descent³ :)

Grestorn
2005-07-02, 13:15:57
Habe ich mein Kind, habe ich.Pana hat für so einen Kommentar einen Punkt kassiert.

Lass das bitte. Ich bin mit hoher Wahrscheinlichkeit ein paar Semester älter als Du.

Demirug
2005-07-02, 13:19:41
Hm, muß ich bei diesen D3D irgendwelche bestimmten Schalter drücken? Und wieso braucht der über 5 Minuten?

5 Minuten? Einfach starten und das Fenster müsste sofort aufgehen. Wenn der 5 Minuten zum starten braucht ist irgendwas oberfault mit deinem Rechner.

Dunkeltier
2005-07-02, 13:21:17
Pana hat für so einen Kommentar einen Punkt kassiert.

Lass das bitte. Ich bin mit hoher Wahrscheinlichkeit ein paar Semester älter als Du.


Hallo? Das war in keinster Weise abwertend gemeint, ich wollte nur einen auf alten Onkel Doktor spielen. Mein Gott. :( Brauchst mir deswegen nicht gleich an den Karren fahren.

Dunkeltier
2005-07-02, 13:21:42
5 Minuten? Einfach starten und das Fenster müsste sofort aufgehen. Wenn der 5 Minuten zum starten braucht ist irgendwas oberfault mit deinem Rechner.


Nein, da unten war so ein Ding zum starten und rechnen.

Mr. Lolman
2005-07-02, 13:23:59
Ach so, es geht dir nur darum, wer besser bescheissen kann. Verstehe. =)

Wenn die Screenshots von R420 nicht die tatsächliche Qualität zeigen sollten, dann muss man das natürlich bekannt machen.

Falls mit A.I. tatsächlich kein feststellbarer Quailtätsunterschied existiert, dann seh ich auch keinen Grund, warum man A.I. off noch als Vergleichsparameter (zu NV HQ) heranziehen sollte (außer halt um die Effizienz der ATi Optimierung zu zeigen)

Demirug
2005-07-02, 13:24:05
Nein, da unten war so ein Ding zum starten und rechnen.

Achso das. Ja, das braucht ewig ist aber inzwischen sowieso weitgehend nutzloss weil es das meiste nicht erkennen kann. Ob die Mipmap Übergänge stimmen sieht man schon an dem normalen Bild.

Dunkeltier
2005-07-02, 13:25:09
Achso das. Ja, das braucht ewig ist aber inzwischen sowieso weitgehend nutzloss weil es das meiste nicht erkennen kann. Ob die Mipmap Übergänge stimmen sieht man schon an dem normalen Bild.


Meine D3D AF-Blume mit 16x tri-aF ohne Optimierungen.

http://img224.imageshack.us/img224/2167/afblume0ip.png

Quasar
2005-07-02, 13:27:07
Sieht auf den ersten Blick "ok" aus - aber der D3D-AF-Tester wird vermutlich erkannt vom Treiber.

Dunkeltier
2005-07-02, 13:29:23
Sieht auf den ersten Blick "ok" aus - aber der D3D-AF-Tester wird vermutlich erkannt vom Treiber.


Soll ich mal die OpenGL Blume probieren? Ich sags ja, es wird einfach nur scheiße gefiltert. Was anderes fällt mir zu diesen Müll nicht ein. Auch bei Serious Sam werde ich überall zugeflimmert und sehe überall Bugwellen. Noch extremer als je zuvor bei der Geforce 6 Serie, ganz zu schweigen von der noch relativ harmlosen Radeon. AHHHHHHHHHHHH!!!


/edit: Hier mal 'ne OpenGL Blume...
http://img263.imageshack.us/img263/6269/openglblume2jk.png

Quasar
2005-07-02, 13:33:36
Die OpenGL-Blume wird auch nichts helfen.
Wenn es flimmert, flimmert es eben.

Dasselbe Problem habe ich aktuell mit dem angeblich so perfekt filternden DeltaChrome. :) Den hat man durch neuere Treiber auch kaputtgemacht, was Filterqualität angeht. Mit älteren Treibern stürzt er dafür unter Win2k ständig ab. Tolle Wurst. Aber wenigstens hat er keine 550 EUR gekostet.

aths
2005-07-02, 13:40:31
Soll ich mal die OpenGL Blume probieren? Ich sags ja, es wird einfach nur scheiße gefiltert. Was anderes fällt mir zu diesen Müll nicht ein. Auch bei Serious Sam werde ich überall zugeflimmert und sehe überall Bugwellen. Noch extremer als je zuvor bei der Geforce 6 Serie, ganz zu schweigen von der noch relativ harmlosen Radeon. AHHHHHHHHHHHH!!!


/edit: Hier mal 'ne OpenGL Blume...Dieses Muster zeigt an, wann welche MIP gefiltert wird und nicht, wie viele Samples pro Pixel genommen werden.

Grestorn
2005-07-02, 13:43:49
Hallo? Das war in keinster Weise abwertend gemeint, ich wollte nur einen auf alten Onkel Doktor spielen. Mein Gott. :( Brauchst mir deswegen nicht gleich an den Karren fahren.
Kam sehr uncool rüber. Nach dem Motto, "was weißt denn Du, mein dummes Kind".

Denk immer daran, dass man im Forum weder Stimme noch Gesichtsausdruck sieht.

Mein Vorschlag war ernst gemeint. Irgendetwas stimmt mit Deinem System nicht, so viel solltest Du inzwischen mitbekommen haben.

Dunkeltier
2005-07-02, 13:44:31
Die OpenGL-Blume wird auch nichts helfen.
Wenn es flimmert, flimmert es eben.

Tolle Aussage. Die anderen nVidia Geforce 7800 GTX Besitzer nehmen solche Mängel wohl überhaupt nicht wahr. Warum wohl nicht? Und wieso habt ihr in eure Reviews nicht extrem dick reingeschrieben, das die Geforce 7800 GTX noch massivere BQ-Probleme als die eh schon grottige Geforce 6 und Radeon Serie hat?

Ich finde bis zu zwischen 4-6 sichtbaren (!) Bugwellen (bei der Radeons waren es 2-3) einfach etwas sehr deftig, und zu den Texturen habe ich mich ja schon geäußert. Davon müßte ich leider animierte Gif's machen, damit man es sieht.


Dasselbe Problem habe ich aktuell mit dem angeblich so perfekt filternden DeltaChrome. :) Den hat man durch neuere Treiber auch kaputtgemacht, was Filterqualität angeht. Mit älteren Treibern stürzt er dafür unter Win2k ständig ab. Tolle Wurst. Aber wenigstens hat er keine 550 EUR gekostet.

Da gibt es nicht zum rumsmilen, ich finde es einfach nur erbärmlich was nVidia hier wieder abgeliefert hat. Wenn ich mir schon so einen Schrott für teuer Geld kaufe, will ich wenigstens maximale BQ. In letzter Zeit scheint immer mehr das doch extrem wichtige AF aus dem Auge verloren, dafür hat man sich auf das AA eingeschossen. Na super. Das was in die Entwicklung des AA reingebuttert wird, hat man dafür beim AF immer weniger.

Bleibt folgendes festzuhalten:
Speed ist top
Featureset ist toll
AA ist überragend
AF ist tiefste Steinzeit. 6, setzen.

Dunkeltier
2005-07-02, 13:45:21
Kam sehr uncool rüber. Nach dem Motto, "was weißt denn Du, mein dummes Kind".

Denk immer daran, dass man im Forum weder Stimme noch Gesichtsausdruck sieht.

Mein Vorschlag war ernst gemeint. Irgendetwas stimmt mit Deinem System nicht, so viel solltest Du inzwischen mitbekommen haben.


Mein System stimmt, sonst würden die Blumen nicht laufen. Es wäre nett, wenn sich jemand die Mod auch mal runterladen würde. HL Classic werden ja wohl die meisten haben.

Dunkeltier
2005-07-02, 13:45:54
Dieses Muster zeigt an, wann welche MIP gefiltert wird und nicht, wie viele Samples pro Pixel genommen werden.


Und wo lasse ich mir das anzeigen? :confused:

Mr. Lolman
2005-07-02, 13:47:03
Und wo lasse ich mir das anzeigen? :confused:

Momentan?
Nirgends!

AA ist überragend


4xAA ohne TSAA, egal ob mit Gammakorrektur oder ohne, scheint immernoch geringfügig schlechter auszusehen als bei Ati...

Spasstiger
2005-07-02, 13:51:07
Momentan?
Nirgends!


4xAA ohne TSAA, egal ob mit Gammakorrektur oder ohne, scheint immernoch geringfügig schlechter auszusehen als bei Ati...

Hast du denn schon eine 7800 GTX in Aktion gesehen? Ich habe es nicht und würde mich deshalb auch nicht zu solchen Aussagen hinreißen lassen. Bei der GeForce 6 Reihe habe ich den Vergleich gesehen und da ist das MSAA tatsächlich noch einen Tick weniger hübsch.

Grestorn
2005-07-02, 13:51:32
Bleibt folgendes festzuhalten:
Speed ist top
Featureset ist toll
AA ist überragend
AF ist tiefste Steinzeit. 6, setzen.Bei Dir. bei mir flimmert nichts. Zumindest nicht mehr als mit der 6800GT.

Guter Flimmerkandidat war mit der 68k übrigens KotoR2. Erst mit HQ ließ sich das beheben, und so ist es immer noch mit der 7800GTX.

Mr. Lolman
2005-07-02, 13:55:30
Hast du denn schon eine 7800 GTX in Aktion gesehen? Ich habe es nicht und würde mich deshalb auch nicht zu solchen Aussagen hinreißen lassen. Bei der GeForce 6 Reihe habe ich den Vergleich gesehen und da ist das MSAA tatsächlich noch einen Tick weniger hübsch.

Nein in Aktion hab ich das Teil noch nicht gesehen. Ich bezieh mich nur auf Screenshots (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3201029#post3201029) Natürlich könnten die falsch sein, und von daher hast du recht...

Dunkeltier
2005-07-02, 13:59:53
Bei Dir. bei mir flimmert nichts. Zumindest nicht mehr als mit der 6800GT.

Guter Flimmerkandidat war mit der 68k übrigens KotoR2. Erst mit HQ ließ sich das beheben, und so ist es immer noch mit der 7800GTX.

Wenn du kurz vorher eine Radeon X850 XT drinhattest, merkst du doch sehr deutlich den Unterschied. Bei der Geforce ist einfach alles am "grieseln".

Coda
2005-07-02, 14:01:23
Also wenn G70 noch schlimmer filtert als NV40 ist er für mich gegessen. ATi soll endlich den R520 fertigbringen :(

aths
2005-07-02, 14:01:23
Und wo lasse ich mir das anzeigen? :confused:Geht prinzipiell mit speziellen Texturen und dem AF-Tester. Aber nicht so einfach Programm starten – Grad der Optimierung ablesen. Man kann damit aber zeigen, dass unterfiltert wird.

aths
2005-07-02, 14:02:00
Also wenn G70 noch schlimmer filtert als NV40 ist er für mich gegessen. ATi soll endlich den R520 fertigbringen :(In HQ flimmert mein NV43 nicht.

aths
2005-07-02, 14:02:54
4xAA ohne TSAA, egal ob mit Gammakorrektur oder ohne, scheint immernoch geringfügig schlechter auszusehen als bei Ati...Inwiefern?

Coda
2005-07-02, 14:03:35
Ist mir ehrlich gesagt egal, was du siehst. Ich habe mit einer 9600 Pro gegengecheckt und mein NV40 flimmert definitiv.

Mr. Lolman
2005-07-02, 14:08:47
Inwiefern?

Screenshots (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3201029#post3201029) (links R420 4xAA, rechts G70 4xAA)

Coda
2005-07-02, 14:15:13
Lolman, das ist doch eine Textur mit Alphatesting, da wird gar kein AA angewendet :rolleyes:

Mr. Lolman
2005-07-02, 14:15:50
Lolman, das ist doch eine Textur mit Alphatesting, da wird gar kein AA angewendet :rolleyes:

Ich mein nicht das Blatt, sondern die kleinen Zweige ;)

Coda
2005-07-02, 14:16:36
Auch Alphatesting, sonst würde es da keine Brüche geben bei nVIDIA. Das geht gar nicht...

Mr. Lolman
2005-07-02, 14:19:04
Auch Alphatesting, sonst würde es da keine Brüche geben bei nVIDIA. Das geht gar nicht...

Und wie filtert ein R420 Alphatesting?

aths
2005-07-02, 14:20:07
Thema Unterfilterung: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3212942

Habe einen Extra-Thread aufgemacht um dem mal auf die Schliche zu kommen.

Coda
2005-07-02, 14:22:16
Und wie filtert ein R420 Alphatesting?Gar nicht im Prinzip. Ich denke mal da spielen geringfügige Abweichungen bei den Texturkoordinaten der Pixel eine Rolle. Kann gut sein dass es in einem anderen Bild exakt andersrum rüberkommt.

Man beachte z.B. den zweiten Zweig rechts-oben.

aths
2005-07-02, 14:23:25
Ist mir ehrlich gesagt egal, was du siehst. Ich habe mit einer 9600 Pro gegengecheckt und mein NV40 flimmert definitiv.Welche Applikation? Ich kann auf HQ bei mir keine Unterfilterung nachweisen. Wenn eine Radeon irgendwo nicht flimmert, könnte das auch damit zusammenhängen dass sie an jenen Stellen zu wenig Schärfe bietet. "Böse" Texturinhalte müssen auch bei bester Texturfilterung flimmern. Mach doch mal Vergleichsshots.

Coda
2005-07-02, 14:26:11
Ich habe die Karte zur Zeit nicht mehr - werde mir aber wohl demnächst ne billige 9550er kaufen um die Sache genauer anzuschauen.

Mr. Lolman
2005-07-02, 14:30:16
Gar nicht im Prinzip. Ich denke mal da spielen geringfügige Abweichungen bei den Texturkoordinaten der Pixel eine Rolle. Kann gut sein dass es in einem anderen Bild exakt andersrum rüberkommt.

Man beachte z.B. den zweiten Zweig rechts-oben.

Imo sind das alles Polygonkanten.

Coda
2005-07-02, 14:34:08
Nein sind es nicht, sonst würde es keine solchen Brüche geben können.

Grestorn
2005-07-02, 14:35:15
@Dunkeltier:

Ich hab mir die Mühe gemacht und NS mal downgeloadet und installiert.

Das erste was mir ins Auge viel, waren die üblen Bilinear-Kanten.

In der Konsole das Kommando "gl_texturemode GL_LINEAR_MIPMAP_LINEAR" eingeben, und schon sind die Kanten weg.

Probier das mal!

P.S: Von welcher Map sind Deine Shots? Dann mach ich mit der 7800GTX auch mal welche.