PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 8800 GTX und GTS-Version Review-Thread (Links im #1)


Seiten : 1 2 3 [4] 5

Grestorn
2006-11-09, 21:04:36
nHancer für die G80, zumindest einer erste Version, ist fertig: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332020

deekey777
2006-11-09, 21:04:56
Jemand wollte was auf Englisch: Say Hello To DirectX 10, Or 128 ALUs In Action: NVIDIA GeForce 8800 GTX (G80) (http://www.digit-life.com/articles2/video/g80-part1.html)

dargo
2006-11-09, 21:13:30
Da hat wohl nV noch etwas Treiberarbeit vor sich...;)
Die 8800GTX liegt in diesen Benches generell zu nah an der GTS.
Wieso Treiberarbeit?
Ich sehe da zumindest, dass der G80 mit steigernden Taktraten extrem gut skaliert. Anscheinend sind die ganzen Shadereinheiten, Rops und TMus doch nicht soo wichtig?

Auf der anderen Seite könnte man meinen die GTX wird künstlich zurückgehalten. :|

dildo4u
2006-11-09, 21:16:50
Wieso Treiberarbeit?
Ich sehe da zumindest, dass der G80 mit steigernden Taktraten extrem gut skaliert. Anscheinend sind die ganzen Shadereinheiten, Rops und TMus doch nicht soo wichtig?

Auf der anderen Seite könnte man meinen die GTX wird künstlich zurückgehalten. :|Ich sehen das so die meisten Games haben noch viel zu Simple Shader deshalb wirkt sich der Mhertakt ordentlich aus weil die Games eher durch die klassiche MultiTexturing Leistung begrenzt werden.

AnarchX
2006-11-09, 21:20:23
Ich sehen das so die meisten Games haben noch viel zu Simple Shader deshalb wirkt sich der Mhertakt ordentlich aus weil die Games eher durch die klassiche MultiTexturing Leistung begrenzt werden.
Aber in der Texelleistung ist eine GTS@620MHz(14.8GTex/s) trotzdem der GTX(18.4GTex/s) unterlegen, der Grund wird wohl irgendwo anders liegen.

dargo
2006-11-09, 21:27:37
Was passiert eigendlich mit dem Shadertakt beim Übertakten?
Wird er bei einer GTS bei 600Mhz GPU-Takt auch um 100Mhz erhöht (1300Mhz) oder prozentual (1440Mhz)?

Oder ist er überhaupt nicht an den Takt der GPU gebunden?

AnarchX
2006-11-09, 21:30:01
Was passiert eigendlich mit dem Shadertakt beim Übertakten?
Wird er bei einer GTS bei 600Mhz GPU-Takt auch um 100Mhz erhöht (1300Mhz) oder prozentual (1440Mhz)?

Oder ist er überhaupt nicht an den Takt der GPU gebunden?

Ich würde denken das der Shadertakt = Takt*2 +200MHz(da GTX 1350MHz = 2*575Mhz +200MHz /GTS 1200MHz =2*500Hz +200MHz).
Aber das wird wohl hier noch niemand genau sagen können, wie es nun wirklich ist.

dargo
2006-11-09, 21:34:55
Ich würde denken das der Shadertakt = Takt*2 +200MHz(da GTX 1350MHz = 2*575Mhz +200MHz /GTS 1200MHz =2*500Hz +200MHz).
Aber das wird wohl hier noch niemand genau sagen können, wie es nun wirklich ist.
Jo, das macht schon eher Sinn. :)

horn 12
2006-11-09, 21:42:32
Nicht etwas Teuer die ganzen 8800GTX; Leistung satt- aber man muss mindestesn ab 1600x1280 zocken, sonst limitiert die CPU zu heftig.
Da ich nen 19 TFT habe erübrigt sich dies von selbst.
Warte den R600 ab, bzw. erste Refresh/ Midrange Karten.
Denn bis dahin tut es meine X1950 Pro allemal.
Und so 450-600 Euro ausgeben für ne Karte ist schon krass!!

Slipknot79
2006-11-09, 21:45:55
Nicht etwas Teuer die ganzen 8800GTX; Leistung satt- aber man muss mindestesn ab 1600x1280 zocken, sonst limitiert die CPU zu heftig.
Da ich nen 19 TFT habe erübrigt sich dies von selbst.
Warte den R600 ab, bzw. erste Refresh/ Midrange Karten.
Denn bis dahin tut es meine X1950 Pro allemal.
Und so 450-600 Euro ausgeben für ne Karte ist schon krass!!


wie dargo schon meinte, stell mal bei 1280x1024 auf 16xAA :)

dildo4u
2006-11-09, 22:02:50
Misterh hat den WUAF HL2 Vergleichscreen mal nachgestell.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4970703#post4970703

jojo4u
2006-11-09, 22:38:36
Was passiert eigendlich mit dem Shadertakt beim Übertakten?
Wird er bei einer GTS bei 600Mhz GPU-Takt auch um 100Mhz erhöht (1300Mhz) oder prozentual (1440Mhz)?

Oder ist er überhaupt nicht an den Takt der GPU gebunden?


We can see that two available operating frequencies of the G80 core (575 MHz and 1350 MHz) differ greatly. In overclocked mode, when we set ROPs frequency to 625 MHz (increased by 50 MHz), frequency of the shader part grows NOT BY 50 MHz, but proportionally! That is:

(625-575)/575=8.7%. So we get the following: 1350 MHz * 1.087 = 1468 MHz.

Yep! Shader unit frequency has grown by 1118 MHz to 1468 MHz. So ASSUMABLY, overclocking will YIELD BETTER RESULTS. It will certainly please overclockers.

http://www.digit-life.com/articles2/video/g80-part2.html

Johnny Rico
2006-11-09, 22:44:40
http://www.directupload.net/images/061109/temp/7ez35CbH.png (http://www.directupload.net/file/d/876/7ez35CbH_png.htm)
http://www.directupload.net/images/061109/temp/gpb7sbb5.png (http://www.directupload.net/file/d/876/gpb7sbb5_png.htm)

C2D 3,5Ghz
Leadtek GTX non oc

Mir sind die Punkte egal, hauptsache die Karte bringt Leistung bei starker Einstellung und das macht sie. 3DM ist ein Genuss.

Hört sich unter Last wie eine Wiener Wurst in der Microwelle an, wenn das Fett langsam rausspritzt und es pfeift. Das scheint mit der Zeit aber besser zu werden. Ich beobachte das mal.

edit

Idle ist die Karte ULTRA SILENT. Nach langer Last hört man sie, aber nicht vergelcihbar mit dem Nerven raubenen Lüfter der x1900.

dargo
2006-11-09, 22:47:33
@jojo4u
Also doch prozentual, danke. :)

Gast
2006-11-09, 23:04:48
Was passiert eigendlich mit dem Shadertakt beim Übertakten?
Wird er bei einer GTS bei 600Mhz GPU-Takt auch um 100Mhz erhöht (1300Mhz) oder prozentual (1440Mhz)?

Oder ist er überhaupt nicht an den Takt der GPU gebunden?

angeblich wird man diesen in zukunft per nTune (wohl auch per rivatuner) unabhängig vom rest übertakten können.

dargo
2006-11-09, 23:11:33
angeblich wird man diesen in zukunft per nTune (wohl auch per rivatuner) unabhängig vom rest übertakten können.
Das wäre natürlich der Hammer. :up:

Dann könnte man nämlich rausfinden was mehr bringt, GPU-Takt oder Shader-Takt.
Denn, wenn ich mir diese Benchmarks so ansehe
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp

werde ich wirklich nicht das Gefühl los, dass ein erhöhter Takt von GPU und Shader deutlich mehr bringt als erhöhte Anzahl von MADD, ROPs und TMUs. Zumindest in heutigen Spielen. Aber vielleicht können die 3D Gurus hier was zu sagen.

PS: die GTX lässt sich doch kaum übertakten oder?

LovesuckZ
2006-11-09, 23:14:02
Ich werfe das Wort Fehler mal in die Runde.
Warum glaubt man an diese offensichtlichen falschen Werten?

dargo
2006-11-09, 23:20:16
Ich werfe das Wort Fehler mal in die Runde.
Warum glaubt man an diese offensichtlichen falschen Werten?
Warum nicht?

Mr. Lolman
2006-11-09, 23:27:18
Misterh hat den WUAF HL2 Vergleichscreen mal nachgestell.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4970703#post4970703

Hat zufällig jemand ein Savegame von der Stelle? MisterH kanns mir erst am Samstag geben, ich wills aber sofort! ;D

Die gelbe Eule
2006-11-10, 00:56:14
http://babelfish.altavista.com/babelfish/urltrurl?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f161%2f161825.shtml

Sehr geniale Übersicht, findet man so kaum im Netz!

Mr. Lolman
2006-11-10, 01:21:25
http://babelfish.altavista.com/babelfish/urltrurl?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f161%2f161825.shtml

Sehr geniale Übersicht, findet man so kaum im Netz!
Ist aber wohl zu einem großen Teil direkt aus den NV Marketingpapieren.

vinacis_vivids
2006-11-10, 01:32:52
Naja, Ansichtssache:

Voodoo5 Glide, 4xAA/LOD-5/16bit, 8bit Textures:
http://img156.imageshack.us/img156/7385/u93dfx4x8hy8vb.th.jpg (http://img156.imageshack.us/my.php?image=u93dfx4x8hy8vb.jpg)

6800GT Direct3D, 16xS/4x(HQ)AF/32bit, 16bit Textures:
http://img217.imageshack.us/img217/6595/u9nv16xs1jq5xe.th.jpg (http://img217.imageshack.us/my.php?image=u9nv16xs1jq5xe.jpg)

Gefällt mir gefällt sehr gut. VSA-100 besitzt unangetastet beste AA Qualität. Wirkt voluminöser und viel lebendiger.

Ailuros
2006-11-10, 07:29:17
Ich wundere mich hier z.B. gerade welches EER die neuen AA Modi beim G80 haben... :wink:

Coverage mask = for N samples a N*N grid.

16x = 16*16 / 4*4 for z/stencil
16xQ = 16*16 / 8*8 for z/stencil

Ailuros
2006-11-10, 07:47:27
Ich werfe das Wort Fehler mal in die Runde.
Warum glaubt man an diese offensichtlichen falschen Werten?

Natuerlich stimmt hier nicht irgend etwas, aber d.h. auch nicht unbedingt dass FS nicht tatsaechlich diese Werte erreicht hat. Ich bin mir zwar nicht sicher aber ich schaetze dass wenn man eine GTS auf 620MHz jagt, dass die Shader-Prozessoren irgendwo verdammt nahe an 1.5GHz liegen duerften.

Ist mir auch weniger wichtig; das interessante an der Sache ist dass NV tatsaechlich daran arbeitet dass man bald die shader-Einheiten getrennt uebertakten kann.

Mr.Soapdown
2006-11-10, 08:20:32
PS: die GTX lässt sich doch kaum übertakten oder?

Das kam mir auch sofort in den Sinn. Zumindest habe ich das auch so bisher mitbekommen.

Wenn das aber so sein sollte, entwickelt sich die GTS doch in Richtung sehr gutes Preis/Leistungverhältnis, gerade für Zocker in den Bereichen 1280x1024 und 1600x1050 (wenn man die Bildquali nicht bis Anschlag aufdreht?)

Könnte das jemand prüfen der eine GTS besitzt, ob´s bei ihm auch soweit in den Taktraten geht?

dargo
2006-11-10, 09:15:28
Ich bin mir zwar nicht sicher aber ich schaetze dass wenn man eine GTS auf 620MHz jagt, dass die Shader-Prozessoren irgendwo verdammt nahe an 1.5GHz liegen duerften.

Standard:
GPU-Takt = 500Mhz
Speichertakt = 800Mhz
Shadertakt = 1200Mhz

OC:
GPU-Takt = 620Mhz (24%)
Speichertakt = 907Mhz (~13%)
Shadertakt = 1488Mhz (24%)

:)

Was meinst du? Sind bei den OC Prozentangaben ~30-47% Mehrleistung machbar/realistisch?

Könnte das jemand prüfen der eine GTS besitzt, ob´s bei ihm auch soweit in den Taktraten geht?
Das hatte ich gestern schon Misterh per PM gebeten. Muss ja nicht so hoch gleich takten, das Kärtchen ist ja neu. Leider wissen wir nicht mit welchen Tool man den G80, außer nTune übertakten kann. Er hat kein NV Board.

Anarchy-HWLUXX
2006-11-10, 09:22:45
Jemand wollte was auf Englisch: Say Hello To DirectX 10, Or 128 ALUs In Action: NVIDIA GeForce 8800 GTX (G80) (http://www.digit-life.com/articles2/video/g80-part1.html)


Haar, ne, ich meinte den Artikel über den Editors day ... trozdem danke :smile:

Ailuros
2006-11-10, 09:32:33
Standard:
GPU-Takt = 500Mhz
Speichertakt = 800Mhz
Shadertakt = 1200Mhz

OC:
GPU-Takt = 620Mhz (24%)
Speichertakt = 907Mhz (~13%)
Shadertakt = 1488Mhz (24%)

:)

Was meinst du? Sind bei den OC Prozentangaben ~30-47% Mehrleistung machbar/realistisch?

Nicht unbedingt; wenn ja heisst es dass der Treiber die GTX verdammt stark bremst.

deekey777
2006-11-10, 09:47:16
Haar, ne, ich meinte den Artikel über den Editors day ... trozdem danke :smile:
Der ist irgendwie noch nicht fertig, über den Link landet auf der russischen Seite.:|

Gast
2006-11-10, 09:51:35
Ich sagte ja "etwa". ;) Das 2x2 OGSSAA in 16xS ist eben kein 4x SGSSAA.

MfG,
Raff

2x2 OGSSAA ist aber besser für die Texturen als 4xSGSSAA.

deekey777
2006-11-10, 09:58:13
Zwei Sachen:
Bei vr-zone (http://www.vr-zone.com/)gibt es einige 8800GTX verschiedener Hersteller zu bewundern, bei Nordic Hardware (http://www.nordichardware.com/Reviews/?skrivelse=493) hat man sich mit dem Übertakten der 8800GTX beschäftigt.

dargo
2006-11-10, 10:16:48
Nicht unbedingt; wenn ja heisst es dass der Treiber die GTX verdammt stark bremst.
Verdammt, wir brauchen paar Leute die eine GTS haben zum gegentesten.
Weiß jemand womit man den G80, ohne ein NV Brett zu haben, übertakten kann?

up¦²
2006-11-10, 11:17:06
BTW, Unterstützt RivaT denn die neuen schon?

Mr. Lolman
2006-11-10, 11:21:23
2x2 OGSSAA ist aber besser für die Texturen als 4xSGSSAA.

Naja minimal, wenn überhaupt. Ich glaub das nämlich eigentlich garnicht. SGSSAA ist besser gegen Moire, und das LOD sollte eigentlich gleich gut samplebar sein,

AnarchX
2006-11-10, 11:27:52
Weiß jemand womit man den G80, ohne ein NV Brett zu haben, übertakten kann?
Powerstrip, jedenfalls macht es misterh (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4971206&postcount=229") damit.;)

dargo
2006-11-10, 11:31:12
Powerstrip, jedenfalls macht es misterh (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4971206&postcount=229") damit.;)
Ah, er hats rausgefunden. Sehr schön. :)

Ailuros
2006-11-10, 11:52:34
Naja minimal, wenn überhaupt. Ich glaub das nämlich eigentlich garnicht. SGSSAA ist besser gegen Moire, und das LOD sollte eigentlich gleich gut samplebar sein,

SG ist nicht besser gegen moire generell; es gibt Stellen wo mal das eine und mal das andere besser ist. Global ist sparsed grid fuer alle Algorithmen die effizientere Loesung trotz allem.

K4mPFwUr$t
2006-11-10, 12:04:00
@dargo
nicht ganz, der tipp kam von mir ... aber rausgefunden aus dem HWL forum ;D
mal sehen was die karte noch so schafft.

AnarchX
2006-11-10, 12:06:56
Ah, er hats rausgefunden. Sehr schön. :)
ATI Tool soll auch noch gehen, jedenfalls verwenden die Jungs aus dem XS es.;)

Slipknot79
2006-11-10, 12:44:22
Standard:
GPU-Takt = 500Mhz
Speichertakt = 800Mhz
Shadertakt = 1200Mhz

OC:
GPU-Takt = 620Mhz (24%)
Speichertakt = 907Mhz (~13%)
Shadertakt = 1488Mhz (24%)

:)

Was meinst du? Sind bei den OC Prozentangaben ~30-47% Mehrleistung machbar/realistisch?



Das sind unterm Strich ca 20% würde ich schätzen.

AnarchX
2006-11-10, 12:46:50
Das sind unterm Strich ca 20% würde ich schätzen.

Nicht unbedingt, in einigen Fällen passiert es nämlich das die Mehrleistung durch einen OC = Mehrleistung GPU + Mehrleistung durch höhere Bandbreite.
Dies scheint hier auch zuzutreffen.

Slipknot79
2006-11-10, 13:08:40
Nicht unbedingt, in einigen Fällen passiert es nämlich das die Mehrleistung durch einen OC = Mehrleistung GPU + Mehrleistung durch höhere Bandbreite.
Dies scheint hier auch zuzutreffen.


Meine Erfahrung war bisher so, dass ca 20% an Mehrleistung rauszuholen war durch oc. Von Generation zu Generation, also mit Berücksichtigung der Bandbreitenerhöhung. Wobei ich jetzt natürich ne Stock G80 mit einer octen vergleiche und nicht eine octe G80 mit einer octen 7950GX2 oder so.

dargo
2006-11-10, 13:41:02
Das sind unterm Strich ca 20% würde ich schätzen.
Ich würde das vorerst nicht auf "alte" Generationen zurückführen. Beim G80 kommt noch der hoher Shadertakt hinzu.

Edit:
Endlich gibts die realen Verbrauchswerte der G8800GTX. Oder ist es die Angabe von NV? Dann würde sie real noch etwas drunter liegen.

http://www.xbitlabs.com/images/video/gf8800/results/8800gtx_power.gif

http://www.xbitlabs.com/articles/video/display/gf8800_11.html

Interessant ist aber, dass der 2D Verbrauch nicht dabei steht. Wissen die etwa mehr?

deekey777
2006-11-10, 13:46:43
BTW, Unterstützt RivaT denn die neuen schon?
Ja. Nein. Doch. :biggrin:
http://www.digit-life.com/articles2/video/g80-part2.html#p4
Die Tester haben mit Unwinder zusammengearbeitet, damit RT mit der 8800GTX funktioniert.:)

Slipknot79
2006-11-10, 13:48:48
>Ich würde das vorerst nicht auf "alte" Generationen zurückführen. Beim G80 kommt noch der hoher Shadertakt hinzu.


Wenn es tatsächlich 40% sein sollten, dann würde sich NV selbst ein Bein stellen. Jeder würde sich ne G80 kaufen, diese um 40% ocen. Mit so einer Mehrleistung wäre die Nachfolgegeneration, zB G90, wieder weniger interessant. Ausser wenn der G90 selbst wieder zB 80-100% leistungsfähiger ist als der G80. Klingt eher unrealistisch, naja schauen wir mal.

dargo
2006-11-10, 14:01:25
Wenn es tatsächlich 40% sein sollten, dann würde sich NV selbst ein Bein stellen. Jeder würde sich ne G80 kaufen, diese um 40% ocen. Mit so einer Mehrleistung wäre die Nachfolgegeneration, zB G90, wieder weniger interessant. Ausser wenn der G90 selbst wieder zB 80-100% leistungsfähiger ist als der G80. Klingt eher unrealistisch, naja schauen wir mal.
Warum gibt es einen Core 2 Duo den man mal eben um 50-60% übertakten kann? ;)
Die Übertakter sind nicht die Masse.

pXe
2006-11-10, 14:06:00
Nicht unbedingt, in einigen Fällen passiert es nämlich das die Mehrleistung durch einen OC = Mehrleistung GPU + Mehrleistung durch höhere Bandbreite.
Dies scheint hier auch zuzutreffen.

Also 10% GPU Übertaktung plus 10% VRAM Übertaktung = 20% mehr Speed?
Halte ich eigentlich für ziemlich unmöglich :confused:


pXe

DrumDub
2006-11-10, 14:31:26
Oder ist es die Angabe von NV? ist natürlich die angabe von nv. steht ja auch in klammern nvidia dahinter. bei der gx2 gibts noch den (niedrigeren) wert, den xbit gemessen hat...

Swp2000
2006-11-10, 14:32:02
Verdammt, wir brauchen paar Leute die eine GTS haben zum gegentesten.
Weiß jemand womit man den G80, ohne ein NV Brett zu haben, übertakten kann?Was soll das heißen? Läuft die Karte auf nem VIA oder ATI Board nicht?

dargo
2006-11-10, 14:37:21
Was soll das heißen? Läuft die Karte auf nem VIA oder ATI Board nicht?
Nein, um Gottes Willen. ;D
Ich habe zuerst nur gedacht man könnte den G80 mit nTune übertakten. Und afaik funzt nTune nur mit einem Nvidia Chipsatz.

Slipknot79
2006-11-10, 14:42:40
Warum gibt es einen Core 2 Duo den man mal eben um 50-60% übertakten kann? ;)
Die Übertakter sind nicht die Masse.



Es geht aber nicht um zusätzliche CPU-Übertaktung.
Diese kann man vernachlässigen, da, wenn jemand seine CPU übertaktet, es mit der nächsten auch tun wird usw. Das hebt sich also auf, und interessant ist dann nur die Leistungssteigerung durch Graka-oc. Wesker wird nach meiner Einschätzung genauso 20% durch oc auf seinem System rausholen, wie ich es auf meinen auch tun würde. Dass sein System dank Core 2 Duo schneller ist als meines ist ja klar, aber darum geht es ja nicht. Ob meine CPU nun auf 2200MHz rennt oder auf 2750MHz ist egal, das ändert an den 20% nicht viel.

dargo
2006-11-10, 14:44:27
Es geht aber nicht um zusätzliche CPU-Übertaktung.
Diese kann man vernachlässigen, da, wenn jemand seine CPU übertaktet, es mit der nächsten auch tun wird usw.
Was ist das denn für eine Logik? Meinst du der G90, G100 und G110 (oder wie die alle dann heißen) sich nicht übertakten werden lassen? :|

K4mPFwUr$t
2006-11-10, 14:55:05
@Slipknot79
*hust* CPU bremse *hust*
war bei dem wechsel von AXP 2800+ auf A64 4000+ mit X800XT schon zu merken, das die graka nicht ihre gesammten reserven ausspielen konnte.
ein leistungstarkes restsystem hat höhere chancen die 20% mehrleistung zu erreichen als, eins wo die CPU die graka ausbremmen tut.

rein theoretisch ändert sich die 20% angaben nicht, aber der rest hat auch noch ein wörtchen mit zu reden ;)

Mr. Lolman
2006-11-10, 15:04:41
http://www.xbitlabs.com/articles/video/display/gf8800_11.html


Ich check nicht, was die alle mit den R580 BQtests anstellen. Zuerst HardoCP mit den komischen FEAR Screenshots und jetzt xbitlabs: http://www.xbitlabs.com/misc/picture/?src=/images/video/gf8800/image-quality/Anisotropic/R580_HQ.jpg&1=1

Bei mir sieht das so aus: http://666kb.com/i/aj4ka0p9y8j2aiq0m.jpg

dargo
2006-11-10, 15:06:35
Ich check nicht, was die alle mit den R580 BQtests anstellen. Zuerst HardoCP mit den komischen FEAR Screenshots und jetzt xbitlabs: http://www.xbitlabs.com/misc/picture/?src=/images/video/gf8800/image-quality/Anisotropic/R580_HQ.jpg&1=1

Bei mir sieht das so aus: http://666kb.com/i/aj4ka0p9y8j2aiq0m.jpg
Auch ein Tester darf mal Fehler machen. Xbitlabs hat offenbar auch APP-AF benutzt.

Mr. Lolman
2006-11-10, 15:15:38
Auch ein Tester darf mal Fehler machen. Xbitlabs hat offenbar auch APP-AF benutzt.

Hab mir das mal näher angesehen: Damit bei App.AF die BQ so gut ist, wie beim TreiberAF muss der Magnificationfilter auch auf Anisotropic stehen. Anscheinend macht das aber kaum ne App. automatisch, deswegen auch die BQ Unterschiede...

dargo
2006-11-10, 15:22:25
Hab mir das mal näher angesehen: Damit bei App.AF die BQ so gut ist, wie beim TreiberAF muss der Magnificationfilter auch auf Anisotropic stehen. Anscheinend macht das aber kaum ne App. automatisch, deswegen auch die BQ Unterschiede...
Was ist denn das schon wieder? :)

Slipknot79
2006-11-10, 15:43:39
Was ist das denn für eine Logik? Meinst du der G90, G100 und G110 (oder wie die alle dann heißen) sich nicht übertakten werden lassen? :|


Nein, so war das nicht gemeint.

@Slipknot79
*hust* CPU bremse *hust*
war bei dem wechsel von AXP 2800+ auf A64 4000+ mit X800XT schon zu merken, das die graka nicht ihre gesammten reserven ausspielen konnte.
ein leistungstarkes restsystem hat höhere chancen die 20% mehrleistung zu erreichen als, eins wo die CPU die graka ausbremmen tut.

rein theoretisch ändert sich die 20% angaben nicht, aber der rest hat auch noch ein wörtchen mit zu reden ;)


Schon klar dass die CPU bremsen kann, aber wer baut schon in nen 2800er XP ne G80 ein oO

deekey777
2006-11-10, 15:56:37
As a prelude to doing a bigger at-launch roundup from across the web, here's what my fellow Hexans had in the way of related coverage on launch day.

Scan International's 3XS Triad, featuring 8800 GTX (http://www.hexus.net/content/item.php?item=7179)
ASUS EN8800GTX Review (http://www.hexus.net/content/item.php?item=7188)
XFX GeForce 8800 GTX (http://www.hexus.net/content/item.php?item=7184)
GPU IQ and Performance Eval (http://www.hexus.net/content/item.php?item=7177)

:)

Gast
2006-11-10, 15:56:46
Hallo weiß jemand wann vom G80 ein Mainstream Ableger geplant ist. Ich möchte mir Anfang nächsten Jahres nen neuen PC kaufen. D3D10 sollte er können, vieleicht hat AMD bis dahin auch die karten released.
Da ich aufgrund meines 17" Monitors aber in 1024x768 spiele, brauche ich keine Karte wie 8800GTX/GTS.

Mr. Lolman
2006-11-10, 16:12:00
Was ist denn das schon wieder? :)

Das ist der Filter, der dafür angewandt wird, wenn eine Textur vergrößert wird.


Anscheinend nimmt ATi, das App. AF wörtlich und lässt wirklich alles die App. entscheiden. Wäre in der App. bloß trilinearer Filter (noAF) eingestellt, würde der der Mipmapfilter auf linear stehen und man hätte kein hässliches Bi-Band zwischen den Mipmaps. Stellt dann die App. bei ihrem AF Setting nur den Minification Filter auf "anisotrop", gibts nur defaultmässiges "Point" Mipmapping (=biAF) und "linear" (=grobe vergrößerte Texturen) beim Magnification filter. Xbitlabs hat nun bei beiden Lineares Mipmapping (=trilineares Filtering) und anisotropen Min. Filter eingestellt - was anscheinend schon mehr ist, als die meisten Apps bei ihrem AF einstellen - den Mag. Filter aber auf linear gelassen.

Dass NV besser aussieht, könnte imo daran liegen, dass deren Treiber den Mag. Filter selbstständig auf anisotrop setzt, sobald der Min. Filter anisotrop ist. Müsste man mal überprüfen.

Die BQ Unterschiede beim App. AF und anderen Spielen können auch dementsprechend dadurch entstehen, dass NV das beim Mipmapping auch automatisch betreibt, während man bei ATi trilineares Filtering wohl treiberseitig erzwingen müsste...

K4mPFwUr$t
2006-11-10, 16:12:22
@Slipknot79
der unterschied von einem 2800+ zu einem 3500+ oder schon kleinen DC wie X2 3800+ ist zwar schon vorhanden. man kann auch mit einem X2 3800+ oder non OCed E6400 zu einem G80 greifen, nur muss man damit leben das man mehr gezahlt hat als man bekommen wird. außer es ist in wirklich extrem graka lastigen situationen.

@Gast
die sollen im 1Q 2007 lauf nVidia kommen. tippe auf dem launchtermin von vista oder kurz danach.

Gast
2006-11-10, 16:13:25
Hallo weiß jemand wann vom G80 ein Mainstream Ableger geplant ist.Vor der Cebit 2007 würde ich nicht damit rechnen. ;)

DrumDub
2006-11-10, 16:15:34
Hallo weiß jemand wann vom G80 ein Mainstream Ableger geplant ist. ja. wird aber vor februar nichts kommen...

deekey777
2006-11-10, 16:16:46
ja. wird aber vor februar nichts kommen...
Oder auch vor März.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4876123#post4876123
=)

Swp2000
2006-11-10, 18:05:28
Nein, um Gottes Willen. ;D
Ich habe zuerst nur gedacht man könnte den G80 mit nTune übertakten. Und afaik funzt nTune nur mit einem Nvidia Chipsatz.Also für einen moment hast du mich sprachlos gemacht :biggrin:
Nadann ist gut!

misterh
2006-11-10, 21:13:01
16xQ 16xHQ-AF TRSSAA
http://img120.imageshack.us/img120/8976/hl28800gts16xq16xaftrssaq7.jpg

Raff
2006-11-10, 21:24:32
Gut. Ich habe misterhs Save (http://www.keepmyfile.com/download/56cf9c1183902) bekommen, hochgeladen, und die Szene mit meinem R520 abgeschossen. Das folgende Bild stellt die maximal mögliche Qualität aktueller Ati-Karten dar. Ich habe aktuell den Catalyst 6.1 installiert (kein Tippfehler).

6x Q-ASBT-AAA/16x HQ-AF & A.I. Off, eingestellt im Spiel:

http://img248.imageshack.us/img248/9249/hl22pr8.jpg (http://imageshack.us)

Wie man sieht, ist der Unterschied nicht so extrem wie von vielen propagiert – wie auch, wenn schon Atis Filter deutlich besser ist als der des G7x. Auffällig ist die Stelle bei den Schienen ganz im Hintergrund. Dort appliziert der G80 mehr AF. Dass z.B. das Stromkabel beim R520 "schwärzer" ist, liegt am App-AF – mit Treiber-AF ist es wie bei misterh. Die fiese Wand schaut beim G80 ebenfalls minimal besser aus.

MfG,
Raff

horn 12
2006-11-10, 21:24:57
Wo bleibt das Gegenbild der ATI- Karte mit AAA/4x 6x und dem AF 16fach.
Will mir nun die Unterschiede ansehen, ob es schon Welten sind wie oft beschrieben!:mad:

Gast
2006-11-10, 21:26:33
Lohnt es sich einem DC Opteron mit 2,7 eine neue 8800 GTS anstatt einer 7800 GTX zur Seite zur Stellen?

Raff
2006-11-10, 21:31:37
Lohnt es sich einem DC Opteron mit 2,7 eine neue 8800 GTS anstatt einer 7800 GTX zur Seite zur Stellen?

Ein ergänzender GeForce7-Shot sollte das leicht beantworten können. Moment, ich schiebe noch einen mit Billig-AF nach.

MfG,
Raff

DrumDub
2006-11-10, 21:32:04
die unterschiede im bezug auf af wirklich nicht besonders groß. dass (trss)aa sieht aber beim g80 besser aus. sieht man imho besonders am baum und am zaun auf der rechten seite.

Super Grobi
2006-11-10, 21:33:28
Ein ergänzender GeForce7-Shot sollte das leicht beantworten können. Moment, ich schiebe noch einen mit Billig-AF nach.

MfG,
Raff

Aber dann wackelt man immer noch mit 256MB Vram rum.

SG

Gast
2006-11-10, 21:34:42
Ist der Opteron dann nicht schon zu schwach für so eine Karte?

crane
2006-11-10, 21:36:09
Wie man sieht, ist der Unterschied nicht so extrem wie von vielen propagiert – wie auch, wenn schon Atis Filter deutlich besser ist als der des G7x. Auffällig ist die Stelle bei den Schienen ganz im Hintergrund. Dort appliziert der G80 mehr AF. Dass z.B. das Stromkabel beim R520 "schwärzer" ist, liegt am App-AF – mit Treiber-AF ist es wie bei misterh. Die fiese Wand schaut beim G80 ebenfalls minimal besser aus.

MfG,
Raff

Wenn man beide Bilder in einer Bildbearfbeitungssoftware hin und her schaltet sieht man noch wesentlich mehr Unterschiede. Bei der 8800 sieht man vorne beim ersten "Kran" einen Lichtkegel eines Strahlers links auf die Wand leuchten der das Bild irgendwie insgesamt heller macht...
Fehlt der absichtlich bei ATI oder "lebt" das Savegame ?

Super Grobi
2006-11-10, 21:38:16
Ist der Opteron dann nicht schon zu schwach für so eine Karte?

SRY,
aber bleib mal auf dem Boden. Wenn Intel nicht den C2D gebracht hätte, hätte NV denoch die Karten gebracht. Was wäre den dann gewesen? Braucht man einen 3,6ghz X2 für eine 8800GTS?

*kopfschüttel*
SG

DrumDub
2006-11-10, 21:38:49
Fehlt der absichtlich bei ATI oder "lebt" das Savegame ? liegt am savegame... etwas anderer zeitpunkt. dürfte ne drohne hinter dem mast sein, dei den lichtkegel wirft.

Expandable
2006-11-10, 21:39:30
Ist der Opteron dann nicht schon zu schwach für so eine Karte?

Ja, wenn Du in 640x480 spielst. Nein, wenn Du in 1280x1024 in 16x CSAA und 16xWUAF spielst. Und schon gleich drei mal nicht, wenn Du Crysis/Unreal Engine 3-Spiele vernünftig zocken willst.

Mein Gott, dass diese Frage so oft kommt, verstehe ich wirklich nicht.

Raff
2006-11-10, 21:48:24
liegt am savegame... etwas anderer zeitpunkt. dürfte ne drohne hinter dem mast sein, dei den lichtkegel wirft.

Exakt. :)

Ati Standard-wa-AF (dennoch A.I. Off):

http://img216.imageshack.us/img216/7330/hl2billigjp9.jpg (http://imageshack.us)

Grausig ...
Die Fps bitte nicht beachten, das eben war mit einem niedrigeren FSB und die Stelle ist bei mir radikal CPU-limitiert (Dothan @ 2,78 GHz, X1800 XT 512 MiB @ 722/891 MHz).

MfG,
Raff

horn 12
2006-11-10, 21:54:02
Also die beider Vergleiche geben sich nicht viel, viell. max 5-10% an Nvidia.
Aber der G80 soll ja auch nicht das Vergleichsprodukt sein, da kommt ja noch was, AAH ja, der R600.....
Und diese beiden Graka Generationen müssen sich messen, da auch in der selben Liga,- auch Preisliga sich befinden.

Mastermind
2006-11-10, 21:55:07
Wenn man bei Google nach "nvidia g80 tech" sucht, dann ist der 3DC-Artikel auf Platz eins! :eek: Und das obwohl 3DC noch nicht mal ne Karte hatte und der Artikel dementsprechend nicht sehr ausführlich ist.
Wahsinn. :smile:

The_Invisible
2006-11-10, 21:57:58
Also die beider Vergleiche geben sich nicht viel, viell. max 5-10% an Nvidia.
Aber der G80 soll ja auch nicht das Vergleichsprodukt sein, da kommt ja noch was, AAH ja, der R600.....
Und diese beiden Graka Generationen müssen sich messen, da auch in der selben Liga,- auch Preisliga sich befinden.

trotzdem kann man in den nächsten monaten nur vergleichen was da ist ;)

aber du hast schon recht, viel unterschied ist da nicht, frage mich wie da manche darauf kommen das dazwischen "welten" liegen

mfg

Super Grobi
2006-11-10, 21:58:01
Wenn man bei Google nach "nvidia g80 tech" sucht, dann ist der 3DC-Artikel auf Platz eins! :eek: Und das obwohl 3DC noch nicht mal ne Karte hatte und der Artikel dementsprechend nicht sehr ausführlich ist.
Wahsinn. :smile:

Dafür gibts aber 3dc-typisch 5408096589054907406978095 Postings zum G80 mit bla bla von "Fachleuten" die spekulieren und sich rum streiten. ;)

SG

p.s.
Wo bleibt der G90 Thread? *ggg*

Gast
2006-11-10, 22:06:17
Also die beider Vergleiche geben sich nicht viel, viell. max 5-10% an Nvidia.
Aber der G80 soll ja auch nicht das Vergleichsprodukt sein, da kommt ja noch was, AAH ja, der R600.....
Und diese beiden Graka Generationen müssen sich messen, da auch in der selben Liga,- auch Preisliga sich befinden.Naja die matschgrafik begint ab dem ersten gewächs.
spätestens nach dem leuchten/metalpfeiler (kran) verschwinden die fugen zwischen den steinen.
beim tunel ists bei ati ganz dunkel der nv screen zeigt dort noch lichteinfall.

alles in allem schon ein extremer qulitäts unterschied der weit über 5-10% liegt.

Zapat
2006-11-10, 22:06:37
Thade es reicht langsam!:mad: Denkst du wir wissen nicht das du mit deiner Xbox360 Geschichte und Gow Leuten von denn kauf des G80 abhalten willst!Wach endlich auf du was auch immer,wenn du vonj Ati bezahlst wirst für deine propaganda dann belege das bitte auch.Am besten du schreibts das abkommen mit AMD/Ati in deine sig damit wir alle wissen das dein gespamme von Ati kommt.Junge wach endlich auf,dein abraten der user vom G80 ist nicht mehr feierlich.Am besten sollte man Thade 2 Monate zum nachdenken bannen,wenn er nicht denn Beweis liefert das er von Ati/Amd Geld für sein dummes gerede kriegt!Stimmt ihr mir dazu?

Ich bin auch eher ein Ati fan,wenn man sich aber die 8800 Serie Balken anguckt muss man ein lob aussprechen und nicht versuchen das was beeindruckend gezeigt wurde schlecht zu machen.

Thade schäm dich,du bist das letzte,.:P :P ;D

P2oldi
2006-11-10, 22:14:15
trotzdem kann man in den nächsten monaten nur vergleichen was da ist ;)

aber du hast schon recht, viel unterschied ist da nicht, frage mich wie da manche darauf kommen das dazwischen "welten" liegen

mfg

Ich finde beide Shots derbe nice, wußte gar net, daß Games inzwischen soooo geil aussehen können, hab immernoch net 9700np im Rechner und da geht net viel mit, zock auch kaum Shooter, aber das ist beides mal sehr nice. Und mit meinem völlig verdorbenen Auge seh ich da eigentlich keine Unterschiede :redface:

WEGA
2006-11-10, 22:16:41
Lohnt es sich einem DC Opteron mit 2,7 eine neue 8800 GTS anstatt einer 7800 GTX zur Seite zur Stellen?
computerbase hat mit nem FX 2,6 ghz gebencht und da limiterit kein einziges spiele selbst auf der niedrigsten grafikstufe ohne AA ohne AF.
lass dich von den ganzen trolls nicht verwirren, die meinen man braucht nen 3,8ghz core2 ...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/10/#abschnitt_testsystem

ShadowXX
2006-11-10, 22:17:48
Naja die matschgrafik begint ab dem ersten gewächs.
spätestens nach dem leuchten/metalpfeiler (kran) verschwinden die fugen zwischen den steinen.
beim tunel ists bei ati ganz dunkel der nv screen zeigt dort noch lichteinfall.

alles in allem schon ein extremer qulitäts unterschied der weit über 5-10% liegt.
Zusätzlich darf man nicht vergessen, dass ein unbewegtes Bild nur die Hälfte der Wahrheit ist.
Solche Unterschiede, die man schon auf einem unbewegten Bild sehen kann, zeigen sich in Bewegung meistens noch wesentlich deutlicher.

deekey777
2006-11-10, 22:17:55
Thade es reicht langsam!:mad: Denkst du wir wissen nicht das du mit deiner Xbox360 Geschichte und Gow Leuten von denn kauf des G80 abhalten willst!Wach endlich auf du was auch immer,wenn du vonj Ati bezahlst wirst für deine propaganda dann belege das bitte auch.Am besten du schreibts das abkommen mit AMD/Ati in deine sig damit wir alle wissen das dein gespamme von Ati kommt.Junge wach endlich auf,dein abraten der user vom G80 ist nicht mehr feierlich.Am besten sollte man Thade 2 Monate zum nachdenken bannen,wenn er nicht denn Beweis liefert das er von Ati/Amd Geld für sein dummes gerede kriegt!Stimmt ihr mir dazu?

Ich bin auch eher ein Ati fan,wenn man sich aber die 8800 Serie Balken anguckt muss man ein lob aussprechen und nicht versuchen das was beeindruckend gezeigt wurde schlecht zu machen.

Thade schäm dich,du bist das letzte,.:P :P ;D
Irgendwie scheinst du lernresistent zu sein. Für diese Anfeindung und Beleidigung gibt es weitere drei Tage.

ShadowXX
2006-11-10, 22:19:58
computerbase hat mit nem FX 2,6 ghz gebencht und da limiterit kein einziges spiele selbst auf der niedrigsten grafikstufe ohne AA ohne AF.
lass dich von den ganzen trolls nicht verwirren, die meinen man braucht nen 3,8ghz core2 ...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/10/#abschnitt_testsystem
Naja....Computerbase selbst meint, das der FX für den Test nicht die erste Wahl ist und will nochmal mit einem C2D (dem X6800) nachtesten.

Was jetzt aber nicht heissen soll, das ein hochgetakteter AMD nicht für eine 8800GTX geeignet ist.

AnarchX
2006-11-10, 22:22:37
Es scheint neue BIOSe für GTS/GTX zu geben:
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f163%2f163412.shtml

Laut dem was Babelfish übersetzt, hat es wohl irgendwas mit der Lüftersteurung zu tun.
Aber bald wird man wohl dazu auch etwas auf nicht asiatischen Seiten lesen können.

Ailuros
2006-11-10, 22:23:12
Mein System wird wohl auch CPU-limitiert in diesem Sinn sein, aber zumindest ist es nicht "Bildschirm-limitiert" ;)

***edit: uebrigens wer will kann mir seine persoenlichen Wuensche was G80-Tests betrifft per PM zuschicken; ich kann zwar nicht versprechen allen folgen zu koennen, aber eine gesunde Zahl dann schon.

Raff
2006-11-10, 22:24:56
Interessant ist IMO auch dieses Save hier: Save2.rar (http://www.keepmyfile.com/download/5375041184051)

http://img218.imageshack.us/img218/6171/hl2neuej4.jpg (http://imageshack.us)

Ist fast das gleiche, nur diesmal ganz an der Wand. Wenn man diese genau betrachtet, sieht man den R5x0 ganz hinten schwächeln. G80-Shots bitte. :)
Diesmal war es übrigens mit Treiber-AA/AF. das hat zur Folge, dass Bäume und Stromkabel besser aussehen ... aber dafür gehen Zaun-Details flöten.

MfG,
Raff

misterh
2006-11-10, 22:28:53
gleiche details, andere save

http://img212.imageshack.us/img212/1047/hl216xq16xaftrssaa2pl6.jpg

chrisihamm
2006-11-10, 22:30:27
Hallo,


kann man sich eigentlich die Timedemos irgendwo runterladen?


mfg

Raff
2006-11-10, 22:32:43
gleiche details, andere save

http://img212.imageshack.us/img212/1047/hl216xq16xaftrssaa2pl6.jpg

Hrhr, die Wand ist nur minimal besser. Dafür ist das (TSS)AA gerade am Zaun deutlich überlegen.

MfG,
Raff

Mr. Lolman
2006-11-10, 22:38:03
Das folgende Bild stellt die maximal mögliche Qualität aktueller Ati-Karten dar.

6x Q-ASBT-AAA/16x HQ-AF & A.I. Off, eingestellt im Spiel:

http://img248.imageshack.us/img248/9249/hl22pr8.jpg (http://imageshack.us)


Imo sieht das besser aus (R580, 6xAA/16xHQ-AF, EATM):

http://img519.imageshack.us/img519/304/hl22006111022284151je9.jpg (http://imageshack.us)

Sonyfreak
2006-11-10, 22:38:45
Ein ergänzender GeForce7-Shot sollte das leicht beantworten können. Moment, ich schiebe noch einen mit Billig-AF nach.Kommt sofort:

G70 / 16xTSSAA 16xAF / HQ im Treiber

http://666kb.com/i/aj4vu5pqx3ijix4bq.jpg

Da sieht man schon einen sehr starken Unterschied. :frown:

mfg.

Sonyfreak

EDIT: 2.Speicherstand

http://666kb.com/i/aj4w0wr55y56789pi.jpg

dargo
2006-11-10, 22:40:04
Ui, man beachte das Geländer am zweiten Mast.

Raff
2006-11-10, 22:40:29
Bei mir matscht EATM die Alphatests etwas zusammen. Kam mir etwas spanisch vor, daher habe ich es nicht gepostet. Dürfte am Catalyst 6.1 liegen, der ja weit von offiziellem EATM entfernt ist ... ;)

MfG,
Raff

dargo
2006-11-10, 22:42:37
Könntet ihr mir einen Gefallen tun? Wenn ihr schon BQ Vergleiche macht dann bitte wenigstens im PNG Format. Bei JPG gehen zuviele Informationen verloren.

misterh
2006-11-10, 22:45:57
Könntet ihr mir einen Gefallen tun? Wenn ihr schon BQ Vergleiche macht dann bitte wenigstens im PNG Format. Bei JPG gehen zuviele Informationen verloren.

hab JPG immer 100%

Voodoo3Killer
2006-11-10, 22:46:28
Kurze Frage... Geht G80 SLI auf allen SLI Boards oder nur auf dem neuesten nvidia Chipsatz?

4711
2006-11-10, 22:47:11
Also für einen moment hast du mich sprachlos gemacht :biggrin:
Nadann ist gut!

Macht ihr jetzt Spaß?
Mit dem neuen nTune kann man die Karten OCen und die Lüfter steuern auch bei einem nicht NForce Brett.

Coda
2006-11-10, 22:48:47
hab JPG immer 100%

Das ist trotzdem nicht verlustlos.

Blaze
2006-11-10, 22:48:57
Kurze Frage... Geht G80 SLI auf allen SLI Boards oder nur auf dem neuesten nvidia Chipsatz?

Auf allen natürlich.

dargo
2006-11-10, 22:52:19
hab JPG immer 100%
Ok, wie groß der Unterschied bei 100% ist kann ich jetzt spontan nicht sagen. Aber in der Regel wir ja mit standard Kompression (70%?) gepostet und gerade bei solchen Spielchen wie TSSAA gehen da einige Informationen verloren.

Imo ist PNG da der bester Kompromiss zwischen BQ und Speicherplatz.

Grestorn
2006-11-10, 22:53:54
Ok, wie groß der Unterschied bei 100% ist kann ich jetzt spontan nicht sagen. Aber in der Regel wir ja mit standard Kompression (70%?) gepostet und gerade bei solchen Spielchen wie TSSAA gehen da einige Informationen verloren.

Imo ist PNG da der bester Kompromiss zwischen BQ und Speicherplatz.

PNG ist kein Kompromiss, denn es gibt ja keinerlei Abstriche in der BQ... :)

Sonyfreak
2006-11-10, 22:59:44
Hier nochmal meine beiden Bilder von oben als PNG zusammengepackt als selbstentpackendes 7ZIP Archiv.

KLICK (http://www.uploadyourfiles.de/9a75c8d8c7365d24f10143a5f7cf95ec/jo54g/Download.html)

mfg.

Sonyfreak

dargo
2006-11-10, 23:01:32
PNG ist kein Kompromiss, denn es gibt ja keinerlei Abstriche in der BQ... :)
Hmm, umso besser. :)
Das wusste ich jetzt nicht. Ich dachte durch den kleineren Speicherplatzbedarf würde die BQ auch etwas leiden. Wobei ich mir schon mal paar Bilder in BMP und PNG abwechselnd angeschaut habe und keinen Unterschied feststellen konnte, im Gegensatz zu JPG.

Hier nochmal meine beiden Bilder von oben als PNG zusammengepackt als selbstentpackendes 7ZIP Archiv.

KLICK (http://www.uploadyourfiles.de/9a75c8d8c7365d24f10143a5f7cf95ec/jo54g/Download.html)

Wie wärs in Zukunft mit Thumbnails? :)

Mr. Lolman
2006-11-10, 23:02:22
Hier nochmal als png (auch wenn ich keinen Unterschied seh zum vorigen jpg): http://www.myloads.de/upload2/25970.png

Grestorn
2006-11-10, 23:10:46
Hier nochmal als png (auch wenn ich keinen Unterschied seh zum vorigen jpg): http://www.myloads.de/upload2/25970.png

Wenn das ein Vergleich zu Raffs zweitem Shot sein soll: Du stehst nicht ganz an der Wand. Nimm Raffs Savegame.

Sonyfreak
2006-11-10, 23:14:38
Wie wärs in Zukunft mit Thumbnails? :)Wenn das hier lieber gesehen wird, hab ich damit auch kein Problem. :smile:

Bild 1 (http://www.myloads.de/upload2/25973.png)

Bild 2 (http://www.myloads.de/upload2/25974.png)

mfg.

Sonyfreak

misterh
2006-11-10, 23:14:57
Wenn das ein Vergleich zu Raffs zweitem Shot sein soll: Du stehst nicht ganz an der Wand. Nimm Raffs Savegame.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4974303#post4974303

dargo
2006-11-10, 23:19:13
Bild 2 (http://www.myloads.de/upload2/25974.png)

Dieser Winkel ist aber verdammt böse bei Wa-AF. X-D

Raff
2006-11-10, 23:21:39
Na was glaubst du, warum ich das als zweite Szene auserkoren habe? ;)

MfG,
Raff

dildo4u
2006-11-10, 23:25:27
@misterh kannst du die Benches von Firingsquad bestätigen das die GTS mit OC schneller als eine GTX ist?


http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp

Mr. Lolman
2006-11-10, 23:29:09
R580, 6xAA, 16xHQAF, AIoff, EATM, Raffs Save: http://www.myloads.de/upload2/25975.png

Achja, die fps zählen bei dem Shot nicht. Hab nebenbei ferngesehen ;)

dargo
2006-11-10, 23:31:52
R580, 6xAA, 16xHQAF, AIoff, EATM, Raffs Save: http://www.myloads.de/upload2/25975.png
Wie bekommt man eigendlich das letzte Stück der Wand noch besser hin? Mit 32x wu-af?

Gast
2006-11-10, 23:32:25
R580, 6xAA, 16xHQAF, AIoff, EATM, Raffs Save: http://www.myloads.de/upload2/25975.png

Und wo ist jetzt Nvidia besser????

Blaire
2006-11-10, 23:33:06
Na was glaubst du, warum ich das als zweite Szene auserkoren habe? ;)

MfG,
Raff

In Bewegung siehst du eher den Unterschied noch viel deutlicher denn da grieselts im Vordergrund fast garnicht , während der G71/X1xxx dort munter um die Wette flimmern. ;)

Mr. Lolman
2006-11-10, 23:37:08
In Bewegung siehst du eher den Unterschied noch viel deutlicher denn da grieselts im Vordergrund fast garnicht , während der G71/X1xxx dort munter um die Wette flimmern. ;)

Mit R580 dem R580 griesselts in der Szene nur am Boden ein wenig. Die Wand ist sauber.

BTW: Ich würd gern einen G80 Shot sehen, bei dem das 2. Geländer nicht kaputt ist.

Sonyfreak
2006-11-10, 23:38:17
Wie bekommt man eigendlich das letzte Stück der Wand noch besser hin? Mit 32x wu-af?Oder mit Supersampling AntiAliasing, aber das ist wohl die weit "teurere" Variante. Allerdings muss ich für meinen Teil sagen, dass mir diese AF Qualität schon reichen würde.

mfg.

Sonyfreak

sulak
2006-11-10, 23:41:46
Es scheint neue BIOSe für GTS/GTX zu geben:
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f163%2f163412.shtml

Laut dem was Babelfish übersetzt, hat es wohl irgendwas mit der Lüftersteurung zu tun.
Aber bald wird man wohl dazu auch etwas auf nicht asiatischen Seiten lesen können.

Lüftersteuerung ist nicht das Problem, die funktioniert da man per nTune+Treiber die verstellen kann. Aber es ist im Bios gar keine andere Taktrate für den 2D Modus hinterlegt.
Ob das ATI Tool die Taktfrequenz für 2D wirklich richtig verstellt kann ich nicht sagen für den 3D Modus gehts einwandfrei.
Problem dürfte am Treiber liegen, der afaik entscheidet der ob eine 3D Anwendung anliegt oder nicht bzw. er schaltet die Graka in 2D oder 3D Modus.

Gouvernator
2006-11-10, 23:42:44
Bei diesen kleinen Bildchen kann man sich fast die Augen brechen. Hier, sowas nimmt man :D
http://img470.imageshack.us/img470/1275/hl2ls9.th.jpg (http://img470.imageshack.us/my.php?image=hl2ls9.jpg)
AI-Off, 16xHQ AREA AF, 6xHQAAA+ASBT+EATM

Wie bekommt man eigendlich das letzte Stück der Wand noch besser hin? Mit 32x wu-af?
Ja. Auf meinem Bild scheint es dort mit AF zu Ende zu gehen .

thade
2006-11-10, 23:45:32
Denkt ihr, es wird mit dem R600 neue AA Modi geben?

@Raff

Ich will endlich wissen, ob die Rage Fury Maxx bei dir schon angekommen ist...

Raff
2006-11-10, 23:46:40
Bei diesen kleinen Bildchen kann man sich fast die Augen brechen. Hier, sowas nimmt man :D
http://img470.imageshack.us/img470/1275/hl2ls9.th.jpg (http://img470.imageshack.us/my.php?image=hl2ls9.jpg)
AI-Off, 16xHQ AREA AF, 6xHQAAA+ASBT+EATM

Du hast Bi-AF an. ;) Und EATM geht (zumindest bei mir) nicht zusammen mit ASBT ... es wird nur EATM genutzt, wenn beides gleichzeitig aktiviert ist.

@ thade: Jopp! Konnte sie aber noch nicht testen. Hab' deine PN leider vergessen.

MfG,
Raff

misterh
2006-11-10, 23:48:33
@misterh kannst du die Benches von Firingsquad bestätigen das die GTS mit OC schneller als eine GTX ist?


http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp

kA

8800GTS @ 630/870

3DMark2003 (http://service.futuremark.com/compare?2k3=5045470)
3DMark2005 (http://service.futuremark.com/compare?3dm05=2320483)
3DMark2006 (http://service.futuremark.com/compare?3dm06=622057)

Sonyfreak
2006-11-10, 23:49:16
http://img470.imageshack.us/img470/1275/hl2ls9.th.jpg (http://img470.imageshack.us/my.php?image=hl2ls9.jpg)Irgendwas ist bei deinem Bildchen schiefgelaufen. Scheinbar ist das AF nur bilinear oder sowas in der Art.

Siehe hier:

http://666kb.com/i/aj4xmwuers7xkw0fa.png

mfg.

Sonyfreak

EDIT: zu spät...

Raff
2006-11-10, 23:49:57
Das schaut AFAIK so aus, wenn man ingame bilinear einstellt.

MfG,
Raff

Gouvernator
2006-11-10, 23:52:30
Das schaut AFAIK so aus, wenn man ingame bilinear einstellt.

MfG,
Raff
Ach so. Hab ich auch :eek:

Mastermind
2006-11-10, 23:55:24
Ach so. Hab ich auch :eek:
Mach bitte nen neuen hochaufgelösten Shot mit Tri und diesmal bitte als PNG. :smile:

Mr. Lolman
2006-11-10, 23:56:12
Ach so. Hab ich auch :eek:

Komprimiers bei der Gelegenheit weniger stark, oder verwend gleich png...

/edit: zu langsam

dargo
2006-11-11, 00:00:37
kA

8800GTS @ 630/870

3DMark2003 (http://service.futuremark.com/compare?2k3=5045470)
3DMark2005 (http://service.futuremark.com/compare?3dm05=2320483)
3DMark2006 (http://service.futuremark.com/compare?3dm06=622057)
Es kommt ungefähr hin.
Du hast:
SM 2.0 Score 4489 Marks
SM 3.0 Score 4422 Marks
CPU Score 2978 Marks

tombman (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4970733&postcount=681) hat:
SM 2.0 Score 4810 Marks
SM 3.0 Score 4904 Marks
CPU Score 3420 Marks

Seine CPU läuft aber mit 4Ghz und 4MB Cache. Wenn man das alles mitbeachtet könnte es ungefähr GTX Speed sein. Dein Speicher müsste noch eventuell auf 907Mhz rauf wie bei:
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp

Sonyfreak
2006-11-11, 00:09:55
Hier noch ein hoch auflösender Screenshot von mir. Leider macht er bei der Auflösung das 16xAA nicht mehr. :frown:

2048x1536, 4xTSSAA, 16xAF, HQ@G71

Vorsicht 5,5MB (http://www.myloads.de/upload2/25998.png)

mfg.

Sonyfreak

Gouvernator
2006-11-11, 00:24:59
SO ! Ich habe fertig /| http://www.myloads.de/upload2/26006.rar
Mit PNG gings schlecht bei dieser Grösse warens 14mb und mit PNG8 gabs üble Fehler, deshalb original BMP@gepackt (7mb)
Im Spiel auf trilinear eingestellt, im ATT Tri,Area,HQ 16xAF,6xHQAAA+ASBT+EATM 2560x1920

Blaire
2006-11-11, 00:29:46
Mit R580 dem R580 griesselts in der Szene nur am Boden ein wenig. Die Wand ist sauber.

Wenn du meinst...

BTW: Ich würd gern einen G80 Shot sehen, bei dem das 2. Geländer nicht kaputt ist.

Das ist weder kaputt noch ungewöhnlich, man muss nur vergleichbare Settings verwenden. ;) Ich kann dir aus HL2:Lost Coast auch ne Stelle zeigen wo bei Ati Details fehlen die bei NV vorhanden sind. :wink:

Gast
2006-11-11, 00:32:23
SO ! Ich habe fertig /| http://www.myloads.de/upload2/26006.rar
Mit PNG gings schlecht bei dieser Grösse warens 14mb und mit PNG8 gabs üble Fehler, deshalb original BMP@gepackt (7mb)
Im Spiel auf trilinear eingestellt, im ATT Tri,Area,HQ 16xAF,6xHQAAA+ASBT+EATM 2560x1920Nun noch einen g80 screen in selber auflösung und selben format zum vergleichen bitte@g80 besitzer

Mr. Lolman
2006-11-11, 00:32:53
SO ! Ich habe fertig /| http://www.myloads.de/upload2/26006.rar
Mit PNG gings schlecht bei dieser Grösse warens 14mb und mit PNG8 gabs üble Fehler, deshalb original BMP@gepackt (7mb)
Im Spiel auf trilinear eingestellt, im ATT Tri,Area,HQ 16xAF,6xHQAAA+ASBT+EATM 2560x1920

Hast du Crossfire?

Gouvernator
2006-11-11, 00:37:20
Hast du Crossfire?
Nö nur 720/900mhz eine XTX

Mr. Lolman
2006-11-11, 00:41:46
Nö nur 720/900mhz eine XTX

Arg, hast nämlich (Auflösungunterschied miteinberechnet) 217% der Leistung von Sonyfreak (75% mehr fps und 1.56x höhere Auflösung) :eek:

Gouvernator
2006-11-11, 00:49:22
Arg, hast nämlich (Auflösungunterschied miteinberechnet) 217% der Leistung von Sonyfreak (75% mehr fps und 1.56x höhere Auflösung) :eek:
Der hat aber 16xAA ! Ne, Moment , das ist der mit G71... wahrscheinlich 8xS weil 16xAA nicht ging. Ne, doch nicht ...4xAA. Krass.

Sonyfreak
2006-11-11, 01:02:09
Ich bin mir relativ sicher, dass hier der mit 256MB doch recht knapp bemessene Videospeicher meiner 7900GT nicht mehr ausreicht, und sie daher unverhältnismäßig stark zurückliegt.

mfg.

Sonyfreak

Raff
2006-11-11, 01:16:26
Wenn du meinst...

Kann ich bestätigen. Mit A.I. Low wird's aber IMO schon zu stark. Und der G80 ist da deiner Meinung nach besser?

MfG,
Raff

Blaire
2006-11-11, 01:31:57
Kann ich bestätigen. Mit A.I. Low wird's aber IMO schon zu stark. Und der G80 ist da deiner Meinung nach besser?

MfG,
Raff

Da ich damals Crossfire hatte war man ja gezwungen AI auf Low zu stellen und das flimmerte schon sehr auffällig. Auf der 8800GTX ist das selbst mit Quality (Standardeinstellung) deutlich angenehmer. Bin begeistert!

Raff
2006-11-11, 01:33:22
Klingt guuut. =) Wäre es einem G80-er möglich, ein kurzes Video von der Stelle zu machen, bei dem man paar Meter vor läuft?

MfG,
Raff

Blaire
2006-11-11, 01:43:30
Klingt guuut. =) Wäre es einem G80-er möglich, ein kurzes Video von der Stelle zu machen, bei dem man paar Meter vor läuft?

MfG,
Raff

Wie mit Fraps? Kann man denn das überhaupt aufzeigen, ich hatte ja damals schon Videos aus BF2 erstellt und man hatte Mühe dieses Grieseln zu erkennen.

Voodoo3Killer
2006-11-11, 01:43:55
Auf allen natürlich.

Ah OK Danke

misterh
2006-11-11, 01:51:16
Klingt guuut. =) Wäre es einem G80-er möglich, ein kurzes Video von der Stelle zu machen, bei dem man paar Meter vor läuft?

MfG,
Raff

ich hab kleine video aufgenommen von diese stelle.

bin am hochladen

leider 258mb.

dildo4u
2006-11-11, 02:32:21
Enemy Territory: Quake Wars 8800GT Launch Event Trailer

http://www.gamershell.com/download_16399.shtml

DjDino
2006-11-11, 08:39:17
Tja, die Maschine sollte man stehen haben.... :
Intel Core-2-quatro 6700Extreme + 8800GTX-SLI : http://www.legitreviews.com/article/415/5/

Knapp 16000 in 3DMark06 , boah....

Ailuros
2006-11-11, 08:53:14
Man kann's auch uebertreiben mit der Wandkleberei :rolleyes:

Gast
2006-11-11, 10:08:49
Mit R580 dem R580 griesselts in der Szene nur am Boden ein wenig. Die Wand ist sauber.

BTW: Ich würd gern einen G80 Shot sehen, bei dem das 2. Geländer nicht kaputt ist.

alle bildchen mit ganzem Geländer sind von einer G80!!!!
die mit dem kaputten von deiner ATI!!!!!

dargo
2006-11-11, 10:17:05
alle bildchen mit ganzem Geländer sind von einer G80!!!!
die mit dem kaputten von deiner ATI!!!!!
Anscheinend hast du den Thread nicht richtig gelesen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4974303&postcount=847

Ist übrigens ein R580.

Mr. Lolman
2006-11-11, 10:27:06
alle bildchen mit ganzem Geländer sind von einer G80!!!!
die mit dem kaputten von deiner ATI!!!!!

ROFL. Die G80 Bilder gibts ja garnichtmehr in dem Thread. Für ein schönes Geländer braucht man EATM oder SSAA. Beides bietet der G80 (momentan) anscheinend nicht an

4711
2006-11-11, 10:35:16
mal langsam..das hatten wir doch schonmal mit dem Zaun in der Halle ganz am Anfang des Spieles...das war irgendeine Einstellung im CP und das war der Zaun aufeinmal wieder da..
Auf meiner GX² waren ja sogar beide Geländer "ganz".
Schade das ich das Game nicht mehr inst.habe..bzw gar keins im mom die Platte hat die Grätsche gemacht...

Ailuros
2006-11-11, 10:36:04
ROFL. Die G80 Bilder gibts ja garnichtmehr in dem Thread. Für ein schönes Geländer braucht man EATM oder SSAA. Beides bietet der G80 (momentan) anscheinend nicht an

TSAA kann man sehr wohl dazuschalten, ausser Du meinst etwas anderes.

Rente
2006-11-11, 10:42:38
TSAA kann man sehr wohl dazuschalten, ausser Du meinst etwas anderes.
Das Geländer auf dem 2. Träger in der HL²-Szene wird leider nur mit EATM oder SSAA bzw. Mischmodi geglättet, TSSAA und AAA haben da keine Wirkung, keine Ahnung wieso.

Mr. Lolman
2006-11-11, 10:46:35
TSAA kann man sehr wohl dazuschalten, ausser Du meinst etwas anderes.

TSAA = ASTT (AAA)
ASBT = ASTT auf alle transparenten Polygone (auch Alphablendet)
EATM = A2C (Alpha to Coverage)

4711
2006-11-11, 10:50:00
jeep stimmt,hab es wieder gefunden war damals mit meiner 1900XTX wo es eine Eintellung war die den Zaun und Geländer versteckt hatten.

misterh
2006-11-11, 11:42:00
Video : HL2 mit 16xQ 16xAF TRSSAA ca 8sek (http://www14.rapidupload.com/d.php?file=dl&filepath=8481 )

Gast
2006-11-11, 12:54:20
Das Schweigen im Walde :D

Sonyfreak
2006-11-11, 13:13:05
Ich wollte mir das Video runterladen, aber irgendwie ist der Download dann bei ca. 130MB stehen geblieben. Naja - ich werds halt nochmal probieren. :smile:

mfg.

Sonyfreak

Slipknot79
2006-11-11, 13:32:07
Video : HL2 mit 16xQ 16xAF TRSSAA ca 8sek (http://www14.rapidupload.com/d.php?file=dl&filepath=8481 )


File access error :(


€dit: Hm, jetzt geht oO

AnarchX
2006-11-11, 13:45:02
X-bit labs - Directly Unified: Nvidia GeForce 8800 Architecture Review
http://www.xbitlabs.com/articles/video/display/gf8800.html

Gast
2006-11-11, 13:48:52
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/
oje wenn das stimmt...

deekey777
2006-11-11, 13:56:29
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/
oje wenn das stimmt...
Falscher Thread.

up¦²
2006-11-11, 14:46:40
Schock:
http://www.xtremesystems.org/forums/showthread.php?t=122394

tombman
2006-11-11, 14:50:45
Schock:
http://www.xtremesystems.org/forums/showthread.php?t=122394
AAAAAA---aaaaa---AAAAA----llllllllll--------TTTT ;)

AnarchX
2006-11-11, 14:51:01
Schock:
http://www.xtremesystems.org/forums/showthread.php?t=122394

Das ist aber schon 3 Tage alt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4966098&postcount=440
Oder hat Kingpin nun die 30k geknackt?

up¦²
2006-11-11, 14:53:18
Das ist aber schon 3 Tage alt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4966098&postcount=440
Oder hat Kingpin nun die 30k geknackt?


Die hat sich unser tombman vorgenommen! :wink:
Aber zeigt, was für reserven in dem Teil schlummern :rolleyes:

Nebenbei, der verkauf soll übrigens nicht sooo dolle sein

WEGA
2006-11-11, 14:58:43
Das ist aber schon 3 Tage alt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4966098&postcount=440
Oder hat Kingpin nun die 30k geknackt?
super :uclap:

tombman
2006-11-11, 15:05:18
Die hat sich unser tombman vorgenommen! :wink:
Nö, WRs interessieren mich ned, weil ich den Laster mit LN2 ned vor der Tür habe ;D;D

up¦²
2006-11-11, 15:16:29
Nö, WRs interessieren mich ned, weil ich den Laster mit LN2 ned vor der Tür habe ;D;D

Versteh schon :wink:

Übrigens, mal was zu problemchen:
bei CS-S wird von bugs (und unscharfe gegner auf abstand) berichtet, z.B. dust2:
8800GTX mit driver 97.02
http://good-times.webshots.com/album/552314341cOWPOa

PS, Was schafft die 8800 denn eigentlich im Stresstest?

misterh
2006-11-11, 15:22:22
Versteh schon :wink:

Übrigens, mal was zu problemchen:
bei CS-S wird von bugs (und unscharfe gegner auf abstand) berichtet, z.B. dust2:
8800GTX mit driver 97.02
http://good-times.webshots.com/album/552314341cOWPOa

PS, Was schafft die 8800 denn eigentlich im Stresstest?

sowas hab ich auch mit 97.02

Blaire
2006-11-11, 17:36:24
Versteh schon :wink:

Übrigens, mal was zu problemchen:
bei CS-S wird von bugs (und unscharfe gegner auf abstand) berichtet, z.B. dust2:
8800GTX mit driver 97.02
http://good-times.webshots.com/album/552314341cOWPOa

PS, Was schafft die 8800 denn eigentlich im Stresstest?

Stimmt der Treiber hat paar kleinere Problemchen mit der Source Engine das wird aber mit dem nächsten Release behoben.

Johnny Rico
2006-11-11, 20:46:11
Hab nochmal nen Test gemacht. 3DM06, diesmal mit OC(weiter geh ich nicht).

C2D 3,5Ghz
GTX 630/1Ghz

http://www.directupload.net/images/061111/temp/83Alor9u.png (http://www.directupload.net/file/d/878/83Alor9u_png.htm)
http://www.directupload.net/images/061111/temp/2mmf2QkS.png (http://www.directupload.net/file/d/878/2mmf2QkS_png.htm)

misterh
2006-11-11, 22:49:35
Und haben welche mein Video ansehen können?

Slipknot79
2006-11-11, 23:50:40
Und haben welche mein Video ansehen können?


Ich nicht, nach 90% kam ne Meldung: Zeitüberschreitung


So, habs jetzt gesehen, schaut gut aus.

Nazar
2006-11-12, 01:57:36
Und haben welche mein Video ansehen können?

Ja eben gerade!
Und ehrlich gesagt bin ich ein wenig entäuscht!
Liegt das an Fraps oder wieso grieselt es so stark und weshalb sind die Gitter oben auf den Pfeilern erst so spät (beim ersten) zu sehen?

Wenn man in den hellen Bereich reinläuft, seiht man an den schienen eine Art "Welle".. es scheint etwas vor dem alter Ego vorwegzulaufen.

Werde mir gleich mal das Game installieren und nochmal mit der X1900XT schauen aber es scheint das alte Griesel-/Flimmerproblem zu sein.
Zumindest sieht es auf dem Video so aus.. wirkt sehr unruhig!

misterh
2006-11-12, 02:25:17
Ja eben gerade!
Und ehrlich gesagt bin ich ein wenig entäuscht!
Liegt das an Fraps oder wieso grieselt es so stark und weshalb sind die Gitter oben auf den Pfeilern erst so spät (beim ersten) zu sehen?

Wenn man in den hellen Bereich reinläuft, seiht man an den schienen eine Art "Welle".. es scheint etwas vor dem alter Ego vorwegzulaufen.

Werde mir gleich mal das Game installieren und nochmal mit der X1900XT schauen aber es scheint das alte Griesel-/Flimmerproblem zu sein.
Zumindest sieht es auf dem Video so aus.. wirkt sehr unruhig!

liegt an Player.

Slipknot79
2006-11-12, 02:26:03
Ja eben gerade!
Und ehrlich gesagt bin ich ein wenig entäuscht!
Liegt das an Fraps oder wieso grieselt es so stark und weshalb sind die Gitter oben auf den Pfeilern erst so spät (beim ersten) zu sehen?

Wenn man in den hellen Bereich reinläuft, seiht man an den schienen eine Art "Welle".. es scheint etwas vor dem alter Ego vorwegzulaufen.





Die Gitter tauchen bei mir auch erst spät auf, ist wohl normal Oo Sonst war bei mir dieses Flimmern im Game auch nicht zu sehen oO

Blaire
2006-11-12, 02:30:47
Die Gitter tauchen bei mir auch erst spät auf, ist wohl normal Oo

Jep ist normal. Mit Fraps lässt sich das auch nicht gut zeigen man muss das in Real sehn dann wird der Unterschied zur X1xxx/G7x recht deutlich sichtbar.

Nazar
2006-11-12, 02:36:50
liegt an Player.

Na da wäre ich aber froh!

Will nicht wieder so einen Reinfall wie mit dem G70 ;)

Gast
2006-11-12, 02:40:26
min 10 reviews gesehn aber jeder sagt was anderes Oo

wenn ich z.b computerbase sehe,sage ich mir das aufrüsten garned lohnt.
schau ich firingssquad an,bin ich überzeug und würd sie mir sofort holen.

die unterschiede sie sind nicht bloß cpu abhänig,sondern sie unterschieden sich teilweise extrem.


was soll man glauben

Gast
2006-11-12, 03:01:56
is das glaubwürdig ?

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/dm1280.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/coh1280.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/aamts1024.gif

bei anderen previews sind die unterschiede nicht annähernd so groß.

Nazar
2006-11-12, 04:22:25
Die Reviews sagen im Prinzip alle das gleiche aus:

G80 gut!

Wenn man den Schnitt aus allen Reviews nimmt, bliebt die zur Zeit stärkste Karte auf dem Markt über.

Uund ich vermute das da noch ein paar Frames drin sind, da die Treiber bestimmt noch nicht das ganze Potential nutzen.

Ich habe bisher eine X1900XT und kann von einer Verdopplung der Leistung bei min. gleicher BQ ausgehen.
Für mich lohnt deshalb eine Aufrüstung auf jeden Fall.

Für X1950XTX Besitzer ist es bestimmt keine leichte Entscheidung für alle G70 Besitzer wenn dann auf jeden Fall eine Entscheidung der BQ ;)

Gibt es eigentlich schon Screens von GTR2?

misterh
2006-11-12, 04:42:48
Gibt es eigentlich schon Screens von GTR2?

1280x1024 16xQ 16xHQ-AF
TRSSAA, Gamma-Korrektur, Trillinear

8800GTS @ 630/870

http://img98.imageshack.us/img98/6690/gtr216xq16xaftrssaa8800yg2.jpg

Gast
2006-11-12, 05:28:43
spielt jemand mit ner 8800 world of warcraft,bitte zeigt mir das die flimmertexturen weg sind :O

Gast
2006-11-12, 14:41:25
@misterh

Könntest du noch mehr GTR2 pics von deiner 8800 GTS posten, entweder hier oder im screenshot thread.

Danke

Raff
2006-11-12, 14:43:33
spielt jemand mit ner 8800 world of warcraft,bitte zeigt mir das die flimmertexturen weg sind :O

Das ist bei Ati auch bereits seit einem Jahr möglich. A.I. Off kostet zwar deutlich Frames per Second, bietet dann aber 98,3% flimmerfreie Texturen.

MfG,
Raff

Taigatrommel
2006-11-12, 14:56:10
Also ich habe mir bislang nur das Computerbase Review durchgelesen. In meinem Rechner ist eine 7900 GX2, also im Prinzip Niveau auf 7950 GX2 Level.

Von der Performance her lohnt sich die GTS Variante IMO nicht wirklich. Sie sollte nur ein wenig schneller in meiner Spielklasse sein wie meine aktuelle Karte, wenn überhaupt. Oblivion lasse ich aussen vor.

Die GTX Variante zieht IMO auch nicht soooo sehr davon, als das sich die über 650 Euro teure Version überhaupt rentieren würde.

Bei Firingsquad sieht das Ganze anders aus, da scheint beim ersten Überfliegen die GTX deutlich vor der GX2 zu liegen, während die GX2 und die GTS mehr oder minder gleich auf liegen, in FEAR ist die GX2 sogar ein Stück besser.

Bleibt also für mich nur noch die bessere Bildqualität als Kaufgrund übrig. Nur da werde ich wohl noch bis Januar/Februar warten, wenn die GTX im Preis gefallen ist und klar ist, was denn ATI zu bieten hat.

Nazar
2006-11-12, 15:11:49
@misterh

Danke.
Sieht ja richtig gut aus.
Nun kann ich mich wirklich auf meine neue Graka freuen ;)

EDIT: misterh wie verhält sich deine Karte in Nachtszenen mit Regen und vielen Wagen in GTR²?
Hast Du da auch so einen enormen Performancehit?

cl55amg
2006-11-12, 15:21:27
Also ich habe mir bislang nur das Computerbase Review durchgelesen. In meinem Rechner ist eine 7900 GX2, also im Prinzip Niveau auf 7950 GX2 Level.

Von der Performance her lohnt sich die GTS Variante IMO nicht wirklich. Sie sollte nur ein wenig schneller in meiner Spielklasse sein wie meine aktuelle Karte, wenn überhaupt. Oblivion lasse ich aussen vor.

Die GTX Variante zieht IMO auch nicht soooo sehr davon, als das sich die über 650 Euro teure Version überhaupt rentieren würde.

Bei Firingsquad sieht das Ganze anders aus, da scheint beim ersten Überfliegen die GTX deutlich vor der GX2 zu liegen, während die GX2 und die GTS mehr oder minder gleich auf liegen, in FEAR ist die GX2 sogar ein Stück besser.

Bleibt also für mich nur noch die bessere Bildqualität als Kaufgrund übrig. Nur da werde ich wohl noch bis Januar/Februar warten, wenn die GTX im Preis gefallen ist und klar ist, was denn ATI zu bieten hat.

Dann musst du Gothic 3 und Company of heros und NFS Carbon auch aussen vor lassen!
Denn da ist die GTS spürbar schneller als eine GX2.
Und Anno 1701 und weitere Games die bald rauskommen...

4711
2006-11-12, 15:29:32
Das ist bei Ati auch bereits seit einem Jahr möglich. A.I. Off kostet zwar deutlich Frames per Second, bietet dann aber 98,3% flimmerfreie Texturen.

MfG,
Raff

Jaja.... nun geht es aber auch bei NV und besser und vorallem ohne oder kaum Verlust....

SentinelBorg
2006-11-12, 15:36:07
Das ist bei Ati auch bereits seit einem Jahr möglich. A.I. Off kostet zwar deutlich Frames per Second, bietet dann aber 98,3% flimmerfreie Texturen.

MfG,
Raff
ATI und WoW sind aber nicht gerade die besten Freunde.
Und ja, WoW sieht mit der 8800 superb aus. Mit 16xQ hat man die perfekte Kantenglättung und mit HQ und wu-AF ist die Filterqualität einfach Spitze.
Hmm, da ich ja eh mit Krieger nach Un'goro muss, mal in der Schimmernden Ebene vorbeischauen ... ok, also flimmern tut es dort immer noch etwas, jedoch ist das hier wohl Content-bedingt, wenn nicht gar gewollt "Schimmernde Ebene". ^^ In Durotar dagegen flimmert nix mehr.

http://nuclear-warriors.de/Rennbahn.png
Sentinel

P.S. Need Jpeg2000 Support in den Browsern. Das PNG ist 73% größer als ein verlustfreies JP2. :(

Raff
2006-11-12, 15:40:10
Genau so ist es bei Ati ja auch, wobei das AF des G80 etwas besser sein dürfte. Flimmern wird wohl aber auch der perfekteste Algorithmus ... die Texturen sind stellenweise einfach fies. Und genau da wird's mit A.I. On inakzeptabel. Beim Treiberstandard von NV geht's also? Und du hattest den Vergleich mit einem R5x0?

MfG,
Raff

Taigatrommel
2006-11-12, 16:12:43
Dann musst du Gothic 3 und Company of heros und NFS Carbon auch aussen vor lassen!
Denn da ist die GTS spürbar schneller als eine GX2.
Und Anno 1701 und weitere Games die bald rauskommen...
Jein, die wurden bei Computerbase nicht getestet. Ich bezog mich da erstmal nur auf das CB Review, da ich anderes noch nicht ausführlich gelesen habe.

Aber das Firingsquad Review macht schon Lust auf eine GTX... vor allem wenn ich mir die Berichte wegen der besseren Filterqualität ansehe. Da muss ich sagen, dass meine X1900 doch ein gutes Stück besser als meine GX2 war.

SentinelBorg
2006-11-12, 16:21:05
Genau so ist es bei Ati ja auch, wobei das AF des G80 etwas besser sein dürfte. Flimmern wird wohl aber auch der perfekteste Algorithmus ... die Texturen sind stellenweise einfach fies. Und genau da wird's mit A.I. On inakzeptabel. Beim Treiberstandard von NV geht's also? Und du hattest den Vergleich mit einem R5x0?

MfG,
Raff
Nö, einen Vergleich hatte ich nicht, hab aber ja auch nix in den Punkt gegen ATI gesagt. ATI <-> WoW Probleme äusserten sich eher in dauer VPU Recover und dickem Raidzeitverlust dadurch. :P

Sentinel

Raff
2006-11-12, 16:24:33
Davon höre ich auch immer wieder, ohne jemals mit einem der 30 getesteten Treiber betroffen gewesen zu sein.

MfG,
Raff

SentinelBorg
2006-11-12, 16:27:35
Davon höre ich auch immer wieder, ohne jemals mit einem der 30 getesteten Treiber betroffen gewesen zu sein.

MfG,
Raff
Naja, das Problem wurde ja im 6.1 (wenn ich mich recht entsinne) gefixt, siehe Release Notes. Aber kommt auch heute immer mal wieder vor.

Sentinel

Nightspider
2006-11-13, 01:56:05
Wieviel Speicher des 786 MB-GDDR3-Rams laufen bei 16*HQAF,16*AA 1600*1200 (oder vergleichbares) bei Spielen wie Company of Heroes,BF2,CoD2,F.E.A.R., Oblivion und G3 voll ? :confused:

Würde mich ja mal sehr interessieren.
Gibts das schon Tests ?

Ailuros
2006-11-13, 04:44:31
Wieviel Speicher des 786 MB-GDDR3-Rams laufen bei 16*HQAF,16*AA 1600*1200 (oder vergleichbares) bei Spielen wie Company of Heroes,BF2,CoD2,F.E.A.R., Oblivion und G3 voll ? :confused:

Würde mich ja mal sehr interessieren.
Gibts das schon Tests ?

Kommt darauf an welchen der beiden 16xCMAA modi Du meinst; der schnellere modus mit nur 4z/stencil duerfte nicht allzu mehr als 4xMSAA verbrauchen.

Mr. Lolman
2006-11-13, 10:10:58
Genau so ist es bei Ati ja auch, wobei das AF des G80 etwas besser sein dürfte. Flimmern wird wohl aber auch der perfekteste Algorithmus ... die Texturen sind stellenweise einfach fies. Und genau da wird's mit A.I. On inakzeptabel. Beim Treiberstandard von NV geht's also? Und du hattest den Vergleich mit einem R5x0?

MfG,
Raff

Ich kann mir das ehrlich nicht vorstellen, dass es so sein sollte. Beide dürften default (Ati mir AreaAF) eine ähnlich gute BQ bringen, aber das NV @ brilinear (default) plötzlich besser filtern soll, als ATi @ trilinear (AIoff) erscheint schwer vorstellbar und quasi unmöglich, da bei brilinear, das AF eine Überfilterung haben muss, damits nicht flimmert. Diese Überfilterung wäre bei NVs HQ eine Verschwendung, da da die trilineare Interpolation eh in Ordnung ist.

robbitop@work
2006-11-13, 10:23:39
TSAA = ASTT (AAA)
In etwa ja. Wobei ASTT wesentlich inkompatibler out-of-the box ist

ASBT = ASTT auf alle transparenten Polygone (auch Alphablendet)

Hier bin ich skeptisch. Oftmals braucht man ASBT, um AAA zum Laufen zu bekommen (siehe Gothic2 u.v.m.), was überhaupt nicht an Alphablending liegen kann.
Zumal es völlig unsinnig ist, alphablending Content mit SSAA zu bearbeiten. Alpha-geblendete Texturen werden über den Texturfilter und korrektes LOD/MIPMapping bereits behandelt. Sie flimmern nicht, sie verschwinden nicht.

ASBT ist v.A. eine Kompatibilitätsoption.


EATM = A2C (Alpha to Coverage)
=TMAA ;)

Ailuros
2006-11-13, 10:25:48
Der Leistungsverlust (wo immer ATI nicht zusaetzliche Filterungs-irrelevante-Optimierungen mitgeschmiert hat) von AI off zu default ist ohnehin schon relativ klein. Auf G80 koennte - dank der obszoenen Fuellrate - dieser Unterschied noch kleiner sein, aber nicht so gewaltig dass sich das Ding jetzt um einiges von R5x0 deswegen absetzt.

Raff's wichtigsten Punkt sollte man nicht uebersehen: es kann zwar stets besser werden, aber von Perfektion in allen Faellen kann NIE die Rede sein. Erstmal weil es so was wie perfekte Filterung ueberhaupt nicht gibt (und nicht geben kann) und zweitens wie er sagt weil eben in mehr als nur ein paar Stellen entweder ein Entwickler verpatzt hat oder weil bisher herkoemmliche Filterungs-methoden und auch sogar Supersampling an manchen Stellen versagen.

Ich bin vorlaeufig noch etwas vorsichtig im ersten Paragraph bis ich das Ding selber durch ein paar Stresstests jagen kann. Was ich bisher lesen konnte ueberzeugt mich nicht unbedingt, denn ich will absolute "worst case scenarios" sehen...

***edit: keine Ahnung ob es schon erwaehnt wurde, aber man braucht keine besondere Brille um zu sehen dass G7x "brilinear" != G8x "brilinear".

Mr. Lolman
2006-11-13, 10:35:57
Der Flimmerboden in Q3DM15 ist imo so ein worstcase Szenario...



***edit: keine Ahnung ob es schon erwaehnt wurde, aber man braucht keine besondere Brille um zu sehen dass G7x "brilinear" != G8x "brilinear".

Beim G70 wurde ja auch noch mit HQ unterfiltert...

Ailuros
2006-11-13, 10:51:38
Der Flimmerboden in Q3DM15 ist imo so ein worstcase Szenario...

Ich hab besseres im Hinterkopf ;) Q3 duerfte sogar in 2048 CPU limitiert sein LOL ;)

Beim G70 wurde ja auch noch mit HQ unterfiltert...

Und die Konkurrenz ist unschuldig in diesem Bereich? Es ging mir lediglich darum was die Filterungs-Tester und coloured MIPmap ingame shots bis her anzeigen.

AnarchX
2006-11-13, 11:03:43
Two Geforce 8800 GTX in SLI supports 32 X FSAA
At least some drivers
http://www.theinquirer.net/default.aspx?article=35695

Ailuros
2006-11-13, 11:19:05
Two Geforce 8800 GTX in SLI supports 32 X FSAA
At least some drivers
http://www.theinquirer.net/default.aspx?article=35695

32xQ coverage AA / 16 z/stencil

Mumins
2006-11-13, 11:26:37
1280x1024 16xQ 16xHQ-AF
TRSSAA, Gamma-Korrektur, Trillinear

8800GTS @ 630/870



Wie sehen da die FPS bei nem online Rennen nachts mit 20 Autos am Start aus?

Coda
2006-11-13, 11:27:10
Maaan labert Fuad mal wieder Bullshit...

Gast
2006-11-13, 12:40:43
Two Geforce 8800 GTX in SLI supports 32 X FSAA
At least some drivers
http://www.theinquirer.net/default.aspx?article=35695

@Tombman: *Screenshots-davon-haben-will*

DrFreaK666
2006-11-13, 12:49:03
Gibt es einen 8800-Screenshot-Thread?
Habe leider nichts gefunden

Raff
2006-11-13, 14:28:27
Maaan labert Fuad mal wieder Bullshit...

Etwas genauer, wenn's geht. ;) Dass keine GeForce 6x AA kann, fiel mir beim Überfliegen eben auf, aber sonst? Naja, keine Zeit, muss weg ...

MfG,
Raff

Gast
2006-11-13, 14:31:04
Maaan labert Fuad mal wieder Bullshit...

Wer ist Fuad?

r@w.
2006-11-13, 15:33:35
"By Fuad Abazovic: Montag 13 November 2006, 08:35"

Razor

deekey777
2006-11-13, 15:46:48
Wer ist Fuad?
Eine Krankheit.
"By Fuad Abazovic: Montag 13 November 2006, 08:35"

Razor
Wenn man sich da nicht auskennt und in Codas Posting fehlt, worauf er sich bezieht, kannst du noch größere Schrift verwenden, trotzdem bringt es nichts. =)
An Gast:
Es geht um dieses Schätzchen (http://www.theinquirer.net/default.aspx?article=35695) (den Reakteur der News).

r@w.
2006-11-13, 15:58:53
Jup... hätte den Link zum Post (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4982300#post4982300) oder zum "Artkel" (http://www.theinquirer.net/default.aspx?article=35695) vielleicht dazu setzen sollen.
:D

Razor

deekey777
2006-11-13, 19:08:26
Edit:
Endlich gibts die realen Verbrauchswerte der G8800GTX. Oder ist es die Angabe von NV? Dann würde sie real noch etwas drunter liegen.

http://www.xbitlabs.com/images/video/gf8800/results/8800gtx_power.gif

http://www.xbitlabs.com/articles/video/display/gf8800_11.html

Interessant ist aber, dass der 2D Verbrauch nicht dabei steht. Wissen die etwa mehr?
:|
Unfortunately, we couldn’t measure the power consumption of the GeForce 8800 GTX because our testbed with a modified Intel Desktop Board D925XCV turned to be incompatible with Nvidia’s new card. The system started up and initialized successfully and began to boot the OS up, but the graphics card didn’t output any signal to the monitor. So, we have to quote Nvidia’s numbers here.

dargo
2006-11-13, 19:22:57
:|
Wundere dich DK777 nicht so. Reviews in englisch meide ich da ich eh kaum was davon verstehe.

deekey777
2006-11-13, 19:34:43
Schade, denn im Text steht, dass es Probleme mit deren speziellen Mainboard gab und sie deswegen auf die offiziellen Werte von nVidia zurückgreifen mussten, also das, was du geschrieben hast. Und jetzt darfst du raten, warum dort keine 2D-Angaben zu finden sind. ;)

GeForce 8800 Roundup: The Best of the Best (http://www.anandtech.com/video/showdoc.aspx?i=2873&p=1)

dargo
2006-11-13, 20:08:48
Und jetzt darfst du raten, warum dort keine 2D-Angaben zu finden sind. ;)

Wieso, gibt es etwa keine offiziellen Angaben für den 2D Betrieb von NV? :D
Warum wohl? ;D

Zippi
2006-11-13, 20:33:34
hatte vor ein paar seiten irgendwas mit ner defekten MUL-Einheit gelesen, was ist daraus geworden? ist dem nun wirklich so oder hat sich das im sande verlaufen. wenn dem wirklich so sein sollte, kann man das per treiber fixen oder ist das wirklich ein hardwaredefekt der nur per refresh gefixt werden kann?

LovesuckZ
2006-11-13, 20:35:30
hatte vor ein paar seiten irgendwas mit ner defekten MUL-Einheit gelesen, was ist daraus geworden? ist dem nun wirklich so oder hat sich das im sande verlaufen. wenn dem wirklich so sein sollte, kann man das per treiber fixen oder ist das wirklich ein hardwaredefekt der nur per refresh gefixt werden kann?

Let's just say that the situation is not altogether different than some of the limitations on ALU1 in the NV4x architecture (and no, I don't mean that it necessarily has to do with texturing), just in the general sense of dependency on *something* I'm not sure if I can say more.

Democoder aus dem Beyond3d Forum (http://www.beyond3d.com/forum/showpost.php?p=871651&postcount=126)

Zippi
2006-11-13, 20:40:58
öhm, ja...

versteh ich das richtig, dass die 8800gtx sich selber nen bein stellt und intern was limitiert

oder

heißt das nix anderes die heutige software (games) reizt bei weiten nicht so sehr aus das man die 2 MUL's merkt?!

LovesuckZ
2006-11-13, 20:57:19
öhm, ja...
versteh ich das richtig, dass die 8800gtx sich selber nen bein stellt und intern was limitiert

Jo, so verstehe ich es. Jedoch reden die, welche etwas wissen, noch nicht.

Avalox
2006-11-13, 21:31:03
c'ts Kurzartikel zum Chipstart gibt es übrigens frei zu lesen. Kurz und recht informativ.

Achte Runde
Nvidias erster DirectX-10-Grafikchip GeForce 8800 (http://www.heise.de/ct/06/24/032/)

dildo4u
2006-11-13, 21:37:00
c'ts Kurzartikel zum Chipstart gibt es übrigens frei zu lesen.

Achte Runde
Nvidias erster DirectX-10-Grafikchip GeForce 8800 (http://www.heise.de/ct/06/24/032/)

"Nach der Einführung der G70-Serie auf der GeForce 7800 GTX im Sommer des vergangenen Jahres legt Nvidia mit der G80 nun die nächste, mittlerweile achte 3D-Grafikchipgeneration nach"

:| Waren die Riva 128 oder Riva TNT 1 und 2 keine 3DGrafikchips?!

Gast
2006-11-13, 21:42:55
Anscheinend nicht hamlet.

Gast
2006-11-13, 21:43:32
"Nach der Einführung der G70-Serie auf der GeForce 7800 GTX im Sommer des vergangenen Jahres legt Nvidia mit der G80 nun die nächste, mittlerweile achte 3D-Grafikchipgeneration nach"

:| Waren die Riva 128 oder Riva TNT 1 und 2 keine 3DGrafikchips?!

Die GeForce Reihe ist ja der eigentliche Start der "mir fällt der Name grad nicht ein", was halt Nvidia "erfunden" hat.

thade
2006-11-13, 21:44:06
Afaik brachte ja NV mit der GeForce die erste GPU :)

Raff
2006-11-13, 21:57:47
Afaik brachte ja NV mit der GeForce die erste GPU :)

Ist "GPU" nicht nur ein von Nvidia eingeführter Marketingbegriff? IMO hat jede Karte eine "GPU" (=> Grafikprozessor) ... sonst gäbe es ja kein Bild.

MfG,
Raff

Flamehaze
2006-11-13, 22:01:26
Die Geforce 256 wurde nur als erste GPU vermarktet. aus Wikipedia:

Upon introduction, it was marketed as "the world's first 'GPU', or Graphics Processing Unit," a term NVIDIA had just coined and was defined as "a single-chip processor with integrated transform, lighting, triangle setup/clipping, and rendering engines that is capable of processing a minimum of 10 million polygons per second."

thade
2006-11-13, 22:02:16
Die GeForce 256 war ja laut NV die erste richtige GPU, afaik ist ja eine GPU nur dann eine GPU, wenn sie eine TnL Einheit hat...

Avalox
2006-11-13, 22:08:15
Na ja. Für NVidia scheint es die 8. Generation nach Einführung von Transform and Lightning zu sein. Quasi die Geburtsstunde der Produktlinie. Die internen Revisionnummern sprechen ja eine andere Sprache. Aber vielleicht ist es ja auch tatsächlich so, dass T&L der 1. GeForce, wenn auch noch nicht so recht überzeugend, einen Philosophiewechsel darstellte. Weg von der reinen Unterstützung, zu einen kompletteren Ansatz.

4711
2006-11-13, 22:08:57
Jo, so verstehe ich es. Jedoch reden die, welche etwas wissen, noch nicht.

DX10 :biggrin:

thade
2006-11-13, 22:15:37
Aber vielleicht ist es ja auch tatsächlich so, dass T&L der 1. GeForce, wenn auch noch nicht so recht überzeugend, einen Philosophiewechsel darstellte. Weg von der reinen Unterstützung, zu einen kompletteren Ansatz.

Nicht überzeugend? Ich sehe den GeForce 256 als Meilenstein.

Yups
2006-11-13, 22:15:49
"Nach der Einführung der G70-Serie auf der GeForce 7800 GTX im Sommer des vergangenen Jahres legt Nvidia mit der G80 nun die nächste, mittlerweile achte 3D-Grafikchipgeneration nach"

:| Waren die Riva 128 oder Riva TNT 1 und 2 keine 3DGrafikchips?!

wäre es nun von der PC GamesH oder ´so hätte ich gesagt die sind einfach zu blöd, aber so? Vllt meinten die die 8te Geforce Generation...

*mist, war ja noch gar nicht auf der letzten Seite *grmpf** <-- edit^^

deekey777
2006-11-13, 22:54:03
"Nach der Einführung der G70-Serie auf der GeForce 7800 GTX im Sommer des vergangenen Jahres legt Nvidia mit der G80 nun die nächste, mittlerweile achte 3D-Grafikchipgeneration nach"

:| Waren die Riva 128 oder Riva TNT 1 und 2 keine 3DGrafikchips?!
NV1, NV3 und Co (DX5/6), NV10 und Co (DX7 T&L)), NV20 (DX8.0 PS/VS 1.1), NV25 (DX 8.1 PS 1.3/VS 1.1), NV30/NV35 (DX9.0c SM 2.X), NV40/G70 (DX9.0c SM 3.0, G80 (D3D10 SM 4.0).

dildo4u
2006-11-13, 23:00:01
NV1, NV3 und Co (DX5/6), NV10 und Co (DX7 T&L)), NV20 (DX8.0 PS/VS 1.1), NV25 (DX 8.1 PS 1.3/VS 1.1), NV30/NV35 (DX9.0c SM 2.X), NV40/G70 (DX9.0c SM 3.0, G80 (D3D10 SM 4.0).Ich weiß ich wundere mich nur das das "Profi" Magazin C't solchen Murks schreibt.Brauchbare 3D Beschleuniger gab schon 3 Jahre vor der Geforce.

deekey777
2006-11-13, 23:03:10
Ich weiß ich wundere mich nur das das "Profi" Magazin C't solchen Murks schreibt.Brauchbare 3D Beschleuniger gab schon 3 Jahre vor der Geforce.
Ich zähle acht Generationen. Ja, ist an den Haaren gezogen, aber auch so kann man auf acht kommen.
Wenn man den NV1 ignoriert, müssen bei NV3 und Konsorten zwischen zwei Generationen unterschieden werden.

cl55amg
2006-11-13, 23:03:14
Ich weiß ich wundere mich nur das das "Profi" Magazin C't solchen Murks schreibt.Brauchbare 3D Beschleuniger gab schon 3 Jahre vor der Geforce.

Der Schwerpunkt der c't liegt nicht mal annähernd bei Grafikkarten.
Sie schreiben öfter mal beim Inquirer ab...

Laut der c't hätte die 7900GTX 32 Pixelpipelines...

DrumDub
2006-11-13, 23:34:46
Ich weiß ich wundere mich nur das das "Profi" Magazin C't solchen Murks schreibt. der zuständige redakteur ist, mal vorsichtig gesagt, nicht besonders im thema... allerdings ist das schon seit über acht jahren so. ;(

abgesehen davon kann man bei grakatests der c't eigentlich immer die messung der signalqualität (auch die der tv-ausgänge) positiv hervorheben.

jojo4u
2006-11-13, 23:42:24
der zuständige redakteur ist, mal vorsichtig gesagt, nicht besonders im thema... allerdings ist das schon seit über acht jahren so. ;(


Ich glaube mich zu erinnern dass sie in einer der letzten Ausgaben im Anzeigenteil einen Grafikkartenredakteur gesucht haben.

SentinelBorg
2006-11-14, 00:39:28
Der Schwerpunkt der c't liegt nicht mal annähernd bei Grafikkarten.
Sie schreiben öfter mal beim Inquirer ab...

Laut der c't hätte die 7900GTX 32 Pixelpipelines...
Hmm, in dem Text steht doch 32 Recheneinheiten (24 Pixel + 8 Vertex).

Sentinel

Zippi
2006-11-14, 07:23:14
Jo, so verstehe ich es. Jedoch reden die, welche etwas wissen, noch nicht.

das würde im umkehrschluss ja heißen, dass an der stelle der G80 eine fehlkonstruktion ist (sofern es wirklich eine limitierung ist)

unter dem umständen überlegt man doch lieber 2x ob man für eine sich selbst limitierende hardware 600€ ausgibt

kauf ja auch kein porsche der 300 fährt aber nur 180 darf, weil die reifen nur soviel abkönnen

Superheld
2006-11-14, 07:25:02
das wird erst im g81 per Treiber freigeschaltet:wink:

Gast
2006-11-14, 07:34:00
Ich glaube mich zu erinnern dass sie in einer der letzten Ausgaben im Anzeigenteil einen Grafikkartenredakteur gesucht haben.Nicht nur in einer, die Anzeige steht schon etwas länger drin. An c't Grakatests ist wirklich nur eines gut: Die Tests der analogen Signalqualität. Welche seit einiger Zeit nur noch unter ferner liefen auftauchen. Naja, aus politischen Gründen hole ich sie mir doch immer.

Wurde eigentlich irgendwo mal ein NVler über das Fehlen von Hybrid- und SSAA-Modi befragt? Ich meine, wenn im nächsten Treiber SGSSAA-Modi drin sind, solls mir (relativ) egal sein, ansonsten wäre man ohne Hybrid-/SSAA-Modi aus Bildqualitätssicht ja doch öfters mit NVxx/G7x besser bedient.

Ailuros
2006-11-14, 07:50:27
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4984229&postcount=49