PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller G70/GeForce 7800 GTX Sammelthread


Seiten : [1] 2 3 4

Demirug
2005-06-22, 14:38:32
Deutsch:
http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx/
http://www.de.tomshardware.com/graphic/20050622/index.html
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=190&seite=1
http://www.planet3dnow.de/artikel/hardware/geforce_g70/index.shtml
http://www.hartware.de/review_479.html

Englisch:

http://www.guru3d.com/article/Videocards/229/
http://www.tbreak.com/reviews/article.php?cat=Mobility&id=384
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xMjk4
http://www.beyond3d.com/previews/nvidia/g70/
http://www.anandtech.com/video/showdoc.aspx?i=2451
http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=1
http://www.hothardware.com/viewarticle.cfm?articleid=697
http://www.digit-life.com/articles2/video/g70-part1.html
http://www.hardocp.com/article.html?art=Nzg0LDE=
http://www.bjorn3d.com/read.php?pageID=1611&Submit=Go&cID=806
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/
http://www.pcper.com/article.php?aid=150&type=expert
http://www.golem.de/0506/38775.html
http://www.extremetech.com/article2/0,1558,1830246,00.asp
http://www.neoseeker.com/Articles/Hardware/Previews/G70preview/
http://www.nvnews.net/previews/geforce_7800_gtx/index.shtml
http://www.ocworkbench.com/2005/nvidia/GeForce%207800GTX/g1.htm
http://www.xbitlabs.com/articles/video/display/g70-indepth.html
http://www.vr-zone.com/?i=2367
http://www.bit-tech.net/hardware/2005/06/22/geforce_7800gtx/1.html

Sonstige:

http://www.hardware.fr/articles/574/page1.html

http://www.hardspell.com/hard/showcont.asp?news_id=14372&pageid=3099
http://pc.watch.impress.co.jp/docs/2005/0622/kaigai193.htm
http://pc.watch.impress.co.jp/docs/2005/0622/nvidia.htm
http://pc.watch.impress.co.jp/docs/2005/0622/tawada54.htm

Ich ergänze auf Zuruf.

reunion
2005-06-22, 15:01:38
http://www.anandtech.com/video/showdoc.aspx?i=2451

reunion
2005-06-22, 15:02:53
Und für die Leute, die eine kaufen wollen: Alternate (http://www1.alternate.de/html/shop/searchCategories.html)


"Ihre Suche brachte leider kein Ergebnis." :D

trollkopf
2005-06-22, 15:04:14
be-ein-druckend:

http://www.beyond3d.com/previews/nvidia/g70/chart/image017.gif

http://www.beyond3d.com/previews/nvidia/g70/chart/image018.gif

mapel110
2005-06-22, 15:04:22
yes, 50 % mehr Power bei Farcry-HDR =)

LovesuckZ
2005-06-22, 15:04:25
"Ihre Suche brachte leider kein Ergebnis." :D

Such einfach nach "Geforce 7800"*

*sry, war mein Fehler :)

reunion
2005-06-22, 15:04:26
http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/ ;)

HAL
2005-06-22, 15:05:35
http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/ ;)
Menno, wollte ich doch grade posten... ;)

reunion
2005-06-22, 15:06:42
yes, 50 % mehr Power bei Farcry-HDR =)

Keine überproportionale Steigerung, ich dachte nV hätte am HDR was gedreht?

reunion
2005-06-22, 15:07:32
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx/

BvB123
2005-06-22, 15:08:38
geilo weniger Stromverbrauch als ne 6800 Ultra :)

wwww
2005-06-22, 15:10:58
Boah jetzt kommt die sache ins rollen.

Also irgend was stimmt bei euren Review nicht (3dcenter)bei fast jeden Benchmark ist die X850 XTPE mit der neuen NV Karte gleichauf oder schneller.
Omg LoL ich könnte Ati irgend was in denn A..... stecken hätten die doch einfach ps 3.0 auf ihren Karten verbaut.

mapel110
2005-06-22, 15:11:40
Keine überproportionale Steigerung, ich dachte nV hätte am HDR was gedreht?
HDR kostet in erster Linie Bandbreite und deshalb ist die Steigerung sehr gut. :)

http://www.beyond3d.com/previews/nvidia/g70/index.php?p=23
Stromverbrauch unter Idle ist vorallem gesunken. Unter Last relativ gleich zum Vorgänger. :uup:

trollkopf
2005-06-22, 15:12:24
leise-schnell-moderater stromverbrauch: super

dildo4u
2005-06-22, 15:13:09
http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/ ;)
Hmm hier passt so einiges nicht warum ist die 7800GTX manchmal langsammer als eine 6800U zb bei Farcry 1280x960 4xAA + 8xA und warum wurde 8XAA von nvidia mit 6XAA von ati in ein Diagramm gepackt?

BvB123
2005-06-22, 15:15:28
Hmm hier passt so einiges nicht warum ist die 7800GTX manchmal langsammer als eine 6800U und warum wurde 8XAA von nvidia mit 6XAA von ati in ein Diagramm gepackt?
jop totall verwirrend für balken glubscher :D

reunion
2005-06-22, 15:16:13
Hmm hier passt so einiges nicht warum ist die 7800GTX manchmal langsammer als eine 6800U und warum wurde 8XAA von nvidia mit 6XAA von ati in ein Diagramm gepackt?


Schwieriger ist dagegen der Vergleich unter 6/8xAA mit 16xAF, da hierbei auf ATI-Seite ein 6x sparsed grid Multisampling zum Einsatz kommt, auf nVidia-Seite jedoch ein 8x Multi/Supersampling-Mischmodus steht, welcher aus 4x rotated grid Multisampling zusammen mit 2x ordered grid Supersampling besteht. Diese beiden Modi bieten mitnichten dieselbe Bildqualität: Die ATI-Lösung dürfte wohl (und trotz des niedrigeren AA-Levels) die etwas bessere Kantenglättung zeigen, dagegen besitzt der nVidia-Modus den Vorteil der zusätzlichen Texturenschärfung durch den Supersampling-Anteil im Anti-Aliasing.

Beide Modi sind also mitnichten gleich, allerdings gibt es derzeit überhalb von 4x Anti-Aliasing gar keine bessere Vergleichsmöglichkeit als den Vergleich von ATIs 6x gegen nVidias 8x Anti-Aliasing, weil beide Hersteller (offiziell) schlicht keine höheren Modi anbieten. Und letztlich werden diese Settings schließlich auch von den Käufern von HighEnd-Grafikkarten benutzt, insofern ist dieser Vergleich wohl doch statthaft, wenn auch nicht wirklich optimal.

Gast
2005-06-22, 15:16:14
http://www.anandtech.com/video/showdoc.aspx?i=2451

ohman was haben die da abgeliefert 1600 , 2048 auflösung und nur AA an ,sowas von gestellt

Tomcat70
2005-06-22, 15:16:59
warum wurde 8XAA von nvidia mit 6XAA von ati in ein Diagramm gepackt?

wenn du auch tatsächlich das review lesen würdest dann könntest dir die frage selber beantworten.

Ronny145
2005-06-22, 15:17:05
Die 7800GTX verbraucht unter Last nur 7 Watt mehr als die 6800Ultra. Im Idle sogar weniger.
http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=26

Hier fast das selber Ergebnis:
http://www.hothardware.com/viewarticle.cfm?articleid=697

MartinRiggs
2005-06-22, 15:20:24
Na ja vom Hocker reissen tut sie mich nicht, jeder der ne X800(ab XL) oder ne 6800(ab GT) hat der wird wohl so schnell nicht aufrüsten müssen.
Aber endlich mal ne Karte die sogar lieferbar ist(laut Alternate).
Wenn ich sehe wie das ding im SLI im 3dMark reißt das ist schon recht übel, höre jetzt schon wieder die ganzen verwöhnten Kiddies mit Geld zum fressen, ich hab aber sooooo viele Punkte im 3dmark. :uattack4:
Und in den richtigen Game-Benches ist der Riesen-Vorsprung wieder recht klein.

trollkopf
2005-06-22, 15:23:12
ich finde es in sofern beindruckend, das man endlich alle modernen errungenschaften wie HDR und bestes AA in hoher auflösung ohne SLI (STROM!) bei aktuellen spielen nuzen kann mit besten fps; das ist schon geil!

die kommen die modelle:

http://www.geizhals.at/deutschland/?fs=7800+GTX&x=44&y=14&in=

Gigabyte GeForce 7800 GTX, 256MB GDDR3, 2x DVI, TV-out, PCIe 1 Angebot um € 549,-- 1 Angebot um € 549,--
MSI NX7800GTX-T2D256E, GeForce 7800 GTX, 256MB GDDR3, 2x DVI, TV-out, PCIe (V801-009) 10 Angebote ab € 536,90 10 Angebote ab € 536,90
Prolink Pixelview GeForce 7800 GTX, 256MB GDDR3, 2x DVI, ViVo, PCIe (PV-N70GXE)

mapel110
2005-06-22, 15:24:23
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=19
Transparency AA Performance. So Herrlich nix sagend ohne Angaben, was da eigentlich gebencht wurde. :D

dildo4u
2005-06-22, 15:24:38
EDIT: zu langsam :(

http://images.anandtech.com/graphs/7800%20gtx%20launch_06220570624/7649.png

http://www.anandtech.com/video/showdoc.aspx?i=2451&p=19

SKYNET
2005-06-22, 15:26:12
"Ihre Suche brachte leider kein Ergebnis." :D

also alle karten, haben unterschiedliche taktraten...
da kocht wohl jeder hersteller sein eigendes süppchen. X-D

Demirug
2005-06-22, 15:26:28
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=19
Transparency AA Performance. So Herrlich nix sagend ohne Angaben, was da eigentlich gebencht wurde. :D

TSAA kann man sowieso nicht vernüpftig und objektiv benchmarken.

Johnny
2005-06-22, 15:27:03
Naja, bei solchen Werten :udown: sollte R520 leichtes Spiel haben.

SKYNET
2005-06-22, 15:27:28
EDIT: zu langsam :(

http://images.anandtech.com/graphs/7800%20gtx%20launch_06220570624/7649.png

http://www.anandtech.com/video/showdoc.aspx?i=2451&p=19

abgesehn von SSAA gibt es AA wohl jetzt 4free, oder wie sehe ich das?

dildo4u
2005-06-22, 15:28:28
abgesehn von SSAA gibt es AA wohl jetzt 4free, oder wie sehe ich das?
Nein da gehts nur um das Transparens aa ganz oben ist mit normalen 4XMSAA.

Diskutator
2005-06-22, 15:30:08
Hi,

der 3DCenter Bericht hat mir bisher am besten gefallen, nur Fakten und keine Meinungen.

Demnach ist für mich der G70 nicht das WUNDEREI mit dem der andere nicht fertig werden könnte.

Die HL2 Benchmarks sagen ja alles! haaaa is dat GEIL, den Stein hört man bis nach California!

Demirug
2005-06-22, 15:31:34
Naja, bei solchen Werten :udown: sollte R520 leichtes Spiel haben.

Diese Richtung: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=145961

Der nächsten Post in dem ein "R520" auftaucht landet im Trash. Ich habe euch gewarnt.

reunion
2005-06-22, 15:31:41
Neben der Takt- und Parallelitätssteigerung, die allein schon für rund 43 Prozent der theoretisch vorhandenen Mehrleistung verantwortlich sein dürften, hat man bei nVidia auch die Leistung des dem Vertexshader nachgeschalteten Triangle-Setups und speziell des festverdrahteten Culling-Teils nach eigenen Angaben um 30 Prozent verbessert.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx/3/

dildo4u
2005-06-22, 15:33:01
Hi,

der 3DCenter Bericht hat mir bisher am besten gefallen, nur Fakten und keine Meinungen.

Demnach ist für mich der G70 nicht das WUNDEREI mit dem der andere nicht fertig werden könnte.

Die HL2 Benchmarks sagen ja alles! haaaa is dat GEIL, den Stein hört man bis nach California!
Bei dem test ist auch eine 6800U machmal schneller als die 7800GTX z,B bei Farcry und das kann nicht stimmen.

Gast
2005-06-22, 15:33:33
hmm... bei computerbase gewinnt der g70 praktisch immer, wenn aber wie bei 3dcenter auf gleiche bildqualität geachtet wird, sieht die sache komplett anders aus... nachdem ich den 3dcenter artike gelesen hab, war ich derbe enttäuscht von nVidia, aber bei computerbase sehen wir praktisch ein komplett anderes bild!

Diskutator
2005-06-22, 15:35:14
Neben der Takt- und Parallelitätssteigerung, die allein schon für rund 43 Prozent der theoretisch vorhandenen Mehrleistung verantwortlich sein dürften, hat man bei nVidia auch die Leistung des dem Vertexshader nachgeschalteten Triangle-Setups und speziell des festverdrahteten Culling-Teils nach eigenen Angaben um 30 Prozent verbessert.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx/3/

Nach eigenen Angaben bin ich Captain Kirk *g* und habe hier gar nix zu suchen....schau dir die Balken bei 3Dcenter an (HL2) und die anderen auch noch, der G70 ist mit Sicherheit schneller als NV40 und theortisch doppelt so schnell wie ein anderer, aber kommt kaum über die X850XT deutlich auf höhere Werte hinaus!

Diskutator
2005-06-22, 15:37:02
hmm... bei computerbase gewinnt der g70 praktisch immer, wenn aber wie bei 3dcenter auf gleiche bildqualität geachtet wird, sieht die sache komplett anders aus... nachdem ich den 3dcenter artike gelesen hab, war ich derbe enttäuscht von nVidia, aber bei computerbase sehen wir praktisch ein komplett anderes bild!
Das sehe ich auch so, man läßt sich gerne auf dem Papier und in der Theorie auf diese Diskussion ein, aber letztendlich ist alles dann doch auch Subjektiv irgendwie, Mettbrötchen! ;)!

Quasar
2005-06-22, 15:37:43
Supersampling mit AF ist aber auch 'ne harte Nuß. Von gleicher Bildqualität kann man hier nur träumen.

SKYNET
2005-06-22, 15:38:25
das gefällt mir am besten...
http://images.anandtech.com/graphs/7800%20gtx%20launch_06220570624/7648.png

endlich den ganzen schwarzsehern(und ATI fanboys) eines besseren belehrt! =)

reunion
2005-06-22, 15:38:43
HDR / MSAA:
Noch eine kleine Anmerkung am Rande. Bisher war es in Spielen wie Far Cry oder Splinter Cell Chaos Theory nicht möglich, „High Dynamic Range Rendering“ (HDR, vier Kanäle mit FP16-Genauigkeit) zusammen mit Multi-Sampling zu verwenden. Wie wir uns bei nVidia auf dem Launch-Event in Paris persönlich überzeugen konnten, werden in beiden Launch-Demos definitiv geglättete Kanten zu sehen sein – und laut Aussage von nVidia verwenden beide Demos, „Mad Mod Mike“ und „Luna“ (übrigens ein Anagramm von „Nalu“ von vor einem Jahr), HDR-Rendering.
Auf Nachfrage konnte uns nVidia bestätigen, dass die angenommene Unverträglichkeit von MSAA und HDR nur für, so wörtlich, herkömmliche Verfahren gelte. Man habe aber einen Weg gefunden, diese Beschränkung zu umgehen und diverse Developer davon unterrichtet. So dürfen wir uns in Zukunft hoffentlich auf glatte Kanten in allen Lebenslagen freuen!

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx/3/

Was kann man davon halten?
R300-like HDR?

dildo4u
2005-06-22, 15:39:36
Die Übersicht gefällt mir ganz gut alle Werte wirken realistisch

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx_sli/14/#abschnitt_performancerating

thade
2005-06-22, 15:39:49
warum haben eigentlich die Karten bei Alternate unterschiedliche Takte???

400/
430/
450/
470/

Die ASUS hat 470 Core. Ist das ein Fehler???

Diskutator
2005-06-22, 15:41:04
das gefällt mir am besten...
http://images.anandtech.com/graphs/7800%20gtx%20launch_06220570624/7648.png

endlich den ganzen schwarzsehern(und ATI fanboys) eines besseren belehrt! =)
Wie oft noch!!!! Wie oft werden solche Vergleiche irgendeine Bedeutung finden?
Bei Highend-Kunden: KEIN-MAL!!!!!

Vergiss Watt! Von mir aus könnte der G70 250 Watt brauchen und der X850 400 Watt, um so besser, dann haben wenigstens die NEUREICHEN Noobs nicht so ein geile Kiste wie ich! LOLWECH

SKYNET
2005-06-22, 15:41:16
warum haben eigentlich die Karten bei Alternate unterschiedliche Takte???

400/
430/
450/
470/

Die ASUS hat 470 Core. Ist das ein Fehler???


nein, sagte ich weiter oben schon....
alle hersteller kochen da ihr eigendes süppchen! ;(

deekey777
2005-06-22, 15:41:29
Hoffentlich veröffentlicht VALVe die Lost Coast Map in Kürze. :biggrin:

Diskutator
2005-06-22, 15:42:23
Die Übersicht gefällt mir ganz gut alle Werte wirken realistisch

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx_sli/14/#abschnitt_performancerating
Tja, sollten se mal das gleiche wie hier auch mal mit Qualität probieren! Kaum glaubwürdig für mich diese Einschätzung von cb!

Hauwech
2005-06-22, 15:44:29
http://graphics.tomshardware.com/graphic/20050621/nvidia_7800-01.html

Aus dem englischen THG:

Core clock/ memory clock: 430 MHz/600 MHz with support for overclocking

Meinen die damit 'inoffizielle Ultras' oder sowas wie 'Dynamisches Overclocking'?

edit: seitens Nvidia selber? Oder sind die 430 MHz eher sowas wie Grundtakt und jeder Hersteller darf dank anscheinend guter Overclocking Eigenschaften selber schauen was er möchte?

SKYNET
2005-06-22, 15:44:31
Die Übersicht gefällt mir ganz gut alle Werte wirken realistisch

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx_sli/14/#abschnitt_performancerating


ja, CB ist qualitativ wie immer ganz vorne dabei. :up:


Tja, sollten se mal das gleiche wie hier auch mal mit Qualität probieren! Kaum glaubwürdig für mich diese Einschätzung von cb!


geh mal weiter auf www.rage3d.de spielen.

Diskutator
2005-06-22, 15:45:36
Von der CB....Beeindruckender wird es allerdings erst, wenn man in die Auflösung von 1600x1200 Pixel schaltet. Hier lieferte die GeForce 7800 GTX in allen von uns getesteten Spielen sehr gute Werte ab und stellt neue Maßstäbe auf. Wer auch in sehr hohen Auflösungen sehr anspruchsvolle Spiele wie Doom 3, Splinter Cell – Chaos Theory oder The Chronicles of Riddick zocken möchte, der kommt um die neueste Grafikkarte aus dem Hause nVidia nicht herum. .....

Diese Aussage ist ziemlich daneben, wenn ich mir 1600-Auflösung / Bench bei 3Dcenter anschaue!

Gast
2005-06-22, 15:46:31
ja, CB ist qualitativ wie immer ganz vorne dabei. :up:





geh mal weiter auf www.rage3d.de spielen.

Und du mein Freund kannst hier draufgehen:www.nvnews.net

LovesuckZ
2005-06-22, 15:47:08
NVIDIA GeForce 7800 GTX 256MB PCI-E Part 1 - Theory and Architecture. (http://www.digit-life.com/articles2/video/g70-part1.html)

Diskutator
2005-06-22, 15:47:16
ja, CB ist qualitativ wie immer ganz vorne dabei. :up:





geh mal weiter auf www.rage3d.de spielen.


Skynet,

möchtest du jetzt auf deine provokante Äusserung eine Antwort? Ich glaube kaum, mach besser mal nen Bios-Refresh bei dir!

dildo4u
2005-06-22, 15:47:21
Diese Aussage ist ziemlich daneben, wenn ich mir 1600-Auflösung / Bench bei 3Dcenter anschaue!
CB hat mit wesentlich mher CPU power gebencht 3.6Ghz prescott gegen A64 4000+

LovesuckZ
2005-06-22, 15:48:17
Diese Aussage ist ziemlich daneben, wenn ich mir 1600-Auflösung / Bench bei 3Dcenter anschaue!

Ja, und?
Unterschiedliche Tester, unterschiedliche Systeme, unterschiedliche Ergebnisse.
Daher: Koennten wir diese sinnlos "der hat mist gebaut" Diskussion bitte lassen?

Gaestle
2005-06-22, 15:48:30
Also so wie's aussieht, gibt's jetzt pro Takt und Pipe 'ne ADD-Funktion mehr, dazu wurden die Latenzen der TMU's gesenkt.
Offensichtlicht erwartet NV eine Steigerung der ADD-Funktionen in zukünftigen Games. Es wurde also gezielt die Shaderleistung verbessert.

BTW: hexus.net find' ich bis jetzt am besten....

@Diskutator:
Dass da bei beinem besseren DirectX7 Game- welches HL2 nunmal ist - wo nur die Füllrate zählt, keine Verbesserungen zu erwarten sind, ist auch absolut klar, weil es bei den 16ROPs@430MHz geblieben ist. Das als Basis für eine Einschätzung der Leistungsfähigkeit des G70 heranziziehen, und zu allem Überfluss auch noch darauf zu bestehen, deutet für mich auf ...
...keine Ahnung auf was, aber ich (als gefühlter DAU) hab' schon keinen Plan, sehe aber (auch aufgrund von einigen Aussagen hier im Forum von entsprechenden Leuten) ein, dass arithmetische Operationen in Zukunft wichtiger als Füllrate werden...
Anyway....


Grüße

Gast
2005-06-22, 15:49:19
Tja, sollten se mal das gleiche wie hier auch mal mit Qualität probieren! Kaum glaubwürdig für mich diese Einschätzung von cb!

zustimm ! computerbase ist befangen

wenn ich das fazit von denen lese denke ich das ich auf ner nv page bin.

leute wartet auf xbits review oder schaut auch das 3dcenter review an

Demirug
2005-06-22, 15:49:38
Lasst die persönlichen Anfeindungen. Ich habe keine Lust punkte zu verteilen aber wenn es sein muß...

mapel110
2005-06-22, 15:50:35
Skynet und Diskutator, lasst diese Stichelein, sonst hats Konsequenzen. Gilt auch für alle anderen, solch Getrolle zu unterlassen. Danke.
/edit
doppelt hält besser. :)

Anarchy-HWLUXX
2005-06-22, 15:50:58
Hmm ... also ich würd gern sehen wie die Scores mit ner Richtigen CPU aussehen würden ... also ~4.5GHz / 4500+

3.6GHz sind ATM schon mainstream Takte und das mit der neusten GPU paaren - das passt einfach net ...

Diskutator
2005-06-22, 15:51:20
CB hat mit wesentlich mher CPU power gebencht 3.6Ghz prescott gegen A64 4000+
Das stimmt, aber das sollte dann auch so mal klargestellt werden, eine Meinung über ein Produkt kann immer nur dann festgelegt werden, wenn ich mehrere Vergleiche im Detail beurteile und dann auch entsprechend auswerte.
nv hatte auch bei den ersten Trubocache Reviews erklärt das Entry-Level PCs 1 GB Memory haben müssen ;) und eine Intel P4 EE !!

MarcWessels
2005-06-22, 15:51:33
Und letztlich werden diese Settings schließlich auch von den Käufern von HighEnd-Grafikkarten benutzt, insofern ist dieser Vergleich wohl doch statthaft, wenn auch nicht wirklich optimal.Also, ich sehe keinen Grund, warum ich 8xAA bei meiner GTX benutzen sollte, wo es doch viel sinnvoller ist, das neue "Trans AA"-Feature zu benutzen.


Und in den richtigen Game-Benches ist der Riesen-Vorsprung wieder recht klein. :confused: Wie kommst Du denn DArauf?? Also, beispielsweise würde ich mir FEAR mit meiner 6800GT@Ultra nun wirklich nicht antun.

Ronny145
2005-06-22, 15:52:19
Weitere Tests:
http://www.hardocp.com/article.html?art=Nzg0LDE=
http://www.bjorn3d.com/read.php?pageID=1611&Submit=Go&cID=806
http://www.hardware.fr/articles/574/page1.html

9800ProZwerg
2005-06-22, 15:52:43
Großartig anders sieht es auch in der nächst höheren Auflösung aus. Hier wird der Vorsprung der GeForce 7800 GTX nur noch größer, so dass die High-End-Karten der letzten Generation geradezu langsam vorkommen mögen.

:confused:
Man kanns auch übertreiben! Da hat jemand wohl das neuste Modell einer NVFanbrille anprobiert ;D

Aber vergisst die CPUs nicht! 3dc hat P43600MHZ, CB A64+4000!
Der P4 bremst teilweise doch sehr stark!

Diskutator
2005-06-22, 15:54:01
Also so wie's aussieht, gibt's jetzt pro Takt und Pipe 'ne ADD-Funktion mehr, dazu wurden die Latenzen der TMU's gesenkt.
Offensichtlicht erwartet NV eine Steigerung der ADD-Funktionen in zukünftigen Games. Es wurde also gezielt die Shaderleistung verbessert.

BTW: hexus.net find' ich bis jetzt am besten....

@Diskutator:
Dass da bei beinem besseren DirectX7 Game- welches HL2 nunmal ist - wo nur die Füllrate zählt, keine Verbesserungen zu erwarten sind, ist auch absolut klar, weil es bei den 16ROP's@430MHz geblieben ist. Das als Basis für eine Einschätzung der Leistungsfähigkeit des G70 heranziziehen, und zu allem Überfluss auch noch darauf zu bestehen, deutet für mich auf ...
...keine Ahnung auf was, aber ich (als gefühlte DAU) hab' schon keinen Plan, sehe aber ein, dass arithmetische Operationen in Zukunft wichtige als Füllrate werden...
Anyway....


Grüße

Auch nen sehr guter Standpunkt! Kann ich nix gegen sagen, bis auf das noch was anderes kommt dieses Jahr mit dem der G70 ersteinmal verglichen werden muss. Wer schnell AUFSTEIGT kann auch genauso schnell wieder absteigen!

DrumDub
2005-06-22, 15:55:09
Dass da bei beinem besseren DirectX7 Game- welches HL2 nunmal ist - wo nur die Füllrate zählt, keine Verbesserungen zu erwarten sind, ist auch absolut klar, weil es bei den 16ROPs@430MHz geblieben ist. kleine berichtigung: die rops laufen mit speichertakt, also 16rops@600mhz. ;)

dildo4u
2005-06-22, 15:55:34
http://www.bjorn3d.com/Material/ReviewImages/gf7800gtx/shadermark.gif

Hier auch mal ein nicht so Häufiger Bench

Pacific Fighters, Kamikazer Replay - 1600x1200 - 4xAA/8xAF
GPU
Average fps from FRAPS
6800GT 35
6800GT SLI 37
7800 GTX 55
7800 GTX o/c 462/1.26 57

http://www.bjorn3d.com/read.php?cID=806&pageID=1613

Wer eine will hier sind 4 Verschiedene Lagernd dann aber bitte Praxis Bericht hier abliefern*g*

http://www3.alternate.de/html/shop/searchListing4CSort.html?searchCriteria=7800&cat1=009&cat2=256&cat3=000&

Mmmmmh
2005-06-22, 15:55:47
Auch nen sehr guter Standpunkt! Kann ich nix gegen sagen, bis auf das noch was anderes kommt dieses Jahr mit dem der G70 ersteinmal verglichen werden muss. Wer schnell AUFSTEIGT kann auch genauso schnell wieder absteigen!

Vergiss nicht der G70 ist der Refresh-Chip des NV40, also das was die x850xt für die X800xt ist.

9800ProZwerg
2005-06-22, 15:57:14
Vergiss nicht der G70 ist der Refresh-Chip des NV40, also das was die x850xt für die X800xt ist.

Nee, kannste net vergleichen!
Die X850xt ist nur ne übertaktete X800xt!
Der G70 ist ein refresh mit starken Verbesserungen!

DrFreaK666
2005-06-22, 15:57:35
Vergiss nicht der G70 ist der Refresh-Chip des NV40, also das was die x850xt für die X800xt ist.

Das stimmt nicht.
Der Refresh-Chip des NV40 wurde gestrichen, oder?

Anarchy-HWLUXX
2005-06-22, 15:58:57
Vergiss nicht der G70 ist der Refresh-Chip des NV40, also das was die x850xt für die X800xt ist.


Wobei die x850xt nicht mal ansatzweise so ne enorme veränderung durchgegangen ist wie der NV40 ... bei ATI beschränkt es sich ja nur auf Takt und feintuning - oder haben se auch den Core re-designed ?


Das stimmt nicht.
Der Refresh-Chip des NV40 wurde gestrichen, oder?


3dcenter meint im review das der G70 die refresh version vom NV40 ist :|

Diskutator
2005-06-22, 15:59:30
Vergiss nicht der G70 ist der Refresh-Chip des NV40, also das was die x850xt für die X800xt ist.
Das stimmt zu 50%, beim Refresh von X800 auf X850 wurden keine Design-Änderungen an Pipes oder Vertex vorgenommen. Beim G70 hingegen ist einiges NEUES mit dabei!

Bin mal gespannt wie die nächsten Seriösen Reviews aussehen, bisher habe ich den Eindruck das vieles stark übertrieben wird. Sicherlich limitiert P4, aber damit muss ich auch klarkommen.

Mmmmmh
2005-06-22, 16:00:06
Das stimmt nicht.
Der Refresh-Chip des NV40 wurde gestrichen, oder?

Aus dem Review unserer geliebten Seite:

"nVidia G70 & GeForce 7800 GTX

Beim nVidia G70 Grafikchip handelt es sich um einen klassischen Refresh-Chip seitens nVidia, welche der kalifornische Hersteller mit schöner Regelmäßigkeit meist zur Mitte der Laufzeit einer Technologie-Generation an den Start bringt. Demzufolge gibt es mit dem G70-Chip auch keine entscheidenden neuen Technologien, der Chip basiert weiterhin auf dem mit dem NV40-Chip aufgestellten technologischem Grundgerüst.

Allerdings hat es nVidia in der Vergangenheit auch immer wieder verstanden, seinen Refresh-Chip mehr mit zugeben als nur höhere Taktraten: Die GeForce2 (NV15) besaß zwei Textureneinheiten anstatt einer wie bei der originalen GeForce 256 (NV10), die GeForce4 Ti (NV25) hatte einen zweifach ausgeführten Vertex Shader und erhebliche Fortschritte im Bereich des anisotropen Filters gegenüber der GeForce3 (NV20) anzubieten und letztlich beseitigte nVidia mit der GeForceFX 5900/5950 (NV35) zu einem erheblichen Teil die Defizite der GeForceFX 5800 (NV30) bei der Shader-Performance.

Heuer nun hat auch der G70-Chip als legitimer Refresh des NV40-Chips ebenfalls ein paar technologische Veränderungen anzubieten: Grob gesagt handelt es sich beim G70 um einen aufgebohrten NV40, welcher mit 24 Pixel- und 8 Vertex-Pipelines gegenüber den 16 Pixel- und 6 Vertex-Pipelines des NV40 daherkommt. Dazu kommen allerdings auch noch interne Änderungen an den Pixel-Pipelines bzw. den Shader-Einheiten, welche auch bei gleichem Takt und Pipelines-Anzahl den G70-Chip gegenüber dem NV40 beschleunigen. Genaueres hierzu wird dann unserem Technik-Artikel zum G70-Chip zu entnehmen sein.
"

Gast
2005-06-22, 16:00:08
Vergiss nicht der G70 ist der Refresh-Chip des NV40, also das was die x850xt für die X800xt ist.

du liegst sowas von falsch

Demirug
2005-06-22, 16:00:55
kleine berichtigung: die rops laufen mit speichertakt, also 16rops@600mhz. ;)

Nein. Tun sie nicht. ROPs beim G70 nur mit CoreTakt.

DrumDub
2005-06-22, 16:01:04
Wobei die x850xt nicht mal ansatzweise so ne enorme veränderung durchgegangen ist wie der NV40 ... bei ATI beschränkt es sich ja nur auf Takt und feintuning - oder haben se auch den Core re-designed ? redesingt wurde auch der g70 nicht. es gibt verbesserungen im detail zum nv40. der vergleich r300 vs. r420 auf ati-seite ist da schon besser angebracht.

Mmmmmh
2005-06-22, 16:01:19
du liegst sowas von falsch

Siehe Post über dir.

DrumDub
2005-06-22, 16:01:32
Nein. Tun sie nicht. ROPs beim G70 nur mit CoreTakt. aha... das hat sich also gegenüber dem nv40 geändert?

DrFreaK666
2005-06-22, 16:02:22
Sollte der refreash-Chip ursprünglich nicht ein NV47 oder soetwas sein?

9800ProZwerg
2005-06-22, 16:02:23
Jungs, man kann den X850 nicht mit dem wirklich stark überarbeiteten G70 vergleichen!!!


Nee, kannste net vergleichen!
Die X850xt ist nur ne übertaktete X800xt!
Der G70 ist ein refresh mit starken Verbesserungen!

Gaestle
2005-06-22, 16:02:27
kleine berichtigung: die rops laufen mit speichertakt, also 16rops@600mhz. ;)

Ähem, ja ich bezog mich auf hexus...
Die sehen sie (im Widerspruch hier zum Forum - ich weiß) auf Core-Takt.

Ändert ja aber nichts am Argumentationsprizip, weil die Konkurrenz hat ja 16ROPs@650(?)Mhz, hat also trotzdem mehr... was in länger ( ;D ) resultieren dürfte

Grüße

Mmmmmh
2005-06-22, 16:05:11
Jungs, man kann den X850 nicht mit dem wirklich stark überarbeiteten G70 vergleichen!!!

Das mag so richtig sein, aber ich bezog mich auf Diskutators Aussage, dass sich der G70 erstmal noch im "Wettkampf" mit dem R520 behaupten muss, was so ja auch richtig sein mag, aber man sollte dabei auch nicht vergessen, dass der R520 eine komplett neue Generation aus dem Hause ATI darstellt, was der G70 mit nichten ist.

Demirug
2005-06-22, 16:05:27
aha... das hat sich also gegenüber dem nv40 geändert?

Das weiß ich nicht sicher. Möglicherweise war das beim NV40 auch eine Fehlinformation obwohl sie von nVidia gekommen ist. Beim G70 weiß ich es allerdings sicher.

dildo4u
2005-06-22, 16:05:35
Noch ein paar Games die nicht so Häufig gebencht werden


http://www.hardware.fr/medias/photos_news/00/13/IMG0013252.gif

http://www.hardware.fr/medias/photos_news/00/13/IMG0013254.gif

http://www.hardware.fr/articles/574/page10.html

Und ein paar HDR Benches

http://www.hardware.fr/medias/photos_news/00/13/IMG0013245.gif

http://www.hardware.fr/medias/photos_news/00/13/IMG0013242.gif

Gaestle
2005-06-22, 16:06:19
Nein. Tun sie nicht. ROPs beim G70 nur mit CoreTakt.


Damit ist der ROP-Output geringer als bei NV40?

[edit] Kann man das irgendwie separat messen?

Grüße

9800ProZwerg
2005-06-22, 16:07:02
Auf jeden Fall hat Nvidia aus dem letzten Jahr gelernt, und keinen paperlaunch praktiziert! Die Karten sind ja laut alternate zu haben!
Was doch noch schön zu sehen ist, dass einige doch noch aus Fehlern lernen!

Diskutator
2005-06-22, 16:07:31
Das mag so richtig sein, aber ich bezog mich auf Diskutators Aussage, dass sich der G70 erstmal noch im "Wettkampf" mit dem R520 behaupten muss, was so ja auch richtig sein mag, aber man sollte dabei auch nicht vergessen, dass der R520 eine komplett neue Generation aus dem Hause ATI darstellt, was der G70 mit nichten ist.
Nein, der G70 ist im Vergleich zum Nachfolger von der X850 ;) Demi, Kein Refresh!

Anarchy-HWLUXX
2005-06-22, 16:08:01
Also wer was über Grafikquali und "settings die Gamer benutzen würden" sagen will sollt sich mal zu HardOCP bewegen ...

ShadowXX
2005-06-22, 16:08:26
Tja, sollten se mal das gleiche wie hier auch mal mit Qualität probieren! Kaum glaubwürdig für mich diese Einschätzung von cb!

Wie kommst du eigentlich auf diesem schmu....Leo hat mit den DefaultTreibereinstellungen bei allen gebencht....zumindest steht nirgendwo etwas anderes.

Ich finde die Tests von Leo auch etwas "merkwürdig", da Sie vielen anderen Test von vielen anderen Seiten teilweise deutlich wiedersprechen.

Und guck bitte auch mal auf die 1600x1200 6/8xAA / 16xAF ergebnisse....trozt 2x2 SS-Anteil verliert die x850xt dort oft.

Ich hab das Gefühl, als wenn in Leos Testsystem öfter mal die CPU das Problem ist.

DrumDub
2005-06-22, 16:09:15
Das weiß ich nicht sicher. Möglicherweise war das beim NV40 auch eine Fehlinformation obwohl sie von nVidia gekommen ist. Beim G70 weiß ich es allerdings sicher. ah so. danke für die info. hab schon an meinem erinnerungsvermögen gezweifelt... ;)

Diskutator
2005-06-22, 16:09:22
[QUOTE=dildo4u]Noch ein paar Games die nicht so Häufig gebencht werden


[QUOTE]

Testen die auch noch DukeNuke? Ich meine die könnte ja auch mal Games benchen mit 1.3! ;)

Diskutator
2005-06-22, 16:09:36
....

Diskutator
2005-06-22, 16:10:49
Wie kommst du eigentlich auf diesem schmu....Leo hat mit den DefaultTreibereinstellungen bei allen gebencht....zumindest steht nirgendwo etwas anderes.

Ich finde die Tests von Leo auch etwas "merkwürdig", da Sie vielen anderen Test von vielen anderen Seiten teilweise deutlich wiedersprechen.

Und guck bitte auch mal auf die 1600x1200 6/8xAA / 16xAF ergebnisse....trozt 2x2 SS-Anteil verliert die x850xt dort oft.

Ich hab das Gefühl, als wenn in Leos Testsystem öfter mal die CPU das Problem ist.
Das habe ich ja gar nicht angezweifelt! Wir werden sehen wie es morgen aussieht*g*

DrumDub
2005-06-22, 16:10:51
Ich hab das Gefühl, als wenn in Leos Testsystem öfter mal die CPU das Problem ist. ich auch. :)

HAL-10K
2005-06-22, 16:12:20
Der beste bisher veröffentlichte Test ist meiner Meinung nach (wieder einmal) von Beyond3D.

Es werden die Leistungskennwerte in ihren verschiedenen Bereichen analysiert (Füllrate, Z-Verwurf, Stencil, Punkttransformation, FragmentShader, ...) und was mir immer wieder besonders gefällt ist die clevere Ergebnissauflistung, die eindeutig erkennen lässt ob der gemessene Wert Grafikkartenlimitiert ist oder nicht.

Ich will absolut keinen Stunk machen, sondern für Verbesserung motivieren: der bisherige 3DCenter Test ist einfach schwach.

Mmmmmh
2005-06-22, 16:13:07
Nein, der G70 ist im Vergleich zum Nachfolger von der X850 ;) Demi, Kein Refresh!

Ich verweise nochmals auf dieses Review (http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/).
Nicht das einer sagt ich würde mir hier was aus den Fingern saugen.

DrumDub
2005-06-22, 16:16:08
schöner vergleich des transparency aa: http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=22

Hauwech
2005-06-22, 16:19:08
Also was bestimmt so einige interessieren würde, wäre ein "Bench" mit Zeckis Archmark. Ob er damit klar kommt kA, aber interessant wäre es allemal. Ebenso GPUBench.

DrumDub
2005-06-22, 16:20:10
Das weiß ich nicht sicher. Möglicherweise war das beim NV40 auch eine Fehlinformation obwohl sie von nVidia gekommen ist. Beim G70 weiß ich es allerdings sicher. hmm... scheint wohl wirklich ne fehlinformation gewesen zu sein, wenn ich mir das so ansehe: http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=23

Anarchy-HWLUXX
2005-06-22, 16:21:05
schöner vergleich des transparency aa: http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=22

Also das letzte bild rockt mal wirklich was quali angeht !

ShadowXX
2005-06-22, 16:24:03
schöner vergleich des transparency aa: http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=22

Das SuperSample-TransparentAA sieht richtig gut aus....und scheint nicht sehr viel Leistung zu schlucken.

Das ist bis jetzt (vom wesentlich höheren Sahderpower abgesehen) das herausstechenste bis jetzt am G70.

Alleine deswegen werde ich mir wohl einen Kaufen.....(wenn ATI nix dagegzusetzen hat)

DrumDub
2005-06-22, 16:25:43
nettes fazit bezüglich kaufen oder nicht kaufen:

As for whether or not the GeForce 7800 GTX is a smart buy, that is another question entirely. The 7800 GTX is so powerful, not many current games are able to take full advantage of it. We threw some of the most graphically intense games around at it, at high resolutions with lots of edge and texture antialiasing, and at times, we were barely able to make it slow down. Yes, the 7800 GTX is grand progress on the semiconductor front, but do you want to pay $599 in order to fund GPU research and development? Or $1200 for the big prize of an SLI rig? You're certainly getting a lot of rendering power for all of that money, but not many apps will use it. Perhaps the bragging rights are worth it for some folks, but for playing today's games, I'd probably settle for a GeForce 6600 GT or a Radeon X800 XL. I'm cheap that way, I suppose. http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=27

(del676)
2005-06-22, 16:29:37
*hüstel* Alternate sollte 2 Asus 7800GTX weniger im Lagerstand einzeigen *hüstel*

dildo4u
2005-06-22, 16:31:20
Leute macht mich nicht verrückt woher habt ihr 1100€ nur für GK? :eek:

(del676)
2005-06-22, 16:32:15
~1300 ich brauch das board ja auch

reunion
2005-06-22, 16:32:17
Aus dem Review unserer geliebten Seite:

"nVidia G70 & GeForce 7800 GTX

Beim nVidia G70 Grafikchip handelt es sich um einen klassischen Refresh-Chip seitens nVidia, welche der kalifornische Hersteller mit schöner Regelmäßigkeit meist zur Mitte der Laufzeit einer Technologie-Generation an den Start bringt. Demzufolge gibt es mit dem G70-Chip auch keine entscheidenden neuen Technologien, der Chip basiert weiterhin auf dem mit dem NV40-Chip aufgestellten technologischem Grundgerüst.

Allerdings hat es nVidia in der Vergangenheit auch immer wieder verstanden, seinen Refresh-Chip mehr mit zugeben als nur höhere Taktraten: Die GeForce2 (NV15) besaß zwei Textureneinheiten anstatt einer wie bei der originalen GeForce 256 (NV10), die GeForce4 Ti (NV25) hatte einen zweifach ausgeführten Vertex Shader und erhebliche Fortschritte im Bereich des anisotropen Filters gegenüber der GeForce3 (NV20) anzubieten und letztlich beseitigte nVidia mit der GeForceFX 5900/5950 (NV35) zu einem erheblichen Teil die Defizite der GeForceFX 5800 (NV30) bei der Shader-Performance.

Heuer nun hat auch der G70-Chip als legitimer Refresh des NV40-Chips ebenfalls ein paar technologische Veränderungen anzubieten: Grob gesagt handelt es sich beim G70 um einen aufgebohrten NV40, welcher mit 24 Pixel- und 8 Vertex-Pipelines gegenüber den 16 Pixel- und 6 Vertex-Pipelines des NV40 daherkommt. Dazu kommen allerdings auch noch interne Änderungen an den Pixel-Pipelines bzw. den Shader-Einheiten, welche auch bei gleichem Takt und Pipelines-Anzahl den G70-Chip gegenüber dem NV40 beschleunigen. Genaueres hierzu wird dann unserem Technik-Artikel zum G70-Chip zu entnehmen sein.
"

Um über soetwas diskutieren zu können, müsste man erstmal definieren, was ein Refresh ist, bzw. ab wann es kein Refresh mehr ist.

ShadowXX
2005-06-22, 16:33:11
~1300 ich brauch das board ja auch

Welches SLI-Board ist empfehlenswert?? Ich glaub ich bestell auch gleich mal.....

Godmode
2005-06-22, 16:34:37
Ich könnte mir vorstellen wie eine 7800U ausieht:

etwas mehr Coretakt
ROPs mit Speichertakt
und schnellerer Speicher!

Dann würde es auch in Games die nicht so extrem auf PS-Leistung setzten eine kräftigen Boost geben. Die 16 ROPs @ 430 könnten ja bei nicht so PS-Lastigen Games sicher bremsen.

edit: also ich warte jetzt mal auf R520 und 7800u(falls es sie wirklich geben wird) und dann schick ich meine kleine feine 68GT in rente ;)

DrumDub
2005-06-22, 16:34:49
Welches SLI-Board ist empfehlenswert?? Ich glaub ich bestell auch gleich mal..... DFI Lanparty NF4 SLI-DR

(del676)
2005-06-22, 16:35:25
Welches SLI-Board ist empfehlenswert?? Ich glaub ich bestell auch gleich mal.....

ka ich hab einfach ein asus dazubestellt X-D
*weils DFI ned lagernd war

vor allem wirds mich interessieren ob die asus 7800gtx echt mehr gpu takt haben :)

Gast
2005-06-22, 16:36:06
Öh nur mal so ne kleine Frage am Rande, gibts die auch für AGP bzw. wird die darauf verfügbar sein? Und vorallem wann?

Godmode
2005-06-22, 16:36:23
ka ich hab einfach ein asus dazubestellt X-D
*weils DFI ned lagernd war

;D freak ;D

DrumDub
2005-06-22, 16:36:28
Ich könnte mir vorstellen wie eine 7800U ausieht:

ROPs mit Speichertakt das wirds nicht geben, da es offensichtlich beim nv40 auch nicht so war.

reunion
2005-06-22, 16:37:20
Nein. Tun sie nicht. ROPs beim G70 nur mit CoreTakt.

Was bedeuten würde, G70 bringt "nur" 6880 MP/s tatsächliche Füllrate auf die Straße?

Anarchy-HWLUXX
2005-06-22, 16:38:05
ömmm ... was ist ein ROP :|



;D

Hellfire-Torrod
2005-06-22, 16:38:20
ka ich hab einfach ein asus dazubestellt X-D
*weils DFI ned lagernd war

vor allem wirds mich interessieren ob die asus 7800gtx echt mehr gpu takt haben :)

Das ASUS ist ein ausgezeichnetes Produkt. Darph ich es ihnen noch einpacken?
Ah, der Kollege bringt gerade die karten. Einen schlönen abend noch.




:mad:

MarcWessels
2005-06-22, 16:39:05
@SLI
SLI hätte ich auch gerne, aber selbst wenn ich das Geld dazu hätte, würde ich es mir in der momentanen Form wohl trotzdem nicht zulegen, da ich sehr viel Wert auf VSync lege.

Godmode
2005-06-22, 16:40:49
Das ASUS ist ein ausgezeichnetes Produkt. Darph ich es ihnen noch einpacken?
Ah, der Kollege bringt gerade die karten. Einen schlönen abend noch.




:mad:

arbeitest du bei Alternate ? ;D

Mmmmmh
2005-06-22, 16:43:04
Um über soetwas diskutieren zu können, müsste man erstmal definieren, was ein Refresh ist, bzw. ab wann es kein Refresh mehr ist.

Ich bin schon der Meinung das der G70 ein Refresh ist, Nvidia fährt lediglich eine andere Strategie was ihre Refreshes angeht.

Hellfire-Torrod
2005-06-22, 16:46:24
arbeitest du bei Alternate ? ;D

Wär das schön :frown:

Anarchy-HWLUXX
2005-06-22, 16:46:34
Ich bin schon der Meinung das der G70 ein Refresh ist, Nvidia fährt lediglich eine andere Strategie was ihre Refreshes angeht.


ich denk mal es wurd inzwischen genug über sowas absolut belangloses hergezogen :uroll:

SKYNET
2005-06-22, 16:47:10
Welches SLI-Board ist empfehlenswert?? Ich glaub ich bestell auch gleich mal.....


gigabyte k8nxp-sli oder dfi sli-dr

Hakim
2005-06-22, 16:51:33
Irgendwie wiedersprechen sich die werte bei den benchs hier und bei den anderen seiten :confused: . Wahrscheinlich werden die 7800er mit neueren treibern immer etwas schneller (ist ja immer so bei neuen Chips).

Anarchy-HWLUXX
2005-06-22, 16:54:59
Irgendwie wiedersprechen sich die werte bei den benchs hier und bei den anderen seiten :confused: . Wahrscheinlich werden die 7800er mit neueren treibern immer etwas schneller (ist ja immer so bei neuen Chips).


Du musst die QWuali settings und GANZ wichtig - den untersatz beachten ... der von 3DCenter verwendete 3.6er P4 ist da wohl weit am unteren ende der CPU skala ...

DrumDub
2005-06-22, 16:55:27
Was bedeuten würde, G70 bringt "nur" 6880 MP/s tatsächliche Füllrate auf die Straße? so isset: http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=5

Iceman346
2005-06-22, 17:03:24
Alleine das Transparency AA finde ich bereits hochinteressant. Eigentlich hatte ich ja vor die 6800GT noch einige Zeit zu behalten, aber dabei könnt man echt schwach werden.
Aber erstmal abwarten wie der R520 aussieht und nen neuer Prozessor wäre bei mir eher angesagt.

Igzorn
2005-06-22, 17:04:50
Ist die sli bridge eigentlich bei den Grafikkaren mit dabei?

Godmode
2005-06-22, 17:06:03
Ist die sli bridge eigentlich bei den Grafikkaren mit dabei?

Nein bei den Mobos

Anarchy-HWLUXX
2005-06-22, 17:06:10
Ist die sli bridge eigentlich bei den Grafikkaren mit dabei?


die leigt normalerweise beim SLI board mit dabei ...



EDIT - 8 sekunden zu lahm ...

Igzorn
2005-06-22, 17:07:43
Nein bei den Mobos


Hmm komisch bei mir lag keine dabei :(

Naja aber es war ja auch keine Treiber cd dabei. Tyan halt :-/

LovesuckZ
2005-06-22, 17:10:25
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/

dildo4u
2005-06-22, 17:14:04
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/

Uhi da könnte man fast meinen ein 7800SLI hätte ein Gutes Preis leistungsverhältniss ;)

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/c1600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/sc1600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/bf21280.gif

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/multifill.gif

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/pixel.gif

Demirug
2005-06-22, 17:15:56
Für alle die jetzt schon zuschlagen wollen.

Die MSI hat auch nur 600MHz Speicher nicht wie bei Alternate angegeben 700MHz.

(del676)
2005-06-22, 17:20:34
Für alle die jetzt schon zuschlagen wollen.

Die MSI hat auch nur 600MHz Speicher nicht wie bei Alternate angegeben 700MHz.

gottseidank
und ich habe schon gedacht ich muss die asus stornieren und msi nehmen

weisst du zufällig auch ob der gpu takt der asus karten falsch ist?
470 mhz sind ja doch etwas mehr wie 430

DrumDub
2005-06-22, 17:23:00
weisst du zufällig auch ob der gpu takt der asus karten falsch ist?
470 mhz sind ja doch etwas mehr wie 430 bin zwar nicht demirug, aber der ist korrekt. die hersteller dürfen den gpu takt frei bestimmt. asus bringt die 7800 gtx eben mit 470mhz.

DrumDub
2005-06-22, 17:23:31
shadermark werte gibts auch: http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=12

bei hdr also doppelt so schnell wie ne 6800u. das hat doch was. :)

Super Grobi
2005-06-22, 17:24:25
bin zwar nicht demirug, aber der ist korrekt. die hersteller dürfen den gpu takt frei bestimmt. asus bringt die 7800 gtx eben mit 470mhz.

Dann geht ja das gejammer ab morgen los, dass die Karte nicht stabil läuft... wetten dass ?

SG

seahawk
2005-06-22, 17:26:04
Die Ergebnisse liegen im BEreich des Erwarteten, auch sind die Ergebnisse in fast allen Test vergleichbar, wenn man die verwendeten Settings berücksichtigt.

Wirklich überrascht hat mich die Verfügbarkeit. Versandfertig innerhalb von 24 Stunden wußte ich, aber nicht von wievielen Herstellern die KArten schon da sind.

Das Ding muss schon ziemlich lange fertig gewesen sein.

DrumDub
2005-06-22, 17:27:03
Dann geht ja das gejammer ab morgen los, dass die Karte nicht stabil läuft... wetten dass ?

SG das glaube ich nicht, da die 7800gtx sich bisher sehr gut übertakten ließ. außerdem ist asus nicht gainward. X-D

Anarchy-HWLUXX
2005-06-22, 17:28:33
Dann geht ja das gejammer ab morgen los, dass die Karte nicht stabil läuft... wetten dass ?

SG


sicherlich nicht ...

Asus (bzw. jeder hersteller) ist doch net blöde und schickt ungetestete Karten raus ... und "gerade mal" 40MHz OC sollten bei jedem Core drinne sein ...

Johnny Rico
2005-06-22, 17:30:44
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7744.png

lol

Demirug
2005-06-22, 17:37:17
Da es die Karten ja jetzt gibt kann ich auch noch ein kleines Detail rausrücken das nVidia nicht in den Unterlagen stehen hat.

Das Grid beim Transparent SS AA ist kein Orderd Grid sondern ein Sparsed Grid.

Godmode
2005-06-22, 17:38:22
http://www.nvidia.com/page/specs_gf7800.html+


Komisch, hier sind wieder 10,32 Gpixies angegeben bei der Fillrate?

edit: oder haben sie einfahc die Texelrate angegeben?

reunion
2005-06-22, 17:38:49
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7744.png

lol


Ich finde es seltsam, dass die 6800U derart zersägt wird.
Durch die höheren Auflösungen wird auch endlich die Performance des R480 deutlich.

RLZ
2005-06-22, 17:39:54
Da es die Karten ja jetzt gibt kann ich auch noch ein kleines Detail rausrücken das nVidia nicht in den Unterlagen stehen hat.

Das Grid beim Transparent SS AA ist kein Orderd Grid sondern ein Sparsed Grid.
Das stand schon im ComputerBase Test drin :)
Intelligenterweise scheint es sich bei dem Raster, welches für Transparency-AA verwendet wird, nicht um das ineffektive Ordered-Grid zu handeln.

DrumDub
2005-06-22, 17:42:38
edit: oder haben sie einfahc die Texelrate angegeben? genau. das sollte nv aber schnell auf ihrer website ändern...

Gast
2005-06-22, 17:44:44
Da es die Karten ja jetzt gibt kann ich auch noch ein kleines Detail rausrücken das nVidia nicht in den Unterlagen stehen hat.

Das Grid beim Transparent SS AA ist kein Orderd Grid sondern ein Sparsed Grid.

Kann man dann vielleicht sogar beim normalem SSAA auch von SG ausgehen?

Demirug
2005-06-22, 17:46:08
Ich finde es seltsam, dass die 6800U derart zersägt wird.
Durch die höheren Auflösungen wird auch endlich die Performance des R480 deutlich.

Könnte an unterschiedlichen Treibern liegen.

Demirug
2005-06-22, 17:46:41
Das stand schon im ComputerBase Test drin :)

und was glaubst du woher die Information kommt? ;)

MadManniMan
2005-06-22, 17:47:35
Hm, wieviele Samples werden für das TSSAA genutzt? Und wie ist der ganze Spaß angeordnet?

Und wird man dieses sparsed Grid vielleicht auch für die Kombimodi nutzen können - oder als Standalone ;)

Demirug
2005-06-22, 17:47:51
Kann man dann vielleicht sogar beim normalem SSAA auch von SG ausgehen?

Der Chip ist dazu in der Lage nur muss es nVidia auch freischalten. Ich bin aber schon am überlegen wie man es erzwingen könnte.

Demirug
2005-06-22, 17:49:04
Hm, wieviele Samples werden für das TSSAA genutzt? Und wie ist der ganze Spaß angeordnet?

Und wird man dieses sparsed Grid vielleicht auch für die Kombimodi nutzen können - oder als Standalone ;)

Die Sampelanzahl entspricht der Anzahl des gewählten AAs.

siehe oben.

Gast
2005-06-22, 17:49:59
Der Chip ist dazu in der Lage nur muss es nVidia auch freischalten. Ich bin aber schon am überlegen wie man es erzwingen könnte.

Ich steh gerade auf dem Schlauch. Gilt das SG nur fuer 2xSSAA oder sogar 4xSSAA?

Demirug
2005-06-22, 17:52:21
Ich steh gerade auf dem Schlauch. Gilt das SG nur fuer 2xSSAA oder sogar 4xSSAA?

Beim Transparency AA für beides.

Gast
2005-06-22, 17:57:32
Der Chip ist dazu in der Lage nur muss es nVidia auch freischalten. Ich bin aber schon am überlegen wie man es erzwingen könnte.
wieso willst du das denn erzwingen ? der einzige sinn von SSAA für das ganze bild besteht doch darin, alphatexturen zu glätten, und genau das geschieht jetzt, aber eben nur für die bereiche wo es gebraucht wird, für die kanten gibt es weiterhin effizientes MSAA (theoretisch zumindest, hoffentlich funktioniert es auch genauso reibungslos mit den spielen zusammen)

noch ein paar fragen:

wozu soll das Transparency-MSAA eigentlich gut sein ? bringt soweit ich es auf den screenshots sehe nichts was auch nur der rede wert wäre

was ist mit dem gamma korrigierten AA passiert ? im review von hkepc von gestern wurde es gerade noch erwähnt, im treiber bei den optionen ist es auch dabei, wird aber heute weder erwähnt, geschweige denn getestet. ist es nun hardwarebeschleunigt oder immer noch langsamer ? (ich hab natürlich noch nicht alle reviews durch, vielleicht ist es ja doch irgendwo dabei)

Godmode
2005-06-22, 17:59:38
wozu soll das Transparency-MSAA eigentlich gut sein ? bringt soweit ich es auf den screenshots sehe nichts was auch nur der rede wert wäre


Das hab ich mich auch schon gefragt? Des Trans-SSAA ist ja supertoll, aber des Trans-MSAA bringt anscheinend nicht wirklich was!

Ronny145
2005-06-22, 17:59:48
Noch ein Test zum aufnehmen:
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=190&seite=1

Demirug
2005-06-22, 18:02:45
wieso willst du das denn erzwingen ? der einzige sinn von SSAA für das ganze bild besteht doch darin, alphatexturen zu glätten, und genau das geschieht jetzt, aber eben nur für die bereiche wo es gebraucht wird, für die kanten gibt es weiterhin effizientes MSAA (theoretisch zumindest, hoffentlich funktioniert es auch genauso reibungslos mit den spielen zusammen)

SSAA verbessert auch die Qualität des Texturefilters.

noch ein paar fragen:

wozu soll das Transparency-MSAA eigentlich gut sein ? bringt soweit ich es auf den screenshots sehe nichts was auch nur der rede wert wäre

Du kennst die Zäune bei HL2? Das ist es hoffnungsloss verloren. Bei weniger Hochfequenten Fällen bringt es aber durchaus etwas.

was ist mit dem gamma korrigierten AA passiert ? im review von hkepc von gestern wurde es gerade noch erwähnt, im treiber bei den optionen ist es auch dabei, wird aber heute weder erwähnt, geschweige denn getestet. ist es nun hardwarebeschleunigt oder immer noch langsamer ? (ich hab natürlich noch nicht alle reviews durch, vielleicht ist es ja doch irgendwo dabei)

Ja, es ist Hardwarebeschleunigt und man kann es ein oder ausschalten. Im Vergleich zum Transparency AA geht es in den Reviews einfach etwas unter.

up¦²
2005-06-22, 18:10:54
Riesenfoto! :smile:
http://www.club3d.nl/distri/images/product/high/CGNX-X786VDD.jpg

Auch mit 6fach Stecker!

Info
http://www.club3d.nl/

Gast
2005-06-22, 18:11:16
SSAA verbessert auch die Qualität des Texturefilters.
stimmt natürlich, aber der (verhältnismäßig niedrige) qualitätsgewinn sollte nur mit einem ziemlich starken performanceabfall zu erkaufen sein... außer in extremfällen (sprich: super-flimmer-texturen) sollte man fullscreen SSAA ab heute eigentlich vergessen können, oder ?

Du kennst die Zäune bei HL2?
nein, ich wäre dankbar wenn du mit erklären könntest was mit den zäunen bzw. Transparency-MSAA los ist (ich kenne die shots mit dem maschendrahtzaun ebenfalls aus HL2, und darauf beruhte meine aussage daß Transparency-MSAA, zumindest dort, nichts bringt)

Ja, es ist Hardwarebeschleunigt und man kann es ein oder ausschalten. Im Vergleich zum Transparency AA geht es in den Reviews einfach etwas unter.
ist AA also mit oder ohne gamma korrektur nun gleich schnell ? sieht´s genauso gut aus wie bei ATI ?

danke

(del676)
2005-06-22, 18:15:54
btw. gibts nen Adapter auf diesen PCI-E Stromstecker?
sowas hat mein Netzteil nicht X-D

up¦²
2005-06-22, 18:17:01
Zur Feier des Tages:

Version: 77.72
Release Date: June 22, 2005
WHQL Candidate


http://www.nvidia.com/object/winxp_2k_77.72.html :wink:

Gast
2005-06-22, 18:17:34
Du kennst die Zäune bei HL2? Das ist es hoffnungsloss verloren. Bei weniger Hochfequenten Fällen bringt es aber durchaus etwas.

ich sehe du hast deine aussage inzwischen editiert. ich wußte nicht daß du ebenfalls den maschendrahtzaun meinst, ich dachte es wären andere zäune. daß es dort nichts bringt sehe ich ja, deshalb habe ich nachgefragt.
wo bringt es denn etwas ? wäre es z.b. bei der vegetation in Farcry brauchbar oder ist das auch viel zu hochfrequent ?
sind überhaupt irgendwelche kompatibilitätsprobleme mit Transparency AA zu erwarten oder ist es eigentlich "ungefährlich" ?

deekey777
2005-06-22, 18:20:39
...
nein, ich wäre dankbar wenn du mit erklären könntest was mit den zäunen bzw. Transparency-MSAA los ist (ich kenne die shots mit dem maschendrahtzaun ebenfalls aus HL2, und darauf beruhte meine aussage daß Transparency-MSAA, zumindest dort, nichts bringt)
danke


Laut B3D scheint MSTAA nichts zu bringen. ;(
Dafür scheint das SSTAA beinahe umsonst zu sein.
http://www.beyond3d.com/previews/nvidia/g70/index.php?p=06
btw. gibts nen Adapter auf diesen PCI-E Stromstecker?
sowas hat mein Netzteil nicht X-D

Kein Schweizer Messer? MacGyver würde es hinkriegen...

BvB123
2005-06-22, 18:21:03
btw. gibts nen Adapter auf diesen PCI-E Stromstecker?
sowas hat mein Netzteil nicht X-D
Ja war bei mir in der Graka verpaackung ;)

Demirug
2005-06-22, 18:25:00
stimmt natürlich, aber der (verhältnismäßig niedrige) qualitätsgewinn sollte nur mit einem ziemlich starken performanceabfall zu erkaufen sein... außer in extremfällen (sprich: super-flimmer-texturen) sollte man fullscreen SSAA ab heute eigentlich vergessen können, oder ?

Oder man hat Leistung übrig die man verbraten möchte.

ist AA also mit oder ohne gamma korrektur nun gleich schnell ? sieht´s genauso gut aus wie bei ATI ?

danke

Der Unterschied zwischen an und aus liegt in der Messtoleranz. Optisch sieht es korrekt aus.

ich sehe du hast deine aussage inzwischen editiert. ich wußte nicht daß du ebenfalls den maschendrahtzaun meinst, ich dachte es wären andere zäune. daß es dort nichts bringt sehe ich ja, deshalb habe ich nachgefragt.
wo bringt es denn etwas ? wäre es z.b. bei der vegetation in Farcry brauchbar oder ist das auch viel zu hochfrequent ?
sind überhaupt irgendwelche kompatibilitätsprobleme mit Transparency AA zu erwarten oder ist es eigentlich "ungefährlich" ?

Aus versehen auf den sende Button gekommen.

Die Vegetation von Farcry sollte aufgrund meiner Erfahrungen mit dem Thema dankbarer sein. Da warte ich aber noch auf den Screenshot.

In extremen Situationen könnte es mit den ersten Treiber noch manchmal Ärger geben. Die sollte aber schnell aussortiert sein.

deekey777
2005-06-22, 18:25:20
"TV-Out, HDTV-Out, HDCP support"

G70@Digit-Life (http://www.digit-life.com/articles2/video/g70-part1.html)
:confused:

Na ja, die R350 hat auch HDCP Support... :biggrin:

€: Meine 9800Pro ist lediglich HDCP Ready, sprich, da muß noch was drauf, damit HDCP funktioniert. Aber wie sieht's bei der G70 aus? Wird sie auch mit HDMI kommen?

(Die kleine X600 HDTV von Asus hat ein HDMI, durch welches sie Bild und Ton liefert.)

VooDoo7mx
2005-06-22, 18:35:33
So muss ein grafikkartenlaunch aussehen.

- Mindestens 50% Mehrperformance im Vergleich zum Vorgänger.
- verbraucht gleich viel/ geringfügig weniger Strom als die letzte High End. Wann gab es das schon mal?
- Karten tatsächlich sofort verfügbar
- anscheinend extrem guter Yield @ 110nm TSMC bei über 300Mio Transistoren ;)@robbittp
- Am Release steht sofort ein neuere offizieller Treiber bereit, der auch für alte Karten viele neuen Funktionen bereitstellt.

Hat NV eigentlich irgend etwas falsch gemacht?

Alle Daumen hoch für NV :uup: :uup: :uup:

Gast
2005-06-22, 18:36:52
Hi

was mich jetzt mal an dieser stelle interessieren würde ist,ob es die karte auch schon als agp version gibt bzw ganz dumm gefragt,ist diese überhaupt als agp variante eingeplant?ich seh nur pci-e atm?

Weiss jemand infos...die xfx als agp würde mich reizen.

gruss
steve

reunion
2005-06-22, 18:37:20
- verbraucht gleich viel/ geringfügig weniger Strom als die letzte High End. Wann gab es das schon mal?



Bei der letzten Generation. ;)

deekey777
2005-06-22, 18:38:08
Hi

was mich jetzt mal an dieser stelle interessieren würde ist,ob es die karte auch schon als agp version gibt bzw ganz dumm gefragt,ist diese überhaupt als agp variante eingeplant?ich seh nur pci-e atm?

Weiss jemand infos...die xfx als agp würde mich reizen.

gruss
steve

Von Albatron gibt es doch dieses Teil PEG->AGP8x...
Abwarten, Tee trinken. nVidia ist definitiv nicht so behämmert und benachteiligt die AGP-Fraktion.

Hellfire-Torrod
2005-06-22, 18:38:28
Hat NV eigentlich irgend etwas falsch gemacht?

Zu teuer, ich kanns mir nicht leisten :frown:

Hellfire-Torrod
2005-06-22, 18:39:32
"TV-Out, HDTV-Out, HDCP support"

G70@Digit-Life (http://www.digit-life.com/articles2/video/g70-part1.html)
:confused:

Na ja, die R350 hat auch HDCP Support... :biggrin:

€: Meine 9800Pro ist lediglich HDCP Ready, sprich, da muß noch was drauf, damit HDCP funktioniert. Aber wie sieht's bei der G70 aus? Wird sie auch mit HDMI kommen?

(Die kleine X600 HDTV von Asus hat ein HDMI, durch welches sie Bild und Ton liefert.)

Jens Schäfer meinte bei GIGA (völlig übermüdet) das Karten mit HDMI aushang folgen werden.

BvB123
2005-06-22, 18:41:20
Bei der letzten Generation. ;)

Ne 9800pro hat weniger verbraucht als ne X800

ein 5900ultra hat doch auch weniger verbraten?

(del676)
2005-06-22, 18:44:14
So muss ein grafikkartenlaunch aussehen.

- Mindestens 50% Mehrperformance im Vergleich zum Vorgänger.
- verbraucht gleich viel/ geringfügig weniger Strom als die letzte High End. Wann gab es das schon mal?
- Karten tatsächlich sofort verfügbar
- anscheinend extrem guter Yield @ 110nm TSMC bei über 300Mio Transistoren ;)@robbittp
- Am Release steht sofort ein neuere offizieller Treiber bereit, der auch für alte Karten viele neuen Funktionen bereitstellt.

Hat NV eigentlich irgend etwas falsch gemacht?

Alle Daumen hoch für NV :uup: :uup: :uup:

sowas ähnliches wollte ich auch schon schreiben, aber dann wird mir wieder der fanboystempel aufgedrückt X-D

aber man muss sagen dass sie es diesmal verdammt richtig gemacht haben. beim launch der 6800 hatte ich schon fast nen hass weil man monate auf eine karte warten musste.

Demirug
2005-06-22, 18:44:17
soviel zum Thema AGP:

Q: Will you use HSI to make AGP-based GeForce 7800 boards?
We are not disclosing plans for AGP at this time, but that is certainly possible with the flexibility of our HSI chip.

Und das zum Thema Ultra und anderen GF7 Karten:

Q: With the introduction of the GeForce 7800 GTX, does this mean you are discontinuing the GeForce 6 series?
No. The GeForce 7800 GTX will be NVIDIA's new flagship GPU, replacing the GeForce 6800 Ultra at the top of our product line. The other GeForce 6 Series GPUs including the GeForce 6800 GT and Standard, will remain in their respective segments.

Mr. Lolman
2005-06-22, 18:49:25
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7744.png

lol

Und ich dachte bis zum heutigen Tag ernsthaft, dass ich nicht viel falsch gemacht hab mit dem Kauf der 6800GT :mad:

Gast
2005-06-22, 18:49:36
soviel zum Thema AGP:

Sieht so aus, als ob der HSI-Chip es nicht packen würde.
Der Rialto dürfte da weniger Probleme machen, da dieser ja nicht mal einen passiven Kühler hatte.

deekey777
2005-06-22, 18:50:00
Und das zum Thema Ultra und anderen GF7 Karten:

Okay, für die Standard gibt's den NV42, aber was ist mit der GT (kaputte G70?)?

Heißt das auch, daß wir keine Über-7800Ultra mit zwei G70 zu sehen bekommen? :biggrin:

Und ist der G70 in Wirklichkeit tatsächlich der eingemottete NV47? :D

Jens Schäfer meinte bei GIGA (völlig übermüdet) das Karten mit HDMI aushang folgen werden.

Gut zu wissen: Da werden die HD-Urlaubsvideos mit HDCP an den HD-Fernseher weitergeleitet. So muß das sein! :uup:


Sieht so aus, als ob der HSI-Chip es nicht packen würde.
Der Rialto dürfte da weniger Probleme machen, da dieser ja nicht mal einen passiven Kühler hatte.

Wie lang wird die 7800GTX AGP mit dem Rialto noch? ;D

Exxtreme
2005-06-22, 18:50:46
Leider immer noch winkelabhängiges AF. ;(

dildo4u
2005-06-22, 18:52:06
Und ich dachte bis zum heutigen Tag ernsthaft, dass ich nicht viel falsch gemacht hab mit dem Kauf der 6800GT :mad:
Sorry aber du kannst nicht ersnthaft erwarten in 2000*1500 mit 4XAA Flüssig zu zocken auch die 22fps der X800XT sind nicht Spielbar.

Gast
2005-06-22, 18:53:01
Wie lang wird die 7800GTX AGP mit dem Rialto noch? ;D
Lol. Der Rialto war auf den R520 bezogen...

Hellfire-Torrod
2005-06-22, 18:53:20
Leider immer noch winkelabhängiges AF. ;(

Aber dafür Gammakorrigiertes AA :D

Mr. Lolman
2005-06-22, 18:53:35
Sorry aber du kannst nicht ersnthaft erwarten in 2000*1500 mit 4XAA Flüssig zu zocken auch die 22fps der X800XT sind nicht Spielbar.


Aber in 1600...

Und spielbar oder nicht. 100% mehrleistung bei einer vermeintlich ca. gleichstarken karte irritieren schon n bisschen...

dildo4u
2005-06-22, 18:54:56
Aber in 1600...

Und spielbar oder nicht. 100% mehrleistung bei einer vermeintlich ca. gleichstarken karte irritieren schon n bisschen...

Bei 1600 siehts doch auch gar nicht so schelcht aus

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/bf21280.gif

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp

Ich kanns in 1280*1024 4xAA 8XAF sher gut zocken Frames so 35-50fps

Demirug
2005-06-22, 18:57:16
Sieht so aus, als ob der HSI-Chip es nicht packen würde.
Der Rialto dürfte da weniger Probleme machen, da dieser ja nicht mal einen passiven Kühler hatte.

Ich glaube du interpretierst da etwas viel in die Aussage.

Mr. Lolman
2005-06-22, 18:57:33
Ja bei Firingsquad. Bei Computerbase sieht auch sicher nicht so schlecht aus.
Ich bezog mich aber eher auf die Anandtech Benchmarks:

http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7734.png

Eigentlich warte ich den Test von X-Bitlabs ab. Die haben immer die umfrangreichsten Perforamncevergleiche und nicht nur den optimierten standardparqour...

/Komisch dass es so derbe Performanceunterschied gibt bei den Tests. Was soll man da noch glauben...

reunion
2005-06-22, 18:59:00
Hat NV eigentlich irgend etwas falsch gemacht?



Die Platine ist zu lang. :|

dildo4u
2005-06-22, 18:59:36
/Komisch dass es so derbe Performanceunterschied gibt bei den Tests. Was soll man da noch glauben...
Naja für BF2 gibts keine allgemeine timedemo da wurde whol "per hand" gemessen also alles andere als genau.

Gast
2005-06-22, 18:59:39
Ich glaube du interpretierst da etwas viel in die Aussage.
Ich glaube nicht.
Aber als Guru hast Du natürlich den Vorteil, dass die Meisten eh auf Dich hören würden. :)

Gast
2005-06-22, 18:59:50
So muss ein grafikkartenlaunch aussehen.

- Mindestens 50% Mehrperformance im Vergleich zum Vorgänger.
- verbraucht gleich viel/ geringfügig weniger Strom als die letzte High End. Wann gab es das schon mal?
- Karten tatsächlich sofort verfügbar
- anscheinend extrem guter Yield @ 110nm TSMC bei über 300Mio Transistoren ;)@robbittp
- Am Release steht sofort ein neuere offizieller Treiber bereit, der auch für alte Karten viele neuen Funktionen bereitstellt.

Hat NV eigentlich irgend etwas falsch gemacht?

Alle Daumen hoch für NV :uup: :uup: :uup:

Ack. eigentlich kaum zu glauben... neu, schnell, kühl, leise, gut übertaktbar, bessere qualität durch neue AA modi, effizient, im handel erhältlich... alles perfekt... was kommt morgen ? der weltfrieden ? gewinne ich millionen im lotto ? ok, jetzt mal im ernst, ich bin eigentlich auch beeindruckt und sehr positiv überrascht :up:

LovesuckZ
2005-06-22, 19:00:14
Die Platine ist zu lang. :|

Nein, da nur so eine vernünftige Kühlung gegeben ist.
Single-Slot Kühlung, die anscheinend sehr angenehm ist.
Kompromisse muss man immer eingehen. Diesmal hat man, aus meiner Sicht den besseren Weg gefaellt.

VooDoo7mx
2005-06-22, 19:00:17
Und die Farbe des Kühlers sieht scheise aus!

Scheisskarte reunion, oder?

Godmode
2005-06-22, 19:00:55
Laut B3D scheint MSTAA nichts zu bringen. ;(
Dafür scheint das SSTAA beinahe umsonst zu sein.
http://www.beyond3d.com/previews/nvidia/g70/index.php?p=06


Also der 2. Satzt stimmt nicht! SSTAA bringt verdammt viel wie ich finde, oder war das eher ein versehen deinerseits?

Mr. Lolman
2005-06-22, 19:01:19
Die Platine ist zu lang. :|

Mir ist das wurscht, ich hab auch eine Voodoo5. Nur damals wars halt fast peinlich so lange GraKas (trotz 2 GPUs) zu bauen. Heut ists cool, obwohl nur eine GPU drauf platzfindet.

Ich hoff der R520 hat wieder 9700p Größe, denn ne kleine Karte wirkt optisch schon mal effizienter....

Demirug
2005-06-22, 19:03:06
Ich glaube nicht.
Aber als Guru hast Du natürlich den Vorteil, dass die Meisten eh auf Dich hören würden. :)

So wie der HSI eingesetzt werden muß limitiert die AGP Bandbreite. Den Fall hatten wir schon also warum sollte er dann plötzlich zu heiss werden?

Mr. Lolman
2005-06-22, 19:03:16
Also der 2. Satzt stimmt nicht! SSTAA bringt verdammt viel wie ich finde, oder war das eher ein versehen deinerseits?


Oder deinerseits. Umsonst (in dem Fall) = gratis <> nutzlos

reunion
2005-06-22, 19:04:54
Nein, da nur so eine vernünftige Kühlung gegeben ist.
Single-Slot Kühlung, die anscheinend sehr angenehm ist.


Ich denke nicht, dass nV deshalb diese Platinenlänge gewählt hat. ;)
Im übrigen bringt eine Single-Slot-Kühlung unterm Strich nichts, man muss genauso den nächsten Slot freilassen.

reunion
2005-06-22, 19:07:06
Und die Farbe des Kühlers sieht scheise aus!

Scheisskarte reunion, oder?


Musst du eigendlich alles was dir nicht gefällt gleich ins lächerliche ziehen?

deekey777
2005-06-22, 19:08:03
Also der 2. Satzt stimmt nicht! SSTAA bringt verdammt viel wie ich finde, oder war das eher ein versehen deinerseits?

Was kostet denn dem Test nach das SSTAA in FC im Vergleich zu MSAA? Gar nichts!

Gast
2005-06-22, 19:08:03
Und die Farbe des Kühlers sieht scheise aus!

Scheisskarte reunion, oder?
Bin zwar nicht Reunion, aber:
Zur Farbe des Kühlers, Ack. ;)
Schiesskarte würde ich nicht sagen, eher enttäuschend.
Hast du das Review auf 3DCenter gelesen?
Die 7800GTX ist in hohen Auflösungen mit AA kaum schneller als eine X850XT PE.

reunion
2005-06-22, 19:08:38
Mir ist das wurscht, ich hab auch eine Voodoo5. Nur damals wars halt fast peinlich so lange GraKas (trotz 2 GPUs) zu bauen. Heut ists cool, obwohl nur eine GPU drauf platzfindet.

Ich hoff der R520 hat wieder 9700p Größe, denn ne kleine Karte wirkt optisch schon mal effizienter....

Mir nicht, in meinem Gehäuse geht es verdammt eng zu.
Bereits meine 9700pro war knapp an der Grenze.

Godmode
2005-06-22, 19:08:45
Oder deinerseits. Umsonst (in dem Fall) = gratis <> nutzlos

ah stimmt ;) umsonst = es kostet keine Leistung!

Godmode
2005-06-22, 19:09:34
Was kostet denn dem Test nach das SSTAA in FC im Vergleich zu MSAA? Gar nichts!

ich hab des umsonst falsch verstanden, hab gedacht du meinst es bringt nix!

Gast
2005-06-22, 19:10:35
Also der 2. Satzt stimmt nicht! SSTAA bringt verdammt viel wie ich finde, oder war das eher ein versehen deinerseits?
du hast das falsch verstanden. er meint es ist von der performance her (fast) umsonst, qualitätsmäßig bringt es natürlich ne menge, und für die nur ~15% performanceverlust ist es einfach ein muß; ich würde sogar 25% der performance opfern wenn ich dafür nie wieder ekelige alphatest-kanten sehen müßte :D

robbitop
2005-06-22, 19:14:54
Die Sampelanzahl entspricht der Anzahl des gewählten AAs.

siehe oben.

Wäre NV40 denn theoretisch fähig zu so einem SG-TSSA?

Exxtreme
2005-06-22, 19:16:09
Aber dafür Gammakorrigiertes AA :D
Was für ein Fortschritt ggü. meiner R9700 Pro. :rolleyes:

robbitop
2005-06-22, 19:20:49
Sieht so aus, als ob der HSI-Chip es nicht packen würde.

Probleme mit der Übersetzung? "Es ist sicher möglich mit der Flexibilität von HSI, dies umzusetzen"
Sie wären schön blöd, sich den AGP Markt entgehen zu lassen.

robbitop
2005-06-22, 19:22:28
Aber in 1600...

Und spielbar oder nicht. 100% mehrleistung bei einer vermeintlich ca. gleichstarken karte irritieren schon n bisschen...
Naja das ist HL2. Da wurden die Shader schön sabotiert.

Demirug
2005-06-22, 19:23:04
Wäre NV40 denn theoretisch fähig zu so einem SG-TSSA?

Ich glaube nicht.

robbitop
2005-06-22, 19:23:27
Die Platine ist zu lang. :|
Sollte der ATX Norm entsprechen. Außerdem besser, als wenn nach einem Jahr die hälfte der Karten abrauchen.

Mr. Lolman
2005-06-22, 19:25:18
Naja das ist HL2. Da wurden die Shader schön sabotiert.

Ähm da gehts um Battlefield 2. Und -bei Hl² wurden die Shader schon längst ausgetauscht (Genau wie von ATi bei D³)...

robbitop
2005-06-22, 19:25:21
Mir nicht, in meinem Gehäuse geht es verdammt eng zu.
Bereits meine 9700pro war knapp an der Grenze.
So ein Mini Mediacenter Gehäuse?

reunion
2005-06-22, 19:26:24
So ein Mini Mediacenter Gehäuse?

Nein, CS601, der war mal verdammt angesagt.

robbitop
2005-06-22, 19:27:18
Ähm da gehts um Battlefield 2. Und -bei Hl² wurden die Shader schon längst ausgetauscht (Genau wie von ATi bei D³)...
In BF2 ist eine X850XT PE 2x so schnell wie eine 6800U? :|

Das glaube ich nicht. Laut Demi warens bei HL2 zu viele Shader zum austauschen. Außerdem ist NV40 rechenstärker. Wären die Shader ausgetauscht, würde es anders aussehen.

In Doom3 kann ATI trotz ausgetauschter Shader nicht gewinnen. NV hat kostenlos 16x NRM16 pro Takt, was bei Dot3 Mapping gut genutzt werden kann und zusätzlich noch eine ALU mehr.

dildo4u
2005-06-22, 19:27:58
Nein, CS601, der war mal verdammt angesagt.
War Kanpp aber kein Problem mit meiner 6800GT.Außerdem kann man da den unteren Festplattenkäfig ja rausnehmen :tongue:

robbitop
2005-06-22, 19:28:13
Nein, CS601, der war mal verdammt angesagt.
Ich habe auch ein CS601, da passt meine aktuelle 6800GT locker rein und ist noch massig platz. Eine 7800GT würde problemlos passen.
Ergo: du hast es modifiziert ;) [selbst schuld :D]

dildo4u
2005-06-22, 19:29:06
In BF2 ist eine X850XT PE 2x so schnell wie eine 6800U? :|


Zu hohe auflösung bei 1600 ist es nicht mher zu Krass bei 2000*1500 4XAA ist es kein wunder der 6800 geht ja mal gerne schneller der Vram aus.

reunion
2005-06-22, 19:30:18
Sollte der ATX Norm entsprechen. Außerdem besser, als wenn nach einem Jahr die hälfte der Karten abrauchen.

Wer sagt, dass deshalb die Hälfte der Karten abrauchen muss?
Bei ATi gehts ja auch. :D

Gast
2005-06-22, 19:31:36
Probleme mit der Übersetzung?
Nö.

"Es ist sicher möglich mit der Flexibilität von HSI, dies umzusetzen"
Der derzeitige Chip wird es nicht schaffen...
Vielleicht Version2...;)

Sie wären schön blöd, sich den AGP Markt entgehen zu lassen.
Ja, da hast du Recht.

Mr. Lolman
2005-06-22, 19:31:55
In BF2 ist eine X850XT PE 2x so schnell wie eine 6800U? :|

Das glaube ich nicht. Laut Demi warens bei HL2 zu viele Shader zum austauschen. Außerdem ist NV40 rechenstärker. Wären die Shader ausgetauscht, würde es anders aussehen.

In Doom3 kann ATI trotz ausgetauschter Shader nicht gewinnen. NV hat kostenlos 16x NRM16 pro Takt, was bei Dot3 Mapping gut genutzt werden kann und zusätzlich noch eine ALU mehr.

BF2:
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7744.png
(ok hohe Auflösung, aber in 1600 ist der Vorspung ja auch nicht gerade gering: http://www.anandtech.com/video/showdoc.aspx?i=2451&p=9)

Doom3: http://www.anandtech.com/video/showdoc.aspx?i=2451&p=9

Und bei Hl² mussten ja sicher nicht alle Shader ausgetauscht werden. Farcry ist ja schon bestens auf NV optimiert (inkl schlechtere Schatten) und da siehts auch nicht anders aus: http://www.tbreak.com/reviews/article.php?cat=Mobility&id=384&pagenumber=7

reunion
2005-06-22, 19:32:13
War Kanpp aber kein Problem mit meiner 6800GT.Außerdem kann man da den unteren Festplattenkäfig ja rausnehmen :tongue:


Der ist schon lange draussen, und durch einen Radiator ersetzt.

robbitop
2005-06-22, 19:34:40
Wer sagt, dass deshalb die Hälfte der Karten abrauchen muss?
Bei ATi gehts ja auch. :D
Sieht man ja die letzten Monate im 3DC Forum :D

robbitop
2005-06-22, 19:35:36
Der derzeitige Chip wird es nicht schaffen...
Vielleicht Version2...;)


Quelle? In dem Text steht, dass es geht. Ich wüßte auch nicht, warum es nicht gehen sollte.

Quasar
2005-06-22, 19:36:00
Neben der Takt- und Parallelitätssteigerung, die allein schon für rund 43 Prozent der theoretisch vorhandenen Mehrleistung verantwortlich sein dürften, hat man bei nVidia auch die Leistung des dem Vertexshader nachgeschalteten Triangle-Setups und speziell des festverdrahteten Culling-Teils nach eigenen Angaben um 30 Prozent verbessert.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx/3/
Da ist ein Fehler passiert. Die "eigenen Angaben nVidias" beziehen sich nur auf den Teil mit dem Triangle-Setzp, nicht auf das Culling explizit. Der Text sollte eigentlich dahingehend geändert sein, da hat offenbar etwas nicht so funktioniiert.

Es gibt jetzt also ein Update.

robbitop
2005-06-22, 19:37:09
BF2:
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7744.png
(ok hohe Auflösung, aber in 1600 ist der Vorspung ja auch nicht gerade gering: http://www.anandtech.com/video/showdoc.aspx?i=2451&p=9)

Doom3: http://www.anandtech.com/video/showdoc.aspx?i=2451&p=9

Und bei Hl² mussten ja sicher nicht alle Shader ausgetauscht werden. Farcry ist ja schon bestens auf NV optimiert (inkl schlechtere Schatten) und da siehts auch nicht anders aus: http://www.tbreak.com/reviews/article.php?cat=Mobility&id=384&pagenumber=7

Du glaubst eine 7800GTX ist 3x so schnell wie eine 6800U (siehe Diagramm)? Sieht für mich nach einem derben Malör aus. Ergo: 2. Quelle.

Die FC Benches sehen auch seltsam aus. AFAIK ist die NV40 dort eigentlich nicht abgeschlagen.
Auch hier würde ich eine andere Quelle konsultieren und schauen obs dort auch so auftritt.

MarcWessels
2005-06-22, 19:38:31
Probleme mit der Übersetzung? "Es ist sicher möglich mit der Flexibilität von HSI, dies umzusetzen"
Sie wären schön blöd, sich den AGP Markt entgehen zu lassen.

Wobei dieses Gelaber "at this time" schon nervt... Warum bitteschön nicht jetzt und sofort eine AGP-Version??? :mad:

Gast
2005-06-22, 19:40:15
Quelle? In dem Text steht, dass es geht. Ich wüßte auch nicht, warum es nicht gehen sollte.
Das bezieht sich aber nur auf die technische Möglichkeit.
Du wirst sehen, dass man einen anderen Chip braucht...

robbitop
2005-06-22, 19:41:06
Wobei dieses Gelaber "at this time" schon nervt... Warum bitteschön nicht jetzt und sofort eine AGP-Version??? :mad:
Man hat nur begrenzte Ressourcen und muss Prioritäten setzen. Eines nach dem anderen.
Wie lange hast du auf die Verfügbarkeit von NV40/R420 warten müssen? Wie lange beim G70? Warum meckerst du? :)

robbitop
2005-06-22, 19:41:41
Das bezieht sich aber nur auf die technische Möglichkeit.
Du wirst sehen, dass man einen anderen Chip braucht...
Woher willst du das wissen? Quelle? Wenigstens brauchbare technische Ansätze? Oder nur heiße Luft?

Mr. Lolman
2005-06-22, 19:42:03
Du glaubst eine 7800GTX ist 3x so schnell wie eine 6800U (siehe Diagramm)? Sieht für mich nach einem derben Malör aus. Ergo: 2. Quelle.

Ich kann mir nicht vorstellen dass, die einfach irgendwelche Benchmarks zusammenschustern:

http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7734.png

Quasar
2005-06-22, 19:44:13
Was bedeuten würde, G70 bringt "nur" 6880 MP/s tatsächliche Füllrate auf die Straße?
Das reicht für rund 3300fps bei 1080p inkl. 2xFSAA. ;)

Denk dran, die ROPs bilden nur das Ende der Pipeline - die Stufen davor rücken längst nicht jeden Takt einen Pixel/Pipe raus.

Sieht für mich nach einem derben Malör aus.

Malheur. ;) <- Zwinkersmiley.

Fadl
2005-06-22, 19:44:44
Welche Games liegen der Asus Karte bei? Bei Alternate steht leider nichts dazu.

Gast
2005-06-22, 19:45:24
Woher willst du das wissen? Quelle? Wenigstens brauchbare technische Ansätze? Oder nur heiße Luft?
Einfach nur logisches Denken. :)

robbitop
2005-06-22, 19:50:26
Einfach nur logisches Denken. :)
Deine Argumente und Indizien dazu sind aber bislang IMO insuffizient. Ich würde das eher "spekulieren" nennen. Denn um Schlüsse zu ziehen, sehe ich bisher keine handfesten Grundlagen.

@Lolman

ein wenig kritisches Hinterfragen ist aber manchmal gut. Diese Benches sehen sehr komisch aus. Eben nach Ausreisser. Deswegen sollte das veri-/falsifiziert werden (IMO natürlich).

Quasar
2005-06-22, 19:53:38
Und das zum Thema Ultra und anderen GF7 Karten:
Dazu noch als Ergänzung:
"The GeForce 7 Series feature up to 8 Vertex Shaders".

Da kommt also vermutlich noch was kleineres...

Gast
2005-06-22, 19:54:40
Deine Argumente und Indizien dazu sind aber bislang insuffizient. Ich würde das eher "spekulieren" nennen. Denn um Schlüsse zu ziehen, sehe ich bisher keine handfesten Grundlagen.

OK, ich sehe kein Problem darin. Wenn du die Zusammenhänge nicht erkennst, können wir das Thema als abgeschlossen betrachten :)

robbitop
2005-06-22, 19:58:11
OK, ich sehe kein Problem darin. Wenn du die Zusammenhänge nicht erkennst, können wir das Thema als abgeschlossen betrachten :)
Du scheinst nicht den Unterschied zwischen Spekulation und handfesten Schlüssen zu kennen. Meinetwegen gern als Spekulation abgeschlossen und akzeptiert. Aber als echter handfester Schluss? Da hast du bisher noch nichts echtes gebracht.

reunion
2005-06-22, 20:02:11
http://www.ixbt.com/video2/g70-part2.shtml

Mit G70@16/6. ;)

Tomcat70
2005-06-22, 20:02:23
Die Platine ist zu lang. :|


ja, das seh ich leider auch so, weiss eigentlich jemand wie lang die 7800er im vergleich zu einer 9800 pro ist?

ich hab keine ahnung welche gehäuse sich die hersteller, das gilt auch für ati, erwarten? in meinem tower ist es schon knapp zwischen dem stromanschluss der grafikkarte und den anschlüssen der festplatten.

BvB123
2005-06-22, 20:02:40
Du glaubst eine 7800GTX ist 3x so schnell wie eine 6800U (siehe Diagramm)? Sieht für mich nach einem derben Malör aus. Ergo: 2. Quelle.

Die FC Benches sehen auch seltsam aus. AFAIK ist die NV40 dort eigentlich nicht abgeschlagen.
Auch hier würde ich eine andere Quelle konsultieren und schauen obs dort auch so auftritt.

in höheren auflösungen zieht die Radeon sogut wie immer an ner 6800u vorbei oder baut ihren vorsprung aus ;)

deekey777
2005-06-22, 20:04:01
http://www.ixbt.com/video2/g70-part2.shtml

Mit G70@16/6. ;)

Und wer nix Russisch kann:
http://www.digit-life.com/articles2/video/g70-part2.html
Doppel ;)

robbitop
2005-06-22, 20:04:40
in höheren auflösungen zieht die Radeon sogut wie immer an ner 6800u vorbei oder baut ihren vorsprung aus ;)
In Füllratenlimitierten Szenen um bis zu 40% ok. Bedingt durch mehr Takt und durch günstigeres AF. Aber darüber hinaus wäre ich kritsch. Und zwar sehr.

Benedikt
2005-06-22, 20:05:01
Hi,

ich möchte in diesem Zusammenhang ein Posting von reunion vorkramen, dass offenbar nicht wirklich beantwortet wurde, aber mich brennend interessiert:

HDR / MSAA:
Noch eine kleine Anmerkung am Rande. Bisher war es in Spielen wie Far Cry oder Splinter Cell Chaos Theory nicht möglich, „High Dynamic Range Rendering“ (HDR, vier Kanäle mit FP16-Genauigkeit) zusammen mit Multi-Sampling zu verwenden. Wie wir uns bei nVidia auf dem Launch-Event in Paris persönlich überzeugen konnten, werden in beiden Launch-Demos definitiv geglättete Kanten zu sehen sein – und laut Aussage von nVidia verwenden beide Demos, „Mad Mod Mike“ und „Luna“ (übrigens ein Anagramm von „Nalu“ von vor einem Jahr), HDR-Rendering.
Auf Nachfrage konnte uns nVidia bestätigen, dass die angenommene Unverträglichkeit von MSAA und HDR nur für, so wörtlich, herkömmliche Verfahren gelte. Man habe aber einen Weg gefunden, diese Beschränkung zu umgehen und diverse Developer davon unterrichtet. So dürfen wir uns in Zukunft hoffentlich auf glatte Kanten in allen Lebenslagen freuen!

http://www.computerbase.de/artikel/...rce_7800_gtx/3/ (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx_sli/)

Was kann man davon halten?
R300-like HDR?


Ist AA in Verbindung mit HDR-Rendering nun möglich, oder nicht?

Ronny145
2005-06-22, 20:05:58
Noch ein deutscher Test
http://www.planet3dnow.de/artikel/hardware/geforce_g70/index.shtml

Gast
2005-06-22, 20:06:24
Du scheinst nicht den Unterschied zwischen Spekulation und handfesten Schlüssen zu kennen.
Handfeste Schlüsse, die nicht auf bewiesenen Tatsachen beruhen, sind Spekulationen.

robbitop
2005-06-22, 20:08:14
Handfeste Schlüsse, die nicht auf bewiesenen Tatsachen beruhen, sind Spekulationen.
Ah da hat's jemand begriffen. Fein fein. :)

Gast
2005-06-22, 20:10:50
Ah da hat's jemand begriffen. Fein fein. :)
Das ändert aber nichts daran, dass der HSI-Chip in der jetzigen Version, für den G70 unbrauchbar ist. :)

Demirug
2005-06-22, 20:11:30
Ist AA in Verbindung mit HDR-Rendering nun möglich, oder nicht?

Auf jeden Fall nicht auf die Art wie man es überlicherweise macht. Wie der Trick funktionieren soll von dem nVidia spricht haben sie im Detail noch nicht verraten.

ShadowXX
2005-06-22, 20:19:58
Das ändert aber nichts daran, dass der HSI-Chip in der jetzigen Version, für den G70 unbrauchbar ist. :)

Robbi möchte doch nur wissen, wie du darauf kommst....und zwar etwas genauer, als durch "logische Schlussfolgerungen".

ShadowXX
2005-06-22, 20:23:01
Auf jeden Fall nicht auf die Art wie man es überlicherweise macht. Wie der Trick funktionieren soll von dem nVidia spricht haben sie im Detail noch nicht verraten.

Macht der G70 eigentlich auch Filter@Scanout?

Und zum SG TSSAA....wenn es theoretisch auch fürs "normale" SSAA funktionieren würde, wäre es doch doof von nV, wenn Sie das nicht freischalten oder sogar Wahlweise (also OG/SG) anbieten würden.....

robbitop
2005-06-22, 20:23:50
Das ändert aber nichts daran, dass der HSI-Chip in der jetzigen Version, für den G70 unbrauchbar ist. :)
LOL, weil ein Gast es sagt.
Ich nenne es bisher unhaltbare Spekulation. Zumal NV selbst gesagt hat, dass der HSI es kann (oder ist englisch so schwer?).

Robbi möchte doch nur wissen, wie du darauf kommst....und zwar etwas genauer, als durch "logische Schlussfolgerungen".
In dem Fall kommt nichts konkretes bis auf heisse Luft.

EOD für mich. Zumindist solang bis nichts plausibles und brauchbares kommt.