PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15

dildo4u
2005-06-21, 20:32:36
besserer filter


LOL wer zockt denn mit 0XAF?Auf einer 500€ karte?

Demirug
2005-06-21, 20:32:55
Sieht aus als würde beim NV40/G70 überhaupt kein AF verwendet?? :confused:

Da steht doch auch 0xAF.

Gast
2005-06-21, 20:32:56
Bildqualität sollte man bei Spielen vergleichen und nicht mit 3DMark.
Du hast meine Anspielung nicht verstanden. :)
Nvidia cheatet bei 3dMark bis sich die Balken biegen, WEIL die Daus die Punkte interessieren, nicht die BQ.

Gast
2005-06-21, 20:34:04
Kaufen oder ned kaufen? --> ABWARTEN :cool:
So sehe ich das auch.:)

tombman
2005-06-21, 20:34:32
jo, die x850 pics sind echt komisch... teilweise AA an und teilweise ned :confused:

ATI wird doch wohl ned pösen Matrox FAA Weg gehen ;D

deLuxX`
2005-06-21, 20:34:41
Da wäre ich vorsichtig...
Die Daus interessiert 3dMark ganz bestimmt. :)


Schauen "Daus" so genau hin? Werden die ned von Zahlen und Balken geblendet?

-deLuxX`

Coda
2005-06-21, 20:35:08
Wie bitte? Die X850 hat dermassen sichtbare Treppen in den Kanten das ich mich Frage ob da überhaupt AA an ist.Kann es sein dass da jemand AA und AF im Treiber verwechselt hat? ...

Gast
2005-06-21, 20:35:08
Jetzt bin ich aber gespannt mit was ATi kontert. :D
Speed. :D

Gast
2005-06-21, 20:36:04
ja demi, aber bei dem ati pic ist af an oder lod ist viel niedriger

tombman
2005-06-21, 20:36:15
Kann es sein dass da jemand AA und AF im Treiber verwechselt hat? ...

muahaah

Gast
2005-06-21, 20:36:28
Schauen "Daus" so genau hin? Werden die ned von Zahlen und Balken geblendet?

-deLuxX`
Siehe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3175098&postcount=3253
:)

Godmode
2005-06-21, 20:36:40
Steht ja eigentlich auch da 0XAF bei der X850XT kann man whol nicht komplett dekativieren wird whol vom 3Dmark aufgezwungen.

Aja stimmt, aber irgendwas ist da ziemlich komisch!

dildo4u
2005-06-21, 20:36:43
Speed. :D
Na hoffentlich mit so viel speed das sie SSAA flüssig auf den Bildschrim bringen gegen das neue AA der 7800GTX.

Demirug
2005-06-21, 20:37:15
Kann es sein dass da jemand AA und AF im Treiber verwechselt hat? ...

Genau diesen Eindruck habe ich irgendwie auch.

Gast
2005-06-21, 20:37:25
jo, die x850 pics sind echt komisch... teilweise AA an und teilweise ned :confused:

ATI wird doch wohl ned pösen Matrox FAA Weg gehen ;D
Vielleicht temporal AA an?

Gast
2005-06-21, 20:38:34
Na hoffentlich mit so viel speed das sie SSAA flüssig auf den Bildschrim bringen gegen das neue AA der 7800GTX.
Steht es überhaupt schon fest, dass ATI SSAA endlich freigibt?

Exxtreme
2005-06-21, 20:38:45
Vielleicht temporal AA an?
Temporal AA müsste man auch auf Screenshots sehen können. Da wird nur pro Frame das Sample-Muster geändert. Deshalb geht Temporal AA nur mit gleichzeitig aktiven VSync.

DanMan
2005-06-21, 20:38:50
und immernoch hat ati die bessere bildqualität
Dass das dann in Bewegung flimmert wie blöd scheint dich nicht zu kümmern wie es scheint. Manchen Leuten kann man es echt nicht recht machen...

Sorry für OT, aber das konnte ich nicht unkommentiert lassen.

SKYNET
2005-06-21, 20:38:59
Du hast meine Anspielung nicht verstanden. :)
Nvidia cheatet bei 3dMark bis sich die Balken biegen, WEIL die Daus die Punkte interessieren, nicht die BQ.


das tut ATI genauso. =)

Demirug
2005-06-21, 20:39:40
Steht es überhaupt schon fest, dass ATI SSAA endlich freigibt?

In Verbindung mit Crossfire. Ansonsten bleibt es weiterhin bei einem NEIN.

DrFreaK666
2005-06-21, 20:40:06
Mal kurz OT: Hat ATI nicht auch ein Alpha-test-AA versprochen?

Gast
2005-06-21, 20:40:12
das tut ATI genauso. =)
Wenn man es nicht sieht, sehe ich da kein Problem...

Exxtreme
2005-06-21, 20:40:19
Steht es überhaupt schon fest, dass ATI SSAA endlich freigibt?
Da SM3.0 auch die Texturen- und Bildschirmauflösungen zwingend raufsetzt, sehe ich keinen Grund warum ATi das nicht einbaut. Oder anders gesagt, SSAA wäre auf einer R420 nur bis 1024x768 möglich. Also lässt man es gleich ganz.

Gast
2005-06-21, 20:41:17
Wenn man es nicht sieht, sehe ich da kein Problem...
Nachtrag:
bei Nvidia sieht man die Cheats ja...

deLuxX`
2005-06-21, 20:42:04
Siehe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3175098&postcount=3253
:)

Und das hässliche Aliasing auf dem X850XT Bild ist nich gecheatet?
Da hat wohl wirklich jemand nicht das CP bedienen können. ;)

-deLuxX`

Coda
2005-06-21, 20:42:23
Nein tut man nicht, da wurde allem Anschein nach AF und AA beim ATi Bild verwechselt - deshalb sind zwar die Texturen scharf, aber die Kanten kein Stück geglättet.

Äpfel - Birnen, verstehst du? Gut.

Gast
2005-06-21, 20:42:32
Da SM3.0 auch die Texturen- und Bildschirmauflösungen zwingend raufsetzt, sehe ich keinen Grund warum ATi das nicht einbaut. Oder anders gesagt, SSAA wäre auf einer R420 nur bis 1024x768 möglich. Also lässt man es gleich ganz.
Ja, Texturgrössenlimitierung bla...bla
Warum man es ganz weglässt, ist aber schleierhaft. :(

Coda
2005-06-21, 20:43:51
"blabla"? Es ist Fakt, das ATi keine Rendertargets größer als 2048x2048 unterstützt beim R420 und damit ist kein SS >1024x768 möglich.

Exxtreme
2005-06-21, 20:44:48
Ja, Texturgrössenlimitierung bla...bla
Warum man es ganz weglässt, ist aber schleierhaft. :(
Weil es nur bis 1024x768 Bildpunkte begrenzt wäre. Für die meisten Leute also sinnlos. Kaum einer spielt in einer so niedrigen Auflösung mit einer High End Karte.

DrFreaK666
2005-06-21, 20:45:56
Weil es nur bis 1024x768 Bildpunkte begrenzt wäre. Für die meisten Leute also sinnlos. Kaum einer spielt in einer so niedrigen Auflösung mit einer High End Karte.

Denkst du dass ATI es deswegen weglässt?

deLuxX`
2005-06-21, 20:46:06
Hmm, nicht unbedingt. Oder glaubst du mit SSAA wäre genug Leistung für Auflösungen >1024x768 überhaupt da?

Gast
2005-06-21, 20:47:00
Dass das dann in Bewegung flimmert wie blöd scheint dich nicht zu kümmern wie es scheint. Manchen Leuten kann man es echt nicht recht machen...

Sorry für OT, aber das konnte ich nicht unkommentiert lassen.

bei nv karten flimmert es ,ja

Gast
2005-06-21, 20:47:23
Hmm, nicht unbedingt. Oder glaubst du mit SSAA wäre genug Leistung für Auflösungen >1024x768 überhaupt da?
Klar, der R520 wird deutlich schneller als der G70 sein...

Gast
2005-06-21, 20:48:03
"blabla"? Es ist Fakt, das ATi keine Rendertargets größer als 2048x2048 unterstützt beim R420 und damit ist kein SS >1024x768 möglich.
Ja, aber wir reden jetzt vom R520. :)

Exxtreme
2005-06-21, 20:48:13
Denkst du dass ATI es deswegen weglässt?
Ja, das denke ich. Denn es erfordert trotzdem Arbeit im Treiber und erzeugt möglicherweise höhere Supportkosten. alles, was man weglässt, erzeugt keine Kosten.

Nvidia hat aber beim G70 wieder vorgelegt mit AA und ATi wird kontern müssen wenn sie nicht zurückfallen wollen.

SKYNET
2005-06-21, 20:48:31
Klar, der R520 wird deutlich schneller als der G70 sein...


verrät dir deine glaskugel... X-D

TM30
2005-06-21, 20:49:08
Klar, der R520 wird deutlich schneller als der G70 sein...

wenn der R520 kommt kontert nvidia mit dem G70 in 90nm... und dann sind beide wieder gleichschnell ;D

Exxtreme
2005-06-21, 20:49:11
Hmm, nicht unbedingt. Oder glaubst du mit SSAA wäre genug Leistung für Auflösungen >1024x768 überhaupt da?
Ist doch egal. =) Ich kenne Leute, die sehen 15 fps nicht als Ruckeln an. :D

Gast
2005-06-21, 20:49:16
verrät dir deine glaskugel... X-D
Du wirst es in einem Monat selbst erleben dürfen. :)

SKYNET
2005-06-21, 20:50:58
Du wirst es in einem Monat selbst erleben dürfen. :)


nö, weil dann liege ich lachend in den seilen weil NV nen G70 mit 500MHz core vorstellt(dualslot kühler) und neuem samsung GDD3 mit 900MHZ(1800MHz DDR).

so, das war eben nur eine weissagung aus meiner glaskugel... :rolleyes:

Coda
2005-06-21, 20:55:03
Du wirst es in einem Monat selbst erleben dürfen. :)Wenn ATi wirklich so frech ist und den R520 da vorstellt - das wäre ein übler Paperlaunch.

Gast
2005-06-21, 20:55:21
nö, weil dann liege ich lachend in den seilen weil NV nen G70 mit 500MHz core vorstellt(dualslot kühler) und neuem samsung GDD3 mit 900MHZ(1800MHz DDR).

so, das war eben nur eine weissagung aus meiner glaskugel... :rolleyes:
Du verstehst nicht.
Der R520 wird schneller als der G70 sein.
Und besseren Speicher kann ATI auch verbauen. Wo ist das Problem?
Es geht mir nur um die GPU.

robbitop
2005-06-21, 20:56:06
find ich ja witzig. also war die erste ps 2.b karte die radeon 9600?
Nein, der Pfad läuft auch mit anderen SM2 Karten. Die RV350 erfüllt nicht die maximale Instruktionslänge. Die geforderte Anz an Interpolatoren hingegen bietet sie schon. Also eine fast 2.0b Karte (2.0b ist ja auch nicht viel mehr als 2.0).
BTW: NV3x läuft sogar im SM3 Pfad (auch hier fehlt ja zu SM3 nicht mehr viel und das was gefordert ist, ist sogar vorhanden)

Godmode
2005-06-21, 20:56:09
Du verstehst nicht.
Der R520 wird schneller als der G70 sein.
Und besseren Speicher kann ATI auch verbauen. Wo ist das Problem?
Es geht mir nur um die GPU.


Um was soll es sonst gehen als um die GPU?

SKYNET
2005-06-21, 20:56:39
jaund, da weiß immernoch keiner ob 16 pipes, 24 oder 32.... :P

Gast
2005-06-21, 20:56:54
Wenn ATi wirklich so frech ist und den R520 da vorstellt - das wäre ein übler Paperlaunch.
Ich kann deine Bedenken verstehen. :)
Das hängt aber alles von der Lieferbarkeit vom schnellen Speicher ab.

Coda
2005-06-21, 20:58:00
R520 ist noch nicht mal durch's finale Tapout. Ich verstehe nicht ganz wie das mit dem Speicher zusammenhängt :rolleyes:

Tapeout -> Laden = üblicherweiße min. 6 Monate

Gast
2005-06-21, 20:59:57
jaund, da weiß immernoch keiner ob 16 pipes, 24 oder 32.... :P
Ich weiss es. =)
Finde ich aber nicht unbedingt wichtig.
Wichtig ist nur, dass der R520 schneller sein wird, deutlich schneller.

Demirug
2005-06-21, 21:00:18
Wenn ATi wirklich so frech ist und den R520 da vorstellt - das wäre ein übler Paperlaunch.

Ich sehe da ein irgendwie ein Problem bezüglich X800 Crossfire auf uns zukommen.

Gast
2005-06-21, 21:00:39
konsolenfreund?
Brauchst mich nicht dumm anzumachen...
Ich habe doch gesagt, dass ich es auch so sehe...

Das war Cenmocay. Der trollt häufig.
http://www.forumdeluxx.de/forum/showpost.php?p=2021477&postcount=48

Coda
2005-06-21, 21:01:17
Ich kann dir grad nicht folgen.

SKYNET
2005-06-21, 21:01:20
Ich weiss es. =)
Finde ich aber nicht unbedingt wichtig.
Wichtig ist nur, dass der R520 schneller sein wird, deutlich schneller.


ATI mitarbeiter? nein? dann ist die wahrscheinlichkeit das du es weißt bei ungefähr 0.274%. =)

Gast
2005-06-21, 21:01:47
R520 ist noch nicht mal durch's finale Tapout.
Doch ist er.
ATI experimentiert zwar noch ein wenig.
Dies hängt aber damit zusammen, dass es den Speicher noch nicht gibt, der den R520 nicht ausbremsen würde...

Godmode
2005-06-21, 21:03:04
Ich sehe da ein irgendwie ein Problem bezüglich X800 Crossfire auf uns zukommen.

In wie fern?

Gast
2005-06-21, 21:03:04
Das war Cenmocay. Der trollt häufig.
http://www.forumdeluxx.de/forum/showpost.php?p=2021477&postcount=48

Falsch, in diesem Forum habe ich noch nie reingeschaut...
Höchstens Artikel...

Coda
2005-06-21, 21:03:35
Experimentieren kann man nach dem finalen Tapeout nicht. Es ist nicht möglich die ganzen Masken etc. mal kurz umzuschmeißen etc.

Imho erscheint das Ding frühestens im späten Herbst.

Gast
2005-06-21, 21:03:38
ATI mitarbeiter? nein? dann ist die wahrscheinlichkeit das du es weißt bei ungefähr 0.274%. =)
Lass dich einfach überraschen. :)

Godmode
2005-06-21, 21:03:54
Postet nicht immer so sinnlos, der Thread explodiert ohnehin schon!!

deLuxX`
2005-06-21, 21:03:57
Woher willst du das wissen?

edit: bezieht sich auf den Gast.

-deLuxX`

Demirug
2005-06-21, 21:03:58
Ich kann dir grad nicht folgen.

Wer kauft noch einen X800 Crossfire wenn ein ATI den R520 angekündigt hat?

Ist aber OT.

Coda
2005-06-21, 21:05:13
Wer kauft noch einen X800 Crossfire wenn ein ATI den R520 angekündigt hat?Wer kauft noch X800 Crossfire wenn es G70 gibt?

Gast
2005-06-21, 21:05:57
Experimentieren kann man nach dem finalen Tapeout nicht. Es ist nicht möglich die ganzen Masken etc. mal kurz umzuschmeißen etc.
ATI hat festgestellt, dass der entprechende Speicher noch nicht verfügbar ist. Da haben sie sich gedacht, warum Nvidia kitzeln, wenn man sie auch vernichten kann... :)

Imho erscheint das Ding frühestens im späten Herbst.
Da könntest du Recht haben.
Ich habe keine Ahnung, wann der entsprechende Speicher lieferbar ist...

Demirug
2005-06-21, 21:06:16
Wer kauft noch X800 Crossfire wenn es G70 gibt?

Leute die nVidia Karten nur mit ABC Vollschutz anfassen.

SKYNET
2005-06-21, 21:07:45
Wer kauft noch X800 Crossfire wenn es G70 gibt?


keiner, weil NV hat nun alles... das beste AA, das bessere AF(geringfügig), die technologie, nen funzenden video en/decoder, sigleslot kühlung....


ich würde den G70 als (fast) perfekte karte bezeichnen. =)

Godmode
2005-06-21, 21:07:53
Leute die nVidia Karten nur mit ABC Vollschutz anfassen.

Hey :confused: :confused: ?

Coda
2005-06-21, 21:08:19
Leute die nVidia Karten nur mit ABC Vollschutz anfassen.Also ~Skynet :D

SKYNET
2005-06-21, 21:09:30
Leute die nVidia Karten nur mit ABC Vollschutz anfassen.

loool, der war gut. ;D

sry4spam. ;(

SKYNET
2005-06-21, 21:10:32
Also ~Skynet :D


bis vor etwas über nen jahr hatte ich ne 9800pro im rechner, im laptop habe ich ne 9700mobile... =)

Gast
2005-06-21, 21:14:24
keiner, weil NV hat nun alles...
:lol:

das beste AA, das bessere AF(geringfügig), die technologie, nen funzenden video en/decoder, sigleslot kühlung....
Sorry, aber das ist Schwachsinn.
In der Technologie wird ATI besser sein. Das flimmrige AF von Nvidia wird ATI auch überbieten.
Der VideoEn/Decoder braucht man nicht wirklich, wenn genug Shaderpower vohanden ist.
Singleslotkühlung? Wofür soll das gut sein?
Wer den ersten PCI-Steckplatz benutzst, ist selber schuld.
Ich will jetzt nicht sagen, dass ATI Dualslot ist, aber dieses Argument ist einfach lächerlich.

ich würde den G70 als (fast) perfekte karte bezeichnen. =)
Für dich sicherlich, für die Meisten eher nicht...

BlackArchon
2005-06-21, 21:14:55
Welcher Treiber wird eigentlich zum G70 angeboten? Wird der 77.62 einfach WHQL'ed oder ein neuerer oder wie?

Demirug
2005-06-21, 21:15:22
keiner, weil NV hat nun alles... das beste AA, das bessere AF(geringfügig), die technologie, nen funzenden video en/decoder, sigleslot kühlung....


ich würde den G70 als (fast) perfekte karte bezeichnen. =)

Das bessere ist des guten Feind. Aber wir nähern uns langsam wirklich dem Punkt an bei dem man bei GPUs nur noch die Leistung verbessern kann weil sie Feature complete sind. Der G70 ist es aber noch nicht.

Coda
2005-06-21, 21:15:47
Noch ist ja nicht sicher ob beim G70 das AF nicht gefixt wurde - ich hoffe immer noch ;)

SKYNET
2005-06-21, 21:18:02
Das bessere ist des guten Feind. Aber wir nähern uns langsam wirklich dem Punkt an bei dem man bei GPUs nur noch die Leistung verbessern kann weil sie Feature complete sind. Der G70 ist es aber noch nicht.


noch nicht... aber der G70 ist extrem nahe drann, sagte ja auch "(fast) perfekt" ;)

Gast
2005-06-21, 21:18:46
noch nicht... aber der G70 ist extrem nahe drann, sagte ja auch "(fast) perfekt" ;)
Der R520 ist aber besser...

dildo4u
2005-06-21, 21:19:37
Der R520 ist aber besser...
Falscher Thread

SKYNET
2005-06-21, 21:20:20
Falscher Thread


don't feed the trolls...
werde da jetzt auch nicht mehr drauf reagieren, wird mir zu blöde! =)

Gast
2005-06-21, 21:20:22
Noch ist ja nicht sicher ob beim G70 das AF nicht gefixt wurde - ich hoffe immer noch ;)
Coda, ich denke schon, dass man in dieser Hinsicht etwas getan hat.
Da aber Performance fehlt, wird man wieder zu diesen Optimierungen greifen.
Schade eigentlich.

Godmode
2005-06-21, 21:20:45
Kann hier mal ein Mod eingreifen, dieses Gast getrollte hält keiner aus! Postings ohne Argumente!

Coda
2005-06-21, 21:21:42
Coda, ich denke schon, dass man in dieser Hinsicht etwas getan hat.
Da aber Performance fehlt, wird man wieder zu diesen Optimierungen greifen.
Schade eigentlich.AF braucht vor allem Füllrate - und davon hat G70 im Verhältniss zur Speicherbandbreite genügend.

Demirug
2005-06-21, 21:22:01
Der R520 ist aber besser...

Es gibt defakto nur ein Feature das er im DX9/WGF 1 Rahmen noch bringen kann um den G70 zu schlagen. MSAA für FP16 Rendertargets mit korrekten Downsampling beim kopieren. Dummerweise hat ATI das bis heute nicht mal für normale 32Bit RGBA Rendertargets hinbekommen.

Gast
2005-06-21, 21:22:43
Falscher Thread
Und warum?
Wir spekulieren hier über eine NextGen-Karte.
Da muss man doch auch wissen, was der Konkurrent macht...
Oder sehen das die Mods anders?
Wenn ja dann bitte bescheid sagen.
Will ja keinem auf die Nerven gehen. :)

deLuxX`
2005-06-21, 21:22:44
Noch ist ja nicht sicher ob beim G70 das AF nicht gefixt wurde - ich hoffe immer noch ;)

Guter Punkt. Kann man eigentlich schätzen, was diese Transistorverschwendung für einen Performancevorteil bringt? Weiß man es sogar? Hab ich was verpasst? :D

deLuxX`
2005-06-21, 21:24:47
Und warum?

Weil der Titel "G70" heisst und nicht "R520 ist besser als G70". ;)

Will ja keinem auf die Nerven gehen. :)

Der war gut.

-deLuxX`

dildo4u
2005-06-21, 21:24:53
Und warum?
Wir spekulieren hier über eine NextGen-Karte.
Da muss man doch auch wissen, was der Konkurrent macht...
Oder sehen das die Mods anders?
Wenn ja dann bitte bescheid sagen.
Will ja keinem auf die Nerven gehen. :)
Hier ist der R520 Spekuthread http://www.forum-3dcenter.org/vbulletin/showthread.php?t=145961 einen G70 vs R520 Thread gibt es zum glück noch nicht macht auch keinen sinn wenn erst eine der beiden Karten vorgestellt wurde.

Gast
2005-06-21, 21:26:00
AF braucht vor allem Füllrate - und davon hat G70 im Verhältniss zur Speicherbandbreite genügend.
Das ist schon korrekt.
Ich gehe halt von 800/900 Mhz Speicher aus. :)
Mit 600 Mhz Speicher würde der R520 auch nicht schneller als der G70 sein...

Coda
2005-06-21, 21:27:02
Nochmal: ATi hat kein GDDR3 Speichermonopol. nV kann sehr schnell 800/900Mhz adaptieren beim Speicher, das ist kein Problem.

Aber ich erwarte den Speicher dieses Jahr trotzdem nicht mehr.

robbitop
2005-06-21, 21:29:55
Sorry, aber das ist Schwachsinn.
In der Technologie wird ATI besser sein. Das flimmrige AF von Nvidia wird ATI auch überbieten.
Der VideoEn/Decoder braucht man nicht wirklich, wenn genug Shaderpower vohanden ist.
Singleslotkühlung? Wofür soll das gut sein?
Wer den ersten PCI-Steckplatz benutzst, ist selber schuld.
Ich will jetzt nicht sagen, dass ATI Dualslot ist, aber dieses Argument ist einfach lächerlich.

Für dich sicherlich, für die Meisten eher nicht...
Das HQ AF von NVIDIA ist flimmerfrei. Wer das nicht nutzt ist selbst schuld.
Und das Transpercy AA ist wie auch SSAA für Qualitätsfans wirklich ein echts Plus.

Gast
2005-06-21, 21:30:21
Hier ist der R520 Spekuthread http://www.forum-3dcenter.org/vbulletin/showthread.php?t=145961 einen G70 vs R520 Thread gibt es zum glück noch nicht macht auch keinen sinn wenn erst eine der beiden Karten vorgestellt wurde.
Ich weiss. :)
Aber wir sind hier im Spekulationsforum.
Da darf man doch mal die andere Seite auch erwähnen, oder etwa nicht?

Kann ein Mod bitte dazu Stellung beziehen.

Ich will echt keinem auf den Sack gehen. :)
Und das meine ich jetzt wirklich ernst.

Gast
2005-06-21, 21:31:31
Nochmal: ATi hat kein GDDR3 Speichermonopol. nV kann sehr schnell 800/900Mhz adaptieren beim Speicher, das ist kein Problem.

Das ist ja der Punkt.
Erst mit schnellerem Speicher wird sich der R520 deutlich vom G70 absetzen. :)

G.A.S.T
2005-06-21, 21:31:51
Ich hätte gerne einige infos zu den Transparency AA modes.
Wie ist eigentlich das AA von alphatest texturen über MSAA möglich ?
Wenn es mit MSAA geht, wieso gibt es dann auch noch einen SSAA-modus dafür ? MSAA sollte doch schneller sein als SSAA...
Gibt es denn einen qualitativen unterschied zwischen den beiden modi ?

Coda
2005-06-21, 21:31:53
Das HQ AF von NVIDIA ist flimmerfrei.Nicht wirklich...

Gast
2005-06-21, 21:32:09
Es gibt defakto nur ein Feature das er im DX9/WGF 1 Rahmen noch bringen kann um den G70 zu schlagen. MSAA für FP16 Rendertargets mit korrekten Downsampling beim kopieren. Dummerweise hat ATI das bis heute nicht mal für normale 32Bit RGBA Rendertargets hinbekommen.
Wie sieht es denn mit Virtual Displacement Mapping aus?

Gast
2005-06-21, 21:33:43
Das HQ AF von NVIDIA ist flimmerfrei. Wer das nicht nutzt ist selbst schuld.

Da liegst du leider falsch.
Ich kenne den Trick, den sich Nvidia einfallen lassen hat...
Treiber auf Quality, Optimierungen aus, dann HQ.
Es flimmert trotzdem...

Coda
2005-06-21, 21:34:13
Das ist ja der Punkt.
Erst mit schnellerem Speicher wird sich der R520 deutlich vom G70 absetzen. :)Nur leider kann NV in 6 Monaten auch einen Refresh nachschieben - ATi kann auch nur mit Wasser kochen.

Demirug
2005-06-21, 21:34:30
Wie sieht es denn mit Virtual Displacement Mapping aus?

Das kann doch jeder Chip die mindestens SM2 hat. Ist zudem sowieso nur noch "State of the Art" aber nicht mehr der "Letzte Schrei" auf dem Gebiet.

Gast
2005-06-21, 21:35:36
Nur leider kann NV in 6 Monaten auch einen Refresh nachschieben - ATi kann auch nur mit Wasser kochen.
OK, Argument akzeptiert. :)
ATI hat aber 0.09 low-k.

Coda
2005-06-21, 21:37:32
Nein, TSMC hat 90nm low-k. Nix hindert nVIDIA daran den Prozess selbst zu benützen.

Gast
2005-06-21, 21:41:51
Das kann doch jeder Chip die mindestens SM2 hat. Ist zudem sowieso nur noch "State of the Art" aber nicht mehr der "Letzte Schrei" auf dem Gebiet.
Da habe ich was durcheinander gebracht.
Ich dachte für echtes Displacement Mapping braucht man eine programmierbare Tesselationseinheit und ein Texturfilter des Vertexshaders.

Gast
2005-06-21, 21:45:13
Nein, TSMC hat 90nm low-k. Nix hindert nVIDIA daran den Prozess selbst zu benützen.
Auch wieder wahr. :)
Nur, wer zuerst kommt, der mahlt zuerst... ;)

deekey777
2005-06-21, 21:45:25
keiner, weil NV hat nun alles... das beste AA, das bessere AF(geringfügig), die technologie, nen funzenden video en/decoder, sigleslot kühlung....


ich würde den G70 als (fast) perfekte karte bezeichnen. =)

Einen funktionierenden Videoen- und Videodecoder? Einen funktionierenden Videodecoder hat meine 9800Pro schon lange... Bei dem funktionierenden Encoder lasse ich mich morgen überraschen.

Gast
2005-06-21, 21:47:10
Da habe ich was durcheinander gebracht.
Ich dachte für echtes Displacement Mapping braucht man eine programmierbare Tesselationseinheit und ein Texturfilter des Vertexshaders.
Nachtrag:
Der Texturfilter des Vertexshaders sollte mindestens BI sein. Point kann der NV40 auch.

-=CHICKEN=-
2005-06-21, 21:48:41
Auch wieder wahr. :)
Nur, wer zuerst kommt, der mahlt zuerst... ;)

und das ist der g70 ;D




P.S. bin ATI "Fan" :wink:

DanMan
2005-06-21, 21:48:46
Da habe ich was durcheinander gebracht.
Ich dachte für echtes Displacement Mapping braucht man eine programmierbare Tesselationseinheit und ein Texturfilter des Vertexshaders.
Hat der NV40 bereits IIRC.

Demirug
2005-06-21, 21:50:18
Da habe ich was durcheinander gebracht.
Ich dachte für echtes Displacement Mapping braucht man eine programmierbare Tesselationseinheit und ein Texturfilter des Vertexshaders.

Sind beides Dinge welche Displacement Mapping beschleunigen können. Zwingend notwendig sind sie dafür allerdings nicht.

Ich habe zuverlässliche Informationen das sich ATI entgültig von dem Thema Tesselation verabschiedet hat. Nach dem TruForm Flop auch nicht verwunderlich.

nVidia wollte es ja wieder einbauen hat allerdings darauf bestanden das sie eine ordentliche API dafür bekommen.

dildo4u
2005-06-21, 21:50:21
Gibt übrigenz schon Wateraction mit der Karte

http://www.xtremesystems.org/forums/showthread.php?t=66489


Mit einer 7800 über 20000 punkte angeschoben von einem 3.6GHz A64

http://www.xtremesystems.org/forums/attachment.php?attachmentid=32834&stc=1

Single 7800 546mhz/1.43Ghz

http://www.xtremesystems.org/forums/attachment.php?attachmentid=32827&stc=1

7800 SLI im 05 Takt 534/1.38

http://www.xtremesystems.org/forums/attachment.php?attachmentid=32811&stc=1

Gast
2005-06-21, 21:50:47
Hat der NV40 bereits IIRC.
Nein.

Gast
2005-06-21, 21:51:28
Sind beides Dinge welche Displacement Mapping beschleunigen können. Zwingend notwendig sind sie dafür allerdings nicht.

Danke für die Aufklärung. :)

Demirug
2005-06-21, 21:52:25
Hat der NV40 bereits IIRC.

Nein, wie gesagt wollte nVidia nur dann eine Tesselationseinheit einbauen wenn MS eine passenden API für DX einplannt.

Den Texturefilter muss man sich im Vertexshader selbst programmieren.

Gast
2005-06-21, 21:52:49
und das ist der g70 ;D




P.S. bin ATI "Fan" :wink:
Hä?
Der G70 wird in 0,11 hergestellt.
Der R520 in 0,09.
Logik?

aths
2005-06-21, 21:53:24
Noch ist ja nicht sicher ob beim G70 das AF nicht gefixt wurde - ich hoffe immer noch ;)Was genau sollte dort gefixt werden?

Gast
2005-06-21, 21:54:38
Was genau sollte dort gefixt werden?
Das unerträgliche Flimmern.

micki
2005-06-21, 21:59:08
featurecomplet? *hahaha*
davon sind wird ja noch weeeeit entfernt. man hat ja noch nichtmal einen geometrie"shader" in planung der geometrie erzeugen könnte (ala VU1 auf der ps2).
ich möchte im pixelshader selber bestimmen können wohin der pixel gesetzt wird, das würde sooooviele möglichkeiten eröffnen :).
ich möchte richtig gefilterte cubemaps, ohne seems an den übergängen. ich möchte in den shadern einen stack.
am ende komm ich darauf hinaus, dass ich am liebsten z.B. 32 kleine prozessoren hätte, bei denen ich von anfang bis ende meine komplette engine drauf laufen habe, von der geometrieerzeugung mittels vielleich roam, über rasterizern bis zum selbstdefiniertem pixelshading, bei dem ich jeder zeit auf jeden anderen pixel zugreifen kann um anhand dessen zu entscheiden wie ich vorgehe. ich möchte an specularen pixeln die farbe raytracen. ich möchte mal wieder voxelspace generieren

featurekomplett... phaa... ihr fantasielosen wesen ;)... was alles mit dem cell möglich wäre, wenn sony da ein wenig mehr power reingesteckt hätte...

MfG
micki

Gast
2005-06-21, 21:59:24
schon gesehe?

http://www.hardspell.com/hard/showcont.asp?news_id=14372&pageid=3099

-=CHICKEN=-
2005-06-21, 22:00:00
Hä?
Der G70 wird in 0,11 hergestellt.
Der R520 in 0,09.
Logik?

ok, war ein "weitschweifiger" gedankengang.
hatte es auf den launch bezogen

Gast
2005-06-21, 22:03:17
featurecomplet? *hahaha*
davon sind wird ja noch weeeeit entfernt. man hat ja noch nichtmal einen geometrie"shader" in planung der geometrie erzeugen könnte (ala VU1 auf der ps2).
ich möchte im pixelshader selber bestimmen können wohin der pixel gesetzt wird, das würde sooooviele möglichkeiten eröffnen :).
ich möchte richtig gefilterte cubemaps, ohne seems an den übergängen. ich möchte in den shadern einen stack.
am ende komm ich darauf hinaus, dass ich am liebsten z.B. 32 kleine prozessoren hätte, bei denen ich von anfang bis ende meine komplette engine drauf laufen habe, von der geometrieerzeugung mittels vielleich roam, über rasterizern bis zum selbstdefiniertem pixelshading, bei dem ich jeder zeit auf jeden anderen pixel zugreifen kann um anhand dessen zu entscheiden wie ich vorgehe. ich möchte an specularen pixeln die farbe raytracen. ich möchte mal wieder voxelspace generieren

featurekomplett... phaa... ihr fantasielosen wesen ;)... was alles mit dem cell möglich wäre, wenn sony da ein wenig mehr power reingesteckt hätte...

MfG
micki
Ich stimme dir uneingeschränkt zu. :)
Die Spielehersteller bekommen es ja nicht mal mit Alphatexturen auf die Reihe...

Gast
2005-06-21, 22:13:02
Das unerträgliche Flimmern.

welches flimmern auf HQ mit clamp?

Gast
2005-06-21, 22:13:52
welches flimmern auf HQ mit clamp?
Ja.
Ich kenne die ganzen Tricks. :)

deLuxX`
2005-06-21, 22:15:14
Was genau sollte dort gefixt werden?

Ich schätze, er bezog sich auf die Winkelabhängigkeit.

-deLuxX`

Gast
2005-06-21, 22:17:58
Ich schätze, er bezog sich auf die Winkelabhängigkeit.

-deLuxX`
Nö, die Winkelabhängigkeit ist auch bei ATI vorhanden.
Das Flimmern bezieht sich eher auf hochfrequente Texturen...

tombman
2005-06-21, 22:18:04
Mir geht echt ned auf wieso Leute sich so dermaßen an SPekuthreads aufgeilen-- nur wenige wissen wirklich was, die dürfen aber wegen NDA ned reden, aber alle reden und spekulieren sich zu Tode.

Da kommen dann so Sachen raus wie "der R520 wird den G70 ownen weil er besseren Speicher haben wird" :uconf3:

Es zählen sowieso nur benchmarks und games, denn theoretische Leistung wird man einfach ned sehen und interessiert auch keinen.

aths
2005-06-21, 22:19:21
Das unerträgliche Flimmern.Welches unerträgliche Flimmern?

deLuxX`
2005-06-21, 22:19:33
Nö, die Winkelabhängigkeit ist auch bei ATI vorhanden.
Das Flimmern bezieht sich eher auf hochfrequente Texturen...

Führ dir nochmal aths' Post zu Gemüte.

-deLuxX`

edit: BTW, ich mag dieses "ATI hat es auch also ist es OK bzw. andersherum" überhaupt nicht. :mad:

Gast
2005-06-21, 22:22:57
Mir geht echt ned auf wieso Leute sich so dermaßen an SPekuthreads aufgeilen-- nur wenige wissen wirklich was, die dürfen aber wegen NDA ned reden, aber alle reden und spekulieren sich zu Tode.

Da kommen dann so Sachen raus wie "der R520 wird den G70 ownen weil er besseren Speicher haben wird" :uconf3:
Da hast du etwas falsch verstanden.
Die GPU des R520 ist schneller, das hat mit dem Speicher wenig zu tun.
Man braucht bessern Speicher, damit die GPU nicht verhungert...

Coda
2005-06-21, 22:23:29
Welches unerträgliche Flimmern?Das was definitiv vorhanden ist - auch bei HQ. Und ich habe es inzw. mit einer ATi verglichen.

Bei ATi hatte ich in UT2004 nie Probleme damit, auch nicht mit negativem LOD BIAS.

Es ist mir völlig egal ob ATi da dann "weniger" rechnet, es sieht einfach besser aus.

Gast
2005-06-21, 22:25:28
Welches unerträgliche Flimmern?
Hochfrequente Texturen.
Das habe ich aber schon geschrieben...
Wenn du es nicht wahrnimmst, dann sei einfach glücklich.
Ich sehe sogar bei ATI noch minimale Bildfehler, von Nvidia ganz zu schweigen...

deLuxX`
2005-06-21, 22:25:43
Man braucht bessern Speicher, damit die GPU nicht verhungert...

Stimmt. Schnellerer Speicher wäre bei G70 auch von Vorteil. Und jetzt?

-deLuxX`

Gast
2005-06-21, 22:26:21
Stimmt. Schnellerer Speicher wäre bei G70 auch von Vorteil. Und jetzt?

-deLuxX`
Dann wäre der R520 deutlich schneller.

dildo4u
2005-06-21, 22:26:44
Dann wäre der R520 deutlich schneller.
Weil?

Gast
2005-06-21, 22:28:23
Weil?
Weil die GPU überlegen ist...

dildo4u
2005-06-21, 22:29:01
featurekomplett... phaa... ihr fantasielosen wesen ;)... was alles mit dem cell möglich wäre, wenn sony da ein wenig mehr power reingesteckt hätte...

MfG
micki

Featurekomplett für das windos und das DX was jetzt zu haben ist.Oder wo zockst du deine PC Games?

deLuxX`
2005-06-21, 22:30:37
Weil die GPU überlegen ist...

Kann ich wo nachlesen?

-deLuxX`

Gast
2005-06-21, 22:30:59
Kann ich wo nachlesen?

-deLuxX`
In einem Monat...

deLuxX`
2005-06-21, 22:32:20
Ok. SO eine "Diskussion" ist ermüdend. Gute Nacht. :)

-deluxX`

Gast
2005-06-21, 22:36:21
Ok. SO eine "Diskussion" ist ermüdend. Gute Nacht. :)

-deluxX`
Sorry, aber ich kann leider nicht mit Informationen dienen, die du gerne wissen würdest...
Gute Nacht. :)

Gast
2005-06-21, 22:38:26
Hochfrequente Texturen.
Das habe ich aber schon geschrieben...
Wenn du es nicht wahrnimmst, dann sei einfach glücklich.
Ich sehe sogar bei ATI noch minimale Bildfehler, von Nvidia ganz zu schweigen...

hochfrequente texturen flimmern immer, egal ob mit ati, nvidia mit oder ohne AF.

zeig mir eine textur die mit isotroper filterung nicht flimmert aber mit HQ AF.

zu guter letzt kann man auch noch das LOD leicht in positive richtung verschieben (und ja auch genügend ati-user stellen mip-mapping auf qualität (LOD +0,5) statt auf hohe qualität (0,0) weil die heute verwendeten hochfrequenten texturen eben zum flimmern neigen, das ist aber kein nv-problem)

MarcWessels
2005-06-21, 22:39:48
sagt mal kommt das nur mir etwas suspekt vor:

http://www.pconline.com.cn/diy/evalue/evalue/graphics/0506/pic/IMG_8743_g70_thumb.jpg

die scheint doch verdammt lang zu sein, ob die überhaupt in ein normales Gehäuse passt? in mein Stuttle würde die bestimmt nicht passen (auch von der Breite her)

Och, nööö. Dann passt mein Komplett-NV40-Wasserkühler wohl nicht. :(

Gast
2005-06-21, 22:41:23
hochfrequente texturen flimmern immer, egal ob mit ati, nvidia mit oder ohne AF.
Das ist schon mal grundlegend falsch...
Ohne AF flimmert da gar nichts. Auch bei Nvidia.

zeig mir eine textur die mit isotroper filterung nicht flimmert aber mit HQ AF.
Siehe oben.

zu guter letzt kann man auch noch das LOD leicht in positive richtung verschieben (und ja auch genügend ati-user stellen mip-mapping auf qualität (LOD +0,5) statt auf hohe qualität (0,0) weil die heute verwendeten hochfrequenten texturen eben zum flimmern neigen, das ist aber kein nv-problem)
Das ist Schwachsinn.
ATI-User brauchen es nicht zu verstellen, weil es i.O. aussieht.
Das betrifft nur Nvidia.

micki
2005-06-21, 22:42:28
Featurekomplett für das windos und das DX was jetzt zu haben ist.Oder wo zockst du deine PC Games?
wo standt dass "featurekomplett" auf ein limitiertes auflagnsystem bezogen war? wer sagt dass wir hier nur zogger kiddies sind und nichts besseres mit den grakas anzufangen wissen?

und wieso auf Dx bezogen und nicht auf das meist featurereichere oGL ? da gibt es immer seitens ATI und NV dinge, die bisher noch kein hersteller komplett in hardware unterstützt hat.


btw. ich zogge auf dem cube oder brettspiele. ein und das selbe mit immerwieder der selben spielmechanik und nur mit besserer graphik ist mir zu ööööde und dafür wäre mir mein geld auch viel zu schade ;)

MfG
micki

-error-
2005-06-21, 22:43:07
Aber eins finde ich an nVidia klasse. Es gibt wirklich so viele Filtermodi, die ich gern auf meiner ATI hätte. Warum das ATI nicht macht bleibt mir dabei ein Rätsel.

Die wenigsten die eine R520 besitzen, können eine Auflösung , die 1600x1280 beträgt, fahren. Einer schöner Mixedmode der einen aktzepatblen Leistungsverlust, von sagen wir mal 30-40%, mit sich zieht, wäre für viele das Non Plus Ultra. Die 60-70% die vom Grundspeed bleiben, sind für die meisten Spiele immer noch mehr als überhaupt nötig wäre, um diese mit maximaler Qualität zu spielen.

MarcWessels
2005-06-21, 22:45:39
Das hat doch nichts mit Geld zu tun, sondern mit Verstand.
Wenn man sich die Bechmarks anschaut, sieht man, dass eine 6800Ultra oder X850XT selbst in 1600X1200 ausreicht...

Und morgen kommt der Weihnachtsmann.

tombman
2005-06-21, 22:47:42
Sorry, aber ich kann leider nicht mit Informationen dienen, die du gerne wissen würdest...
Gute Nacht. :)

Weil du keine hast, so einfach is das. Du bist KEIN insider und weißt gar nix.

Gast
2005-06-21, 22:50:33
Und morgen kommt der Weihnachtsmann.
Wenn du an den Weihnachtsmann glaubst, dann freut es mich für dich. Das Leben ist mit Sicherheit nicht so stressig.
Wenn man aber bestimmte Zusammenbhänge erfassen kann, ist es nicht mehr so einfach...:)

Gast
2005-06-21, 22:51:22
Weil du keine hast, so einfach is das. Du bist KEIN insider und weißt gar nix.
hehe,
und das sagt Dir Deine Glasskugel oder was? :)

MarcWessels
2005-06-21, 22:56:32
Steht ja eigentlich auch da 0XAF bei der X850XT kann man whol nicht komplett dekativieren wird whol vom 3Dmark aufgezwungen.Eben! Und ich sehe dort ebenfalls schöne treppige Kanten beim X850er Screenie, während selbige bei nVidia geglättet sind. :rolleyes:

Wie der gast auf die Idee kommt, damit beweisen zu wollen, dass ATI eine bessere Bildqualität als nVidia habe, entzieht sich meiner Kenntnis. ;D

/dev/NULL
2005-06-21, 22:58:56
Wenn man sich die ersten Benschmarks auf der Chinaseite anschaut (http://www.hardspell.com/hard/showcont.asp?news_id=14372&pageid=3099) denke ich mir warum ne 7800?

Jedes geteste Spiel läuft auch mit ner 800XL bei 1600*1200 4AA/8AF mit über 40 Frames (abgesehen von Doom3).

Also warum jetzt nen Haufen Geld hinlegen für Leistung die ich nicht brauche (und die auf nem TFT eh nicht darstellbar ist (meiner kann nur 1280*1024)?

Für mich gut: die Preise werden fallen ;-)

Black-Scorpion
2005-06-21, 23:00:21
Eben! Und ich sehe dort ebenfalls schöne treppige Kanten beim X850er Screenie, während selbige bei nVidia geglättet sind. :rolleyes:

Wie der gast auf die Idee kommt, damit beweisen zu wollen, dass ATI eine bessere Bildqualität als nVidia habe, entzieht sich meiner Kenntnis. ;D
Das da vielleicht AA und AF verwechselt wurde ist dir noch nicht in den Sinn gekommen?
Das wurde nämlich auch schon genannt und sieht auch so aus.

Gast
2005-06-21, 23:00:47
Eben! Und ich sehe dort ebenfalls schöne treppige Kanten beim X850er Screenie, während selbige bei nVidia geglättet sind. :rolleyes:

Wie der gast auf die Idee kommt, damit beweisen zu wollen, dass ATI eine bessere Bildqualität als nVidia habe, entzieht sich meiner Kenntnis. ;D
Das war ein anderer Gast...
Das war meine Atwort daruf...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3175053&postcount=3236

Gast
2005-06-21, 23:01:32
Jedes geteste Spiel läuft auch mit ner 800XL bei 1600*1200 4AA/8AF mit über 40 Frames (abgesehen von Doom3).

Also warum jetzt nen Haufen Geld hinlegen für Leistung die ich nicht brauche (und die auf nem TFT eh nicht darstellbar ist (meiner kann nur 1280*1024)?

Für mich gut: die Preise werden fallen ;-)
Du hast es erfasst...

Coda
2005-06-21, 23:03:06
Also ich habe durchaus Spiele hier die ich nicht in 1600 bei 4xAA spielen kann, z.b. Doom 3.

Und mit Supersampling will ich gar nicht erst anfangen ;)

MarcWessels
2005-06-21, 23:06:31
Das da vielleicht AA und AF verwechselt wurde ist dir noch nicht in den Sinn gekommen?
Das wurde nämlich auch schon genannt und sieht auch so aus.Natürlich ist mir das in den Sinn gekommen. :rolleyes: Aber es ist doch grad das Lustige, dass der gast ausgerechnet mit dem Treppchenbild (Bild 1) die "überlegene AA-Quali" von ATI untermauern will. :rolleyes:

Und nur auf Verwechslung kann die Geschichte auch nicht beruhen, denn das aTI AF ist sowohl auf Bild 1 (das angeblich 0xAF 4xAA sein soll) als auch auf Bild 2 (das angeblich 0xAF 0xAA sein soll) aktiviert!

Gast
2005-06-21, 23:06:51
Sorry für OT:
Also ich habe durchaus Spiele hier die ich nicht in 1600 bei 4xAA spielen kann, z.b. Doom 3.
Hast Du auch genug RAM?

Und mit Supersampling will ich gar nicht erst anfangen ;)
Jo, da fehlt es an Speicherbandbreite.

Gast
2005-06-21, 23:09:11
Natürlich ist mir das in den Sinn gekommen. :rolleyes: Aber es ist doch grad das Lustige, dass der gast ausgerechnet mit dem Treppchenbild (Bild 1) die "überlegene AA-Quali" von ATI untermauern will. :rolleyes:
Marc,
vergiss den Gast und konzentriere dich aufs Thema...

Und nur auf Verwechslung kann die Geschichte auch nicht beruhen, denn das aTI AF ist sowohl auf Bild 1 (das angeblich 0xAF 4xAA sein soll) als auch auf Bild 2 (das angeblich 0xAF 0xAA sein soll) aktiviert!
Das ist mir auch aufgefallen...

LovesuckZ
2005-06-21, 23:13:08
Jo, da fehlt es an Speicherbandbreite.

Ist doch in Ordnung, wenn es dank der fehlenden Speicherbandbreite genauso schnell laeuft wie MS.

Black-Scorpion
2005-06-21, 23:13:28
Natürlich ist mir das in den Sinn gekommen. :rolleyes: Aber es ist doch grad das Lustige, dass der gast ausgerechnet mit dem Treppchenbild (Bild 1) die "überlegene AA-Quali" von ATI untermauern will. :rolleyes:

Und nur auf Verwechslung kann die Geschichte auch nicht beruhen, denn das aTI AF ist sowohl auf Bild 1 (das angeblich 0xAF 4xAA sein soll) als auch auf Bild 2 (das angeblich 0xAF 0xAA sein soll) aktiviert!
Es geht bei der Verwechslung nur um Bild 1.
Da ist AF an und AA aus.

Gast
2005-06-21, 23:15:36
Ist doch in Ordnung, wenn es dank der fehlenden Speicherbandbreite genauso schnell laeuft wie MS.
HÄ?
Was wolltest du uns damit mitteilen?

Coda
2005-06-21, 23:15:41
Hast Du auch genug RAM?Ehm ja, 1GB. Und ich definiere spielbar mit >30-40FPS durchgängig.

Ist doch in Ordnung, wenn es dank der fehlenden Speicherbandbreite genauso schnell laeuft wie MS.Multisampling braucht weniger Speicherbandbreite als Supersampling, weil die Kompression viel effizienter arbeiten kann.

LovesuckZ
2005-06-21, 23:17:17
HÄ?
Was wolltest du uns damit mitteilen?

Nur, dass du Müll erzaehlst.
Aber ich zitiere dich, auf diesen Satz "Und mit Supersampling will ich gar nicht erst anfangen"

Jo, da fehlt es an Speicherbandbreite..

robbitop
2005-06-21, 23:20:25
Da liegst du leider falsch.
Ich kenne den Trick, den sich Nvidia einfallen lassen hat...
Treiber auf Quality, Optimierungen aus, dann HQ.
Es flimmert trotzdem...
Ich habe seit gestern einen NV40 und Q ohne Opt hat leicht geflimmert in Far Cry im Pier level (der braune Sandboden). HQ hat diesen Missstand (fast) behoben. Es flimmerte so gut wie gar nicht mehr. Ich werde das am WE auf einer ATI RV360 gegentesten.

Coda
2005-06-21, 23:21:52
robbitop, versuch das mal mit Zeckensacks Flimmer-Tester. Das ist echt übel...

Gast
2005-06-21, 23:22:05
Ehm ja, 1GB. Und ich definiere spielbar mit >30-40FPS durchgängig.
Da hast Du Recht.
Ich kann mir aber kaum vorstellen, dass eine 6800GT so einbricht. Du hast wahrscheinlich andere Probs...

Multisampling braucht weniger Speicherbandbreite als Supersampling, weil die Kompression viel effizienter arbeiten kann.
Und?
Wenn man genau die gleiche Speicherbandbreite hat, können nur noch Komprimierungsmechanismen helfen.

Ich stehe ehrlich gesagt auf dem Schlauch, was Du mir mitteilen wolltest.
:)

Gast
2005-06-21, 23:24:12
Nur, dass du Müll erzaehlst.
Aber ich zitiere dich, auf diesen Satz "Und mit Supersampling will ich gar nicht erst anfangen"

Jo, da fehlt es an Speicherbandbreite..
Du willst also allen Ernstes behaupten, das SSAA keine Speicherbandbreite frisst?
Ist nicht dein Ernst?

Coda
2005-06-21, 23:24:40
Da hast Du Recht.
Ich kann mir aber kaum vorstellen, dass eine 6800GT so einbricht. Du hast wahrscheinlich andere Probs...Ne, garantiert nicht. 1600x1200 ohne AA ist flüssig. 4xAA nicht mehr. 2xAA hab ich nicht ausprobiert.

Ich stehe ehrlich gesagt auf dem Schlauch, was Du mir mitteilen wolltest.Ich möchte Skynet mitteilen, dass Supersampling niemals so schnell sein kann wie Multisampling bei gleicher Bandbreite.

Trotzdem ist G70 dort schneller als NV40.

Gast
2005-06-21, 23:27:16
Ich habe seit gestern einen NV40 und Q ohne Opt hat leicht geflimmert in Far Cry im Pier level (der braune Sandboden). HQ hat diesen Missstand (fast) behoben. Es flimmerte so gut wie gar nicht mehr. Ich werde das am WE auf einer ATI RV360 gegentesten.
Tu das robbitop.
Ich bin auf die Meinung anderer gespannt. :)

robbitop
2005-06-21, 23:27:25
robbitop, versuch das mal mit Zeckensacks Flimmer-Tester. Das ist echt übel...
Ja aber der muss ja auch flimmern. Ich rede hier von Spielen. Mit HQ AF ist's wirklich in Ordnung m.E. Nur ist es halt teuer.

robbitop
2005-06-21, 23:28:26
Multisampling braucht weniger Speicherbandbreite als Supersampling, weil die Kompression viel effizienter arbeiten kann.
Du meinst vermutlich die Colorcompression? Die ist AFAIK nur für Multisampling wirklich vorgesehen.

Gast
2005-06-21, 23:32:48
Du meinst vermutlich die Colorcompression? Die ist AFAIK nur für Multisampling wirklich vorgesehen.
Ist nicht nur die Colorcompression.
Der Algorithmus ist ganz anders und lastet die GPU auch unterschiedlich aus.

Coda
2005-06-21, 23:39:42
Du meinst vermutlich die Colorcompression? Die ist AFAIK nur für Multisampling wirklich vorgesehen.Ich bin mir nicht wirklich sicher ob NV40 nicht auch "echte" Colorcompression kann, deshalb war ich vorsichtig mit "weniger effizient".

Ja aber der muss ja auch flimmern. Ich rede hier von Spielen. Mit HQ AF ist's wirklich in Ordnung m.E. Nur ist es halt teuer.Vergleich es mal. Es stinkt, dass nVIDIA so LOD beschwerden hat auf einmal...

Gast
2005-06-21, 23:45:28
Ich bin mir nicht wirklich sicher ob NV40 nicht auch "echte" Colorcompression kann, deshalb war ich vorsichtig mit "weniger effizient".
Das ist nur Marketing...
Einfach nur den Verstand einsetzen...

Vergleich es mal. Es stinkt, dass nVIDIA so LOD beschwerden hat auf einmal...
Das geht schon längere Zeit so.
Jeder trickst, wie er kann....

Coda
2005-06-21, 23:54:49
Das ist nur Marketing...
Einfach nur den Verstand einsetzen...Es ist Marketing das ich es nicht weiß? :|

Mir ist bewusst dass "echte" Colorcompression schwierig ist, aber ich halte es dennoch nicht für unmöglich.

Gast
2005-06-22, 00:13:46
wo bleiben die ersten "richtigen" reviews?

Coda
2005-06-22, 00:14:24
Morgen um 15 Uhr läuft die NDA ab wie's ausschaut.

druGGy
2005-06-22, 00:23:30
Hi

Ich möchte mal kurz auf das flimmrige AF von NV eingehen. Das erste mal wo ich
flimmriges AF gesehen habe war bei San Andreas wenn man mal auf die Straße schaut. Das schaut einfach grauenhaft aus.

Das einzige was half, war das Af gänzlich auszuschalten.
Ich kann zwar verstehen, wenn Robitop sagt, dass er das Flimmern nicht wahr nimmt doch es ist definitiv vorhanden.

p.s. verwendet wurden HQ Af mittels Quality Trick

druGGy

deekey777
2005-06-22, 00:55:39
2. Ich wüßte nicht, wo NV von einer neuen Architektur sprach. (nur weil sie GF4 heißt, schliesst das keinen Refresh aus. Siehe GF6->7)
3. Das waren Kleinigkeiten, die sehr einfach implementiert worden sind. (zumal RV350 sogar mit dem 2.0b Profil in Far Cry läuft *gg*)

Zu 3: Seit dem Patch 1.3 heißt es SM2XPath. Und das werde ich bei meinem Bruder überprüfen: Wenn das stimmt, dann hat Crytek ein Rad ab.

Coda
2005-06-22, 00:58:57
Soweit ich weiß verwendet FarCry im SM 3.0 Pfad mehr Interpolatoren als mit SM 2.x, da gibt's schon noch nen Unterschied. (mehr Lichter in einem Pass)

SKYNET
2005-06-22, 01:01:11
Weil die GPU überlegen ist...


:lol:
ich kenn dich nicht, aber ich weiß das meine blähungen besser stinken als deine....

Coda
2005-06-22, 01:03:58
Ich denke schon das R520 G70 von der Rohleistung überlegen sein wird - nur sicher nicht so krass wie viele hier anscheinend glauben.

Ich warte jetzt mal auf den finalen Transistorcount von G70 bis ich das weiter beurteile ;)

deekey777
2005-06-22, 01:05:33
Soweit ich weiß verwendet FarCry im SM 3.0 Pfad mehr Interpolatoren als mit SM 2.x, da gibt's schon noch nen Unterschied. (mehr Lichter in einem Pass)

In der ReadMe des Patches 1.2 stand mit SM2b bis zu 3 Lichtquellen und mit dem SM3.0 bis zu vier und noch was. Wobei für beide gilt, daß das Licht der Leuchten an sich viel besser aussieht.
PS: Was ist MRT (es ist bei mir jetzt in Far Cry 1.32+AMDs X64 Exclusive Content aktiviert)?

SKYNET
2005-06-22, 01:11:28
Ich möchte Skynet mitteilen, dass Supersampling niemals so schnell sein kann wie Multisampling bei gleicher Bandbreite.

Trotzdem ist G70 dort schneller als NV40.


hä? :|
wo habe ich mit einem wort erwähnt das SSAA schneller ist als MSAA? :|

Coda
2005-06-22, 01:21:09
In der ReadMe des Patches 1.2 stand mit SM2b bis zu 3 Lichtquellen und mit dem SM3.0 bis zu vier und noch was. Wobei für beide gilt, daß das Licht der Leuchten an sich viel besser aussieht.Das sollte eigentlich keinen Unterschied machen :|
PS: Was ist MRT (es ist bei mir jetzt in Far Cry 1.32+AMDs X64 Exclusive Content aktiviert)?Multiple Rendertargets. Ich weiß aber nicht für was Crytek das benützt.
hä?
wo habe ich mit einem wort erwähnt das SSAA schneller ist als MSAA? Hab dich mit LovesuckZ verwechselt :tongue:

tombman
2005-06-22, 01:21:49
[bzgl SSAA]

Jo, da fehlt es an Speicherbandbreite.

Was? KETZER! :D

Sieh er her und möge er die Macht der 4x4 spüren!

http://img62.echo.cx/img62/6133/hl220050622010946126qw.gif

Und da sind noch KOmpressionsartefakte drinnen. Original .bmp sieht noch ne Spur besser aus :cool:

SKYNET
2005-06-22, 01:31:09
Hab dich mit LovesuckZ verwechselt :tongue:

wollte schon sagen... ;) =)

BlackArchon
2005-06-22, 01:35:35
Was? KETZER! :D

Sieh er her und möge er die Macht der 4x4 spüren!

http://img62.echo.cx/img62/6133/hl220050622010946126qw.gif

Und da sind noch KOmpressionsartefakte drinnen. Original .bmp sieht noch ne Spur besser aus :cool:
Mach es eben als PNG. Ist auch recht klein, aber verlustfrei.

tombman
2005-06-22, 01:57:45
Mach es eben als PNG. Ist auch recht klein, aber verlustfrei.

hab ich versucht, aber von 2.5mb blieben auf der höchsten irfanviewstufe immer noch 1.2mb übrig, zu viel für imageshack

-error-
2005-06-22, 02:06:39
Was? KETZER! :D

Sieh er her und möge er die Macht der 4x4 spüren!

http://img62.echo.cx/img62/6133/hl220050622010946126qw.gif

Und da sind noch KOmpressionsartefakte drinnen. Original .bmp sieht noch ne Spur besser aus :cool:

Herrlich, so will ich es auf meiner ATI ;D

dildo4u
2005-06-22, 02:21:26
Passt hier zwar nicht 100%


Innovatek zeigt bereits ersten Kühler für die NVIDIA GeForce 7800 GTX

http://static.hardwareluxx.de/hardware/andreas/News/Innovatek_G70_Cool-Matic.bmp

"Noch ist die Grafikkarten aus dem Hause NVIDIA noch nicht einmal offiziell vorgestellt, geschweige denn auf dem Markt und schon hat der erste Hersteller eine passende Kühllösung parat. Die Cool-Matic G70 von Innovatek besteht aus einem Kupferkern und kann sowohl die GPU als auch den Speicher kühlen. Der Kühler blockiert keinen PCI Slot (Variante ohne LED Beleuchtung) und verfügt über rückwärtige 8x1 Winkel-Verschraubungen, was den Kühler im Zusammenspiel mit einer weiteren Karte SLI tauglich macht. Der Preis liegt bei moderaten 79.00 Euro."

http://www.hardwareluxx.de/story.php?id=2578

aths
2005-06-22, 02:30:06
robbitop, versuch das mal mit Zeckensacks Flimmer-Tester. Das ist echt übel...Ja. Der wurde geschrieben um zu zeigen, dass bestimmte Texturinhalte immer flimmern.

Gast
2005-06-22, 03:26:07
Heya !

LIVE-STREAM der Lan-Party in SF auf der in den nächsten Stunden die
Next-Gen Graka vorgestellt wird ist hier zu finden:

http://www.tsncentral.com/

Viel Spaß dabei !!

Vorhin wurde gerade Battlefield 2 von EA vorgestellt !

Gruss,
-sil3ncer!-

MarcWessels
2005-06-22, 03:38:19
Passt hier zwar nicht 100%


Innovatek zeigt bereits ersten Kühler für die NVIDIA GeForce 7800 GTX

http://static.hardwareluxx.de/hardware/andreas/News/Innovatek_G70_Cool-Matic.bmp

"Noch ist die Grafikkarten aus dem Hause NVIDIA noch nicht einmal offiziell vorgestellt, geschweige denn auf dem Markt und schon hat der erste Hersteller eine passende Kühllösung parat. Die Cool-Matic G70 von Innovatek besteht aus einem Kupferkern und kann sowohl die GPU als auch den Speicher kühlen. Der Kühler blockiert keinen PCI Slot (Variante ohne LED Beleuchtung) und verfügt über rückwärtige 8x1 Winkel-Verschraubungen, was den Kühler im Zusammenspiel mit einer weiteren Karte SLI tauglich macht. Der Preis liegt bei moderaten 79.00 Euro."

http://www.hardwareluxx.de/story.php?id=2578


Mhhhh, da sieht es irgendwie so aus, als ob die 6800er Komplettkühler doch passen könnten. :|

Ailuros
2005-06-22, 03:39:27
So jetzt wird es so langsam wieder Zeit das eigene Geblubber der Vergangenheit zusammenzufassen; neue GPUs wie G70/R520 werden keine besonders hohen Leistungssteigerungen in zeitigen Spielen liefern. Kommende shader-lastigere Spiele werden dann eine andere Geschichte sein, wobei CLMR2005 Leistung im gewissen Sinn mehr oder weniger schon eine Anzeige sein kann.

Nochmal und ich will hoffen dass ich es zum letzten Mal posten werde: ATI/NVIDIA sind nicht so verrueckt G70/R520 mit FarCry, Doom3, HL2 usw. vermarkten zu wollen. Es gibt eine Reihe von vielversprechender Spiele die womoeglich H2 2005 erscheinen werden und auf die wuerde ich mich eher konzentrieren.

Fuer diejenigen die SC3 moegen als Spiel, ja die G70 ist da mit SM3.0+ float HDR 2x mal so schnell als eine NV40. Leider immer noch keine MSAA Kombination moeglich, wie schon angedeutet wurde.

Ist G70 momentan mit den ersten Ueberpreisen die Rede wert? IMO noch nicht. Wenn die ersten vorerwaehnten neuen Spiele auf Regale kommen und die Verfuegbarkeit der GPU steigen und demzufolge die Preise sich reduzieren werden, dann wohl erst ja. Gleiches wird auch fuer R520 gelten und dabei koennen die diversen trolls gerne noch lange weitertrommeln fuer die naechsten paar Monate. G70 und R520 enttaeuschen mich ja eigentlich nicht, da ich nie mehr erwartet habe.

(del676)
2005-06-22, 07:54:34
Ja. Der wurde geschrieben um zu zeigen, dass bestimmte Texturinhalte immer flimmern.

Ist GTA:SA so ein Fall?
Denn mit keiner Einstellung bekommt man da das Flimmern weg.
Nagut, ausser mit SSAA Anteil aber das is ja keine Lösung in dem Sinne.

seahawk
2005-06-22, 08:02:21
So jetzt wird es so langsam wieder Zeit das eigene Geblubber der Vergangenheit zusammenzufassen; neue GPUs wie G70/R520 werden keine besonders hohen Leistungssteigerungen in zeitigen Spielen liefern. Kommende shader-lastigere Spiele werden dann eine andere Geschichte sein, wobei CLMR2005 Leistung im gewissen Sinn mehr oder weniger schon eine Anzeige sein kann.

Nochmal und ich will hoffen dass ich es zum letzten Mal posten werde: ATI/NVIDIA sind nicht so verrueckt G70/R520 mit FarCry, Doom3, HL2 usw. vermarkten zu wollen. Es gibt eine Reihe von vielversprechender Spiele die womoeglich H2 2005 erscheinen werden und auf die wuerde ich mich eher konzentrieren.

Fuer diejenigen die SC3 moegen als Spiel, ja die G70 ist da mit SM3.0+ float HDR 2x mal so schnell als eine NV40. Leider immer noch keine MSAA Kombination moeglich, wie schon angedeutet wurde.

Ist G70 momentan mit den ersten Ueberpreisen die Rede wert? IMO noch nicht. Wenn die ersten vorerwaehnten neuen Spiele auf Regale kommen und die Verfuegbarkeit der GPU steigen und demzufolge die Preise sich reduzieren werden, dann wohl erst ja. Gleiches wird auch fuer R520 gelten und dabei koennen die diversen trolls gerne noch lange weitertrommeln fuer die naechsten paar Monate. G70 und R520 enttaeuschen mich ja eigentlich nicht, da ich nie mehr erwartet habe.


Ganz im Gegenteil niemand brauchte mehr Speed in 1024x768 und 0xAA+0xAF. Da sind schon die jetzt alten Karten unterfordert. NV bringt mit dem Alpha-AA und der verbesserten HDR Performance imho Features, die das Spielerlebnis erheblich beinflussen können, weil sie BQ verbessern.

Daher ein :up: für die neue Generation.

Zum Herbst würde ich eine solche Karte kaufen.

Ähnlich sehe ich Entwicklungen bei ATI.

Adam D.
2005-06-22, 08:08:51
Ich hoffe, ich darf das...

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=12169&stc=1

http://img145.echo.cx/img145/1453/image0726ys.gif

http://www.pconline.com.cn/diy/evalue/evalue/graphics/0506/pic/050618tom31.jpg

http://www.pconline.com.cn/diy/evalue/evalue/graphics/0506/pic/050618tom32.jpg

In Amerika ist die Karte bereits gut verfügbar für 599$.

Darf ich die Bilder nicht posten, dann bitte den Post entfernen.

Diskutator
2005-06-22, 08:17:22
Ich hoffe, ich darf das...

Darf ich die Bilder nicht posten, dann bitte den Post entfernen.

Nett,

mich wundern die SLI Ergebnisse bei Farcry ja schon ein wenig, da ist ja 2-Mal Crossfire X850 schneller, wie kann das sein?

Wenn diese Werte stimmen..........

Exxtreme
2005-06-22, 08:18:34
Daher ein :up: für die neue Generation.

Zum Herbst würde ich eine solche Karte kaufen.

Ähnlich sehe ich Entwicklungen bei ATI.
Jopp, sehe ich auch so. Endlich mal ein echter Fortschritt ggü. meiner R9700 Pro. :D

Diskutator
2005-06-22, 08:22:47
Jopp, sehe ich auch so. Endlich mal ein echter Fortschritt ggü. meiner R9700 Pro. :D
Das eine Standart 7800GTX nicht schneller ist als eine X850 unter Farcry ist sehr verwunderlich! Wie kann das sein?

seahawk
2005-06-22, 08:25:52
Jopp, sehe ich auch so. Endlich mal ein echter Fortschritt ggü. meiner R9700 Pro. :D

Da sind wir in der gleichen Situation :D

Bei mir läuft auch noch ne 9700pro.

Exxtreme
2005-06-22, 08:25:53
Das eine Standart 7800GTX nicht schneller ist als eine X850 unter Farcry ist sehr verwunderlich! Wie kann das sein?
Standard mit 'd' bitte. =)

Naja, kann noch am Treiber liegen, daß dieser nicht so richtig optimiert ist.

Demirug
2005-06-22, 08:30:11
Standard mit 'd' bitte. =)

Naja, kann noch am Treiber liegen, daß dieser nicht so richtig optimiert ist.

Oder es versagt mal wieder die Hardwareerkennung von Far Cry und macht irgendwelchen blödsinn.

Exxtreme
2005-06-22, 08:43:25
Oder es versagt mal wieder die Hardwareerkennung von Far Cry und macht irgendwelchen blödsinn.
Hardwareerkennung ... ROFL. Ich dachte, das wäre mit DirectX passé da man die Features einer Karte anhand der Caps erkennen kann. Einen ähnlichen Schmarrn hat sich EA auch mal geleistet mit irgendeinem Sportspiel. Kannte das Spiel eine Karte nicht -> Softwarerendering. :D

Adam D.
2005-06-22, 08:44:56
http://www.gzeasy.com/Articlephoto/g70/data/gpubench_fmadd.png

http://www.gzeasy.com/Articlephoto/g70/data/gpubench_fmul.png

http://www.gzeasy.com/Articlephoto/g70/data/gpubench_dp3.png

http://www.gzeasy.com/Articlephoto/g70/data/gpubench_sin.png

http://www.gzeasy.com/Articlephoto/g70/data/gpubench_cos.png

http://www.gzeasy.com/Articlephoto/g70/data/gpubench_gflops.png

Was auch immer das für ein Benchmark ist, die 7800GTX scheint ihn zu mögen ;)

ShadowXX
2005-06-22, 08:44:56
Nett,

mich wundern die SLI Ergebnisse bei Farcry ja schon ein wenig, da ist ja 2-Mal Crossfire X850 schneller, wie kann das sein?

Wenn diese Werte stimmen..........

Die Werte sind zu komisch, da ich nicht glaube, das 50MHz mehr GPU und 100MHz mehr Speichertakt gleich ca. 60 Frames ausmachen sollten....

(Siehe standard 7800GTX vs. OCed 7800GTX)

Adam D.
2005-06-22, 08:46:18
http://www.pconline.com.cn/diy/evalue/evalue/graphics/0506/pic/050618tom28.jpg

Schönes Teil :tongue: Nur muss ich mir ein neues Gehäuse kaufen, wenn ich mir so eine leisten würde.

Demirug
2005-06-22, 08:49:11
Hardwareerkennung ... ROFL. Ich dachte, das wäre mit DirectX passé da man die Features einer Karte anhand der Caps erkennen kann. Einen ähnlichen Schmarrn hat sich EA auch mal geleistet mit irgendeinem Sportspiel. Kannte das Spiel eine Karte nicht -> Softwarerendering. :D

Ja man kann die Features der Karte per Caps erkennen nur leider meinen bestimmte Entwickler immer noch das es eine gute Idee wäre auch die Device IDs dafür heran zu ziehen. Das gleiche Problem gab es BTW mit dem NV40 auch. Der wurde von Far Cry zuerst als TNT erkannt.

Dabei ist der Identifier nur für die negative datenbank gedacht bzw für weitere eigne Caps welche nicht zum DX Umfang gehören weil sie Architekture Details beschreiben. Sowas wie EarlyZ, Early Stencil usw.

ShadowXX
2005-06-22, 08:49:14
Was auch immer das für ein Benchmark ist, die 7800GTX scheint ihn zu mögen ;)

Das ist ein Benchmark für die ALU-Leistung des G70......und da sieht man sehr gut, wo nV Geschwindigkeitsmäßig gedreht hat. Und das wirklich gewaltig.

Demirug
2005-06-22, 08:51:40
Was auch immer das für ein Benchmark ist, die 7800GTX scheint ihn zu mögen ;)

Reine Pixelshader Rechenleistung. In dem Bereich ist der G70 wirklich ein Monster.

robbitop
2005-06-22, 09:00:23
Ich bin mir nicht wirklich sicher ob NV40 nicht auch "echte" Colorcompression kann, deshalb war ich vorsichtig mit "weniger effizient".


Es ist eine Pseudokomprimierung, die Bandbreite spart, jedoch keinen Platz im Framebuffer (Platz für die Subpixelsamples wird immer allokiert).

Adam D.
2005-06-22, 09:01:22
Reine Pixelshader Rechenleistung. In dem Bereich ist der G70 wirklich ein Monster.
Sind dann HL², Doom3 etc. einfach nicht sonderlich hungrig auf pure Pixelshader-Power, oder warum sind die Ergebnisse so "ernüchternd"? Bei FEAR ist eine 7800GTX doppelt so schnell wie eine 6800U...

stickedy
2005-06-22, 09:01:50
Hardwareerkennung ... ROFL. Ich dachte, das wäre mit DirectX passé da man die Features einer Karte anhand der Caps erkennen kann. Einen ähnlichen Schmarrn hat sich EA auch mal geleistet mit irgendeinem Sportspiel. Kannte das Spiel eine Karte nicht -> Softwarerendering. :D
Was heißt denn "auch mal"? EA praktiziert das bei fast jedem Spiel! Sims2 ist z.B. so ein Kandidat. OK, da ist man wenigstens so Gnädig und aktiviert Hardware-Rendering sobald eine ATI oder NVidia-Karte erkannt wird. (lässt sich aber relativ leicht ändern...)

robbitop
2005-06-22, 09:02:55
Zu 3: Seit dem Patch 1.3 heißt es SM2XPath. Und das werde ich bei meinem Bruder überprüfen: Wenn das stimmt, dann hat Crytek ein Rad ab.
Das funktioniert nur durch Erzwingen mit dem DXTweaker. Selbst auf meinem Delta Chrome und auf dem Volari ging der 2.0b Pfad. 2.0b ist eben bis auf eine größere Instruktionslänge nicht wirklich eine Innovation. Nur eine verkrampfte Reaktion auf 2.0a/3.0.

Und warum hat Cry Tek ein Rad ab? Sie nutzen die geforderten Interpolatoren aus. Ist doch nicht ihre Schuld, dass bereits soziemlich jede SM2 HW darüber verfügt.

ShadowXX
2005-06-22, 09:03:06
Ist GTA:SA so ein Fall?
Denn mit keiner Einstellung bekommt man da das Flimmern weg.
Nagut, ausser mit SSAA Anteil aber das is ja keine Lösung in dem Sinne.

Nein...GTA-SA (überhaupt die gesamte GTA-Reihe (ausser 1&2 natürlich)) ist ein "Sonderfall".

Der nv40 hat scheinbar Probleme mit AF, wenn kein MipMapping in Games benutzt wird.

Und bei GTA-SA wird keine MipMapping (warum auch immer, frag Rockstar) benutzt.....deshalb flimmert das mit AF wie verrückt.

Leider funktioniert auch das Forcen des MipMapings im Treiber nicht....wobei nicht geklärt ist, obs am Treiber oder an GTA-SA liegt, das das MipMaping nicht geforced werden kann.

Demirug
2005-06-22, 09:03:43
Sind dann HL², Doom3 etc. einfach nicht sonderlich hungrig auf pure Pixelshader-Power, oder warum sind die Ergebnisse so "ernüchternd"? Bei FEAR ist eine 7800GTX doppelt so schnell wie eine 6800U...

Die meisten aktuellen Spiele setzten noch sehr stark auf Textureleistung. Da wird im Verhältniss dann wenig gerechnet.

robbitop
2005-06-22, 09:03:45
Soweit ich weiß verwendet FarCry im SM 3.0 Pfad mehr Interpolatoren als mit SM 2.x, da gibt's schon noch nen Unterschied. (mehr Lichter in einem Pass)
Jepp. Deshalb gehts ja auch nur auf ner NV3x/NV4x und nicht auf anderen SM2 Karten. NV3x ist eben schon sehr nahe dran und bietet natürlich die geforderte Anz. an Interpolatoren.

Demirug
2005-06-22, 09:06:32
Jepp. Deshalb gehts ja auch nur auf ner NV3x/NV4x und nicht auf anderen SM2 Karten. NV3x ist eben schon sehr nahe dran und bietet natürlich die geforderte Anz. an Interpolatoren.

Nix da. NV3X hat auch nicht mehr Interpolatoren als jede andere 2.X Karte auch. Entsprechend nutz Farcry auch den 2X Pfad für einen NV3X.

Godmode
2005-06-22, 09:07:01
Was? KETZER! :D

Sieh er her und möge er die Macht der 4x4 spüren!
Und da sind noch KOmpressionsartefakte drinnen. Original .bmp sieht noch ne Spur besser aus :cool:

Wahnsinn sieht das schick aus! Von sowas kann ich nur träumen mit meiner 6800GT :(

Passt hier zwar nicht 100%


Innovatek zeigt bereits ersten Kühler für die NVIDIA GeForce 7800 GTX

http://static.hardwareluxx.de/hardware/andreas/News/Innovatek_G70_Cool-Matic.bmp


Die armen Spannungswandler liegen da aber nicht mehr schön im Luftstrom!

Adam D.
2005-06-22, 09:09:15
Ich bin mal sehr gespannt auf den Artikel von 3DC. Kommt der pünktlich um 15:00Uhr?

r3ptil3
2005-06-22, 09:14:41
Also grundsätzlich, ist die Leistung der Geforce 7800 GTX ziemlich gut, nur müssen z.B. die Treiber und so noch optmiert werden. Höchstens 15-20% mehr Leistung wird man in ein paar Monaten haben, bei ATi war es ja auch so.
Als ich meine X800 Pro gekauft habe, kam ich bei Aquamark zuerst knapp auf 50k und jetzt 70k.

Demirug
2005-06-22, 09:17:44
Der F.E.A.R. Benchmark scheint der 7800 GTX zu liegen:

http://www.nvnews.net/vbulletin/showthread.php?t=52370

Diskutator
2005-06-22, 09:21:11
Der F.E.A.R. Benchmark scheint der 7800 GTX zu liegen:

http://www.nvnews.net/vbulletin/showthread.php?t=52370

Mag ja sein, aber R520 kommt ja auch noch dran! Dann sehen wir weiter!

(del676)
2005-06-22, 09:24:21
Der F.E.A.R. Benchmark scheint der 7800 GTX zu liegen:

http://www.nvnews.net/vbulletin/showthread.php?t=52370

:eek: :eek: :eek: :eek: :eek:
ja bist du gelähmt ...

(del676)
2005-06-22, 09:24:56
Mag ja sein, aber R520 kommt ja auch noch dran! Dann sehen wir weiter!

ok dann frag ich zum 3. mal (zirka)

WANN wird die r520 zirka vorgestellt? (vielleicht weisst du es ja :) )

Godmode
2005-06-22, 09:25:27
Der F.E.A.R. Benchmark scheint der 7800 GTX zu liegen:

http://www.nvnews.net/vbulletin/showthread.php?t=52370

Nutzt F.E.A.R recht viele Shader oder warum ist die GTX dort so überlegen?

TheGood
2005-06-22, 09:26:20
Reine Pixelshader Rechenleistung. In dem Bereich ist der G70 wirklich ein Monster.
Glaubst du dass ati daran nicht stark gedreht hat???

Diskutator
2005-06-22, 09:26:23
ok dann frag ich zum 3. mal (zirka)

WANN wird die r520 zirka vorgestellt? (vielleicht weisst du es ja :) )
Immer noch July!

Godmode
2005-06-22, 09:28:45
Weis man eigentlich wie warm diese GTX wird?

Coda
2005-06-22, 09:29:25
Glaubst du dass ati daran nicht stark gedreht hat???Ich hoffe es für ATi. Ansonsten verstehe ich auch so langsam Sweeneys Äußerungen bzgl. G70 ;)

Demirug
2005-06-22, 09:29:47
Nutzt F.E.A.R recht viele Shader oder warum ist die GTX dort so überlegen?

Ich habe keine Ahnung. Benchmarks schaue ich mir selten im Detail an.

Demirug
2005-06-22, 09:30:27
Glaubst du dass ati daran nicht stark gedreht hat???

Was ich glaube ist doch irrelevant.

Adam D.
2005-06-22, 09:31:17
Weis man eigentlich wie warm diese GTX wird?
Das würde mich auch mal interessieren. Und besonders, wie laut der dünne Lüfter ist...

Aha...

The cards are idling right now at 61 and 56 degrees.

The cards are noticably quiter than my 6800 Ultra's. The fan is much slimer...

Hört sich gut an :)

(del676)
2005-06-22, 09:31:23
Immer noch July!

ah thx.
dann warte ich sicher noch bis sie vorgstellt wird!

Diskutator
2005-06-22, 09:32:19
Weis man eigentlich wie warm diese GTX wird?
http://www.nvnews.net/vbulletin/showthread.php?t=52370

lol

yea it is empty

The cards are idling right now at 61 and 56 degrees.

The cards are noticably quiter than my 6800 Ultra's. The fan is much slimer

ShadowXX
2005-06-22, 09:34:01
Immer noch July!

Nur ab wann werden die Karten verfügbar sein??

G70 kann man lt. mehreren Aussagen in den USA inzwischen ohne Probs kaufen.

Im nvNews Forum hat sogar schon einer 2 7800GTX-Karten seit dem 20.06. bei sich rumliegen.

Scheinbar haben die Händler/Spediteure/Großhandler/etc. Ihre Karte doch ganz gut unter verschluss gehalten......

Winter[Raven]
2005-06-22, 09:34:14
Ich hoffe es für ATi. Ansonsten verstehe ich auch so langsam Sweeneys Äußerungen bzgl. G70 ;)

Na, da wäre ich mir nicht sooooooooooooooo sicher :biggrin: ... G70 is State of the Art bis zum R580 *gg*

Diskutator
2005-06-22, 09:35:11
Nur ab wann werden die Karten verfügbar sein??

G70 kann man lt. mehreren Aussagen in den USA inzwischen ohne Probs kaufen.

Im nvNews Forum hat sogar schon einer 2 7800GTX-Karten seit dem 20.06. bei sich rumliegen.

Scheinbar haben die Händler/Spediteure/Großhandler/etc. Ihre Karte doch ganz gut unter verschluss gehalten......

Verfügbarkeit: BTS-B laut meiner Glaskugel!

Diskutator
2005-06-22, 09:35:44
']Na, da wäre ich mir nicht sooooooooooooooo sicher :biggrin: ... G70 is State of the Art bis zum R580 *gg*
Neeeee, nur bis R520!

Winter[Raven]
2005-06-22, 09:37:09
Immer noch July!

Das wiederum gleicht sich aber nicht mit den Aussagen vieler wonach der R520 ned durch den Final Tape-out durch ist...

Aber wenn ATI sich trotzdem ins bein schießen will und wieder einen Paperlunch hinlegen, dann ist der gute ruf wirklich dahin :(

Neeeee, nur bis R520!

Auf die Erklärung bin ich mal gespannt? Komm mir bitte nicht mit Glasskugel!

Godmode
2005-06-22, 09:37:39
Also das mit den Temperaturen ist echt super! Dachte nicht dass sie den so kühl bekommen!

(del676)
2005-06-22, 09:41:44
']Das wiederum gleicht sich aber nicht mit den Aussagen vieler wonach der R520 ned durch den Final Tape-out durch ist...

Aber wenn ATI sich trotzdem ins bein schießen will und wieder einen Paperlunch hinlegen, dann ist der gute ruf wirklich dahin :(



Auf die Erklärung bin ich mal gespannt? Komm mir bitte nicht mit Glasskugel!

NAJA!

sie könnten die Karte nun vorstellen, an Tester verteilen, und dabei aber dazusagen dass es mit der Verfügbarkeit noch ~3 Monate dauern wird.

das wäre trotzdem positiv, da man einen vergleich zur G70 hat, und die Kunden so entscheiden können ob sie schon jetzt eine G70 kaufen oder auf eine R520 warten.

Winter[Raven]
2005-06-22, 09:42:53
@ Ulukai

Mit anderen Worten ausgedrückt "Papiertger"? No THX!

(del676)
2005-06-22, 09:45:21
']@ Ulukai

Mit anderen Worten ausgedrückt "Papiertger"? No THX!

warum nicht?
wenn man ausdrücklich auf die verfügbarkeit hinweist dann ist das für mich sogar kundenfreundlicher!

oder willst du jetzt um 1100 euro ein 7800gtx sli system kaufen, und in 3 monaten bringt eine r520 die gleiche leistung.

und mich schreibt man mit Y :P

:biggrin:

Diskutator
2005-06-22, 09:47:01
']@ Ulukai

Mit anderen Worten ausgedrückt "Papiertger"? No THX!
Naja, :) beruhig dich mal wieder!*-* ;)
Ein Papierlaunch wird das sicher nicht werden, brauchst gar nicht erst zu hoffen! :tongue:

Gast
2005-06-22, 09:54:02
warum nicht?
wenn man ausdrücklich auf die verfügbarkeit hinweist dann ist das für mich sogar kundenfreundlicher!

oder willst du jetzt um 1100 euro ein 7800gtx sli system kaufen, und in 3 monaten bringt eine r520 die gleiche leistung.

und mich schreibt man mit Y :P

:biggrin:
So ist es.
Warum können/wollen einige hier nicht begreifen, dass ATI auf schnelleren Speicher wartet, damit der R520 nicht verhungert...

Blaire
2005-06-22, 10:00:35
warum nicht?
wenn man ausdrücklich auf die verfügbarkeit hinweist dann ist das für mich sogar kundenfreundlicher!

oder willst du jetzt um 1100 euro ein 7800gtx sli system kaufen, und in 3 monaten bringt eine r520 die gleiche leistung.

und mich schreibt man mit Y :P

:biggrin:

Nvidia hat aber einen großen Vorteil! Ihre Treiber und ihre vorhandenen SLI Profile. Ati hat hier enormen Nachholebedarf und wird anfangs mit Sicherheit allerlei Problemchens haben! Ohne überhaupt erstmal von Verfügbarkeit zu sprechen.

Diskutator
2005-06-22, 10:05:14
Nvidia hat aber einen großen Vorteil! Ihre Treiber und ihre vorhandenen SLI Profile. Ati hat hier enormen Nachholebedarf und wird anfangs mit Sicherheit allerlei Problemchens haben! Ohne überhaupt erstmal von Verfügbarkeit zu sprechen.

1. Ist gerade der Treiber und Crossfire gen. hinsichtlich auf 100% der Spiele auf kein sogg. SLI Profile bzw. Crossfire-Profil angewiesen.

Wo ist da der Vorteil für G70 und SLI? :eek:

2. Hat NVIDIA hier enormen NACHHOLEBEDARF und RICHTIG, NV wird demnach anfangs mit Sicherheit allerlei Problemchens haben! :tongue:

Verfügbarkeit von R520 wird es wie beim G70-Launch auch geben, wo ist die Quelle die anderes NACHWEISLICh behauptet.

Blaire
2005-06-22, 10:09:37
1. Ist gerade Treiber und Crossfire hinsichtlich auf 100% der Spiele auf kein soog. SLI Profile bzw. Crossfire-Profil angewiesen.

Wo ist da der Vorteil für G70 und SLI? :eek: .

Wir werden ja sehen. :)



2. Hat NVIDIA hier enormen NACHHOLEBEDARF und RICHTIG, NV wird demnach anfangs mit Sicherheit allerlei Problemchens haben! :tongue:

Verfügbarkeit von R520 wird es wie beim G70-Launch auch geben, wo ist die Quelle die anderes NACHWEISLICh behauptet.

Nvidia hat gute Vorarbeit geleistet mit SLI , die Ati erstmal leisten muss. Wir werden sehen wie sich das entwickeln wird.

MfG

Winter[Raven]
2005-06-22, 10:09:49
2. Hat NVIDIA hier enormen NACHHOLEBEDARF und RICHTIG, NV wird demnach anfangs mit Sicherheit allerlei Problemchens haben!

Sagt wer? G70 ist ein Refresh vom NV40, da holt man nicht mehr viel raus.

seahawk
2005-06-22, 10:14:08
Nur mals als Gedanmkte, wenn R520 In Juli prassentiert wird, und deutlich schneller als der G70 wäre, welchen Sinn mach dann noch Crossfire für die X800er Serie ??

Ich kann mir kaum vorstellen, dass es Sinn macht Crossfire X800 und R520 annährend gleichzeitig im Laden zu haben.

Demirug
2005-06-22, 10:16:15
Ich halte es ehrlich gesagt langsam für sinnloss immer wieder die gleiche Platte abzuspielen. Ohne eine öffentlich zugängliche Quelle kann alles was zum R520 gesagt wird stimmen aber genauso gut falsch sein. An diesem Status ändern sich auch nichts wenn man die Aussagen zum Mantra macht.

Merkwürdig ist nur das Newsseiten derzeit eher dazu tendieren die schlechten Gerüchte bezüglich des R520 aufzugreifen. Das könnte allerdings auch nur eine Folge des alten Spruchs das sich schlechte Nachrichten besser verkaufen sein.

In diesem Sinne bitte ich doch darum hier die Gebetsmühlen zum R520 langsam anzuhalten denn neue Aspekte kann ich beim besten Willen leider nicht erkennen.

Gast
2005-06-22, 10:18:19
']Sagt wer? G70 ist ein Refresh vom NV40, da holt man nicht mehr viel raus.
Nein. Wenn man sich Shaderbenchmarks genauer ansieht, stellt man fest, dass Nvidia doch etwas an den Pipes geändert hat.
Ich denke, dass man durch besser angepasste Treiber noch einiges rausholen kann.
Bei ATI dürfte das Potenzial am Anfang noch grösser sein.

Demirug
2005-06-22, 10:21:58
Nein. Wenn man sich Shaderbenchmarks genauer ansieht, stellt man fest, dass Nvidia doch etwas an den Pipes geändert hat.
Ich denke, dass man durch besser angepasste Treiber noch einiges rausholen kann.
Bei ATI dürfte das Potenzial am Anfang noch grösser sein.

Gerade das die Shaderbenchmarks stark angestiegen sind deutet aber doch eher darauf hin das die Treiber (bzw der Shadercompiler) schon sehr gut mit der Erweiterung der Pixelprozessoren zuerecht kommt. nVidia hat ja in der Vergangenheit erklärt das die Anpassung des Shadercompilers gleichzeitig zur Hardware entwicklung vorgenommen wird. Nachdem man beim NV30 damit viel zu spät angefangen hat.

Wallman
2005-06-22, 10:32:12
Oder es versagt mal wieder die Hardwareerkennung von Far Cry und macht irgendwelchen blödsinn.

Ubisoft hat doch glatt einen neuen Far Cry patch herausgebracht mit folgender Veränderung:

"Das Spiel erkennt jetzt beim Start nVidia-Hardware und vermeidet so eine Shader-Kompilierung zum falschen Zeitpunkt."

Könnte das die angesprochende "niedrige" performance verbessern?