Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Der G80-Thread, part deux


Seiten : 1 [2]

Gast
2006-10-21, 10:23:30
UND: OpenGL2.1 gibt es bereits und wurde auch bereits veröffentlicht.

Siehe hier:

http://www.opengl.org/documentation/current_version/

-Ghosty

dargo
2006-10-21, 10:28:47
http://img384.imageshack.us/img384/3569/091dm64n14s9syx3.jpg
Die Grafik gibt mir zu denken.

Was heißt hier 384Bit (256+128) und 768MB (512+256)?
Doch nicht etwa 256Bit und 512MB für die Grafik und 128Bit und 256MB für die Physik? :|

Superheld
2006-10-21, 10:33:45
wo kann man die bestellen ?

hier zb:
http://pc-cooling.de/de/Zubehoer/Kabel/Sonstige/900100788/Adapterkabel+4-Pol+auf+PCI-Express.html

dargo
2006-10-21, 10:35:30
hier zb:
http://pc-cooling.de/de/Zubehoer/Kabel/Sonstige/900100788/Adapterkabel+4-Pol+auf+PCI-Express.html
Er sucht die Grafikkarte, nicht den Adapter. :wink:

Superheld
2006-10-21, 10:38:37
er meinte den Adapter:wink:

dargo
2006-10-21, 10:56:14
http://planet3dnow.de/vbulletin/showpost.php?p=2921767&postcount=85
OT:
Den richtigen Test abwarten. Beide NTs sind bei 40-50°C Raumtemperatur (!) abgeraucht. Wundert mich nicht besonders, da beide Hersteller auf möglichst kleine Lautstärke großen Wert legen. Trotzdem gibt das kein gutes Bild für beide Hersteller.

Moralelastix
2006-10-21, 11:18:42
Is doch kein Problem zwei gute 500W Netzteile zu kombinieren!

Die Effizienz währe dann auch weit besser.

Mastermind
2006-10-21, 11:41:52
Is doch kein Problem zwei gute 500W Netzteile zu kombinieren!

Die Effizienz währe dann auch weit besser.
Natürlich ist es ein Problem! Erstens geht es nicht ohne weiteres und zweitens sind wir immer noch bei Desktop-PCs. Ich kann ja noch akzeptieren, dass die neuen GraKas viel Strom brauchen werden, weil man kaum stromsparend entwickeln kann. Auch SLI-Lösungen für Enthusiasten finde ich OK. Aber zwei Netzteile zu brauchen um einen gottverdammten PC betreiben zu können ist nun wirklich inakzeptabel! :rolleyes:

Godmode
2006-10-21, 12:03:31
30% hin oder her die sind eh Schall und Rauch bevor man nicht weiß ob NV beim AF Qualitativ nicht zumindest endlich gleichgezogen ist.

Ich könnte mir gut vorstellen das der G80 einen besseren anisotropischen Filter hat als die X19xx. In die Richtung einer Geforce 4 Ti vielleicht?

AnarchX
2006-10-21, 12:06:40
Ich könnte mir gut vorstellen das der G80 einen besseren anisotropischen Filter hat als die X19xx. In die Richtung einer Geforce 4 Ti vielleicht?

Genau die 30% ergaben sich aus einem Vergleich zwischen der X1950XTX mit 6xMSAA/16xHQ-AF und der 8800GTX mit dem neuen 8xMSAA/16xAF(winkelunabhängig)....:biggrin:

Winter[Raven]
2006-10-21, 12:13:01
Ich glaube kaum, NVidia wird sich nochmal mit schlechter BQ in Verbindung bringen wollen. Hoffe ich ...

Moralelastix
2006-10-21, 12:13:45
Natürlich ist es ein Problem! Erstens geht es nicht ohne weiteres und zweitens sind wir immer noch bei Desktop-PCs. Ich kann ja noch akzeptieren, dass die neuen GraKas viel Strom brauchen werden, weil man kaum stromsparend entwickeln kann. Auch SLI-Lösungen für Enthusiasten finde ich OK. Aber zwei Netzteile zu brauchen um einen gottverdammten PC betreiben zu können ist nun wirklich inakzeptabel! :rolleyes:

Jupp mir schmeckt das mit dem viel zu hohen Stromverbrauch ja auch net aber so is es nunmal. Die Lösung mit zwei NTs von der Preisleitsung unschlagbar.

Außerdem sollen ja im Frühjar schon die Midrange kommen von daher muss niemand solche Stromfresser kaufen.

AnarchX
2006-10-21, 12:18:01
']Ich glaube kaum, NVidia wird sich nochmal mit schlechter BQ in Verbindung bringen wollen. Hoffe ich ...

Alles eine Frage der Marktsituation.
Die meisten GraKa-Käufer wissen ja gar nichts über AA und AF, geschweigeden den Unterschieden zwischen den beiden Herstellern.
Aber natürlich wäre es doch zu begrüßen, wenn man den wissenden Enthusiasten entsprechende Optionen anbietet.

Gast
2006-10-21, 12:23:40
[QUOTE=Ailuros]Nachdem NVIDIA alle an der Nase herumgefuert hat mit dem non-USC Zeug, fliegt das oede Argument ueber nicht vereinigte Einheiten erst mal zum Fenster raus. Jetzt kommt es nur noch auf die Implementierung, Effizienz, Bildqualitaet, Stromverbrauch (kurz alles was ueblicherweise verglichen wird) an.[QUOTE]

Was macht dich auf einmal so sicher, dass der G80 über unified-Shader verfügt? Ist doch bisher mehr oder weniger eine Quelle von der quer übers Netz tüchtig abgeschreibselt wird.

gguru
2006-10-21, 13:09:09
Was macht dich auf einmal so sicher, dass der G80 über unified-Shader verfügt? Ist doch bisher mehr oder weniger eine Quelle von der quer übers Netz tüchtig abgeschreibselt wird.

Könnte stimmen. Manche Online Redaktionen kümmerten sich wahrscheinlich erst jetzt darum, Infos über den G80 zu schreiben, da sie nach dem Editor's Day welche erwarteten. Und wenn sie auf der Suche danach über die Daten von VR-Zone stolperten und sie jetzt verbreiten....

Snoopy1978
2006-10-21, 13:10:46
[Gast][Was macht dich auf einmal so sicher, dass der G80 über unified-Shader verfügt? Ist doch bisher mehr oder weniger eine Quelle von der quer übers Netz tüchtig abgeschreibselt wird.]

Es gibt aber auch keine wirklich gegenteiligen Meldungen.
Nvidias Chefwissenschaftler D. Kirk hat zum Thema unified Shader ,nachdem was ich gelesen habe, nur gesagt das man auf eine solche Architektur setzen wird wenn die Zeit reif ist und es Vorteile bringt

deekey777
2006-10-21, 14:12:30
']Ich glaube kaum, NVidia wird sich nochmal mit schlechter BQ in Verbindung bringen wollen. Hoffe ich ...
Das müssen sie gar nicht, wenn sie das Pipeline-Design verändert haben.
Als die 6800Ultra kam, fragte jemand, warum die Filterqualität gesenkt wurde. Die Antwort war, um Transistoren zu sparen. Antwort auf die Antwort war, dass eher noch Transistoren hinzukamen. Vielleicht missinterpretiere ich einige Postings, aber so wie ich es verstanden habe, dient das Ganze dazu, um das Leerlaufen in der Pipeline ("stallen") um mehrere Takte zu verringern; die offizielle Aussage, man habe die Filterqualität nur deswegen herabgesenkt, weil die Tester die Filterqualität der NV30-Generation nicht zu würdigen wussten, entbehrt sich jeder Grundlage.

Steinigt mich jetzt.

Gast
2006-10-21, 14:17:08
Für reduziert-trilineare Filterung kommen Transistoren hinzu, nicht für das Winkelabhängige AF an sich.

Die gelbe Eule
2006-10-21, 14:17:56
Wenn die nun davon sprechen das sie doppelt so schnell ist wie die alte Generation, gehen die dann von der 7950GX2 aus? Weil diese müsste ja demnach bald ein Schnäppchen werden, um die 300€, damit der Abstand zur GTs gewahrt bleibt.

Relic
2006-10-21, 14:21:13
Wenn die nun davon sprechen das sie doppelt so schnell ist wie die alte Generation, gehen die dann von der 7950GX2 aus? Weil diese müsste ja demnach bald ein Schnäppchen werden, um die 300€, damit der Abstand zur GTs gewahrt bleibt.

Die Karte wird eher recht schnell vom Markt verschwinden. Ich denke nicht, dass es sich rechnet mit den ziemlich hohen Herstellungskosten die Karte für 300€ zu verschleudern.

deekey777
2006-10-21, 16:15:21
Für reduziert-trilineare Filterung kommen Transistoren hinzu, nicht für das Winkelabhängige AF an sich.
Liege ich mit meiner (Miss-)Interpretation ganz daneben oder ist der Zusammenhang falsch: mehr Transistoren für die reduzierte trilinieare Filterung <-> Verringerung der Stalls, wenn das Sample mehr als bilinear gefiltert wird?

LovesuckZ
2006-10-21, 17:41:18
Wenn die nun davon sprechen das sie doppelt so schnell ist wie die alte Generation, gehen die dann von der 7950GX2 aus? Weil diese müsste ja demnach bald ein Schnäppchen werden, um die 300€, damit der Abstand zur GTs gewahrt bleibt.

Die Karte wie, wie schon angesprochen, vom Markt verschwinden. Eventuell verkaufen ein paar Läden sie zu reduzierten Preisen, um die Lager zu leeren.
Würde Nvidia sie offiziell im Preis senken, hätte dies auch Auswirkungen auf alle anderen Produkte.

M_B
2006-10-21, 19:50:39
Wird der G80 (fast) winkelunabhängiges AF bieten, wie dies bei den neueren ATIs der Fall ist?

Weil sonst ist die GPU uninteressant für Leute, die auf Bildqualität stehen.

PS sorry falls dies schon irgendwo erwähnt wurde, der Thread ist schon bißchen lang. ;(

Gruß M_B

Gast
2006-10-21, 19:55:43
Wird der G80 (fast) winkelunabhängiges AF bieten, wie dies bei den neueren ATIs der Fall ist?

Weil sonst ist die GPU uninteressant für Leute, die auf Bildqualität stehen.

PS sorry falls dies schon irgendwo erwähnt wurde, der Thread ist schon bißchen lang. ;(

Gruß M_B

Um das mit Sicherheit sagen zu können muss man erst auf die ersten Reviews warten.
Diese kommen vorraussichtlich am 8.11

M_B
2006-10-21, 20:31:08
Um das mit Sicherheit sagen zu können muss man erst auf die ersten Reviews warten.
Diese kommen vorraussichtlich am 8.11
Alles klar, danke für die Info.

Ich habe da noch eine Aussage im Ohr, das Nvidia die Bildqualität steigern wollte.
Deswegen diese Frage.
Auch wenn sie 64xAA einbauen, aber das AF nicht verbessern, wäre der G80 eine Enttäuschung.

Gruß M_B

Gast
2006-10-21, 22:50:28
Liege ich mit meiner (Miss-)Interpretation ganz daneben oder ist der Zusammenhang falsch: mehr Transistoren für die reduzierte trilinieare Filterung <-> Verringerung der Stalls, wenn das Sample mehr als bilinear gefiltert wird?
Trilinear sollte noch nicht allzuviel stallen, aber im Prinzip hast du recht. Bei reduziert-trilinear glaube ich aber eher noch an Bandbreiten- und Füllraten-Einsparung eher als an das Stallen der Pipe.

M_B
2006-10-21, 23:25:04
Trilinear sollte noch nicht allzuviel stallen, aber im Prinzip hast du recht. Bei reduziert-trilinear glaube ich aber eher noch an Bandbreiten- und Füllraten-Einsparung eher als an das Stallen der Pipe.
Ich glaube weder noch.
Erklär doch mal bitte wo ein bri-Filter die Bandbreite oder die Füllrate einsparen sollte.
IMO reine Rechenleistung.

Gruß M_B.

Gast
2006-10-21, 23:43:15
Trilinear sollte noch nicht allzuviel stallen, aber im Prinzip hast du recht. Bei reduziert-trilinear glaube ich aber eher noch an Bandbreiten- und Füllraten-Einsparung eher als an das Stallen der Pipe.

Wer sagt denn dass nVIDIA weiterhin bei Texture-Fetches die ALUs stallt? Ich geh davon aus das dem nicht so ist.

Gast
2006-10-21, 23:46:22
Wer sagt denn dass nVIDIA weiterhin bei Texture-Fetches die ALUs stallt? Ich geh davon aus das dem nicht so ist.
Und deine Infos kommen woher?

Grüß M_B?

MikBach
2006-10-21, 23:58:08
']Ich glaube kaum, NVidia wird sich nochmal mit schlechter BQ in Verbindung bringen wollen. Hoffe ich ...
Ist eine reine Definitionsfrage.
Wie ich schon anmerkte...
Was bringt mir das tollste AA, wenn das AF bei bestimmten Winkeln nur Matsch produziert, welches man höchstens einem Halbblindem servieren darf...

Gruß M_B

Gast
2006-10-22, 00:26:37
Also ich weiß ja nich, aber ich glaub die wenigsten würden WU-AF ggü. WA-AF überhaupt bemerken wenn man sie nicht drauf aufmerksam macht.

dargo
2006-10-22, 00:46:55
Also ich weiß ja nich, aber ich glaub die wenigsten würden WU-AF ggü. WA-AF überhaupt bemerken wenn man sie nicht drauf aufmerksam macht.
Das sicherlich. Nur, diejenigen die den Unterschied nicht merken kaufen sich mit Sicherheit keine Graka für 500-600€. Und wenn doch, dann wollen die sich nur an langen Balken aufgeilen.

M_B
2006-10-22, 07:53:36
Also ich weiß ja nich, aber ich glaub die wenigsten würden WU-AF ggü. WA-AF überhaupt bemerken wenn man sie nicht drauf aufmerksam macht.
Du hast vollkommen Recht.
Mich hat es vor ein paar Jahren auch nicht wirklich gestört.

Kommt natürlich auch auf das Ausgabegerät an.
Je grösser, desto wichtiger ist die Bildqualität.

Gruß M_B

Gast
2006-10-22, 09:36:41
http://www.the-inquirer.com/default.aspx?article=35258

Ailuros
2006-10-22, 10:28:07
[QUOTE=Ailuros]Nachdem NVIDIA alle an der Nase herumgefuert hat mit dem non-USC Zeug, fliegt das oede Argument ueber nicht vereinigte Einheiten erst mal zum Fenster raus. Jetzt kommt es nur noch auf die Implementierung, Effizienz, Bildqualitaet, Stromverbrauch (kurz alles was ueblicherweise verglichen wird) an.[QUOTE]

Was macht dich auf einmal so sicher, dass der G80 über unified-Shader verfügt? Ist doch bisher mehr oder weniger eine Quelle von der quer übers Netz tüchtig abgeschreibselt wird.

Non disclosure agreement. Und ja ich bin mir 100% sicher.

Ailuros
2006-10-22, 10:28:50
Wird der G80 (fast) winkelunabhängiges AF bieten, wie dies bei den neueren ATIs der Fall ist?

Weil sonst ist die GPU uninteressant für Leute, die auf Bildqualität stehen.

PS sorry falls dies schon irgendwo erwähnt wurde, der Thread ist schon bißchen lang. ;(

Gruß M_B

Sieht besser aus auf Papier.

Gast
2006-10-22, 12:02:50
Naja, ich da steht nicht wieder was von verbesserter Isotropischer Filterung, sondern wirklich Bi/Tri-Filterung WU und vieleicht Adaptiv 32x.

Fatality
2006-10-22, 12:14:44
Preview: Geforce 8800 GTX und GTS: http://www.pcwelt.de/news/hardware/video/61081/index.html
Über 800 Gramm schwer, 260 Millimeter lang und 200W unter Vollast.

ist gekauft :cool:

dargo
2006-10-22, 12:16:32
Preview: Geforce 8800 GTX und GTS: http://www.pcwelt.de/news/hardware/video/61081/index.html
Über 800 Gramm schwer, 260 Millimeter lang und 200W unter Vollast.

ist gekauft :cool:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326254&page=11
:wink:

Ailuros
2006-10-22, 12:23:23
Naja, ich da steht nicht wieder was von verbesserter Isotropischer Filterung, sondern wirklich Bi/Tri-Filterung WU und vieleicht Adaptiv 32x.

32x? Und wieso immer noch bri? Besser volles trilinear 16xAF mit der kleinsten moeglichen winkelabhaengigkeit.

Gast
2006-10-22, 14:27:57
Vielen ist anscheinend sowieso nicht klar bei wie wenigen Polygonen 32xAF überhaupt zum tragen kommen würde. So verzerrt ist kaum etwas.

Gast
2006-10-22, 16:08:44
Vielen ist anscheinend sowieso nicht klar bei wie wenigen Polygonen 32xAF überhaupt zum tragen kommen würde. So verzerrt ist kaum etwas.

stimmt, da AF allerdings per definition adaptiv arbeitet wäre es auch kein schaden ;)

MikBach
2006-10-22, 17:52:51
Sieht besser aus auf Papier.
Wie meinen?

Gruß M_B

Gast
2006-10-22, 20:03:32
Wie meinen?

Gruß M_B

Die Specs des G80 auf Papier bzgl. BQ/Filterung sehen besser aus als die der R5x0 Serie.

Hvoralek
2006-10-22, 21:15:57
Es ging um die tolle Cine-FX-Technologie. *lachweg* ;D

Gruß M_BAber die AF war bei NV30 nicht nur auf dem Papier besser, sondern auch in der Praxis. Und inwieweit hat CineFX etwas mit der BQ zu tun?

aths
2006-10-22, 21:21:59
Also ich weiß ja nich, aber ich glaub die wenigsten würden WU-AF ggü. WA-AF überhaupt bemerken wenn man sie nicht drauf aufmerksam macht.Das liegt dann daran, dass viele ohnehin nicht das Bedürfnis nach besonders guter Qualität haben.

Und erzähl du mir nichts von Cine-FX.
Du hast doch eh keine Ahnung, was NV mit Cine-FX überhaupt meint.

Falls ja, dann leg mal los.Tolle Sprüche, Herr "DDX".
Ich trolle hier nicht.
Falls du mich fachlich beeindrucken willst, dann fang an.
Ich warte (wahrscheinlich bis zum Nimmerleinstag) ;D ... und könntest fachlich auch nichts dazu beitragen. G71 basiert übrigens auch auf CineFX. Ob G80 noch auf CineFX basieren wird, werden wir bald sehen.

Gast
2006-10-22, 21:32:26
Jetzt kommt so langsam ´Informationsbewegung´ ins Spiel:

http://www.chip.de/news/c1_news_22360608.html

-Ghosty

deekey777
2006-10-22, 21:53:08
Ich habe den einen oder anderen Schwachsinn getrasht (was aber nicht heißt, dass es keine Konsequenzen geben wird.
Im ersten Posting steht doch klipp und klar, dass es hier nur um die G80 geht, alles andere und nicht themenbezogene ist OT. Wenn ihr meint, darüber muss unbedingt gesprochen werden, macht es per PM oder im ICQ oder per Rauchzeichen.

Gast
2006-10-22, 22:00:36
Jetzt kommt so langsam ´Informationsbewegung´ ins Spiel:

http://www.chip.de/news/c1_news_22360608.html

-Ghosty

Naja nix neues, nur eben eine weiter Meldung was schon bekannt ist. Mal schaun was unter der Woche noch geleakt wird, spätestens an der LAN (hoffen wir mal das NDA läuft da ab, 7.11.) wirds ja handfeste Infos geben.

650€ find ich heftigst, als die 7800GTX eingeführt wurde warens 100€ weniger.

AnarchX
2006-10-22, 22:02:59
650€ find ich heftigst, als die 7800GTX eingeführt wurde warens 100€ weniger.

Dafür hatte sie aber auch nur 256MB und ein 256bit SI, was es auch so schon bei ihrem Vorgänger gab.:wink:
Imo sind die 650€ doch eigentlich ziemlich akzeptabel dafür was NV hier an GPU- und PCB-Kosten haben wird.

MikBach
2006-10-22, 22:04:13
Aber die AF war bei NV30 nicht nur auf dem Papier besser, sondern auch in der Praxis. Und inwieweit hat CineFX etwas mit der BQ zu tun?
Das habe ich garnicht gemeint.
Also erneut versuchen...:)

Gruß M_B