PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)


Seiten : 1 2 3 [4] 5 6 7 8 9

Ailuros
2006-10-29, 07:17:25
Ich meinte prinzipbedingte Schwächen, wie zum Beispiel, dass Kanten von Stencil-Schatten nicht mehr als mit normalem MSAA geglättet werden.

Q

Wir verstehen uns vollkommen richtig Quasar. Der Verbraucher hat z.B. bei 8x die Wahl entweder den "vollen" modus oder den "stencil-kastrierten" modus zu waehlen.

Mir straeubt es nur vor der Beschreibung denn ich nenne etwas nicht eine "Schwaeche" wenn es mit Absicht implementiert wurde.

Ein Stueck weiter weg von der Theorie und zurueck zu meinem moeglichen Gaming-Alltag: wenn mich nicht die Aufloesung bedingt sehe ich es sowieso moeglicher dass ich anstatt 8xQ gleich lieber 4x in hoeheren Aufloesungen benutzen werde. Wenn ich jetzt immer noch Leistung uebrig bleibt fuer 8xN (wobei der Unterschied zu 4x relativ klein ist), dann gewinn ich auf einem grossen Prozentual meiner Poly-Kanten doppelt so viel AA und meine stencils bleiben auf gleichem Niveau wie bei 4xAA.

Muss denn mein Glass staendig halbleer und nicht halbvoll sein?

Ailuros
2006-10-29, 07:20:13
Nehmen wir an NV zieht in der BQ mit ATi gleich, whats next? Was brauch der Kunde eigentlich noch zum Glück, außer das TFTs mit Auflösungen jenseits der 20/15 Marke für den Consumer Markt nicht existent sind, damit man die Leistung auch ordentlich nutzen kann?

Irgendwo hat das menschliche Auge dann Schwierigkeiten bestimmte Dinge noch auseinanderzuhalten ...

Ich werde froh sein wenn G80 es schafft mit allem drun und dran in UT2007 mit 4xAA/16xAF in 1600 fertig zu werden, wobei ich ehrlich nicht weiss ob es auch hier eng werden koennte. Nach Sweeney verbratet die UE3 engine alleine fuer shading ~500GFLOPs; ich hab das Gefuehl dass Ihr die zukuenftigen Spiele etwas unterschaetzt.

Undertaker
2006-10-29, 08:40:14
Ich werde froh sein wenn G80 es schafft mit allem drun und dran in UT2007 mit 4xAA/16xAF in 1600 fertig zu werden, wobei ich ehrlich nicht weiss ob es auch hier eng werden koennte. Nach Sweeney verbratet die UE3 engine alleine fuer shading ~500GFLOPs; ich hab das Gefuehl dass Ihr die zukuenftigen Spiele etwas unterschaetzt.

das der g80 das nicht schafft, dessen darfst du dir fast sicher sein... wenn man von einer leistungsverdoppelung gegenüber der 7900gtx ausgeht, wird das gerade ausreichen um einige aktuelle games in diesen settings spielbar berechnen zu können...

Die gelbe Eule
2006-10-29, 08:46:35
Dafür haben wir ja dann SLi auf dem Markt. U3E wird wohl richtungsweisend werden, wenn man sich anschaut, wo sie überall eingesetzt wird.

Ailuros
2006-10-29, 08:52:30
das der g80 das nicht schafft, dessen darfst du dir fast sicher sein... wenn man von einer leistungsverdoppelung gegenüber der 7900gtx ausgeht, wird das gerade ausreichen um einige aktuelle games in diesen settings spielbar berechnen zu können...

Mit dem kleinen Unterschied dass der Leistungsverlust auf G80 fuer 4xAA sogar kleiner ist als der Verlust fuer nur 2xAA auf G7x.

dargo
2006-10-29, 09:51:05
Mit dem kleinen Unterschied dass der Leistungsverlust auf G80 fuer 4xAA sogar kleiner ist als der Verlust fuer nur 2xAA auf G7x.
Das finde ich genial. Dann kann man sogar davon ausgehen, dass eine G8800GTS mehr als doppelt so schnell unter 4xAA ist wie die X1900XT oder?

robbitop@away
2006-10-29, 09:53:32
Im Refresh könnte man die ALUs wie beim G70 auf 2xMAD aufbohren. Füllrate sollte eigentlich genug da sein. Dazu dank 65nm mehr Takt und mehr Bandbreite. Aber meint ihr, dass G85 (also der G80 Refresh) so schnell nachgeschoben wird? Ist der Prozess bis dahin reif genug? Ich tippe eher auf Herbst/Winter.

Die gelbe Eule
2006-10-29, 10:36:42
März/April würde im Zyklus liegen, also auf Cebit dann vorstellen und Hardlaunch direkt danach. 6 Monate ist immer bisher üblich und ich denke das mit Vista, wenn es dann da ist, Kinderkrankheiten erst zum Vorschein kommen.

gguru
2006-10-29, 10:44:23
März/April würde im Zyklus liegen, also auf Cebit dann vorstellen und Hardlaunch direkt danach. 6 Monate ist immer bisher üblich und ich denke das mit Vista, wenn es dann da ist, Kinderkrankheiten erst zum Vorschein kommen.

"Our plan is to provide this to volume license business customers next month, in November, and then provide it on a worldwide basis for general availability in January." (Quelle (http://www.microsoft.com/presspass/exec/bradsmith/10-13-06VistaRelease.mspx))

Mir scheint, es wird viel früher als *dann* da sein. NVidia sollte also genügend Zeit haben, eventuelle Probleme mit Vista zu lösen.

boxleitnerb
2006-10-29, 10:46:21
500 Gigaflops für Shading? Ich hab mir mal die bisher erschienenen Videos von UT2007 angesehen und soooo viel sehenswertes Shading sehe ich da jetzt net.

dildo4u
2006-10-29, 10:48:05
Nach Sweeney verbratet die UE3 engine alleine fuer shading ~500GFLOPs; ich hab das Gefuehl dass Ihr die zukuenftigen Spiele etwas unterschaetzt.
Soo krass kann das gar nicht sein da ja Gears of War ebend mit dieser Engine sher flüssig auf der X-Box 360 läuft.Ich denke schon eine normale 1900XT ist dem Xenos Chip von der Rohleistung her sher deutlich überlegen.

Die gelbe Eule
2006-10-29, 10:58:04
Gears of War ist aber vor Ende 2007 nicht zu erwarten und genau da kann man noch viel hinoptimieren. Ich denke kaum das schon eine Finale Version öffentlich spielbar ist.

dildo4u
2006-10-29, 10:59:36
Gears of War ist aber vor Ende 2007 nicht zu erwarten und genau da kann man noch viel hinoptimieren. Ich denke kaum das schon eine Finale Version öffentlich spielbar ist.Hä es ging mir darum das man nicht soo viel Power für UE 3 Spiele brauchen wird weil es die X-Box 360 schon in 2 Wochen wenn das Game für die 360 kommt schaft von der PC Version war keine Rede.Ich denke jede Karte die schneller als eine 1800XT ist ist dem ATI Chip in der X-Box schon recht deutlich überlegen.

Gast
2006-10-29, 11:22:45
kommt es eigentlich nur mir seltsam vor dass beim G80 die arithmetische rohleistung verhältnismäßig deutlich weniger ansteigt als die texturleistung?

bis jetzt dachte man eigentlich dass die entwicklung eher umgekehrt verlaufen wird.

deekey777
2006-10-29, 11:26:05
http://steamgames.com/v/index.php?area=news&id=777&
Ich glaube kaum, dass RoboBlitz (http://www.roboblitz.com/site.html) als ein UE3-Spiel 500 GFlop/s verlangen wird.
Wenn mich nicht alles täuscht, hätte dieses Spiel das erste sein, dass auf der UE3 basiert.

doppelschwoer
2006-10-29, 11:27:07
Dafür wurde an der effizienz gefeilt.
Vorher ist einiges an Rohleistung verpufft, die nun bedeutend besser ausgereizt werden kann. Somit könnte der Schritt in der Form Sinn machen.

Hvoralek
2006-10-29, 11:28:01
Auf welche Auflösung (Xbox 360 --> 720p. Da ist SXGA schon mehr als 40% größer) und welche Einstellungen bezogen sich diese 500 GFLOPS? Bezieht sich diese Angabe auf MADD- Leistung, auf MADD/ADD/MUL oder auch auf feste Funktionen (à la NRM_PP auf NV4x)? Und war nicht die Rede von den Kapazitäten der Engine? Ich hoffe mal, dass die mehr kann, als man in UT2007 sieht. Wenn nicht und wenn man dafür tatsächlich so viel Leistung braucht, wäre das schon peinlich, wenn man sich ansieht, wie ein halbfertiges Crysis im SM2.0- Pfad auf einer X1900 aussieht und läuft.

Wenn eine 8800 GTX UT 2007 nicht in 16/12 4x/16 schafft, hat Epic keine besonders effiziente Engine entwickelt. Genau davon gehe ich aber nach der UE2 aus, die auch auf seinerzeit betagteren Systemen gut aussah und gut lief.

Der Cell Prozessor dürfte auch recht Komplex sein der hat ja nur 2.5MB Cache aber 240Mio Transistoren.
http://en.wikipedia.org/wiki/Transistor_countSmithfield war etwa genauso komplex mit nur 2 MiB Cache.

Ich denke jede Karte die schneller als eine 1800XT ist ist dem ATI Chip in der X-Box schon recht deutlich überlegen.Nicht unbedingt. Arithmetisch dürfte Xenos stärker sein als eine X1800 (Nicht, weil Xenos so toll wäre, sondern weil R520 arithmetisch unterdimensioniert ist).

kommt es eigentlich nur mir seltsam vor dass beim G80 die arithmetische rohleistung verhältnismäßig deutlich weniger ansteigt als die texturleistung?

bis jetzt dachte man eigentlich dass die entwicklung eher umgekehrt verlaufen wird.Man wird erst einmal sehen müssen, wie diese einzelnen ALUS sich tatsächlich schlagen. Praktisch 64 TMUs mit wu- AF sind aber schon erstaunlich.

Gast
2006-10-29, 11:28:51
wann kommt die neue pc-hardware
werde mir sie sofort holen

ShadowXX
2006-10-29, 11:46:36
Wir verstehen uns vollkommen richtig Quasar. Der Verbraucher hat z.B. bei 8x die Wahl entweder den "vollen" modus oder den "stencil-kastrierten" modus zu waehlen.

Mir straeubt es nur vor der Beschreibung denn ich nenne etwas nicht eine "Schwaeche" wenn es mit Absicht implementiert wurde.

Ein Stueck weiter weg von der Theorie und zurueck zu meinem moeglichen Gaming-Alltag: wenn mich nicht die Aufloesung bedingt sehe ich es sowieso moeglicher dass ich anstatt 8xQ gleich lieber 4x in hoeheren Aufloesungen benutzen werde. Wenn ich jetzt immer noch Leistung uebrig bleibt fuer 8xN (wobei der Unterschied zu 4x relativ klein ist), dann gewinn ich auf einem grossen Prozentual meiner Poly-Kanten doppelt so viel AA und meine stencils bleiben auf gleichem Niveau wie bei 4xAA.

Muss denn mein Glass staendig halbleer und nicht halbvoll sein?
Sehe ich ähnlich und speziell dem letzten Satz kann ich nur zustimmen.

Btw. weißt du inzwischen wie es mit den Hybridmodi aussieht? Wird es diese weiterhin (zumindest inoffiziell) geben?

Spasstiger
2006-10-29, 11:46:41
kommt es eigentlich nur mir seltsam vor dass beim G80 die arithmetische rohleistung verhältnismäßig deutlich weniger ansteigt als die texturleistung?
Naja, vergleiche mal die Radeon X1800 XT mit der X1900 XT. Meist ist die X1900 XT nichtmal 10% schneller, teilweise sogar langsamer. Und in Extremfällen ist die X1900 XT auch nur um 30-40% überlegen.
Und das, obwohl die X1900 XT über die dreifache arithmetische Leistung verfügt. Theoretische Power ist halt nicht alles, die Effizienz machts.

Gast
2006-10-29, 11:49:15
Anscheinend hat die PCGH beim G80 nur die MADD- Leistung gerechnet (Warum auch immer. Wenn man das macht, wäre R580 arithemetisch schwächer als G71), dann kommt man bei der 8800 GTS nur auf 2/3 der og Leistung, also 230,4 GFLOPS.

Weil wir das bisher immer so gemacht haben und nicht "nur" für eine neue Architektur alles über den Haufen werfen wollten. Zudem waren die MULs in den Radeons nicht uneingeschränkt nutzbar - dann hätte es wieder Klagen gegeben, warum wir nicht auch die Hilfseinheiten im Nvidia-Kern mitrechen (FP16-NRM u.ä.).

Das wird demnächst aber weiter generalisiert werden.


Zu den ROPs:
Es sind sechs ROP-Partitionen in der GTX und fünf in der GTS - wie's im Artikel steht.


Q

Gast
2006-10-29, 11:51:09
Naja, vergleiche mal die Radeon X1800 XT mit der X1900 XT. Meist ist die X1900 XT nichtmal 10% schneller, teilweise sogar langsamer. Und in Extremfällen ist die X1900 XT auch nur um 30-40% überlegen.


stimmt natürlich, der R580 ist texturmäßig ja etwas unterdimensioniert, und ein array von 128 skalaren ALUs sollte schon sehr effizient sein.

aber auch wenn sich 128ALUs erstmal viel anhören, sind es ja doch "nur" skalare ALUs, "umgerechnet" in Vec4 sind es dann plötzlich nur mehr 32 ALUs (wobei die skalar-ALUs natürlich effizienter sein werden, vor allem wenn es darum geht die GPU für andere zwecke als grafik zu "missbrauchen")
die recht ordentliche rohleistung wird also in erster linie über den brachialen takt erreicht.

Gast
2006-10-29, 11:52:17
Zu den ROPs:
Es sind sechs ROP-Partitionen in der GTX und fünf in der GTS - wie's im Artikel steht.




und jede dieser ROP-partitionen beinhalten 4 stück?

Gast
2006-10-29, 11:54:19
Wir verstehen uns vollkommen richtig Quasar. Der Verbraucher hat z.B. bei 8x die Wahl entweder den "vollen" modus oder den "stencil-kastrierten" modus zu waehlen.

Mir straeubt es nur vor der Beschreibung denn ich nenne etwas nicht eine "Schwaeche" wenn es mit Absicht implementiert wurde.

Ein Stueck weiter weg von der Theorie und zurueck zu meinem moeglichen Gaming-Alltag: wenn mich nicht die Aufloesung bedingt sehe ich es sowieso moeglicher dass ich anstatt 8xQ gleich lieber 4x in hoeheren Aufloesungen benutzen werde. Wenn ich jetzt immer noch Leistung uebrig bleibt fuer 8xN (wobei der Unterschied zu 4x relativ klein ist), dann gewinn ich auf einem grossen Prozentual meiner Poly-Kanten doppelt so viel AA und meine stencils bleiben auf gleichem Niveau wie bei 4xAA.

Muss denn mein Glass staendig halbleer und nicht halbvoll sein?

Ok, dann passt's ja.

Angeblich soll der Unterschied zwischen MSAA und CSAA so gering sein, dass man praktisch nicht drauf verzichten muss (außer wenn er mal nicht geht).


Q

Gast
2006-10-29, 11:57:07
und jede dieser ROP-partitionen beinhalten 4 stück?

Jede soll vier Pixel mit Color und Z schaffen. Und das auch bei 4xMSAA. Oder alternativ 32 Zixel. :D


Q

ShadowXX
2006-10-29, 11:58:36
Zu den ROPs:
Es sind sechs ROP-Partitionen in der GTX und fünf in der GTS - wie's im Artikel steht.

Q
Und wieviele "einzel" ROPs gibts pro Partition? 4? Oder läuft das im G80 so völlig anders, das man das nicht mehr mit den jetzigen Chips vergleichen kann. (Edit hat sich mit dem Post über mir erledigt)

Ich hoffe das Demi dann irgendwann nochmal einen ausführlichen Technikartikel über den G80 in der PCGHW schreiben wird ("Im Bett mit dem G80: alles was Sie schon mal wissen wollten, sich aber nicht getraut haben zu fragen").

Ok, dann passt's ja.
Angeblich soll der Unterschied zwischen MSAA und CSAA so gering sein, dass man praktisch nicht drauf verzichten muss (außer wenn er mal nicht geht).
Q
Wie wirkt sich das "nicht" gehen aus. Kein AA oder "kaputtes" AA? Und kann man etzt schon nachvollziehen woran es liegt, wenn es nicht funktioniert (Also in der Richtung, bei Engine XYZ bzw. wenn "Effekt" X genutzt wird gehts nicht)?

Spasstiger
2006-10-29, 12:17:11
Wie ist das jetzt eigentlich mit der Granularität bei den unified-shader-Einheiten des G80? Liegt die bei 16?
Denn die 128 Skalarprozessoren sind ja in 8 Gruppen zu je 16 ALUs zusammengefasst.
Oder ist es auch innerhalb eines 16er-Blocks möglich, jeder ALU verschiedene Aufgaben zuzuweisen?

MadManniMan
2006-10-29, 13:55:10
Fällt 2*AA weg?

Gast
2006-10-29, 13:59:40
Fällt 2*AA weg?Warum sollte es?

MadManniMan
2006-10-29, 14:06:43
Warum sollte es?

So 4*MSAA (4*CSAA wird es nicht geben?) einen geringeren Performancehit als 2*MSAA auf dem G7X verursachen sollte, könnte man sich von dieser Altlast trennen :D Halte es aber auch für höchst spekulativ.

Gast
2006-10-29, 14:20:15
Oder ist es auch innerhalb eines 16er-Blocks möglich, jeder ALU verschiedene Aufgaben zuzuweisen?

davon sollte man eigentlich ausgehen.

wie es aussieht teilen sich ein 16er block irgendwelche caches und wahrscheinlich etwas steuerlogik

LovesuckZ
2006-10-29, 14:23:09
So 4*MSAA (4*CSAA wird es nicht geben?) einen geringeren Performancehit als 2*MSAA auf dem G7X verursachen sollte, könnte man sich von dieser Altlast trennen :D Halte es aber auch für höchst spekulativ.

Doch 2*MSAA könnte auf dem G80 immer noch schneller sein als 4*MSAA.
Somit wäre es immer noch ´vom Nutzen für die jenigen, denen 2*MSAA ausreiche.

Ailuros
2006-10-29, 14:23:41
Wenn eine 8800 GTX UT 2007 nicht in 16/12 4x/16 schafft, hat Epic keine besonders effiziente Engine entwickelt. Genau davon gehe ich aber nach der UE2 aus, die auch auf seinerzeit betagteren Systemen gut aussah und gut lief.

Manche Aspekte koennen heikel werden und MRTs gehoeren oefters dazu; da ich aber gerade jemand das Ding in PowerVR's Deferred Shading demo testen liess, sehen die Resultate mit allen Lichtern eingeschaltet verdammt vielversprechend aus.

robbitop
2006-10-29, 14:25:43
März/April würde im Zyklus liegen, also auf Cebit dann vorstellen und Hardlaunch direkt danach. 6 Monate ist immer bisher üblich und ich denke das mit Vista, wenn es dann da ist, Kinderkrankheiten erst zum Vorschein kommen.
G70 kam über 1 Jahr nach NV40. G71 kam auch mehr als 6 Monate nach G70, wobei das ja schon fast kein Refresh mehr war.

Ailuros
2006-10-29, 14:26:59
Warum sollte es?

Es kann ja sein dass ich mir jetzt ins Bein schiesse, aber was fuer einen Sinn hat 2xAA wenn ein chip ueber single cycle 4xAA faehig ist? Noch besser wie soll denn dass zustande kommen? Mit nem halben Zyklus oder wie? <shrug>

Ailuros
2006-10-29, 14:30:40
Soo krass kann das gar nicht sein da ja Gears of War ebend mit dieser Engine sher flüssig auf der X-Box 360 läuft.Ich denke schon eine normale 1900XT ist dem Xenos Chip von der Rohleistung her sher deutlich überlegen.

Ich hab zwar Gears of War auf der 360 noch nicht gesehen, aber ich will wetten dass es keinen Schimmer an AA oder AF haben wird und dazu noch "nur" maximal in 1280*720. Was jetzt noch zusaetzlich insgesamt reduziert wurde fuer die Consolen-Version will ich auch nicht wissen.

Ailuros
2006-10-29, 14:33:04
Btw. weißt du inzwischen wie es mit den Hybridmodi aussieht? Wird es diese weiterhin (zumindest inoffiziell) geben?

Work goes on ;) Rivatuner und co. laufen noch nicht afaik.

dildo4u
2006-10-29, 14:33:41
Ich hab zwar Gears of War auf der 360 noch nicht gesehen, aber ich will wetten dass es keinen Schimmer an AA oder AF haben wird und dazu noch "nur" maximal in 1280*720. Was jetzt noch zusaetzlich insgesamt reduziert wurde fuer die Consolen-Version will ich auch nicht wissen.
Warum sollte was reduziert werden wenn das Game explitiz für diese Konsole Entwickelt wurde?Gut möglich das man nicht alle Features der Engine nutzt aber das wird bei UT 2007 auf dem PC auch nicht der Fall sein wenn man das ganze flüssig mit 32 Player zocken will.Ein echter Unreal Singelplayer PC Nachfolger ist ja nicht in Sicht.

robbitop
2006-10-29, 14:34:05
Es kann ja sein dass ich mir jetzt ins Bein schiesse, aber was fuer einen Sinn hat 2xAA wenn ein chip ueber single cycle 4xAA faehig ist? Noch besser wie soll denn dass zustande kommen? Mit nem halben Zyklus oder wie? <shrug>
Das musst du mir mal erklären.
Nur weil ich pro Pixel und Takt bis zu 4 Farb/Z-Werte schreiben kannm heißt es doch nicht, dass ich es auch tun muss. Wieviele Subpixel ich abtaste, hängt nicht nur von den ROPs ab.
2xMSAA kostet weniger Bandbreite als 4x. That's it. Insofern wäre das ein Vorteil (wurde hier nicht irgendwo erwähnt, dass bis 4x es nur ein stinknormales MSAA ist?).

Ailuros
2006-10-29, 14:40:41
Warum sollte was reduziert werden wenn das Game explitiz für diese Konsole Entwickelt wurde?Gut möglich das man nich alle Feauters der Engine nutztaber das wird bei UT 2007 auf dem PC auch nicht der Fall sein wenn man das ganze flüssig mit 32Player zocken will.

Was aber auch nicht heisst dass es keine PC Version geben wird.

Von dem abgesehen ich wuerde Euch mal raten die jeweiligen verfuegbaren UT2k7 screenshots etwas genauer anzuschauen.

Nichtdestominder auf welcher GF4 konnte man UT2k3 als Gegenbeispiel mit 32 Playern mit AA/AF in einer hohen Aufloesung genau spielen? Fuer absolut fluessige Leistung in 1600 mit AA/AF brauchte man zumindest eine NV40.

dildo4u
2006-10-29, 14:46:03
Was aber auch nicht heisst dass es keine PC Version geben wird.

Von dem abgesehen ich wuerde Euch mal raten die jeweiligen verfuegbaren UT2k7 screenshots etwas genauer anzuschauen.

Also es gibt ja sogar schon Videos von UT 2K7 und die überzeugen micht bei weitem noch nicht und durch die Verschiebungen wird das auch nicht besser.


http://www.gamershell.com/download_15113.shtml

Ich hoffe da tut sich noch was.

Aber die Videos machen auch Hoffnung das man nur eine PS3 braucht und sich die ganzen 1500€(Core 2 Duo Board 2GB DDR2 G80) PC Aufrüstungs Quatsch sparen kann vieleicht überdenken ATI und NV dann auch mal ihre Preispolitik weil 600€ nur für die Grafikkarte. :lol:

dargo
2006-10-29, 14:51:08
Gut möglich das man nicht alle Features der Engine nutzt aber das wird bei UT 2007 auf dem PC auch nicht der Fall sein wenn man das ganze flüssig mit 32 Player zocken will.
Was haben jetzt die 32 Player damit zu tun? Der größte Teil der Leistung würde dann auf die CPU fallen. Ein Kentsfield dürfte da gut mitmischen.

Ailuros
2006-10-29, 14:51:38
Also es gibt ja sogar schon Videos von UT 2K7 und die überzeugen micht bei weitem noch nicht und durch die Verschiebungen wird das auch nicht besser.


http://www.gamershell.com/download_15113.shtml

Ich hoffe da tut sich noch was.

Aber die Videos machen auch Hoffnung das man nur eine PS3 braucht und sich die ganzen 1500€(Core 2 Duo Board 2GB DDR2 G80) PC Aufrüstungs Quatsch sparen kann vieleicht überdenken ATI und NV dann auch mal ihre Preispolitik weil 600€ nur für die Grafikkarte. :lol:

Ueberhaupt der letzte Satz zeigt mir dass es keine Sekunde mehr Wert ist diese Debatte weiterzufuehren. Jedem das seine.

dildo4u
2006-10-29, 14:54:26
Ueberhaupt der letzte Satz zeigt mir dass es keine Sekunde mehr Wert ist diese Debatte weiterzufuehren. Jedem das seine.Mir gehts nur darum das es nur gut sein kann wenn die Engine auch auf den neuen Konsolen sauber läuft im Zweifel führt das zum Preiskampf und es wird für uns alle billiger.Naja für mich braucht es halt noch ein paar mher Argumente als ein paar Techdemos und einer neuer 3DMark um 600€ auf den Tisch zu legen vieleicht ist es ja Crysis wer weiß.

dargo
2006-10-29, 14:57:02
Aber die Videos machen auch Hoffnung das man nur eine PS3 braucht und sich die ganzen 1500€(Core 2 Duo Board 2GB DDR2 G80) PC Aufrüstungs Quatsch sparen kann vieleicht überdenken ATI und NV dann auch mal ihre Preispolitik weil 600€ nur für die Grafikkarte. :lol:
1. Bis die PS3 hier erscheint dürfte die G8800GTX weniger kosten. Außerdem gibt es noch die kaum langsamere G8800GTS.
2. Dir dürfte bekannt sein wie eine Konsole gegenfinanziert wird.

Ailuros
2006-10-29, 14:58:25
Das musst du mir mal erklären.
Nur weil ich pro Pixel und Takt bis zu 4 Farb/Z-Werte schreiben kannm heißt es doch nicht, dass ich es auch tun muss. Wieviele Subpixel ich abtaste, hängt nicht nur von den ROPs ab.
2xMSAA kostet weniger Bandbreite als 4x. That's it. Insofern wäre das ein Vorteil (wurde hier nicht irgendwo erwähnt, dass bis 4x es nur ein stinknormales MSAA ist?).

Wenn Du den Leistungsverlust von 4xAA in Fear sehen wuerdest, waere es leichter zu verstehen dass 2xAA wirklich nicht viel mehr Sinn macht. Nur zur Erinnerung eine G7x verliert ca. 28% mit 2xAA. Und es nicht "etwas" weniger als das, sondern ziemlich "viel" weniger als das.

***edit: und ich bin auch ziemlich grosszuegig und grabe aeltere Debatten nicht aus, wie "sinnlos" angeblich single cycle 4xAA ist :P

Gast
2006-10-29, 15:00:45
Wenn Du den Leistungsverlust von 4xAA in Fear sehen wuerdest, waere es leichter zu verstehen dass 2xAA wirklich nicht viel mehr Sinn macht. Nur zur Erinnerung eine G7x verliert ca. 28% mit 2xAA. Und es nicht "etwas" weniger als das, sondern ziemlich "viel" weniger als das.Das klingt ja verdammt gut. Schade, dass ich nicht genug Geld habe um mir eine 8800GTX gleich beim Launch zu kaufen. Abgespeckte GTS-Versionen kommen mir nicht in den Rechner, also muss ich wohl warten. ;)

Ailuros
2006-10-29, 15:01:24
Mir gehts nur darum das es nur gut sein kann wenn die Engine auch auf den neuen Konsolen sauber läuft im Zweifel führt das zum Preiskampf und es wird für uns alle billiger.Naja für mich braucht es halt noch ein paar mher Argumente als ein paar Techdemos und einer neuer 3DMark um 600€ auf den Tisch zu legen vieleicht ist es ja Crysis wer weiß.

Dann bist Du wohl in Threads die ultra high end GPUs behandeln wohl eher fehl am Platz. Was Dich interessiert kann ich zwar respektieren, aber ich erwarte genau den gleichen Respekt dass ich persoenlich guten Grund habe ueber 600 euro auf den Ladentisch zu legen und das garantiert nicht fuer techdemos oder 3dfart. Mein Geldbeutel und meine Augen.

dildo4u
2006-10-29, 15:04:01
1. Bis die PS3 hier erscheint dürfte die G8800GTX weniger kosten. Außerdem gibt es noch die kaum langsamere G8800GTS.
2. Dir dürfte bekannt sein wie eine Konsole gegenfinanziert wird.Wie gesagt ich sehe den Sinn für den Start des G80 aus User Sicht einfach nicht keine Games kein OS und nur damit ich Farcry und Fear mit 8XAA zocken kann würde ich keine 400,500 oder 600€ investieren.Irgendwie ist auf dem PC nach dem grandiosen Jahr 2004(Farcry,Doom3,HL2) Flaute.(CoD2,Fear geile Games aber für mich keine Revolutionären Games die den PC als Spieleplattform nach vorne bringen).

dargo
2006-10-29, 15:04:24
Wenn Du den Leistungsverlust von 4xAA in Fear sehen wuerdest, waere es leichter zu verstehen dass 2xAA wirklich nicht viel mehr Sinn macht. Nur zur Erinnerung eine G7x verliert ca. 28% mit 2xAA. Und es nicht "etwas" weniger als das, sondern ziemlich "viel" weniger als das.
Verdammt, du machst mich ganz schön neugierig. ;D
Kannst du mir wenigstens ansatzweise verraten ob der Verlust bei 8xAA < oder > 30% ist?

Wie gesagt ich sehe den Sinn für den Start des G80 aus User Sicht einfach nicht keine Games kein OS und nur damit ich Farcry und Fear mit 8XAA zocken kann würde ich keine 400,500 oder 600€ investieren.Irgendwie ist auf dem PC nach dem grandiosen Jahr 2004(Farcry,Doom3,HL2) Flaute.(Cod2,Fear geile Games aber für mich keine Revolutionen mher).
Das ist deine Meinung. Mir sind auch 600€ zuviel solange meine Games in meiner BQ zufriedenstellend laufen. Es gibt aber auch User mit einem 24" TFT. Und die werden sich mit Sicherheit über die AA Leistung freuen.

Ailuros
2006-10-29, 15:07:50
Ein kleiner Blitz mehr fuer 16xCMAA<->4xMSAA.

deekey777
2006-10-29, 15:18:38
Ich hab zwar Gears of War auf der 360 noch nicht gesehen, aber ich will wetten dass es keinen Schimmer an AA oder AF haben wird und dazu noch "nur" maximal in 1280*720. Was jetzt noch zusaetzlich insgesamt reduziert wurde fuer die Consolen-Version will ich auch nicht wissen.

AA wird es definitiv nicht geben, wofür nicht die Xbox schuld ist, sondern die für Schatten verwendete Technik.

Hvoralek
2006-10-29, 15:22:58
Wenn Du den Leistungsverlust von 4xAA in Fear sehen wuerdest, waere es leichter zu verstehen dass 2xAA wirklich nicht viel mehr Sinn macht. Nur zur Erinnerung eine G7x verliert ca. 28% mit 2xAA. Und es nicht "etwas" weniger als das, sondern ziemlich "viel" weniger als das.

***edit: und ich bin auch ziemlich grosszuegig und grabe aeltere Debatten nicht aus, wie "sinnlos" angeblich single cycle 4xAA ist :PFEAR ist mit seiner hohen Stencillast auch ein Sonderfall. Da kommt es wirklich mal mit MSAA auf die z/St- Füllrate an und nicht auf die Bandbreite. Oft gibt es das aber mW nicht.

AA wird es definitiv nicht geben, wofür nicht die Xbox schuld ist, sondern die für Schatten verwendete Technik.Geht MSAA grds nicht (also auch auf PC nicht) oder liegt das Problem im Tiling für Xenos?

dildo4u
2006-10-29, 15:23:59
Wurde von Epic nicht mal verlautbart das AA nicht so wichtig sei und man deshalb nicht drauf achtet obs mit den aktuellen Karten möglich ist?Aber das dürfte sich ja mit dem D3D10 Karten erledigt haben oder?

AnarchX
2006-10-29, 15:26:31
Wurde von Epic nicht mal verlautbart das AA nicht so wichtig sei und man deshalb nicht drauf achtet obs möglich ist?
Nein, sie meinten das damals wo sie diese Aussage getätigt hatten beim aktuellen Engine-Build einen massiven Leistungseinbruch durch MSAA stattfand und deswegen zweifelten sie die Zukunft von AA an.
Aber mittlerweile dürfte, dass ad acta gelegt sein, wenn man sich anschaut wie effizient das MSAA bei G80 ist.;)

robbitop
2006-10-29, 15:27:55
***edit: und ich bin auch ziemlich grosszuegig und grabe aeltere Debatten nicht aus, wie "sinnlos" angeblich single cycle 4xAA ist :P
Was noch zu beweisen wäre, dass der angeblich geringe Drop daran liegt. Ich glaube bis heute nicht daran. Habe es auch schon mehrfach vorgerechnet (und ich bin nicht der Einzige, der das so sieht).

dildo4u
2006-10-29, 15:29:43
Nein, sie meinten das damals wo sie diese Aussage getätigt hatten beim aktuellen Engine-Build einen massiven Leistungseinbruch durch MSAA stattfand.
Aber mittlerweile dürfte, dass ad acta gelegt sein, wenn man sich anschaut wie effizient das MSAA bei G80 ist.;)
War man bei Epic nicht davon überzeugt das man AA+HDRR nur mit 2GB Bildspeicher hätte realisieren können?Das Inteview war auch nicht so alt ca 1 Jahr.

Hvoralek
2006-10-29, 15:35:16
War man bei Epic nicht davon überzeugt das man AA+HDRR nur mit 2GB Bildspeicher hätte realisieren können?Das Inteview war auch nicht so alt ca 1 Jahr.Der Framebuffer wird durch FP16 doch nur doppelt so groß. Das kann eigentlich kaum sein.

Selbst mit FP32 und 8xAA in UXGA brauchst Du "nur" 1600x1200 x 4x4x2 x 8 = 491,5 MB. Bei 1GiB wäre auch da noch viel Platz für Texturen.

deekey777
2006-10-29, 15:35:44
Geht MSAA grds nicht (also auch auf PC nicht) oder liegt das Problem im Tiling für Xenos?
Ich hab doch geschrieben, dass die Xbox360 dafür nichts kann. :wink:
Es liegt am Deferred Shadowing, was für die Schatten verwendet wird.
Wurde von Epic nicht mal verlautbart das AA nicht so wichtig sei und man deshalb nicht drauf achtet obs mit den aktuellen Karten möglich ist?Aber das dürfte sich ja mit dem D3D10 Karten erledigt haben oder?
Ja, aber das ist lange her und schon vergessen. :D

dildo4u
2006-10-29, 15:36:58
Der Framebuffer wird durch FP16 doch nur doppelt so groß. Das kann eigentlich kaum sein.

Selbst mit FP32 und 8xAA in UXGA brauchst Du "nur" 1600x1200 x 4x4x2 x 8 = 491,5 MB. Bei 1GiB wäre auch da noch viel Platz für Texturen.Vieleicht ging man ja von einer großen Menge 2048*2048 Pixel großen Texturen aus.Wenn man mal überlegt was CoD 2 schon alles an Videospeicher frisst ganz ohne HDRR gut möglich das man da mit den 768mb der 8800GTX gar nicht hinkommt also bezogen auf die UE3 mit HDRR+AA plus große Texturen.

Hvoralek
2006-10-29, 15:39:51
Vieleicht ging man ja von einer großen Menge 2048*2048 Pixel großen Texturen aus.Bei halbwegs realistischen Annahmen bzgl der Auflösung müssten diese Texturen den 2GiB- Speicher aber fast alleine füllen. Dann liegt das Platzproblem nicht an MSAA + HDRR.

dargo
2006-10-29, 15:42:35
Wenn man mal überlegt was CoD 2 schon alles an Videospeicher frisst ganz ohne HDRR gut möglich das man da mit den 768mb der 8800GTX gar nicht hinkommt also bezogen auf die UE3 mit HDRR+AA plus große Texturen.
AFAIK verwendet CoD2 HDRR.

dildo4u
2006-10-29, 15:44:16
AFAIK verwendet CoD2 HDRR.Aber kein "echtes" oder sonst würde das ja nicht ohne Probleme auf den SM3.0 Karten von Nvidia mit AA laufen.

gguru
2006-10-29, 16:23:47
Oh nein: http://www.atacom.com/program/atacom.cgi?USER_ID=www&cart_id=6000366_80_121_61_230&SEARCH=SEARCH_ALL&ordered_number=&KEYWORDS=8800gtx&Disp_item2.x=0&Disp_item2.y=0

$800 für eine 8800GTX. Ich hoffe das wird nicht so bleiben.

dargo
2006-10-29, 16:26:42
Oh nein: http://www.atacom.com/program/atacom.cgi?USER_ID=www&cart_id=6000366_80_121_61_230&SEARCH=SEARCH_ALL&ordered_number=&KEYWORDS=8800gtx&Disp_item2.x=0&Disp_item2.y=0

$800 für eine 8800GTX. Ich hoffe das wird nicht so bleiben.
Die Preise sagen doch überhaupt nichts aus. Bis ca. Dezember würde ich die Preise eh nicht beachten. Es ist völlig normal, dass bei neuer Hardware die schlechte Verfügbarkeit immer ausgenutzt wird.

Spasstiger
2006-10-29, 16:30:09
Ich rechne damit, dass der Preis der 8800 GTX bis April auf 400€ gefallen sein wird und sich dann vielleicht auch schon die GeForce 8800 GX2 ankündigt (nach einem Interview in der letzten oder vorletzten PCGH wird Nvidia am Dual-Chip-Konzept festhalten). Wenn nicht schon die Rede vom Refresh ist. ;)

gguru
2006-10-29, 16:31:12
Die Preise sagen doch überhaupt nichts aus. Bis ca. Dezember würde ich die Preise eh nicht beachten. Es ist völlig normal, dass bei neuer Hardware die schlechte Verfügbarkeit immer ausgenutzt wird.

Was bringt es mir, im Dezember die Preise zu beachten, wenn ich gleich zu Beginn eine kaufe? Nur noch 10 Tage bis zum Launch. :biggrin:

dargo
2006-10-29, 16:35:55
Was bringt es mir, im Dezember die Preise zu beachten, wenn ich gleich zu Beginn eine kaufe? Nur noch 10 Tage bis zum Launch. :biggrin:
Sorry, aber Dummheit muss bestraft werden. Dann zahlst du halt die ~700€.

Ich rechne damit, dass der Preis der 8800 GTX bis April auf 400€ gefallen sein wird und sich dann vielleicht auch schon die GeForce 8800 GX2 ankündigt (nach einem Interview in der letzten oder vorletzten PCGH wird Nvidia am Dual-Chip-Konzept festhalten). Wenn nicht schon die Rede vom Refresh ist. ;)
Ich glaube kaum, dass NV eine G8800GX2 in 90nm bringt. Meinst du der 65nm Fertigungsprozess ist schon im April reif für eine GX2?

gguru
2006-10-29, 16:37:51
Dummheit

Ich würde es eher Ungeduld nennen.

dargo
2006-10-29, 16:41:04
Ich würde es eher Ungeduld nennen.
Nenne es, von mir aus, wie du möchtest. :)
Dann musst du für deine Ungeduld halt draufzahlen.

Gouvernator
2006-10-29, 17:00:24
Nenne es, von mir aus, wie du möchtest. :)
Das musst du für deine Ungeduld halt draufzahlen.
Also ich würde sie gleich NICHT kaufen aus einem Grund. Letztes Jahr hat meine X1900 auch 700€ gekostet, aber (!) die Situation war halt die das in absehbarer Zeit , keine nennenswerte Steigerungen zu erwarten waren, ansonsten hätte ich mir bestimmt in den Arsch gebissen wenn eine GX2 in 2 Monaten da war. Aber jetzt hat NV erstens zu wenig und zu schlechten Speicher verbaut , es lässt sich schon erahnen wie schnell ein Nachfolger mit 1-2 GB nachgeschoben wird, dann der R600 mit völlig unbekannten Leistungsdaten...

Gast
2006-10-29, 17:27:13
1. Bis die PS3 hier erscheint dürfte die G8800GTX weniger kosten. Außerdem gibt es noch die kaum langsamere G8800GTS.


zumindest theoretisch sollte die 8800GTS doch um einiges langsamer als ihre "große schwester" sein.

SKYNET
2006-10-29, 17:48:36
http://www.forumdeluxx.de/forum/showpost.php?p=4723613&postcount=498

hmmmmm kann das stimmen das eine dualcore cpu den g80 nicht ausreizt ?

denn in den enzelnen game benches vom 3dmark sind auch paar frames um ...

keine aktuelle high-end CPU nutzt eine aktuelle highend graka aus... ist schon min. seit der GF1.... :smile:

Ich werde froh sein wenn G80 es schafft mit allem drun und dran in UT2007 mit 4xAA/16xAF in 1600 fertig zu werden, wobei ich ehrlich nicht weiss ob es auch hier eng werden koennte. Nach Sweeney verbratet die UE3 engine alleine fuer shading ~500GFLOPs; ich hab das Gefuehl dass Ihr die zukuenftigen Spiele etwas unterschaetzt.

SLI, ist die lösung all unser probleme! :wink:

Gast
2006-10-29, 18:11:35
SLI, ist die lösung all unser probleme! :wink:Die Lösung aller Probleme sicher nicht, denn AFR ist nicht für jedes Genre geeignet und SFR war bisher zu lahm, was sich hoffentlich zum besseren wendet. Trotzdem hoffe ich darauf, SLI zukünftig auch mit 3 Grakas nutzen zu können, gerade auch wegen der 2 SLI-Links auf der GTX. Ein Link zwischen Karte 1 und 2, einer zwischen 2 und 3 und einer zwischen 1 und 3. Alle GPUs direkt miteinander verbunden. Könnte auch sehr interessante SLI-AA-Modi ermöglichen, bei kluger Sampleverteilung könnte man dann auch ein wenig am LOD schrauben, ohne sich negative Nebeneffekte einzufangen. Fehlen nur noch die Quadfather-Mobos, dann kann wieder geschraubt werden :D

Gast
2006-10-29, 18:42:29
keine aktuelle high-end CPU nutzt eine aktuelle highend graka aus... ist schon min. seit der GF1.... :smile:


alles eine frage der einstellung, mit entsprechend hohen auflösungen zwingt man jede graka in die knie, sonst hätte SLI/crossfire ja überhaupt keine daseinsberechtigung.

Gast
2006-10-29, 19:10:31
http://images.google.de/images?hl=de&q=8800gtx&btnG=Bilder-Suche&nojs=1

;)

dargo
2006-10-29, 19:49:14
http://images.google.de/images?hl=de&q=8800gtx&btnG=Bilder-Suche&nojs=1

;)
Mir ist erst jetzt der "komische" Lüfter des G80 aufgefallen. Diese kleinen Schaufeln sollen für hohen Luftdurchsatz sorgen? :|

http://www.gizmodo.com/assets/resources/2006/10/Nvidia%208800%20GTX.jpg

dildo4u
2006-10-29, 19:55:41
Mir ist erst jetzt der "komische" Lüfter des G80 aufgefallen. Diese kleinen Schaufeln sollen für hohen Luftdurchsatz sorgen? :|

Ist whol ein Radiallüfter macht auch mher Sinn der bewegt die Luft von rechts nach links über den Kühler(Der Chip liegt ja weiter links auf dem Bild und nicht direkt unter dem Lüfter) und bläßt nicht einfach Luft von oben rauf.

So sieht das Prinzip aus nur "liegt" der Lüfter halt auf der Karte.

http://tweakers4u.de/new/include/artikel/lufter_konzept/radial_axial.jpg

dargo
2006-10-29, 20:23:06
@dildo4u
Das mit dem Lüfter ist schon klar. Mich wundert nur die Schaufelngröße. Schau dir den mal hier an:
http://www.hartware.de/showpic.php?type=news&id=40946&nr=1&path=/media/news/40000/40946_1b.jpg

Wie soll man mit diesen kleinen Schaufeln beim G80 Lüfter viel Luft bewegen, außer mit viel Drehzahl? Sprich laut.

dildo4u
2006-10-29, 20:28:22
Jo stimmt die sind im Vergleich recht klein aber abwarten ich will hier ohne Tests kein voreiliges Urteil über den Lüfter äußern.Vom Prinzip her ist es ja ein Silencer der alten Bauart und das der gut arbeitet kann ich bestätigen hat schon auf meiner 9700pro und 6800GT gute Dienste geleistet.

Gast
2006-10-29, 21:09:17
der silencer hatte aber auch größere blätter

SKYNET
2006-10-29, 21:25:11
alles eine frage der einstellung, mit entsprechend hohen auflösungen zwingt man jede graka in die knie, sonst hätte SLI/crossfire ja überhaupt keine daseinsberechtigung.

mit quad-sli @ G80, zwingt man da sicher nix in die knie... :wink:

Gast
2006-10-29, 21:25:30
Würd ich mal mit ner 7800GTX Standart vergleichen, ich hatte eine von PNY, deren Lüfter sah ähnlich vielblättrig aus. Hört man wenn er hochdreht, da viel Luft bewegt wird.

Botcruscher
2006-10-29, 21:58:39
mit quad-sli @ G80, zwingt man da sicher nix in die knie... :wink:

Doch. Das Netzteil und die Klimaanlage, respektive den User im Hochsommer. Nebenbei bringt es dank DX9 nix.

doppelschwoer
2006-10-29, 22:15:17
Mir ist erst jetzt der "komische" Lüfter des G80 aufgefallen. Diese kleinen Schaufeln sollen für hohen Luftdurchsatz sorgen? :|


Och neee, hier mal im Vergleich ne 7800GTX. Die war doch auch eher ne leise:

http://pics.hoobly.com/full/FIHWHFQYJQ9OF16KDP.jpg

Da sind die Schaufelblätter der G80 ein Witz. Ich hoffe mal das wird bei ner 600€ Karte nich am Lüfter scheitern. Eigentlich hat Nvidia bei den Highends ja immer ein recht guten Lüfter design gebat. Zumindest seit der 5800;D

4711
2006-10-29, 22:19:08
mich juckt es auch glaube in 10 Tagen fürchterlich :D aber ich werde auf die ATI warten..und wenn die wirklich eine GX² bringen..wie will man das Monster kühlen und soviel Kabel kann ich ja gar nicht legen :D ich denke irgendwie ist schluß mit GraKas im herkömmlichem Sinne,das hat doch nix mehr mit High End zutun..30cm lange Karten.....ein Vorteil haben sie ja man kann seinen Eierkocher in Rente schicken.

The_Invisible
2006-10-29, 22:23:27
mich juckt es auch glaube in 10 Tagen fürchterlich :D aber ich werde auf die ATI warten..und wenn die wirklich eine GX² bringen..wie will man das Monster kühlen und soviel Kabel kann ich ja gar nicht legen :D ich denke irgendwie ist schluß mit GraKas im herkömmlichem Sinne,das hat doch nix mehr mit High End zutun..30cm lange Karten.....ein Vorteil haben sie ja man kann seinen Eierkocher in Rente schicken.

das gehäuse wird dann schön unterteilt und unten kann man dann ne pizza reinschieben zwischen den zwei grafikkarten, umluft gibts auch noch dazu

so wird dann langsam ein backofen ersetzt der auch nicht wenig kostet ;)

mfg

Gast
2006-10-29, 22:36:28
mit quad-sli @ G80, zwingt man da sicher nix in die knie... :wink:

irgendwann ist auch hier das ende erreicht, man kann nie genug rechenleistung haben ;)

4711
2006-10-29, 22:40:44
Das ist doch mittlerweile schon nebensächlich...die Dinger kühlen ist das prob.da hat man einen super CPU und NB von Hause aus und durch die Teile da unten drunten werden die rotklühend :D irgendwie verliere ich so langsam die Lust am PC Gaming und nicht nur wegen der Hardware....

Superheld
2006-10-29, 22:46:29
http://www.crysis-online.com/?id=98:eek:

DarkFox
2006-10-29, 23:04:36
http://www.crysis-online.com/?id=98:eek:

Server will nich/ ist down :(
Gibts das auch irgendwo anders?

Godmode
2006-10-29, 23:05:33
http://www.crysis-online.com/?id=98:eek:

Kann das wer woanders raufladen, dort ist alles voll, oder zumindest ein paar Hi-Res Shots, bitte danke.

dildo4u
2006-10-29, 23:19:01
http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=103&ttitle=Crysis_G80_Flyover_Video_-_WMV


http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=104&ttitle=Crysis_G80_Gameplay_Video_-_WMV

Superheld
2006-10-29, 23:19:05
schon wieder dopppelt gemoppelt von mir;(

Ailuros
2006-10-30, 00:19:09
FEAR ist mit seiner hohen Stencillast auch ein Sonderfall. Da kommt es wirklich mal mit MSAA auf die z/St- Füllrate an und nicht auf die Bandbreite. Oft gibt es das aber mW nicht.


Ich hab mit Absicht eines der worst case scenarios gewaehlt.

Ailuros
2006-10-30, 00:24:28
Was noch zu beweisen wäre, dass der angeblich geringe Drop daran liegt. Ich glaube bis heute nicht daran. Habe es auch schon mehrfach vorgerechnet (und ich bin nicht der Einzige, der das so sieht).

Es gibt immer noch Falanx und ihr Mali-Design fuer den PDA/mobile Markt als weiteres Beispiel. Hier ist bei weitem der gate-count, Speicher und Bandbreite so begrenzt dass es fuer mich keine andere Erklaerung gibt.

Ailuros
2006-10-30, 00:30:12
Ich hab doch geschrieben, dass die Xbox360 dafür nichts kann. :wink:
Es liegt am Deferred Shadowing, was für die Schatten verwendet wird.


http://www.beyond3d.com/forum/showthread.php?t=33678

Nightspider
2006-10-30, 01:00:27
Hmmm, naja, einen deutlichen Unterschied konnte ich bei den G80-Crysis Videos nicht sehen, was wohl an der Videoauflösung liegt, die nicht sehr hoch ist....scheint auch abgefilmt zu sein. ;(

Hier die Videos:

http://www.crysis-hq.de/

Blaire
2006-10-30, 01:12:25
http://www.brack.ch/aspx/default.aspx?ID=47290&mod=artikel

Die Schweizer Käsemeister haben sie auch schon gelistet ;D ^^

Nightspider
2006-10-30, 01:52:50
CHF 969.00 sind wieviel Euro ?
Ich glaube hier wäre es nicht so ganz richtig, 1:1 Umzurechnen. ;)
^^

StefanV
2006-10-30, 02:02:23
CHF/ 1,5 ~ Euro.

just4FunTA
2006-10-30, 02:05:09
CHF 969.00 sind wieviel Euro ?
Ich glaube hier wäre es nicht so ganz richtig, 1:1 Umzurechnen. ;)
^^#

Ergebnis:
969,00 CHF = 608,87 EUR

1 CHF = 0,62835 EUR
1 EUR = 1,59146 CHF

Stand der Kurse: 30.10.2006 - 00:00 Uhr

http://www.banking-test.de/waehrungsrechner.php

tombman
2006-10-30, 02:14:03
Ich hab mir bei den Schweizern gleich mal zwei bestellt, auch wenn ich bezweifle, daß ich je welche bekommen werde, denn für die Schweizer etwas ins "Ausland" zu verschicken ist so, als ob man verlänge sie sollten etwas zum MARS schicken :rolleyes:

Gast
2006-10-30, 04:52:54
http://www.crysis-online.com/?id=98:eek:

optik is ok mehr ned,leute nwird wieder eingeredet das das game mit der g80 besser ausschaut......naja die masse kann man leicht verarschen

Spasstiger
2006-10-30, 05:11:07
Ich hab mir bei den Schweizern gleich mal zwei bestellt, auch wenn ich bezweifle, daß ich je welche bekommen werde, denn für die Schweizer etwas ins "Ausland" zu verschicken ist so, als ob man verlänge sie sollten etwas zum MARS schicken :rolleyes:
Muha, sind die Schweizer echt so schlimm? :biggrin:

@Gast über mir: Die Grafik ist zumindest das Realistischste und Eye-Candy-mäßigste, was ich bisher in Echtzeit gesehen habe. Ich finde, der Sprung gegenüber Oblivion und Co. ist groß genug, um von Next-Gen sprechen zu können. Vor allem wirkt die Welt in Crysis zumindest in den bisher gezeigten Videos wie aus einem Guss und nicht so LOD-vergewaltigt wie z.B. Oblivion (ohne Mods).
Und mit G80-Promotion hat das auch nur bedingt was zu tun. In erster Linie wird der D3D10-Renderer vorgeführt, der so auch auf ATI-Karten nutzbar sein wird. Jeder kann sich nun selbst ein Bild davon machen, ob ihm die gezeigten Verbesserungen gegenüber den alten Videos soviel Wert sind, um z.B. von einer flotten DX9-Karte und WinXP umzusteigen auf Vista und D3D10.

Cubitus
2006-10-30, 12:28:32
Ein Händler in der Schweiz hat die ASUS GTX und GTS modelle schon gelistet!
der Preis ist wie zu erwarten teuer!

http://www.brack.ch/aspx/default.aspx?ID=47290&mod=artikel

robbitop@work
2006-10-30, 12:33:54
Es gibt immer noch Falanx und ihr Mali-Design fuer den PDA/mobile Markt als weiteres Beispiel. Hier ist bei weitem der gate-count, Speicher und Bandbreite so begrenzt dass es fuer mich keine andere Erklaerung gibt.
Vieleicht ist das Ganze mehrschichtig. Bandbreite (und deren Schonungsmechanismen) und AA Algoritmus spielen m.E. eine Hauptrolle hierbei. IMO spielen die ROPs nur eine kleine Nebenrolle. Da diese eben pro Takt eine Operation schaffen. Filtern und Shaden eines einzigen Pixels dauert um einen 2-3 stelligen Faktor länger.
Die X1950XT ist fast linear schneller als die X1900XTX bei gleichem Chiptakt, 4xAA NoAF und erhötem Memorytakt. NV43 leidet auch nicht an seinen 4 ROPs. Selbst bei FEAR und Doom 3 nicht (ggü RV410 (8 ROPs) und 6800 (16 ROPs)) mit 4x/NoAF.

Riplex
2006-10-30, 13:02:04
Ein Händler in der Schweiz hat die ASUS GTX und GTS modelle schon gelistet!
der Preis ist wie zu erwarten teuer!

http://www.brack.ch/aspx/default.aspx?ID=47290&mod=artikel


Hmm, sind so ca. 620 €. Find ich in Ordnung für die gebotene Leistung.

Hvoralek
2006-10-30, 13:19:34
Hmm, sind so ca. 620 €. Find ich in Ordnung für die gebotene Leistung.Wie sieht es bei Importen aus der Schweiz mit Steuern/ Zoll aus?

LovesuckZ
2006-10-30, 13:22:54
Wie sieht es bei Importen aus der Schweiz mit Steuern/ Zoll aus?

16% und eventuell noch Gebühren vom Transportunternehmen.

Ailuros
2006-10-30, 13:25:31
Vieleicht ist das Ganze mehrschichtig. Bandbreite (und deren Schonungsmechanismen) und AA Algoritmus spielen m.E. eine Hauptrolle hierbei. IMO spielen die ROPs nur eine kleine Nebenrolle. Da diese eben pro Takt eine Operation schaffen. Filtern und Shaden eines einzigen Pixels dauert um einen 2-3 stelligen Faktor länger.

PDA/mobile chips sind (meistens) 1*1 designs.

Die X1950XT ist fast linear schneller als die X1900XTX bei gleichem Chiptakt, 4xAA NoAF und erhötem Memorytakt. NV43 leidet auch nicht an seinen 4 ROPs. Selbst bei FEAR und Doom 3 nicht (ggü RV410 (8 ROPs) und 6800 (16 ROPs)) mit 4x/NoAF.

Um wieviel ist die X1950 aber schneller als die X1900 oder noch besser wie klein genau ist der Verlust von G80 im Vergleich zu dem? Die hohe Bandbreite auf G80 ist primaer dazu da erstmal die enorm hohe AF Fuellrate (Deine angeblichen Zixel ahoi pffff), float HDR Ops und bis zu 8xMSAA ausfuehren zu koennen. In diesem Fall sind es 2 cycli vs. 4 rein theoretisch auf G7x/R5x0.

Lass Dich mal lieber erst von den ersten Zahlen ueberraschen.

Blackpitty
2006-10-30, 13:50:17
http://www.toppreise.ch/index.php?search=8800+GTX&SID=a2a07897eee7c4b92fe37b2ad9118e05

Gast
2006-10-30, 14:02:02
http://www.toppreise.ch/index.php?search=8800+GTX&SID=a2a07897eee7c4b92fe37b2ad9118e05Und jetzt?

robbitop
2006-10-30, 14:05:24
Um wieviel ist die X1950 aber schneller als die X1900?
Um fast 30% bei 4xAA/NoAF bei einer Steigerung von 30%.



float HDR Ops und bis zu 8xMSAA ausfuehren zu koennen. In diesem Fall sind es 2 cycli vs. 4 rein theoretisch auf G7x/R5x0.

Dann will ich mal sehen, welcher Pixel in heutigen spielen bei 4xMS in unter 4 Takten fertig gerendert ist, so dass das limitieren soll.

Wie gesagt, ich bin nicht der Einzige, der das mit den ROPs so sieht. Aths ist in unseren ICQ Debatten ähnlicher Meinung. Die bisherigen Benches sprechen jedenfalls nicht für diese These.

Zu deinen Zahlen. Die sind per se wertlos. Weil sie nichts über die Ursache der Verbesserung der AA-Geschwindigkeiten aussagen.
Begründung: G80 mit G70 in diesem Punkte zu vergleichen ist schwierig, da zu viele Unbekannte Variablen vorhanden sind.
Die Ursachen für den MSAA Speedup können auch woanders liegen: bessere Bandbreitenschonungsmaßnahmen, anderer MSAA Algoritmus (kannst du ernsthaft behaupten, im Detail zu wissen, inwiefern hier Änderungen im Detail auftrafen?), ectpp.

Ein akurater Vergleich ginge eigentlich nur mit gleichen Architekturen.



(Deine angeblichen Zixel ahoi pffff)
Was hat das denn damit zu tun? Bei diesem Diskussions-Stil kannst du gern mit dir selbst diskutieren.

Ailuros
2006-10-30, 15:00:43
Um fast 30% bei 4xAA/NoAF bei einer Steigerung von 30%. U

Nein wieviel verliert eine R580+ von 1xAA auf 4xAA. Denn das obrige bestaetigt wohl eher das was ich im Hinterkopf habe.


Zu deinen Zahlen. Die sind per se wertlos. Weil sie nichts über die Ursache der Verbesserung der AA-Geschwindigkeiten aussagen.
Begründung: G80 mit G70 in diesem Punkte zu vergleichen ist schwierig, da zu viele Unbekannte Variablen vorhanden sind.
Die Ursachen für den MSAA Speedup können auch woanders liegen: bessere Bandbreitenschonungsmaßnahmen, anderer MSAA Algoritmus (kannst du ernsthaft behaupten, im Detail zu wissen, inwiefern hier Änderungen im Detail auftrafen?), ectpp.

Ich werde gar nichts behaupten; ob ich und mit wem ab und zu plaudere hat sowieso nichts mit dem Thema hier zu tun, genauso was ich weiss oder nicht weiss ueber G80.

4x Multisampling ist 4x Multisampling auf G80 und damit haben die CM Varianten erstmal gar nichts zu tun.


Was hat das denn damit zu tun? Bei diesem Diskussions-Stil kannst du gern mit dir selbst diskutieren.

Es hat alles und gar nichts mit Deiner Denkweise zu tun.

robbitop
2006-10-30, 15:12:55
U

Nein wieviel verliert eine R580+ von 1xAA auf 4xAA. Denn das obrige bestaetigt wohl eher das was ich im Hinterkopf habe.
Es bestätigt, dass bei R580 nicht die ROPs limitieren sondern die Bandbreite.



Ich werde gar nichts behaupten; ob ich und mit wem ab und zu plaudere hat sowieso nichts mit dem Thema hier zu tun, genauso was ich weiss oder nicht weiss ueber G80.
So tiefes wissen, wie genau ein MSAA Algoritmus im Detail umgesetzt ist und wo z.B. die feinen Unterschiede (die aber evtl viel ausmachen) zw. ATI und NV in diesem Thema sind, weiß wohl nur ein Ingenieur bei NV/ATI.


4x Multisampling ist 4x Multisampling auf G80 und damit haben die CM Varianten erstmal gar nichts zu tun.
Weiß ich längst. Nur erzwingt das nicht unbedingt die ROPs al Ursache. Im MSAA Algortimus kann sich einiges Unterscheiden, was im Detail sowieso nicht an dritte weiterkäme.
Über die Skallierung der ROPs müßte man das mal nachweisen. Bis dahin ist für mich mangels Sinn in der Diskussion hier EOD. (zumal es leicht OT ist)

Ailuros
2006-10-30, 15:20:04
Es bestätigt, dass bei R580 nicht die ROPs limitieren sondern die Bandbreite.

Ich fragte ob R580+ weniger von 1x auf 4xAA verliert als Vorgaenger mit weniger Bandbreite aber auf eine klare Antwort darf ich wohl nicht hoffen.

So tiefes wissen, wie genau ein MSAA Algoritmus im Detail umgesetzt ist und wo z.B. die feinen Unterschiede (die aber evtl viel ausmachen) zw. ATI und NV in diesem Thema sind, weiß wohl nur ein Ingenieur bei NV/ATI.

Soll ich Dir wirklich den letzten Satz beantworten?

Weiß ich längst. Nur erzwingt das nicht unbedingt die ROPs al Ursache. Im MSAA Algortimus kann sich einiges Unterscheiden, was im Detail sowieso nicht an dritte weiterkäme.
Über die Skallierung der ROPs müßte man das mal nachweisen. Bis dahin ist für mich mangels Sinn in der Diskussion hier EOD. (zumal es leicht OT ist)

Keine Sorge mein Gedaechtnis funktioniert Gott sei Dank noch so gut dass ich nicht so viel vergesse.

DrumDub
2006-10-30, 15:29:33
Die TFT vs. CRT Diskussion ist jetzt hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=329087) zu finden.

Paul Brain
2006-10-30, 15:48:52
Die TFT vs. CRT Diskussion ist jetzt hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=329087) zu finden.Vielen Dank für die Mühe.


Bezüglich des kleinen nV-Chips zwischen G80 und den Ausgängen: diese Gedanken (http://www.theinquirer.net/default.aspx?article=35406) vom Inquirer konnte ich in dem Thread noch nicht finden.
Meint ihr, daß die die RAMDACs etc. wirklich aus Yield-Gründen ausgelagert wurden? Ich meine, prozentuell macht das die Die-Fläche nicht wesentlich kleiner, weiters dürfte dieses Interface-Zeugs meiner laienhaften Meinung nach auch keine besonderen, fertigungstechnischen Ansprüche stellen und somit der Einfluß auf die Yields relativ gering ausfallen. Dagegen stehen dann aber die Kosten eines zweiten Chip-Packages, das Routing auf dem PCB und die Assembling-Kosten der Karte. Außerdem kann man wohl von einem "baldigen" Refresh in einem kleineren Fertigungsprozeß ausgehen, und wenn man da beschließt, die Teile wieder zu integrieren, wäre das widerum ein höherer Aufwand und erfordert auch gleich ein komplett neues Referenzdesign. Hm.

CyRuS
2006-10-30, 16:02:22
Wird die 8800GTX jetzt definitiv über 600€ kosten? .....das wäre ja oberscheisse, weil dann meine Kreditkarte nicht mehr funzt :(

Paul Brain
2006-10-30, 16:11:55
Wird die 8800GTX jetzt definitiv über 600€ kosten? .....das wäre ja oberscheisse, weil dann meine Kreditkarte nicht mehr funzt :(Äääähm, und wie kaufst Du dann Dinge, die mehr als 600 EUR kosten? :confused:
Kreditkarten haben normalerweise einen monatlichen Rahmen von mind. 3kEUR...

Abgesehen davon würde ich jetzt sowieso keinen G80 kaufen; nicht, bevor umfassende Tests und Berichte da sind (es soll ja angeblich wieder etwas "completely flawed" geben) und bevors keine konkreten Infos zur relativen Leistungsfähigkeit des R600 gibt. Nicht unbedingt, um sich zwischen ATi und nV zu entscheiden - aber um nicht den exorbitanten Preis zahlen zu müssen...

CyRuS
2006-10-30, 16:17:52
Ich hab nur eine Studenten-Mastercard die normalerweise max. 500€ hergibt.... aber meine wurde durch betteln auf 600€ aufgestockt :P

Warum Kreditkarte? Weil es am schnellsten geht und ich mir Nachnahmegebühren spare :D

LovesuckZ
2006-10-30, 16:19:04
Kreditkarten haben normalerweise einen monatlichen Rahmen von mind. 3kEUR...

Das Kreditlimit ist abhängig vom Einkommen.
Ich habe 1k.

Abgesehen davon würde ich jetzt sowieso keinen G80 kaufen; nicht[...] bevors keine konkreten Infos zur relativen Leistungsfähigkeit des R600 gibt.

Dafür müsste man wissen, wenn sie heraus kommt. ;)
Wenn man jetzt einen G80 kauft, hat man wohl bis März viel Spaß an ihr ohne auf die Konkurrenz zu schielen. Und danach kann die Karte immernoch verkauft werden.

aths
2006-10-30, 17:28:33
Wusste schon immer das es PCGH wert ist im Abo zu haben. Welcher Redakteur zeichnet für diesen Artikel verantwortlich?

ShadowXX
2006-10-30, 17:31:38
Welcher Redakteur zeichnet für diesen Artikel verantwortlich?
So wie ich das mitbekommen habe Demi. Wobei ich nicht weiß, ob er vielleicht nur Co-Autor war.

incurable_nli
2006-10-30, 17:33:06
Wird die 8800GTX jetzt definitiv über 600€ kosten?
Nach dem schweizer Link oben habe ich schon ein wenig Hoffnung, dass die GTX in Dtl bei 535~550 Euro anfangen könnte, aber das kommt natürlich immer auf Angebot und Nachfrage an.

Ich werde jedenfalls direkt um den Launch nach einem guten (und verfügbaren) Angebot schauen, und ggf. auch zuschlagen, aber wenn's sich eher Richtung XT PE oder GTX 512 entwickelt langt meine aktuelle X1800XT 512 auch noch ein Weilchen.

dildo4u
2006-10-30, 17:50:48
Welcher Redakteur zeichnet für diesen Artikel verantwortlich?Carsten Spille/Thilo Bayer/Ralf Kornmann.

aths
2006-10-30, 17:53:00
Carsten Spille/Thilo Bayer/Ralf Kornmann.Diese drei Redakteure muss ich mit wohl mal zur Brust nehmen.

cl55amg
2006-10-30, 17:57:34
Diese drei Redakteure muss ich mit wohl mal zur Brust nehmen.

Warum? (neugier bis zum platzen) :-)

Toolman
2006-10-30, 17:59:26
Erstmal abwarten und Tee trinken ! Ich versteh so oder so nicht warum ihr alle schon abdreht obwohl die noch nicht mal raus ! Ich warte immer mind. 3-4 mon. bis der Preis meist auf einen annehmbaren Preis geschrumpft ist und schlag dann zu ! Der R600 soll ja auch nochmal ne ecke schneller als der G80 sein also chillen ist angesagt !

dargo
2006-10-30, 18:02:24
Der R600 soll ja auch nochmal ne ecke schneller als der G80 sein also chillen ist angesagt !
Hast du dafür handfeste Beweise oder ist es reine Spekulation?

aths
2006-10-30, 18:02:38
Warum? (neugier bis zum platzen) :-)Weil mein NDA ein anderes Datum hat.

cl55amg
2006-10-30, 18:10:30
Weil mein NDA ein anderes Datum hat.


Das habe ich schonmal gehört...

Ich nahm an das sie für diesen Artikel eine Ausnahme Erlaubnis hatten?
Oder ist das unwahrscheinlich?

doppelschwoer
2006-10-30, 18:14:32
Weil mein NDA ein anderes Datum hat.

Dann hoffe ich für uns alle das du auch ne Karte zum NDA hast :eek:

So wie ich das sehe ist in dem Bericht nur nüchtern die Technik recht allgemein betrachtet worden. Ist nicht wirklich ein Test mit harten Fakten. Auch ist keine Kritik im Bericht zu erkennen, weder positiv noch negativ.

Trotzdem schon der Hammer dass das überhaupt möglich war.

Toolman
2006-10-30, 18:15:56
Reine Spekulation aufgebaut auf den gefunden Infos im Netz !

doppelschwoer
2006-10-30, 18:20:20
Reine Spekulation aufgebaut auf den gefunden Infos im Netz !

Reine Speku würde ich mal nicht sagen. Dazu sind die Technischen Werte doch zu konkret. Außerdem würde das am Ruf eines Printmediums doch arg bröckeln.

Aber die Auflagen von Nvidia kann man doch erkennen. Ist einfach sehr emotionslos beschrieben.

aths
2006-10-30, 18:23:50
Das habe ich schonmal gehört...

Ich nahm an das sie für diesen Artikel eine Ausnahme Erlaubnis hatten?
Oder ist das unwahrscheinlich?Ich weiß nicht, ob Nvidia das explizit erlaubt hat. Aber ich kann so nicht arbeiten. Von meinem G80-Technik-Artikel ist noch keine Zeile Reinschrift da, aber ich habe bereits mehrere Tage für die Konzeption aufgewendet. Wozu noch schreiben wenn inhaltlich eh das meiste schon bekannt ist? Ich verlange Waffengleichheit. Zum Launchtermin konkurriere ich zwar mit hunderten anderen Artikeln – aber hätte eine feste Leserschaft, die meinen Artikel zuerst liest. Ich mache mir nicht taglange Arbeit für eine Leserschaft, die über die G80-Technik schon bestens informiert ist. Wenn NV mir ein NDA aufpappt, kann das nur in beide Richtungen funktionieren: Ich halte mich an das NDA und NV stellt sicher, dass sich jeder daran hält (und jeder, der leakt, das letzte mal Vorabinformationen bekam.)

Was sollen wir Nicht-PCGH-Redakteure nun tun? Damit leben wenn selektiv wer bevorzugt wird? Dann sind Vorab-Informationen per se sinnlos.

Von NV bekomme ich Infos unter NDA ohne dafür jedes mal neu zu unterschreiben. Die Basis dass ich mein Maul halte heißt "Vertrauen". Es ist inakzeptabel, dass einige Redakteure gleicher sind als andere.


Dann hoffe ich für uns alle das du auch ne Karte zum NDA hast :eek: Ohne Karte kein Artikel, so viel kann ich jetzt schon verraten. Ich veröffentliche keinen Artikel solange 3DCenter nicht auch eigene Filtertest-Untersuchtungen anzubieten hat.


Reine Spekulation aufgebaut auf den gefunden Infos im Netz !Nein. PCGH hatte jemanden beim letzten Editor's Day.


Aber die Auflagen von Nvidia kann man doch erkennen. Ist einfach sehr emotionslos beschrieben.Das liegt am Stil des Kollegen, der die Papers durchgesehen hat.

Toolman
2006-10-30, 18:26:52
Lese keine PCGH ^^ deswegen kp. was die geschrieben haben , hab mich über HWLuxx informiert aber auch so könnte man aus gewohnheit davon ausgehen das ATI wieder schneller ist !

deekey777
2006-10-30, 18:29:34
Lese keine PCGH ^^ deswegen kp. was die geschrieben haben , hab mich über HWLuxx informiert aber auch so könnte man aus gewohnheit davon ausgehen das ATI wieder schneller ist !
Genau solche Postings wie "aus Gewohnheit" sollte man tunlichst unterlassen, da sie zu oft zu unfreundlichen Gegenreaktionen führen.
Entweder Fakten oder gar nichts.

Toolman
2006-10-30, 18:34:34
Meine Aussage das die R600 wahrscheinlich schneller ist beruht rein auf dem Datenblatt und nicht auf der Tatsache das die ATI Karten bis jetzt schneller waren , sollte auch mehr als eine art geschwächter witz sein und nicht so ernst genommen werden ! Also nicht das ich gehauen werde die R600 sieht nach den Daten viel besser aus was aber reine Spekulation ist und erst durch den Release und erste Tests wiederlegt werden kann meiner Meinung nach !

incurable_nli
2006-10-30, 18:51:26
Meine Aussage das die R600 wahrscheinlich schneller ist beruht rein auf dem Datenblatt ...
Welches Datenblatt? Gab's da schon mehr als die allseits geratenen 64 Vec4 ALUs?

Das Problem ist meiner Meinung nach, dass der R600 noch eine ganze Weile in der Zukunft liegt. Wenn ich mir anschaue, was vor nur 6 oder 8 Wochen noch die allgemeine Vorstellung des G80 war und was im Gegensatz dazu jetzt wirklich veröffentlich wird, dann werde ich bei einer Bewertung des R600 auch ohne seinen unglücklichen R400-Vorläufer ganz, ganz vorsichtig.

Man kann halt immer nur vergleichen, was es auch gibt, und in der Zukunft gibt es sicher noch viel schneller ICs. Und wer dieses Jahr 'ne high-end Karte will, kommt am G80 wohl nicht vorbei.

Toolman
2006-10-30, 18:57:29
Ja nicht ganz datenblatt aber auf xs gabs glaub mal vermindert infos !

aths
2006-10-30, 19:03:06
Ja nicht ganz datenblatt aber auf xs gabs glaub mal vermindert infos !"Nicht ganz" und "glaub ich mal"?

Von ATI gab es bisher keine Infos. Da werden höchstens mal ein paar Gerüchte gestreut, um die Leute vom G80-Kauf abzuhalten. Würde NV im umgekehrten Fall genauso machen.

In diesem Thread ist der G80 topic. Der R600 ist nicht topic.

Gouvernator
2006-10-30, 19:10:00
Soviel ich weiss gabs eine definitive 512bit Zusage plus 1Gb Speicher das ja mit R580 schon "möglich" wäre sind das keine Daten ?

Zum Launchtermin konkurriere ich zwar mit hunderten anderen Artikeln – aber hätte eine feste Leserschaft, die meinen Artikel zuerst liest.
Ich und viele anderen würden dein Artikel viel lieber lesen als PCGH , ausserdem nicht viele haben PCGH auch gekauft/abonniert.

LovesuckZ
2006-10-30, 19:14:30
Ich weiß nicht, ob Nvidia das explizit erlaubt hat. Aber ich kann so nicht arbeiten. Von meinem G80-Technik-Artikel ist noch keine Zeile Reinschrift da, aber ich habe bereits mehrere Tage für die Konzeption aufgewendet. Wozu noch schreiben wenn inhaltlich eh das meiste schon bekannt ist? Ich verlange Waffengleichheit. Zum Launchtermin konkurriere ich zwar mit hunderten anderen Artikeln – aber hätte eine feste Leserschaft, die meinen Artikel zuerst liest. Ich mache mir nicht taglange Arbeit für eine Leserschaft, die über die G80-Technik schon bestens informiert ist. Wenn NV mir ein NDA aufpappt, kann das nur in beide Richtungen funktionieren: Ich halte mich an das NDA und NV stellt sicher, dass sich jeder daran hält (und jeder, der leakt, das letzte mal Vorabinformationen bekam.)


Es gab ein paar Informationen aus der PCGH, die neu waren. Aber das NDA wird doch sowieso immer gebrochen. Oder spielt es für dich eine Rolle, ob wichtige Informationen 2h oder eine Woche vor'm Vorstellungsdatum erscheinen?
Jeder weiß, warum wir 3DCenter lieben. Deine Artikel gehören dazu. Dabei spielen doch die oberflächlichen Informationen, die vor dem Tag X an die Öffenlichtkeit gelangen, keine Rolle.
Aber schön, dass ihr eine Karte bekommen habt. :biggrin:

aths
2006-10-30, 19:22:19
Es gab ein paar Informationen aus der PCGH, die neu waren. Aber das NDA wird doch sowieso immer gebrochen. Oder spielt es für dich eine Rolle, ob wichtige Informationen 2h oder eine Woche vor'm Vorstellungsdatum erscheinen? Ja, das spielt eine Rolle. Wenns in der PCGH steht spricht sich das rum. Bis zum Auslaufen des NDAs kennt jeder die ganzen Zahlen. Hier im Thread sind auch schon weitere Details zu lesen (ich sage jetzt nicht was davon richtig ist und was falsch, einiges ist richtig, anderes falsch.) So wie ich das sehe mischen Leute die für die PCGH arbeiten im Thread bei der Informationsverteilung kräftig mit, während ich brav meinen Mund halte. Gilt für die kein NDA? Haben die ihre Informationen woanders her? Selbst wenn – hat NV die nicht trotzdem einfach unter NDA gestellt? Sobald die auch nur in ein Dokument kurz reingucken was NV zur Verfügung gestellt hat, sind die unter NDA. Ist NV mit der Vorveröffentlichung seitens der PCGH-Redakteure einverstanden während ich Journalist zweiter Klasse bin, der abwarten muss, bis alle die PCGH gekauft oder wenigstens zitiert haben? Ich erwarte das Mindestmaß an Professionalität, dass ein NDA für alle gilt, von anderen auch. Das muss vom NDA-Verteiler durchgesetzt werden, sonst brauchts kein NDA.

Jeder weiß, warum wir 3DCenter lieben. Deine Artikel gehören dazu. Dabei spielen doch die oberflächlichen Informationen, die vor dem Tag X an die Öffenlichtkeit gelangen, keine Rolle.Auf die Schnelle habe ich nicht viel mehr als ebenjene oberflächlichen Informationen anzubieten. PCGH hatte wie gesagt jemanden zum letzten Editor's Day, wo der G80 besprochen wurde. Bislang wurde ich von NV nicht mal telefonisch gebrieft. Seitens NV konnte ich mir aus einem Bereich für registrierte Journalisten gerade mal ein PDF rausangeln, welches ein paar Infos enthält.

Es kann nicht sein dass PCGH die Rosinen bekommt und ich dann für 3dc-Leser vielleicht noch das eine oder andere Detail nachliefere. Die wirklichen Details gibts eh erst Wochen oder Monate später. Was gewisse Baugruppen angeht hatte ich mir schon Gedanken gemacht, und wenn ich das jetzt noch schreibe, wirkt es wie von Demirug abgeschrieben.

Aber schön, dass ihr eine Karte bekommen habt. :biggrin:Bislang haben wir keine Karte.

Gast
2006-10-30, 19:36:49
Aths, ich verstehe ja deine Verärgerung, aber lass dich von dieser nicht davon abhalten einen "G80-inside"-Artikel zu schreiben.

deekey777
2006-10-30, 19:40:53
aths:
Hat die PCGH wirklich das NDA gebrochen, wenn die Abo-Kunden ihre Ausgabe früher bekommen? Hat die PCGH ihr NDA gebrochen? War es von nVidia einkalkuliert, dass die Abo-Kunden ihre Ausgabe früher bekommen?
Ich verstehe aths, aber es ist nicht das erste Mal, dass so etwas passiert. Mehrere HL2-Artikel wären da ein Beispiel, als Abonnenten der PC Gamer alle Infos einige Tage vorher verraten haben, die in der PC Gamer zu lesen waren.

Aber: Jetzt weißt du, was du besser machen kannst. Es gibt auch solche Späße wie "Spieletests - fünf Seiten, technische Infos - 50 Seiten". Und ich glaube, dass der G80 und die Neuerungen, die mit ihm kommen, einen sehr großen Technologie-Artikel nötig machen. Und das ist meiner Meinung nach die Stärke einer Seite wie 3DC.

Ich habe die PCGH nicht, ich werde mir diese sehr wahrscheinlich kaufen, aber aus den hier veröffentlichten Infos bin ich bisher zu einem Entschluss gekommen: viel zu wenig. Und ich bin mir sicher, dass ich mit diesen Infos wenig anzufangen haben werde bzw. dass ich weitere Fragen werde.
Und wenn man Fragen hat, schreibt man im Forum. :smile:

PS: http://www.beyond3d.com/forum/showpost.php?p=862060&postcount=2053

Gast
2006-10-30, 19:44:47
Carsten Spille/Thilo Bayer/Ralf Kornmann.
ist carsten nicht in diesem forum?

deekey777
2006-10-30, 19:46:11
ist carsten nicht in diesem forum?

Von links nach rechts: Quasar, PCGH_Thilo und Demirug, wenn mich nicht alles täuscht.

aths
2006-10-30, 20:02:44
Aths, ich verstehe ja deine Verärgerung, aber lass dich von dieser nicht davon abhalten einen "G80-inside"-Artikel zu schreiben.Einen Inside- bzw. "im Detail"-Artikel würde es, wenn überhaupt, sowieso erst Monate später geben. Im Moment kenne ich ja auch nur die groben Zusammenhänge.

aths
2006-10-30, 20:06:31
aths:
Hat die PCGH wirklich das NDA gebrochen, wenn die Abo-Kunden ihre Ausgabe früher bekommen? Hat die PCGH ihr NDA gebrochen? War es von nVidia einkalkuliert, dass die Abo-Kunden ihre Ausgabe früher bekommen?Ich gehe davon aus, dass Nvidia der Sache zugestimmt hat. Bisher hat sich ja keiner der beteiligten Redakteuere dazu geäußert. Mit Nvidia werde ich in dieser Frage jedenfalls noch ein ernstes Gespräch führen.

Aber: Jetzt weißt du, was du besser machen kannst.Was ich besser machen kann? Mit welchen besseren Informationen denn? Ich kann es nicht besser machen als Demirug. Die PCGH bekommt von NV die größere Zuwendung. Die PCGH hat mit dem freien Mitarbeiter Ralf Kornamn den versierteren 3D-Guru. Ich könnte meinen Artikel länger machen, aber nicht besser. Vor allem will ich den ersten 3dc-G80-Tech-Artikel gar nicht lang machen sondern nur einen Überblick über einige der wichtigsten Neuerungen geben. Das hat Demirug nun schon gemacht. Gut. Es ist bereits zu lesen, während ich nicht veröffentlichen darf. Nicht gut.

Und wenn man Fragen hat, schreibt man im Forum. :smile:Da gibts für mich nichts zu smilen weil ich als NDA-Redakteur auf Forumsfragen keine Antworten gebe, solange die Inhalte das NDA betreffen. Klar wollen die Leser alles möglichst sofort wissen. Die freuen sich jetzt dass sie ein paar Tage weniger warten mussten. Ich verlange für uns Journalisten aber Waffengleichheit und NDA-Gleichbehandlung.

ShadowXX
2006-10-30, 20:27:21
Ich gehe davon aus, dass Nvidia der Sache zugestimmt hat. Bisher hat sich ja keiner der beteiligten Redakteuere dazu geäußert. Mit Nvidia werde ich in dieser Frage jedenfalls noch ein ernstes Gespräch führen.

Quasar hatte angedeutet, das es da tatsächlich einen Deal* mit nV gab, weil die PCGHW sonst erst knapp einen (halben?) Monat nach Launch hätte berichten können

(*Sie durften nur "emotionslos" Specs und sonst nichts bringen)

Was ich besser machen kann? Mit welchen besseren Informationen denn? Ich kann es nicht besser machen als Demirug. Die PCGH bekommt von NV die größere Zuwendung. Die PCGH hat mit dem freien Mitarbeiter Ralf Kornamn den versierteren 3D-Guru. Ich könnte meinen Artikel länger machen, aber nicht besser. Vor allem will ich den ersten 3dc-G80-Tech-Artikel gar nicht lang machen sondern nur einen Überblick über einige der wichtigsten Neuerungen geben. Das hat Demirug nun schon gemacht. Gut. Es ist bereits zu lesen, während ich nicht veröffentlichen darf. Nicht gut.

Wir möchten deine Artikel dazu trotzdem lesen, veilleicht hast du a auch zu der einen oder anderen Sache eine andere Einschätzung. Mehr Meinungen sind immer besser als wenige Meinungen....bitte wirf deswegen nicht die Flinte ins Korn.


Da gibts für mich nichts zu smilen weil ich als NDA-Redakteur auf Forumsfragen keine Antworten gebe, solange die Inhalte das NDA betreffen. Klar wollen die Leser alles möglichst sofort wissen. Die freuen sich jetzt dass sie ein paar Tage weniger warten mussten. Ich verlange für uns Journalisten aber Waffengleichheit und NDA-Gleichbehandlung.
Falls es dich tröstet. Ich kann deine Enttäuschung verstehen.

Demirug
2006-10-30, 20:45:49
Was ich besser machen kann? Mit welchen besseren Informationen denn? Ich kann es nicht besser machen als Demirug. Die PCGH bekommt von NV die größere Zuwendung. Die PCGH hat mit dem freien Mitarbeiter Ralf Kornamn den versierteren 3D-Guru. Ich könnte meinen Artikel länger machen, aber nicht besser. Vor allem will ich den ersten 3dc-G80-Tech-Artikel gar nicht lang machen sondern nur einen Überblick über einige der wichtigsten Neuerungen geben. Das hat Demirug nun schon gemacht. Gut. Es ist bereits zu lesen, während ich nicht veröffentlichen darf. Nicht gut.

Ich habe da im Wesentlichen nur Berater und fachliches Lektorat gemacht und gerade bei den Details kratzt der Text nur an der Oberfläche weil weder die Zeit noch Platz für mehr vorhanden war.

doppelschwoer
2006-10-30, 21:33:41
@ aths
Aths, ich verstehe dass du dich ungerecht behandelt fühlst, aber so ist das im Business eben. Jetzt heißt es Profesionell sein und aus dem Rückschlag eine Tugend machen.
Wie die meisten zustimmen ist der Artikel in der PCGH etwas oberflächlich. Ich an deiner Stelle würde die gegeben Fakten der G80 nehmen und anfangen diese zu interpretieren.

z.B. was bring nun das Unified Shader geraffel wirklich
Welche heutigen grossen 3DEngines können von der Architektur gewinnen, welche verlieren
Wie sind die Leistungsdaten einzuschätzen. Wir wissen es sind Theoretische 520/320 GFLOPs drin, aber wie äußert sich der 'fehlende' VertexShader
Wieviel Power geht durch den Geo-Shader bei D3D10 hängen


Mir fallen da noch ne ganze Latte an Themen ein, die ich als Leihe aus dem Bericht der PCGH nicht ableiten kann. Ich denke da hast du ganz andere Möglichkeiten. Und auch wenn es nur ein Schuß ins Blaue ist? Wenn das so klar aus dem Text hervor geht ist das doch legitim und trotzdem professionel.

Ich würd mir das jetzt nicht so zu herzen nehmen.
Außerdem finde ich es schon beachtlich, dass du es mit einer Kompletten Redaktion aufnehmen willst.

@all
Was könnt ihr zu den Punkten oben sagen? Die Crysis Videos sehen ja schon lecker aus. Aber was geht davon mit ne X1900XTX, vor allem halbwegs spielbar.

Gast
2006-10-30, 21:59:40
@all
Was könnt ihr zu den Punkten oben sagen? Die Crysis Videos sehen ja schon lecker aus. Aber was geht davon mit ne X1900XTX, vor allem halbwegs spielbar.
Zum Beispiel AA? Mir wäre nicht bekannt wie sie das bei ihrer Renderingpipeline in D3D9 lösen könnten.

Armaq
2006-10-30, 22:21:25
Ich habe noch nichts gelesen und warte auf 3DC.
Auch wenn ich mitunter nicht alle technischen Zusammenhänge verstehe, aber PCGames und Gamestar sind meiner Meinung nach nichts weiter als bezahlte Werbung in "professionellem" Gewand.

Falls mich jetzt jemand auf irgendeine Weise angreifen möchte, ich habe selbst schon bei einer großen Tageszeitung gearbeitet und bin daher übers NewsBuisness grob im Bilde.

Spasstiger
2006-10-30, 23:04:28
Auch wenn ich mitunter nicht alle technischen Zusammenhänge verstehe, aber PCGames und Gamestar sind meiner Meinung nach nichts weiter als bezahlte Werbung in "professionellem" Gewand.

Falls mich jetzt jemand auf irgendeine Weise angreifen möchte, ich habe selbst schon bei einer großen Tageszeitung gearbeitet und bin daher übers NewsBuisness grob im Bilde.
Der Artikel in der PC Games Hardware ist nüchtern sachlich und auch nicht mit halbgaren Spekulationen angereichert. Von Hype keine Spur.
Höchstens der Satz mit "faustdicke Überraschung" könnte als unsachlich gewertet werden, aber der G80 ist nun mal für fast alle hier eine große Überraschung. Denn man ging ja eigentlich von einem aufgeblasenen G71 mit Unified-Vertex/Geo-Shadern aus.

Paul Brain
2006-10-31, 00:11:51
Der Artikel in der PC Games Hardware ist nüchtern sachlich und auch nicht mit halbgaren Spekulationen angereichert. Von Hype keine Spur.
Höchstens der Satz mit "faustdicke Überraschung" könnte als unsachlich gewertet werden, aber der G80 ist nun mal für fast alle hier eine große Überraschung. Denn man ging ja eigentlich von einem aufgeblasenen G71 mit Unified-Vertex/Geo-Shadern aus.Eine Überraschung war für regelmäßige Leser des Speku-Forums eigentlich nur die vor einigen Wochen bekanntgewordenen Gerüchte bzgl. des Speichers, und daß es doch eine HW-US-Architektur sein wird. Von einem "aufgeblasenen G7x" ging IMHO niemand hier aus, oder?

Gast
2006-10-31, 00:19:33
Eine Überraschung war für regelmäßige Leser des Speku-Forums eigentlich nur die vor einigen Wochen bekanntgewordenen Gerüchte bzgl. des Speichers, und daß es doch eine HW-US-Architektur sein wird.
Skalare ALUs sind für dich keine Überraschung?
Für mich schon...

Hvoralek
2006-10-31, 00:26:04
Wenn ich an die Reaktionen hier denke, als vor ein paar Wochen einige Eckdaten im Netz auftauchten (etwa 700 Mio Transistoren, 128 ALUs @ 1350 MHz, die Füllrate), würde ich schon von einer Überraschung sprechen. Auch wenn in der PCGH wohl nicht viel steht, was sich nicht in den Tagen zuvor hier abgezeichnet hätte.

Paul Brain
2006-10-31, 01:52:54
Auch wenn in der PCGH wohl nicht viel steht, was sich nicht in den Tagen zuvor hier abgezeichnet hätte.Genau das meinte ich. Nachdem ich die PCGH aber leider nicht abonniert und daher auch nicht gelesen habe sollte ich wohl besser still sein, da ich nicht weiß, was da noch alles neues drinnensteht.

Ailuros
2006-10-31, 06:30:17
Wie man es auch verdrehen koennte, aths hat IMO schon recht und die Verantwortung traegt alleine NVIDIA. Es wird immer Reaktionen geben fuer einzelne Aussnahmen und es sollte wohl klar sein dass es viele gerechtfertigt gestoert hat und nein ich meine jetzt nicht nur 3DCenter.

Wie aber andere auch schon gesagt haben lese ich erstmal keine Zeitschriften mehr wenn es zu 3D kommt und zweitens will ich trotz allem auch selber Artikel hier und auf allen anderen Seiten lesen, egal was ich persoenlich schon wissen koennte und was nicht.

Ideal ist die Situation bei weitem nicht, aber ich wuerde trotz allem raten dass man eher dem Wunsch seiner treuen Leserschaft folgt.

***edit: obwohl es auch keinen sowieso interessieren sollte, ich hab mich von dem ganzen Schlammasel schon vor Monaten etwas zurueckgezogen, hauptsaechlich weil ich keine Zeit mehr dafuer habe und mir mein persoenliches Leben mehr wert ist. Langfristig werde ich mich sowieso dann auch ganz zurueckziehen was 3D betrifft, denn ich hatte sowieso nicht vor irgendeine "Karriere" als weiss der Geier weiss wer zu machen, noch hab ich irgend ein Interesse an "Rampenlicht". Es war, ist und wird ein ziemlich grosser Scheisshaufen bleiben und irgendwann zieht man einen Strich und denkt nach ob es einem wirklich wert ist. Ich meine jetzt den gesamten Markt und nicht nur eine Firma und das gesamte Spinnenweb an diversen Interessen. Mich interessierte stets nur die unterliegende Technologie und nicht mehr und diese kann ich von einem gesunden Abstand als einfacher Betrachter beobachten mit weit weniger Kopfschmerzen als sonst.

MikBach
2006-10-31, 08:36:32
Ich habe da im Wesentlichen nur Berater und fachliches Lektorat gemacht und gerade bei den Details kratzt der Text nur an der Oberfläche weil weder die Zeit noch Platz für mehr vorhanden war.
Kommt denn noch was in der PCGH?

Falls nein, könntest Du nicht mit aths zusammen ´den Artikel schreiben oder aths zumindest Infos zuschieben? :)

Gruß M_B

Gast
2006-10-31, 10:44:56
Skalare ALUs sind für dich keine Überraschung?
Für mich schon...

zumindest dass es etwas komplett anderes als der G70(1) wird war schon zu erwarten, was genau konnte man natürlich nicht wissen.

Gast
2006-10-31, 11:01:03
@Ailuros und Aths

Bitte gebt nicht einfach auf, nur weil es offensichtlich nicht gleichberechtigt läuft und man immer dem Spiel der Große ausgeliefert ist. Gerade dadurch, dass wir davon erfahren, ist das alles schon hoch zu schätzen.

Auch ist es wichtig, mal Redakteure zu haben, die wenigstens Ahnung von der Sache haben. Das ist heutzutage mehr als selten. Solltest Ihr aufhören, soll man dann nur noch dem Marketinggewäsch der Anbieter vertrauen? Na lieber nicht.

Und scheisse läuft es immer, wenns ums Geld geht, da sollte man sich nichts vormachen. Also die Branche wechselns hilft nichts ;).

Da Ihr nun beide und viele andere mehr hier tieferen Einblick in die Sache habt, könnt ihr euch das doch zu nutze machen. Schreibt Artikel zusammen, stimmt ab, wann man was und wo veröffentlicht, ohne den anderen alles wegzunehmen, dennoch seine Kundschaft zu befriedigen, etc.. Wir Leser werden es euch danken. Und ihr könnt einander noch in die Augen schauen.

Ailuros
2006-10-31, 11:19:25
Leute wie aths werden sich nie zurueckziehen und glaube auch nicht dass er es so gemeint hat.

Ich hingegen als Laie/Amateur hab einfach meine Prioritaeten auf langfristigen Blick ausgewogen. Meine Zeit ist durch einen Job-wechsel noch begrenzter als je zuvor und ich hab auch vor demnaechst eine neue Familie zu gruenden. Da ist mir meine Freizeit fuer das letztere um einiges besser angelegt.

Dass der Markt nicht unbedingt duftet sollte ja bekannt sein, aber es ist nicht der Grund der meine Entscheidungen treiben wird. Es ist eben so dass manche Sachen in diesem Leben um einiges wichtiger sind als alles andere und ich bin ja auch nicht mehr der Juengste hier *hust* ;)

deekey777
2006-10-31, 11:26:39
Erde an PCGH-Spammer: Lass den Quatsch!

kalle1111
2006-10-31, 11:37:08
http://www.awardfabrik.de/forum/showthread.php?p=10153#post10153

:biggrin:

MadManniMan
2006-10-31, 11:38:51
So sehr ich mich darüber freute, handfeste Informationen durch die PCGH zu bekommen - ich find es dennoch beschissen. Es ist nunmal die Bürde eines Turnus mäßig erscheinenden Printmediums nicht 100%ig aktuell sein zu können und auch mal ein paar Tage, dadurch dann mehr denn 2 Wochen an einem Release vorbeizuschlittern.

Für mich hat die ganze Sache einen ganz, ganz bitteren Beigeschmack und es tut meinem Gewissen das allererste Mal gut, daß ich kein PCGH-Abonnent mehr bin, obgleich ich die Redaktion im Grunde unheimlich schätze und meine Sammlung der ersten 6 Jahre wie einen Schatz hüte.

tombman
2006-10-31, 11:53:20
Falls jemand schon folgende Infos hat, bitte mir pm/mailen:

1.) 3dm06 vertex shader test
2.) 3dm06 pixel shader test
3.) 3dm06 single + multi texture fillrate
4.) 3dm06 @ > 1600x1200 4/16 score

Danke ;)

Ailuros
2006-10-31, 11:58:04
3.) 3dm06 single + multi texture fillrate


Total nutzlos; nutzvoller waere vielleicht ein Archmark Test mit AF eingeschaltet ;)

Gast
2006-10-31, 12:55:24
Falls jemand schon folgende Infos hat, bitte mir pm/mailen:
Du hast sie dir doch bestimmt schon vorbestellt und wirst sie als einer der ersten haben. Sei doch nicht so ungeduldig. ;)
Wenn du die Benchmarkergebnisse nicht kennst wirds beim selber benchen auch viel spannender. ;D

Zur PCGH-Diskussion:
Tja so ist das Leben. Mit so etwas muss man umgehen können, dass andere auch mal bevorteilt werden. So eine Diskussion öffentlich im Forum zu starten bevor man mit den Leuten mal selbst gesprochen hat zeugt von .... naja vergessen wirs und hoffen das Demi neben Buch etc noch Zeit hat um einen Artikel für uns zu schreiben. Aths könnte das ja dann noch schöner ausformulieren, formatieren und noch ein paar AF/AA Test dazu machen.

TheBrother
2006-10-31, 14:02:04
Weis von euch jemand welche (Online-) Shops zu den Launch-Partnern gehören?

Was Ich weis: ARLT gehoert diesesmal nicht dazu, Alternate ist wieder mit dabei.

Anynone else? :)

[](-__-)[]
2006-10-31, 14:20:54
Weis von euch jemand welche (Online-) Shops zu den Launch-Partnern gehören?

Was Ich weis: ARLT gehoert diesesmal nicht dazu, Alternate ist wieder mit dabei.

Anynone else? :)

Alle Jahre wieder: Alternate

Ruf doch mal bei Mindfactory an.

Gast
2006-10-31, 14:22:51
Atelco wird wohl auch wieder dabei sein.

MadManniMan
2006-10-31, 15:28:46
So eine Diskussion öffentlich im Forum zu starten bevor man mit den Leuten mal selbst gesprochen hat zeugt von ....

Ich finde das absolut gerechtfertigt - solch unfaires Spiel gehört angeprangert!

Gast
2006-10-31, 16:37:44
@MadManniMan: aber doch nicht so detailliert im G80-Thread ,
Danke ! Auch diese ganze "PCGH-wer-war-schneller-Diskussion" hat doch in diesem Umfang hier nichts verloren, sondern in einem anderen Thread wenn denn schon oder etwa nicht ?

Back to topic:
Gerüchten zu Folge soll es wieder einen Countdown geben, soll 7 Tage vorher anfagen.

-Ghosty

AL
2006-10-31, 17:07:38
Häh wie vorher anfangen ?

incurable_nli
2006-10-31, 17:37:53
Häh wie vorher anfangen ?
Na 7 Tage vor der endgültigen Vorstellung der neuen Karten, mithin sollte es im Laufe des 1. November mit dem Countdown losgehen, wenn ich mich nicht verrechnet habe.

Riplex
2006-10-31, 19:31:24
K&M Elektronik sagt, das die Karten ab 8. November bestellbar und auf Lager sind !
Hab da einfach mal ne Mail hingeschrieben und nachgefragt :D

LovesuckZ
2006-10-31, 19:56:03
K&M Elektronik sagt, das die Karten ab 8. November bestellbar und auf Lager sind !
Hab da einfach mal ne Mail hingeschrieben und nachgefragt :D

Sie verstoßen gegen das NDA...

Gast
2006-10-31, 20:01:28
Sie verstoßen gegen das NDA...

Haben Händler ein NDA? Daran hält sich doch keine Sau und Konventionalstrafen wirds da sicher nie geben.
Sollen schonmal die Vorbestellflut entgegen nehmen, langt wenn sie die Namen der Karten rausposaunen ohne Stats, wird sicher bestellt.

Hvoralek
2006-10-31, 20:42:31
K&M Elektronik sagt, das die Karten ab 8. November bestellbar und auf Lager sind !Das war abzusehen. Die Frage ist eher, wie viele Karten dann erhältlich sind.

Gast
2006-10-31, 20:42:49
Sie verstoßen gegen das NDA...

sowas interessiert keinen

CyRuS
2006-10-31, 20:48:05
Weiß man schon welche Marken am 8./9.November lieferbar seien werden?
Ich selber bevorzuge eine 8800GTX von XFX od. Leadtek :)

Gast
2006-10-31, 21:02:27
XFX
ASUS
MSI
PNY
BFG
sind sicher.

Riplex
2006-10-31, 21:50:25
Von XFX gibt garantiert wieder ab Werk übertaktete Karten, obwohl Nvidia das ja nicht empfiehlt. Also bei mir wirds die XFX 8800 GTX XT :D

misterh
2006-10-31, 22:13:56
kann man mit sicherheit am selben Tag bestellen?

LovesuckZ
2006-10-31, 22:38:35
kann man mit sicherheit am selben Tag bestellen?

Bestellen, natürlich, was sollte dich dran hindern? ;)

Gast
2006-10-31, 22:50:54
Hier ein Bild von einer XFX.

http://img233.imageshack.us/img233/4375/xfx8800gtxvo6zd3.th.jpg (http://img233.imageshack.us/my.php?image=xfx8800gtxvo6zd3.jpg)

Blackpitty
2006-10-31, 23:08:14
habe ich schon in 2 anderen foren gesehen, die xfx sieht echt extrem geil aus, im gegensatz zu der von asus

[](-__-)[]
2006-11-01, 01:08:51
Mal was anders. Wann kommen nVidias neue Notebookperlen? Also so ungefähr.

1 Quartal 2007?

Gast
2006-11-01, 01:09:17
Der Unterschied ist auch echt gewaltig :D ... als würd man den schnöden aufkleber jemals sehn...

bvb

misterh
2006-11-01, 03:05:47
Bestellen, natürlich, was sollte dich dran hindern? ;)

ich meinte "verfügbar" bestellen.

Gast
2006-11-01, 04:55:56
HI Leute !

Mich würde mal Interessieren , wo die Unterschiede bei der Softwarebeigabe liegen. Bei ASUS weiß ich dass T.C. Ghost Recon Advanced Warfighter und ein Rennspiel beiliegen wird. Wie sieht es bei den anderen Herstellern aus, gibt es da schon Infos ?

-Ghosty

Ailuros
2006-11-01, 07:22:04
Das war abzusehen. Die Frage ist eher, wie viele Karten dann erhältlich sind.

Ich wuerde denken dass die Nachfrage so hoch sein wird, dass sie es nie anfangs decken werden koennen.

Sonst hat NV froehlich GTXs fuer Tester verschenkt; waere die Verfuegbarkeit zu kurz gewesen waere man um einiges geiziger gewesen.

Gast
2006-11-01, 07:36:45
stimmt das das die 8800 heute in der USA vorgestellt wird ?

TigersClaw
2006-11-01, 07:39:21
Wieso hat die XFX eigentlich zwei SLI-Anschlüsse?

Gast
2006-11-01, 07:45:26
der zweite ist für Erweiterungskarten gedacht zb: Physikkarten

MuLuNGuS
2006-11-01, 08:35:41
wie modular ist das neue design eigentlich?

kann nVidia auch bald locker auf ein 512er speicherinterface umsteigen.

laut 3DC news heute(tweakPC (http://www.tweakpc.de/news/10543/nvidia-grafikchips-in-65nm/)) fertigt NV schon in 65nm, wohl erst für low-cost aber da könnte näxtes jahr sicher noch was interessantes kommen...

Gast
2006-11-01, 08:48:23
wie modular ist das neue design eigentlich?

kann nVidia auch bald locker auf ein 512er speicherinterface umsteigen.

laut 3DC news heute(tweakPC (http://www.tweakpc.de/news/10543/nvidia-grafikchips-in-65nm/)) fertigt NV schon in 65nm, wohl erst für low-cost aber da könnte näxtes jahr sicher noch was interessantes kommen...
wie das neue Design wirklich ist, weiß kaum jemand. nvidia wird wohl wie zuletzt recht eigenständige mainstream und low cost GPUs bringen.
512er SI wird sicher nicht mit einem Refreshchip kommen. Es sei denn, ATI zieht mit solch einem auf und davon.

ShadowXX
2006-11-01, 10:15:13
HI Leute !

Mich würde mal Interessieren , wo die Unterschiede bei der Softwarebeigabe liegen. Bei ASUS weiß ich dass T.C. Ghost Recon Advanced Warfighter und ein Rennspiel beiliegen wird. Wie sieht es bei den anderen Herstellern aus, gibt es da schon Infos ?

-Ghosty
Weißt du welches Rennspiel?

habe ich schon in 2 anderen foren gesehen, die xfx sieht echt extrem geil aus, im gegensatz zu der von asus
Dir ist bewusst, das die ersten Karten sich nur durch den Aufkleber unterscheiden?

Heimatloser
2006-11-01, 11:07:08
Nun da die finalen Daten bekannt sind kann man echt sagen, daß Nvidia ja mal alle ganz schön an der Nase herumgeführt hat.

Selbst mein Bekannter der bei einem Boardpartner von Nvidia arbeitet hatte mir gänzlich falsche Angaben gegeben.

Ob das nun so abgesprochen war, oder ob er selbst nichts wußte weiß ich nicht.

Das eine Firma bis zuletzt derartig gut dicht hält ist in der Computerbranche wirklich sehr selten.

Und wenn man dann auch noch die Leistung sieht kann ich nur sagen:

RESPEKT FÜR BEIDES !

Bei den nun bekannten Leistungsdaten bin ich auf die zukünftige Ati noch viel mehr gespannt.

Auch wenn ich wegen der überhöhten Preise keine High-End-Karten kaufe, so ist es doch immer total spannend zu sehen was die da so hinzaubern.

DerHeimatlose

Blackpitty
2006-11-01, 11:41:21
Weißt du welches Rennspiel?


Dir ist bewusst, das die ersten Karten sich nur durch den Aufkleber unterscheiden?

klar ist ir das bewusst, also 'Augen habe ich schon im Kopf, aber deshalb kaufe ich trotzdem keine Asus, hätte mir auch nie, wenn ih vor der Entscheidung gestanden hätte mir eine 7900GTX von Asus gekaut, da die nen hässlichen King Kong aufkleber drauf hat.

Finde das nicht toll, wie eben nun Asus mit Ghost recon Aufkleber, was hat ne graka mit einem Spiel zu tun?

Die XFX sieht wirklich hammer aus vom aufkleber her, und das finde ich gut, dass XFX ihr eigenes Logo drauf macht, und BFG ihr eigenes, nur Asus mal wieder mit sonem Quark^^

Ich hol mir die erste verfügbare XFX :wink:

Die gelbe Eule
2006-11-01, 11:49:27
Mehrwert, deswegen der Aufkleber. Ich würde auch lieber den gleichen Preis bezahlen, dafür aber mehr im Retail Karton haben. MSI war da mal Spitze, nun ist es fast immer Light Retail ohne Software.

dargo
2006-11-01, 12:07:19
OMG. Jetzt wird schon der Hersteller nach dem Kühler-Aufkleber ausgesucht. :| :uconf3:
Es ist doch sche...egal wie die Karte aussieht. Wichtig ist die BQ und was sie leistet!

boxleitnerb
2006-11-01, 12:10:01
Ack. Design und Softwarebeigaben sind mir egal. Wenn mal ein richtig gutes Spiel dabei ist, okay. Aber den ganzen Zubehörkrams, Adapter, Kabel etc. haben die meisten sicherlich schon von vorherigen Grakas.
Leider muss man aber dazu sagen, dass diese Dinge die einzigen sind, die die Hersteller noch unterscheiden.
Aber nur weil Karte A schicker aussieht als Karte B, dann A zu kaufen ist vollkommen bedeppert.

dargo
2006-11-01, 12:12:33
Aber den ganzen Zubehörkrams, Adapter, Kabel etc. haben die meisten sicherlich schon von vorherigen Grakas.

Also, Adapter und Kabel sind mir schon wichtig. Immerhin muss ich die "alte" Graka mit kompletten Zubehör wieder verkaufen.

boxleitnerb
2006-11-01, 12:25:31
In der Beziehung bin ich leider etwas unordentlich.
Da kann es schon Mal sein, dass ich nicht alles finde ;)

Blackpitty
2006-11-01, 12:27:40
Na wenn ich es mir aussuchen kann, dann nehme ich auf jedenfall die schönere, mein PC soll ut ausehen, deshalb bin ich extrem scharf auf das schwarze PCB.

Bei der Auswahl schaue ich ja nicht nach der Leistung, da die GTX eh alle gleich sind, somit schaue ich nach Farbe(Aufkleber) Zubehör ist mir auch total egal, die Kabel und Adapter habe ich noch nie gebraucht, genau so wenig wie die beigelegten Games, da ich die eh meistens habe, oder nicht brauche.

Ich brauche nur ne geile Schöne Karte und eine Schöne Verpackung fürs Regal ;D

Gouvernator
2006-11-01, 12:37:18
Ack. Design und Softwarebeigaben sind mir egal. Wenn mal ein richtig gutes Spiel dabei ist, okay. Aber den ganzen Zubehörkrams, Adapter, Kabel etc. haben die meisten sicherlich schon von vorherigen Grakas.
Leider muss man aber dazu sagen, dass diese Dinge die einzigen sind, die die Hersteller noch unterscheiden.
Aber nur weil Karte A schicker aussieht als Karte B, dann A zu kaufen ist vollkommen bedeppert.
Wobei ich noch sagen muss, das der Kühlkörper auch überflüssig ist, von mir aus sollen die Hersteller die Karten nackt ausliefern, da spare ich die Arbeit den Standardkühler abzumontieren.

boxleitnerb
2006-11-01, 12:45:29
DAS wäre doch mal was! Die Standardkühler taugen im Vergleich zu 3rd Party Produkten nicht immer was.
Das Problem ist, dass man auch den grössten DAUs vorher beibringen muss, um Gottes Willen die Karte nicht einfach so zu betreiben!
Da das aber leider nie geschehen wird, müssen wir uns daran gewöhnen, die Garantie zu verlieren, wenn man ne Wakü oder nen Zalman montiert.

Moralelastix
2006-11-01, 12:47:23
Wobei ich noch sagen muss, das der Kühlkörper auch überflüssig ist, von mir aus sollen die Hersteller die Karten nackt ausliefern, da spare ich die Arbeit den Standardkühler abzumontieren.


Ja, fänd ich auch gut wenn man zumindest die Wahl hätte ob mit oder ohne Kühler.

Auf der anderen Seite wäre es bestimmt schlecht hinsichtich der RMA.
Denn die Hersteller könnten solch eine kühlerlose Karte nicht ohne Garantie ausliefern usw....
Das ist bestimmt der Haupt Grund weshalb sie immer mit einem Kühler geliefert werden.

LovesuckZ
2006-11-01, 12:51:55
Wobei ich noch sagen muss, das der Kühlkörper auch überflüssig ist, von mir aus sollen die Hersteller die Karten nackt ausliefern, da spare ich die Arbeit den Standardkühler abzumontieren.

Und wie willst du Garantiefälle abwickeln? :rolleyes:
Es hat schon seinen Grund, warum die Karten mit einem Kühler ausgeliefert werden. Irgendwer muss ja garantieren, dass die Karte im Auslieferungszustand funktionfähig ist.
Was du forderst wäre genauso als wenn ich sagen würde: Soll die Treiberentwicklung eingestellt werden. Standardtreiber sind sowieso bäh und böse...

Moralelastix
2006-11-01, 12:56:27
Und wie willst du Garantiefälle abwickeln? :rolleyes:
Es hat schon seinen Grund, warum die Karten mit einem Kühler ausgeliefert werden. Irgendwer muss ja garantieren, dass die Karte im Auslieferungszustand funktionfähig ist.
Was du forderst wäre genauso als wenn ich sagen würde: Soll die Treiberentwicklung eingestellt werden. Standardtreiber sind sowieso bäh und böse...

Und?
Was bei CPUs jahrzehntelang schon so gemacht wird sollte ja auch bei GPUs im Bereich des Möglichen liegen, was?

Edit:
Wenn die GPU Hersteller solche Features wie den Überhitzungsschutz beim P4 verbauen und bei den Spannungswandlern was ähnliches was willste denn dann an ner Graka kaputt machen?
Aber solche Dinge werden halt nur verbaut wenn es sich rechnet.

Gouvernator
2006-11-01, 12:56:28
Und wie willst du Garantiefälle abwickeln?
Es hat schon seinen Grund, warum die Karten mit einem Kühler ausgeliefert werden. Irgendwer muss ja garantieren, dass die Karte im Auslieferungszustand funktionfähig ist.
Du musst das nicht aus der Sicht eines DAUs sehen. So wie in der Industrie, man muss zuerst etwas vorbereiten bevor man es einsetzen kann. Wegen der Garantie mach dir keine Sorgen, solang nix schwarz verbrannt oder abgebrochen ist kannst du immer umtauschen.

Gast
2006-11-01, 13:00:51
Na wenn ich es mir aussuchen kann, dann nehme ich auf jedenfall die schönere, mein PC soll ut ausehen, deshalb bin ich extrem scharf auf das schwarze PCB.Wen bitte interessiert das? In diesem Thread soll über G80 und die Technik dahinter diskutiert werden. Wenn du schon unbedingt allen mitteilen musst, dass du dir einen G80 kaufst, mach das doch bitte in dem entsprechenden Thread auf der Spielwiese. Dafür ist er schließlich da.

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=323496&highlight=g80

gguru
2006-11-01, 13:20:00
Wenn man von der ersten Lieferung keine abbekommt, wie lange dauert es, bis die Händler neue Geforce 8 Karten bekommen?

Moralelastix
2006-11-01, 13:25:17
Die zweite Charge kommt dann erst am 27.01.07. :biggrin:

Die gelbe Eule
2006-11-01, 13:39:58
Quelle? Im Dezember soll die zweite kommen und vielleicht läuft alles noch besser als geplant und wir bekommen mehr als erwartet. Noch listet keiner in DE was, also abwarten.

Moralelastix
2006-11-01, 13:49:53
Das is ein Scherz!

Der Launch des R600 soll am 27.01.07 sein.




:biggrin:

Blackpitty
2006-11-01, 13:50:43
Wegen der Karte ohne Kühler..

Das beste wär, wenn man sich eine Karte, z.B 8800GTX aussucht, und dann bei XFX sich einen der Kühler im Sortiment aussucht, der dann auf die Karte montiert wird, und somit volle Garantie hat.

Also jemand der ne Wakü hat, wählt einen Wakükühler aus, oder der andere nen Zalman und und und.

Oder es würde gehen, dass man sich die Karte kauft, dann einen Kühler, den man will und dann Karte und Kühler zum Hersteller schickt, und die bauen den drauf, bekommst Garantie und fertig.

------------------

Der G80 soll so wie ich gelesen habe ofiziell am 8. auchin Amerika vorgestellt werden, somit dann bei uns nen Tag später.

Gruß Marco

LovesuckZ
2006-11-01, 13:51:31
Und?
Was bei CPUs jahrzehntelang schon so gemacht wird sollte ja auch bei GPUs im Bereich des Möglichen liegen, was?

Weil es deutlicher komplexer ist einen Kühler auf eine Grafikkarte zu setzen als auf eine CPU?
Neben einen sicheren Arbeitsplatz muss auch auf die Platine und den Teilen auf dieser aufgepasst werden.

Wegen der Garantie mach dir keine Sorgen, solang nix schwarz verbrannt oder abgebrochen ist kannst du immer umtauschen.

Als Hersteller würde ich keine Garantie auf "Tray" geben. Funktioniert die Karte nicht, dann würde ich zu erst davon ausgehen, dass der User schuld hat.

deekey777
2006-11-01, 13:52:55
Das is ein Scherz!

Der Launch des R600 soll am 27.01.07 sein.




:biggrin:
Verzichte auf solche Scherze, sonst wirst du den einen oder anderen Tag auf das Forum verzichten.

ShadowXX
2006-11-01, 13:53:53
Der G80 soll so wie ich gelesen habe ofiziell am 8. auchin Amerika vorgestellt werden, somit dann bei uns nen Tag später.

Gruß Marco
Wieso einen Tag später? Der G80 wird auch hier ab dem 08.11. gelistet.

Moralelastix
2006-11-01, 13:57:57
Weil es deutlicher komplexer ist einen Kühler auf eine Grafikkarte zu setzen als auf eine CPU?
Neben einen sicheren Arbeitsplatz muss auch auf die Platine und den Teilen auf dieser aufgepasst werden.

Was soll denn da komplexer sein? In dem Moment in dem Daukappen verbaut sind kriegt das selbst meine tote Oma gebacken.:biggrin:

Und mit den möglichen Sicherungen(Überhitzungsschutz usw.) ist das alles kein Problem mehr. Man muss nur wollen!

LovesuckZ
2006-11-01, 14:02:35
Was soll denn da komplexer sein? In dem Moment in dem Daukappen verbaut sind kriegt das selbst meine tote Oma gebacken.:biggrin:

Willst du über die ganze Karte eine Daukappe legen? :wink:

Und mit den möglichen Sicherungen(Überhitzungsschutz usw.) ist das alles kein Problem mehr. Man muss nur wollen!

Grundsätzlich geschehen diese Sicherrungen beim CPU wohl auch über das Mainboard. Wie willst du die GPU abschalten, wenn keiner auf ihre Temperaturen zu greifen kann?

Moralelastix
2006-11-01, 14:08:09
Du kennst anscheinend diesen P4 Überhitzungschutz nicht!

Schau Dir halt mal auf "TomsHardware" das entsprechende Video an.
Obacht, es is schon uralt!

SentinelBorg
2006-11-01, 14:13:05
Ich hätte gerne wieder eine von Leadtek. Da ist dann mit Sicherheit Splinter Cell 4 dabei. Hab ja schon Teil 2 von der 6800nu und Teil 3 von der 7800GT. :P

Kennt jemand paar gute Versandhändler in der Schweiz? Überlege mir das Teil an meinen schweizer Arbeitsplatz senden zu lassen, da der Wechselkurs von CHF zu EUR grad so beschissen ist. Dazu noch die geringere Mwst.

Sentinel

Gouvernator
2006-11-01, 14:46:45
Wegen der Karte ohne Kühler..

Das beste wär, wenn man sich eine Karte, z.B 8800GTX aussucht, und dann bei XFX sich einen der Kühler im Sortiment aussucht, der dann auf die Karte montiert wird, und somit volle Garantie hat.

Also jemand der ne Wakü hat, wählt einen Wakükühler aus, oder der andere nen Zalman und und und.

Oder es würde gehen, dass man sich die Karte kauft, dann einen Kühler, den man will und dann Karte und Kühler zum Hersteller schickt, und die bauen den drauf, bekommst Garantie und fertig.

------------------

Der G80 soll so wie ich gelesen habe ofiziell am 8. auchin Amerika vorgestellt werden, somit dann bei uns nen Tag später.

Gruß Marco
Ach was , genau das Gegenteil ist doch erwünscht, was will man mit dem Zeug wenn ich schon 5 Waküler daheim habe ? Ich würde auch die Standard-Wasserkühler aus dem Hause der Hersteller nicht nehmen , ist doch genau dasselbe Dreckszeug wie die Lüftkühlung,von ihnen.

deekey777
2006-11-01, 15:20:19
Wäre es möglich, diesen Thread nicht mit einem Einkaufsthread zu verwechseln?

Moralelastix
2006-11-01, 15:25:02
Both G80 and R600 to sport native HDMI support
http://uk.theinquirer.net/?article=35464

deekey777
2006-11-01, 16:01:13
Das ist so was von irrelevant, was er da schreibt, so lange es nicht klar ist, woher der Sound kommt (von der Soundkarte oder von der CPU).
Heutige Grafikkarten haben auch HDMI, aber der Sound kommt von der Soundkarte (SPDIF) und wird einfach übers HDMI weitergeleitet. Problem: SPDIF hat zu wenig Bandbreite für die neuen HD-Audio-Formate, man kriegt entweder "normale" DVD-Audio-Kost oder nur HD-Stereo.

Blackpitty
2006-11-01, 17:53:23
Wieso einen Tag später? Der G80 wird auch hier ab dem 08.11. gelistet.

Klar, auch am 8., doch in den USA ist der 8. Paar Stunden eher als bei uns, somit ist es bei denen fast nen Tag eher

Grestorn
2006-11-01, 18:03:54
Klar, auch am 8., doch in den USA ist der 8. Paar Stunden eher als bei uns, somit ist es bei denen fast nen Tag eher

Tja, knapp daneben ist auch vorbei :) Grad umgekehrt ist es.

Die Asiaten sind etwa einen halben Tag voraus, die Amis sind einen halben Tag zurück. Wir kriegen die G80 also theoretisch bis zu 12 Stunden vor den Amis... :)

Du bist offenbar nicht alt genug um Silvester 2000 bewusst miterlebt zu haben, oder? ;)

IceLord
2006-11-01, 21:52:40
Ist eigentlich schon bekannt ob trotz des neuen AA weiterhin Mischmodi (MS+SS) zur Verfügung stehen? 16xMSAA+TSAA+2x2SSAA:love2:. Das ist nämlich der Hauptgrund weshalb ich zur Zeit NVidia bevorzuge.

AnarchX
2006-11-01, 22:12:25
Ist eigentlich schon bekannt ob trotz des neuen AA weiterhin Mischmodi (MS+SS) zur Verfügung stehen? 16xMSAA+TSAA+2x2SSAA:love2:. Das ist nämlich der Hauptgrund weshalb ich zur Zeit NVidia bevorzuge.

Aktuell gibt es dazu noch kein konkreten Infos, aber da man nun auch non-SS-Modis über 4x MSAA anbieten kann, sind die SS-Mix-Modis doch theoretisch nun überflüssig.
Aber hoffen wir doch, dass nV sie weiterhin im Treiber anbietet.

btw.
Ist das Rendertarget beim G80 größer als 4096x4096?

Gast
2006-11-01, 22:26:50
Aktuell gibt es dazu noch kein konkreten Infos, aber da man nun auch non-SS-Modis über 4x MSAA anbieten kann, sind die SS-Mix-Modis doch theoretisch nun überflüssig.
Aber hoffen wir doch, dass nV sie weiterhin im Treiber anbietet.Da außer sturem SSAA nix gegen Shaderaliasing hilft sind sie weder theoretisch noch praktisch überflüssig, selbst wenn 1024xMSAA angeboten würde. Aus dem offiziellen CP werden Hybridmodi aber sicher herausfallen, man will die minderbemittelt(er)en und/oder parteiisch(er)en unter den Reviewern ja nicht auf dumme Gedanken bringen. Naja, (Riv)atuner ist mit NV-Karten für nicht-DAUs eh quasi ein Teil der Treiberinstallation :usweet:
btw.
Ist das Rendertarget beim G80 größer als 4096x4096?AFAICS schreibt D3D10 mindestens 8k x 8k vor. Vielleicht geht NV ja sogar ein wenig übers erforderliche Minimum hinaus.

AnarchX
2006-11-01, 22:30:50
AFAICS schreibt D3D10 mindestens 8k x 8k vor. Vielleicht geht NV ja sogar ein wenig übers erforderliche Minimum hinaus.
Nett da ist ja sogar 4x4 SS bis 2048x... möglich, dass dann noch kombiniert mit dem neuen 8x AA Modus....=)
Zwar nichts für die aktuellsten Titel, aber in älteren Games ala UT2k4 sollte es doch durchaus möglich sein.

Spasstiger
2006-11-01, 22:36:21
Nett da ist ja sogar 4x4 SS bis 2048x... möglich, dass dann noch kombiniert mit dem neuen 8x AA Modus....=)
Da will wohl jemand das neue Speicherinterface auf die Probe stellen. :biggrin:

Hvoralek
2006-11-01, 22:36:39
Aktuell gibt es dazu noch kein konkreten Infos, aber da man nun auch non-SS-Modis über 4x MSAA anbieten kann, sind die SS-Mix-Modis doch theoretisch nun überflüssig.Erzählt das mal Raff :biggrin:

Zumindest inoffiziell werden die wohl weiterhin verfügbar sein

Interessanter wäre, ob mal praktisch nutzbare Hybridmodi angeboten werden. Wie wäre es mit 2x SGSS + 2x MS oder 2x SGSS + 4x MS (Wäre die Schreibweise Xx SS * Yx MS besser?)?

AnarchX
2006-11-01, 22:41:41
Interessanter wäre, ob mal praktisch nutzbare Hybridmodi angeboten werden. Wie wäre es mit 2x SGSS + 2x MS oder 2x SGSS + 4x MS (Wäre die Schreibweise Xx SS * Yx MS besser?)?
4xS AA (1x2/2x1 SS + 2xMSAA) und 8xS AA (1x2/2x1 SS + 4xMSAA) gibt es doch schon?

Hvoralek
2006-11-01, 22:45:09
4xS AA (1x2/2x1 SS + 2xMSAA) und 8xS AA (1x2/2x1 SS + 4xMSAA) gibt es doch schon?Das ist aber OGSS. Damit alles zumindest etwas geglättet wird, müsste man dann schon 2x2x verwenden. Und auch das MS- EER ist angesichts des Aufwandes eher bescheiden.

AnarchX
2006-11-01, 22:50:32
Das ist aber OGSS. Damit alles zumindest etwas geglättet wird, müsste man dann schon 2x2x verwenden. Und auch das MS- EER ist angesichts des Aufwandes eher bescheiden.

Achso SGSSAA ala Voodoo, das glaube ich eher weniger, dass man dies nun noch anbieten wird, da wie schon gesagt die SS-Mix-Modis ja mit G8x auch überflüssig werden aus Marketingsicht.

Gast
2006-11-01, 23:00:10
Also wenn sie uns ein Bündel feiner SGSSAA-Modi anbieten würden wäre es zumindest mir egal, wenn dafür einige Hybridmodi über die Klinge hüpfen müssten. Sobald die EER über 8x8 liegt ist zusätzliches MSAA IMHO Speicherverschwendung. Andererseits kann ich eigentlich nie genug Modi zum Ausprobieren haben, jedes Spiel hat halt seine eigenen Anforderungen an bildqualitätsverbessernde Maßnahmen.

bzgl. der maximalen Rendertargetgröße:
Für mich eindeutig am interessantesten an der neuen Generation. Was hauptsächlich daran liegt, daß folgender Thread auf meinem Mist gewachsen ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=281919

DiGiTaL
2006-11-01, 23:19:19
Hier gibts tolle Pics zur GeForce 8800GTX:

http://www.beareyes.com.cn/2/lib/200610/30/20061030239.htm

Eine krasse Karte :eek:



Hier zusätzlich noch ein paar interessante Infos:

http://www.beyond3d.com/forum/showpost.php?p=864210&postcount=2257

Godmode
2006-11-01, 23:27:01
DX10 performance can not be tested yet and in DX9 applications the unified architecture works as a fixed function architecture (dedicated pixelshaders and vertex shaders).

Das wäre aber nicht schön wenn das wirklich so wäre, kann ich nicht glauben. Waren da die Treiberentwickler faul, oder schreibt der Typ Bullshit?

Gast
2006-11-02, 00:01:41
@ShadowXX:

HI!

Das beiliegende zweite Spiel im Gamebundle der ASUS Reihe wird das Autorennspiel "GTI Racing" sein.


Gruß
-Ghosty

Botcruscher
2006-11-02, 06:32:03
Na mal sehen wie sich das mit DX10 noch ergiebt.