PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV50 / G80?


Seiten : 1 2 3 4 [5] 6

Moralelastix
2006-09-21, 10:12:31
http://www.xbitlabs.com/web/display/20060919075610.html

Botcruscher
2006-09-21, 11:44:24
http://www.xbitlabs.com/web/display/20060919075610.html


Gähn... Naja die 650MHz sind wenigstens realistischer.


hybrid water/fan cooler

Jetzt wirds aber absolut unglaubwürdig.

Die gelbe Eule
2006-09-21, 12:10:15
Das ist nicht unglaubwürdig, Thermaltake hat auf der Computex so ein Teil vorgestellt.

http://www.techpowerup.com/reviews/Computex2006/Thermaltake/images/nd3.jpg

Botcruscher
2006-09-21, 12:21:16
Das ist nicht unglaubwürdig, Thermaltake hat auf der Computex so ein Teil vorgestellt.


Für den Massenmarkt ist es spätestens seit den heatpipes kein Thema mehr.
Desweiteren muss man es ja auch irgendwo anschließen. Von den PC-Herstellen gäbe es bei so einer Lösung noch nichtmal ein müdes Lächeln.

Moralelastix
2006-09-22, 17:32:08
http://www.golem.de/0609/47972.html

Is auch schon bissel älter, aber wer zuerst kommt ......

Wann kommt denn das ganze Interview bei Golem mit Michael Hara?

AnarchX
2006-09-22, 18:33:31
http://www.golem.de/0609/47972.html

Is auch schon bissel älter, aber wer zuerst kommt ......

Wann kommt denn das ganze Interview bei Golem mit Michael Hara?

Wie Hara weiter erklärte, denkt Nvidia daran, die "Unified Shaders" der neuen GPUs auch für Physik zu nutzen. Durch die Zusammenführung von Pixel- und Vertex-Shadern sei es sehr einfach, auch die physikalischen Eigenschaften eines Objekts gleich im Grafikprozessor zu berechnen. Hara glaubt fest an dieses Konzept und meint, dass auch Vierkern-Prozessoren weiterhin den Grafikchips in der Gleitkomma-Leistung unterlegen bleiben werden.

G80 nun doch mit Unified Shaders?

gguru
2006-09-22, 20:29:32
VR-Zone meint etwas über die Geforce 8 Mittelklasse-Karten zu wissen:

http://www.vr-zone.com/?i=4034

Gast
2006-09-22, 20:55:05
Wow. Da wäre ja keiner drauf gekommen...

Winter[Raven]
2006-09-22, 21:02:28
Naja, das Spielchen kennen wir von NVidia schon seit dem NV40 *gg*, wäre wirklich die beste Verarschung die Nvidia je fabriziert hat.

Gast
2006-09-22, 21:03:27
G80 nun doch mit Unified Shaders?

Für denn laien ist das natürlich 1 Sahne.Viele wurden denn G80 nicht kaufen weil sie denken weil er kein voll USA Chip ist er nicht so fortschrichtlich siehe X800-6800.

Gast
2006-09-22, 21:08:50
Ich glaube viel eher für den Laien kommt es viel mehr auf die Balkenlänge an.

Gast
2006-09-22, 21:14:29
Ich glaube viel eher für den Laien kommt es viel mehr auf die Balkenlänge an.

Ne sieh X800-6800!Die X800 war schneller als eine 6800 wurde aber nicht so gut verkauft wie die 6800 weil sie Technisch nicht auf denn neusten stant war!Wenn die Ati Fanboys sich in denn ganzen Foren später tummeln und schreien das der G80 kein wirklicher unfined Shader Chip ist wird das schon eindruck machen!

Iwan
2006-09-22, 21:24:47
der g80 hat unified shader, zwar nicht in hardware, aber der treiber machts möglich!

Gast
2006-09-22, 22:09:23
Ne sieh X800-6800!Die X800 war schneller als eine 6800 wurde aber nicht so gut verkauft wie die 6800 weil sie Technisch nicht auf denn neusten stant war!Wenn die Ati Fanboys sich in denn ganzen Foren später tummeln und schreien das der G80 kein wirklicher unfined Shader Chip ist wird das schon eindruck machen!
Das ist hier aber schon ein Unterschied, da sich Unified Shader sowieso nur in der Performance niederschlagen.
Das mit der 6800 muss auch keine schlechte Entscheidung gewesen sein. Die 6800GT war damals schneller als die gleichteure X800Pro. Und wenn man sie jetzt noch hat, dann hat man von der 6800 erst recht mehr.

Neomi
2006-09-22, 22:09:59
der g80 hat unified shader, zwar nicht in hardware, aber der treiber machts möglich!

Du verwechselst gerade "Unified Shader" und "Unified Shader Core". Unified Shader sind in Hardware zu haben, sonst sind es keine Unified Shader, für die Software ist das eh transparent. Der Unified Shader Core besagt nur, daß alle Shadervarianten die gleiche Funktionalität haben müssen. Die Software muß die verschiedenen Shadersorten (VS, GS, PS) natürlich getrennt voneinander ansprechen können. Für die Software gibt es jeweils einen, völlig egal ob da jetzt je 4 fest zugeordnet in Hardware vorhanden sind, insgesamt ein Unified Shader der abwechselnd alle drei Sorten behandelt oder eine beliebige andere Konfiguration.

Gast
2006-09-22, 22:12:19
der g80 hat unified shader, zwar nicht in hardware, aber der treiber machts möglich!
Die Einheiten vom G80 müssen schon alles können. Das heißt die ALUs in den VS müssen das gleiche können wie die ALUs in den PS. Da wird nichts über den Treiber emuliert oder dergleichen. Der einzige Unterschied ist zum R600, dass die Einheiten beim G80 fest verdrahtet sind, das spart Transistoren (R600 kann die Einheiten umschalten).
Die ALUs müssen trotzdem alles können.

deekey777
2006-09-23, 00:18:59
Die Diskussion zu den Pipes des R520: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=322139

Sollte ich ein Posting übersehen habe, bitte per PM darauf aufmerksam machen.

MechWOLLIer
2006-09-23, 14:35:40
Mhm, irgendwie bin ich jetzt was verwirrt.
Wenn ich "Die Einheiten vom G80 müssen schon alles können. Das heißt die ALUs in den VS müssen das gleiche können wie die ALUs in den PS." lese, bekomme ich den Eindruck, als müssten alle ALUs, egal ob im VS oder PS, dasselbe können, jedoch unterschiedlich angesprochen werden müssen (eben VS berechnet VS und PS PS --> Einheiten haben immer denselben Zustand).
Nur irgendwie macht das keinen Sinn für mich.

Gast
2006-09-23, 14:47:58
Die Vertex- und Pixelshader-ALUs können zwar das gleiche sind aber anders ausgelegt. So sind Textur-Zugriffe im Vertexshader eher die Ausnahme.

Quasar
2006-09-24, 09:40:23
Nur irgendwie macht das keinen Sinn für mich.
Ist auch nicht sinnvoll. Die Shaderprogramme der Applikationen machen keinen Unterschied mehr zwischen Vertex- und Pixelshadern (bei GS bin ich mir noch nicht sicher, vor allem, da Ati ja offenbar dort auch eine Performance-Falle wittert).

Der Treiber wird aber die jeweiligen Programme den jeweliligen Einheiten zuführen - bei Ati eben der nächsten freien US-Einheit, bei Nvidia dem nächsten freien Prozessor des entsprechenden Typs.

Neomi
2006-09-24, 15:00:49
Ist auch nicht sinnvoll. Die Shaderprogramme der Applikationen machen keinen Unterschied mehr zwischen Vertex- und Pixelshadern (bei GS bin ich mir noch nicht sicher, vor allem, da Ati ja offenbar dort auch eine Performance-Falle wittert).

Das klingt fast wie "Die Lenkung eines Autos macht keinen Unterschied zwischen Vorder- und Hinterrädern". Natürlich wird zwischen Vertex- und Pixelshadern unterschieden. Sie werden getrennt voneinander gesetzt und müssen auch getrennt behandelt werden, damit sie jeweils die richtigen Daten verarbeiten. Ab dem Shadermodel 4 haben alle Shadersorten zwar die gleichen Möglichkeiten, Daten zu verarbeiten (das ist dann der Unified Shader Core), aber sie verarbeiten unterschiedliche Daten auf unterschiedliche Weise. Es kann auf Softwareebene keine Unified Shader geben.

Der Treiber wird aber die jeweiligen Programme den jeweliligen Einheiten zuführen - bei Ati eben der nächsten freien US-Einheit, bei Nvidia dem nächsten freien Prozessor des entsprechenden Typs.

Von der Performance her wäre es eine regelrechte Katastrophe, wenn das die Aufgabe des Treibers wäre. Deshalb macht das die Hardware schön selbst und liefert allerhöchsten Nutzungsstatistiken an die CPU zurück.

Quasar
2006-09-24, 20:29:03
Eigentlich meinte ich, dass die Applikation keinen Unterschied mehr hinsichtlich der Funktionalität macht. Dass noch ein Flag drin sein muss, auf welche Art von Daten die Berechnungen sich beziehen sollen, ist schon klar.

Es wird auf Software-Ebene insofern Unified-Shader geben, als dass der Treiber die Unterstützung von Shader-Model 4 meldet und sich um die Verteilung der Vertex- und Pixel-Daten an die entsprechenden Hardware-Einheiten kümmern muss. Wie soll man ansonsten ohne Unified-Shader-Core die D3D10-Spec erfüllen?


Q

Neomi
2006-09-24, 21:59:39
Es wird auf Software-Ebene insofern Unified-Shader geben, als dass der Treiber die Unterstützung von Shader-Model 4 meldet und sich um die Verteilung der Vertex- und Pixel-Daten an die entsprechenden Hardware-Einheiten kümmern muss. Wie soll man ansonsten ohne Unified-Shader-Core die D3D10-Spec erfüllen?

Du mixt wieder "Unified Shader" und "Unified Shader Core", wobei beides nichts miteinander zu tun hat. Der Unified Shader Core ist nämlich kein "Unified Shader" Core, sondern ein Unified "Shader Core". Klingt nach einem vernachlässigbaren Unterschied, ist es aber nicht. Der Unified Shader Core besagt nur, daß die getrennt anzusprechenden Shader (die deshalb auf Softwareebene niemals "Unified" sein können) eine gemeinsame Basisfunktionalität haben. Ob die Shader in Hardware jetzt Unified Shader sind oder dediziert, ist der Software völlig egal.

Godmode
2006-09-26, 19:59:15
Ich bin gespannt ob es eine Geforce 8xxx GX2 geben wird? Wäre wohl wieder fast unschlagbar.

Gast
2006-09-26, 20:36:39
Wird sicher SLI Gespanne geben, ob Quad SLI besser Skalieren wird stell ich mal in den Wind. Da man ja die Berechnung von Shaderprogrammen auf 2 Karten verlagern kann sollte es ja auch kein Ding sein GS Berechnungen auf 2 Karten zu betreiben. Könnte zu einem netten Gag mit SLI werden ^^

Nightspider
2006-09-26, 21:39:39
Ich denke, Nvdia wird auch hardwareseitig eine Verbesserung eingebaut haben um höhere Effizienz bei Dual-Grafikchip-Karten zu erreichen.

Vielleicht 2 Chips auf einer Platine, auf der der Speicher nicht doppelt vorhanden sein muss, einfach indem beide Chips drauf zugreifen...

Wenn Nvidia dann noch die Bildaufteilung optimiert, so dass auch jeder Chip etwas zu rechnen hat, dann könnte Quad-SLI beim G80 eine neue Bedeutung bekommen. ^^

Mal eine Frage: Sli war so geplant, dass jede Karte eine Zeile abwechselnd berechnet...dieses "Bildaufteilen" dürfte doch kaum vom Spiel abhängig sein oder ? Oo Warum profitieren manche Spiele, dann überhaupt nicht von SLI ? :confused:

Ailuros
2006-09-26, 22:02:22
Ich denke, Nvdia wird auch hardwareseitig eine Verbesserung eingebaut haben um höhere Effizienz bei Dual-Grafikchip-Karten zu erreichen.

Vielleicht 2 Chips auf einer Platine, auf der der Speicher nicht doppelt vorhanden sein muss, einfach indem beide Chips drauf zugreifen...

Bei AFR sind es jeweils momentan 256 oder 512MB pro chip pro Frame. Leistung skaliert eben momentan bei multi-GPU Systemen mit AFR und ich kann mir schwer vorstellen wie man mit weniger Speicher pro chip auskommen wuerde. In diesem Fall hast Du auf einer GX2 nicht 1024MB Speicher, sondern 512MB pro Frame.


Mal eine Frage: Sli war so geplant, dass jede Karte eine Zeile abwechselnd berechnet...dieses "Bildaufteilen" dürfte doch kaum vom Spiel abhängig sein oder ? Oo Warum profitieren manche Spiele, dann überhaupt nicht von SLI ? :confused:

Du meinst scan line interleaving/SLI a la 3dfx oder? Erstens hatte die Methode den Nachteil dass jeder chip jedes Dreieck getrennt aufsetzen musste (was verdammt redundant ist) und zweitens ist das "single frame rendering" beim "heutigen" SLi sehr aehnlich in der Methode und skaliert eben generell nicht besonders gut ueberhaupt mit Geometrie. Wenn in einem Spiel AFR aus X Grund nicht moeglich ist, kann man eventuell zu hoeheren AA-modi greifen (SLi-AA, SuperAA) wo eben die Leistung mit aktiviertem AA quasi verdoppelt wird, aehnlich wie auch mit multi-chip VSA-100.

AnarchX
2006-09-26, 22:08:38
Ich bin gespannt ob es eine Geforce 8xxx GX2 geben wird? Wäre wohl wieder fast unschlagbar.

Bei dem angedeuteten Stromverbrauch, wird es wohl eine GX2 eher erst mit G81 geben, der in einer stromsparenderen Fertigung kommt.

Grestorn
2006-09-27, 08:59:41
...und zweitens ist das "single frame rendering" beim "heutigen" SLi sehr aehnlich in der Methode ...

[Klugscheißer-Mode]
Es heißt "Split Frame Rendering"... :)
[/Klugscheißer-Mode]

Ailuros
2006-09-27, 11:27:00
[Klugscheißer-Mode]
Es heißt "Split Frame Rendering"... :)
[/Klugscheißer-Mode]

Merci Monsieur ;)

Gast
2006-09-27, 11:51:21
Mal eine Frage: Sli war so geplant, dass jede Karte eine Zeile abwechselnd berechnet...dieses "Bildaufteilen" dürfte doch kaum vom Spiel abhängig sein oder ? Oo Warum profitieren manche Spiele, dann überhaupt nicht von SLI ? :confused:Du redest gerade vom 3dfx-SLI. Das funktionierte damals so prima, weil die Spiele auch verdammt primitiv waren. Mittlerweile funktioniert das nicht mehr so einfach, sonst würde es NV wohl nutzen. Render to Texture oder Fullscreeneffekte und ähnliches machen das Multi-GPU-Rendering deutlich komplizierter und trotzdem skaliert SLI (zumindest mit AFR) wunderbar.

Welche Spiele profitieren denn deiner Meinung nach nicht von SLI? Bisher habe ich noch jede GPU-limitierte Situation durch SLI beschleunigen können. Man muss sich eben ein wenig mit den Profilen auseinandersetzen. Als Tool empfehle ich dir Grestorns Nhancer. Einfach mal damit ein wenig rumspielen und jedes Spiel profitiert von SLI, wenn es nicht gerade CPU-limitiert ist, aber in dem Fall kann auch eine einzelne stärkere Grafikkarte nichts ausrichten.

SLI funktioniert sehr gut und es ist einfach falsch, dass es Spiele gibt, die nicht von SLI profitieren. Out-of-the-Box mag das vielleicht zutreffen, weil noch kein Profil vorhanden ist, aber wozu gibt einem denn NV den vollen Zugriff auf die mächtige Profilverwaltung, die sich mit Tools wie dem Nhancer auch sehr komfortabel bedienen lässt?

Ailuros
2006-09-27, 12:04:29
Du redest gerade vom 3dfx-SLI. Das funktionierte damals so prima, weil die Spiele auch verdammt primitiv waren. Mittlerweile funktioniert das nicht mehr so einfach, sonst würde es NV wohl nutzen. Render to Texture oder Fullscreeneffekte und ähnliches machen das Multi-GPU-Rendering deutlich komplizierter und trotzdem skaliert SLI (zumindest mit AFR) wunderbar.

Welche Spiele profitieren denn deiner Meinung nach nicht von SLI? Bisher habe ich noch jede GPU-limitierte Situation durch SLI beschleunigen können. Man muss sich eben ein wenig mit den Profilen auseinandersetzen. Als Tool empfehle ich dir Grestorns Nhancer. Einfach mal damit ein wenig rumspielen und jedes Spiel profitiert von SLI, wenn es nicht gerade CPU-limitiert ist, aber in dem Fall kann auch eine einzelne stärkere Grafikkarte nichts ausrichten.

SLI funktioniert sehr gut und es ist einfach falsch, dass es Spiele gibt, die nicht von SLI profitieren. Out-of-the-Box mag das vielleicht zutreffen, weil noch kein Profil vorhanden ist, aber wozu gibt einem denn NV den vollen Zugriff auf die mächtige Profilverwaltung, die sich mit Tools wie dem Nhancer auch sehr komfortabel bedienen lässt?


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4815015&postcount=1027

*ahem*

AnarchX
2006-09-27, 16:41:22
G80 to sample in November
http://uk.theinquirer.net/?article=34672

gguru
2006-09-27, 16:49:13
G80 to sample in November
http://uk.theinquirer.net/?article=34672

Woohoo! Mein Tag ist gerettet. :smile: :biggrin:

Nightspider
2006-09-27, 17:03:11
Meiner nicht...90nm und weniger als 700 Mhz... :(

Ich kauf mir den G80 und wenn der R600 mehr als 20% schneller ist fliegt der G80 wieder raus...so einfach ist das...

Moralelastix
2006-09-27, 17:07:40
http://www.beyond3d.com/forum/showpost.php?p=839847&postcount=575

Hoffentlich bald.....

Botcruscher
2006-09-27, 17:12:08
Meiner nicht...90nm und weniger als 700 Mhz... :(



War doch klar das vom Takt her nicht viel kommt. Erstmal sehen wie breit der Chip ist.

Gaestle
2006-09-28, 10:07:30
War doch klar das vom Takt her nicht viel kommt. Erstmal sehen wie breit der Chip ist.

bzw. wieviel jede "Einheit" die zur "Breite" beiträgt, leisten kann.

Gast
2006-09-28, 10:28:16
Ich kauf mir den G80 und wenn der R600 mehr als 20% schneller ist fliegt der G80 wieder raus...so einfach ist das...

Warum gehen eigentlich alle so starr davon aus dass R600 schneller sein wird?

Gast
2006-09-28, 11:35:30
Warum gehen eigentlich alle so starr davon aus dass R600 schneller sein wird?
Weil er einige Monate später kommt. Wäre ja dämlich von ATi dann noch einen langsameren Chip verkaufen zu wollen.
Aber wahrscheinlich kommt dann noch ein G80 mit höherem Takt hinterher.

Ailuros
2006-09-28, 13:08:43
Weil er einige Monate später kommt. Wäre ja dämlich von ATi dann noch einen langsameren Chip verkaufen zu wollen.
Aber wahrscheinlich kommt dann noch ein G80 mit höherem Takt hinterher.

Zwar gibt es keinen Grund zur Unruhe was R6x0 generell betrifft, aber die obrige Logik ist total nutzlos. Zwei nette Beispiele waren 5800U und X1800XT; obwohl sie spaeter als ihre direkten Konkurrenten ankamen waren sie auch nicht schneller. Nur weil eine GPU um einige Monate spaeter ankommt heisst es bei weitem nichts.

Wobei "schneller" auch mal wieder so eine Sache sein wird. PR-Franzen beider Seiten muessten erstmal ausgefiltert werden.

Godmode
2006-09-28, 16:16:56
Auf CB haben sie ein bisschen über Alan Wake auf dem IDF geschrieben:

"Die Grafik berechnete eine nicht näher spezifizierte Lösung von nVidia."

Ob es sich dabei vielleicht schon um einen G80 handeln könnte?

Alan Wake auf CB (http://www.computerbase.de/news/software/spiele/actionspiele/2006/september/idf_alan_wake_quad-core-system/)

AnarchX
2006-09-28, 16:19:29
Ob es sich dabei vielleicht schon um einen G80 handeln könnte?


Soll nur eine 7900GTX gewesen sein.

deekey777
2006-09-28, 16:26:17
Auf CB haben sie ein bisschen über Alan Wake auf dem IDF geschrieben:



Ob es sich dabei vielleicht schon um einen G80 handeln könnte?

Alan Wake auf CB (http://www.computerbase.de/news/software/spiele/actionspiele/2006/september/idf_alan_wake_quad-core-system/)
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2841&p=2
The demo ran extremely well on the test system, which was a Core 2 Quad running at 3.73GHz with a GeForce 7900 GTX. Markus said that it would have run just as well if the Core 2 Quad was running at its default clock speed, which we assume was 2.66GHz. The game looked even better than when we first saw it at E3 and we eagerly await its release. If Alan Wake is any indication, it won't be long before gamers start thinking about the move to dual/quad core if they haven't already

Gast
2006-09-28, 16:34:16
Soll nur eine 7900GTX gewesen sein.

So GPU-Intensiv siehts auch nicht aus.

The_Invisible
2006-09-28, 19:01:21
So GPU-Intensiv siehts auch nicht aus.

ähm, die bilder hast schon gesehn oder? wenn das nicht gpu intensiv ist was bitte dann...

mfg

Gast
2006-09-28, 19:55:56
ähm, die bilder hast schon gesehn oder?

Ja hab ich. Das Licht dürfte Spherical Harmonics + Shadowmaps sein. Nett Aussehen != Performance brauchen ohne Ende. Das ist eher so ein Fall wie HL².

wenn das nicht gpu intensiv ist was bitte dann...

Crysis dürfte wesentlich mehr verschlingen.

MadManniMan
2006-09-28, 20:01:08
Spherical Harmonics

Bitte wem?

ShadowXX
2006-09-28, 20:18:27
Bitte wem?
http://www.uni-koblenz.de/~mbmann/studies.htm

Eine nicht näher genannte Suchmaschine ist dein Freund.....

The_Invisible
2006-09-28, 20:40:49
Ja hab ich. Das Licht dürfte Spherical Harmonics + Shadowmaps sein. Nett Aussehen != Performance brauchen ohne Ende. Das ist eher so ein Fall wie HL².



Crysis dürfte wesentlich mehr verschlingen.

dann hats einer wenigstens wieder richtig gemacht, spiele müssen nicht unbedingt über den bildschirm ruckeln damit sie als gpu intensiv gelten. für 1600x1200 4xTSAA/16xAF braucht man aber auch bei HL2 eine potente karte, und crysis ist sowieso ein anderes thema da hier noch garnix über die performance bei heutigen karten bekannt ist

mfg

Gast
2006-09-28, 21:33:43
für 1600x1200 4xTSAA/16xAF braucht man aber auch bei HL2 eine potente karte

Das ist aber auch kein Maßstab, oder? So wie es heißt lief das Demo von Intel auf ner einzelnen 7900 GTX. Ich halte das für realistisch.

Das Terrain lebt vor allem von den äußerst guten Atmosphäreneffekte, aber sowas lässt sich relativ konstengünstig implementieren. Das Shaderwasser ist zwar ggü. HL² nochmal verbessert worden, aber imho ist das auch vor allem Content. Der Shader dürfte nicht viel langsamer sein. Unglaublich viele Polygone hab ich auch nirgends gesehen und richtige dynamische Lichter auch ned (das ist nämlich der GPU-Fresser schlechthin).

Was eher das Problem wird dürfte die Physik sein, die sieht recht CPU-verschlingend aus.

und crysis ist sowieso ein anderes thema da hier noch garnix über die performance bei heutigen karten bekannt ist

Dürfte meiner Meinung nach ziemlich bescheiden sein.

deekey777
2006-09-28, 21:40:52
Die Diskussion zu "Alan Wake" ist in dem entsprechenden Thread zu führen.

MadManniMan
2006-09-29, 00:09:49
http://www.uni-koblenz.de/~mbmann/studies.htm

Eine nicht näher genannte Suchmaschine ist dein Freund.....

Hui, erstma Dankens für den Recht, aber... bei Mathe steigt mein Kopf von ganz allein aus - gibts irgendwo ein "So werden Kugelflächenfunktionen (*schauder*) auf Deiner Dschiefors eingesetz0rt" Dingens?

Coda
2006-09-29, 00:53:29
Du platzierst die unendlich entfernte Lichtquelle (Sonne) im Preprocessing (!) an unterschiedlichen Punkten kugelförmig um die Szene (ausreichend viele Samples).

Für jede diese Positionen berechnest du für Punkt x an dem du ein SH berechnen willst die Lichtfarbe. Nachdem du das gemacht hast hast du praktisch eine Kugelfunktion des Lichts für diesen Punkt x.

Das SH ist praktisch eine Kompression für diese Kugelfunktion ähnlich Wavelets (nur das es eben eine Kugel- statt einer 2D-Funktion ist). D.h. du hast am Ende ein SH n-ten Grades das die Kugelfunktion des Lichts für diesen Punkt beliebig gut approximiert (je höher n desto besser).

Schön an der Sache ist, dass man den Wert auf der GPU dann ganz einfach mit ein paar Dot-Products ausrechen kann wenn man die Position der Sonne kennt.

Allerdings bin ich mir bei Alan Wake da doch nicht mehr so sicher, weil auch anscheinend viele Atmosphäreneffekte mit eingerechnet werden je nach Wetter. Es gab von nVIDIA auch schon vor 2 Jahren oder so ein Demo zu dem Thema was eigentlich nicht viel anders aussah und auch schon damals sehr performant lief.

Ailuros
2006-09-29, 10:19:19
http://www.beyond3d.com/forum/showpost.php?p=840894&postcount=600

;)

ShadowXX
2006-09-29, 12:31:57
http://www.beyond3d.com/forum/showpost.php?p=840894&postcount=600
;)
Hmmm.

Hört sich ganz nett und halbwegs realistisch an.


....to ROP's, TMU's, being unified.....

Meint er damit das ROPs/TMUs jetzt zusammengelegt wurden (nV hatte sowas ja auch schon irgenwie mal angedeutet).
Was bringt das eigentlich (ausser gesparte Transistoren)?


I also expect the vs/gs and tmu/alu to be clocked much higher then the pixel shaders

Kann es sein das er sich hier verschrieben hatte und anstatt tmu/alu eigentlich tmu/rop meinte.
Weil.....die ALUs sind ja eigentlich die PS.....und dann würde der rest des satze nicht mehr so viel sinn machen.

Anarchy-HWLUXX
2006-09-29, 12:55:27
Jetzt gehts ab ... Pics :

http://www.forumdeluxx.de/forum/showthread.php?t=274241

Botcruscher
2006-09-29, 12:59:20
Jetzt gehts ab ... Pics :

http://www.forumdeluxx.de/forum/showthread.php?t=274241


Rofl, er baut den Kühler ab und zeigt den Kühler.:uup: Ich Karte sehen will.:rolleyes:

Slipknot79
2006-09-29, 13:01:46
Jetzt gehts ab ... Pics :

http://www.forumdeluxx.de/forum/showthread.php?t=274241

http://img132.imageshack.us/img132/3397/1159518267645lf9.jpg


Na dann hoffe ich mal dass das keine Wasseranschlüsse sind sondern 2 Regler, der eine regelt Vdimm, der andre Vcore ^^

Botcruscher
2006-09-29, 13:03:46
Na dann hoffe ich mal dass das keine Wasseranschlüsse sind sondern 2 Regler, der eine regelt Vdimm, der andre Vcore ^^

;D Der war gut. Als Wakübesitzer würde ich den Kühler aber toll finden. Das erspart einem eine Menge Ärger.

Anarchy-HWLUXX
2006-09-29, 13:04:03
Es werden noch mehr pics weiter hinten gepostet ... nur doof das ich kein Chinesisch kann sonst würd ich se selber suchen ;)

Slipknot79
2006-09-29, 13:05:31
;D Der war gut. Als Wakübesitzer würde ich den Kühler aber toll finden. Das erspart einem eine Menge Ärger.



Jetzt stellt sich die Frage welche Schläuche da reinpassen sollen. 10/8? 8/6?

Ailuros
2006-09-29, 13:07:09
Hmmm.

Hört sich ganz nett und halbwegs realistisch an.


Meint er damit das ROPs/TMUs jetzt zusammengelegt wurden (nV hatte sowas ja auch schon irgenwie mal angedeutet).
Was bringt das eigentlich (ausser gesparte Transistoren)?


Kann es sein das er sich hier verschrieben hatte und anstatt tmu/alu eigentlich tmu/rop meinte.
Weil.....die ALUs sind ja eigentlich die PS.....und dann würde der rest des satze nicht mehr so viel sinn machen.

Der Thread geht weiter nach dem Post und es wird klar gemacht dass man ROPs meinte. Ich hab schon oefters in der Vergangenheit angedeutet dass man sich weniger auf die Anzahl und eher auf die Faehigkeiten einer jeden Einheit konzentrieren sollte.

Gast
2006-09-29, 13:14:29
Was bringt das eigentlich (ausser gesparte Transistoren)?

Gesparte Transistoren ;)
nVIDIA is richtig richtig geil aufs Transistorsparen, das haben sie schon mit NV40 bewiesen und es gibt Papers wos noch weiter getrieben wird (Da war von Zusammenlegung der Interpolatoren mit ALU-Funktionen die Rede).

Ich denke ATI wirds gar nicht so einfach haben gegen G80. Haltet euch nicht so an US oder nicht auf.

Ailuros
2006-09-29, 13:16:46
Ich hab schon eine aehnliche Frage bei B3D gestellt: geht es bei der kommenden Generation um zu 100% USCs und zu 100% non-USCs oder verschiedene Grade an "Vereinigung" diverser Einheiten zwischen den beiden konkurrierenden Architekturen?

ShadowXX
2006-09-29, 14:02:52
http://img132.imageshack.us/img132/3397/1159518267645lf9.jpg

Na dann hoffe ich mal dass das keine Wassranschlüsse sind sondern 2 Regler, der eine regelt Vdimm, der andre Vcore ^^
Die Karte is ja Kaputt....da ist ein riesiges Loch in der Mitte drin:ueye:

Mal im ernst: Ich glaube nicht, das diese Wasserkühlung die Standardkühlung der G80 sein wird.
Bin mal auf den Retail-Luftkühler gespannt.

Botcruscher
2006-09-29, 14:07:00
Die Karte is ja Kaputt....da ist ein riesiges Loch in der Mitte drin:ueye:

Mal im ernst: Ich glaube nicht, das diese Wasserkühlung die Standardkühlung der G80 sein wird.
Bin mal auf den Retail-Luftkühler gespannt.

Davon kannst du mit ziemlicher Sicherheit ausgehen. Alles andere wäre wirtschaftlicher Schwachfug.

http://www.forumdeluxx.de/forum/attachment.php?attachmentid=31070&d=1159527601


4 Pinlüfter.

Anarchy-HWLUXX
2006-09-29, 14:35:10
Wäre aber sicherlich cool wenn der Kühler "WaKü Ready" ist ... also das man optional WaKü nutzen kann ohne den Kühler zu tauschen - der Lüfter dreht weiter aber nur auf minimaler drehzahl -> silent.


PS . Da sind noch lötstellen für einen zweiten 4pin Lüfter ...

Botcruscher
2006-09-29, 14:37:28
Wie Stafan schon anmerkte ist dafür die Oberfläche zu gering.

PS: Laufen wird es ohne Wakü sicher auch, dann aber nur mit Gehöhrschutz.

Sunrise
2006-09-29, 14:37:59
Mal im ernst: Ich glaube nicht, das diese Wasserkühlung die Standardkühlung der G80 sein wird.
Bin mal auf den Retail-Luftkühler gespannt.
Eine Wakü ist optional, je nach SKU. Wie ich finde, ist das auch sehr sinnvoll.

deekey777
2006-09-29, 15:26:56
Bilder der vermeintlichen G80, die auch funktionieren:
http://www.beyond3d.com/forum/showthread.php?p=841400#post841400

----------------------------------------------------------------------

Nur so als Tipp: Bilder, die als Anhänge im HWLX-Forum zu sehen sind, sind für andere nicht sichtbar.;)

AnarchX
2006-09-29, 15:31:44
Es schaut so aus, als würde das 384bit SI immer realistischer.

paul.muad.dib
2006-09-29, 16:02:00
Ich kann mir irgendwie nicht vorstellen, dass das das Referenzdesign dein soll. Wasserkühlung? Entweder das komplette Zubehör muss dabei sein, oder man muss sich die dazukaufen. Und eine kleine Wakü wie diese Thermaltake bringt nichts, da können sie stattdessen auch einen guten Luftkühler nehmen.

Außerdem kommt mir die Karte sehr lang. Sie sollte doch auch in Standardgehäuse hereinpassen.

und den Lüfter finde ich auch komisch. Bei so kleinen Schaufeln wird doch der Radius gar nicht genutzt.

Botcruscher
2006-09-29, 16:51:14
...

Bei den vielen Befestigungsschrauben wird auch klar warum am Ende der Karte noch 3 Löcher sind. Der reine Luftkühler muss ein richtiges Monster sein.:eek:

deekey777
2006-09-29, 16:56:31
Bei den vielen Befestigungsschrauben wird auch klar warum am Ende der Karte noch 3 Löcher sind. Der reine Luftkühler muss ein richtiges Monster sein.:eek:
Auf den Bildern sind zwei Kühl-Möglichkeiten zu sehen: mit Wasser und mit Luft.
Die "Luft-Version":
http://img206.imageshack.us/img206/4905/11595181921342le3.th.jpg (http://img206.imageshack.us/my.php?image=11595181921342le3.jpg)

Slipknot79
2006-09-29, 16:58:47
Kann mir irgendwie ned vorstellen dass das hier das Referenzdesign sein soll. Eventuell als High-End Variante für Enthusiasten mit Hybridkühlung. Aber für den Mittelklassebereich schwer vorstellbar.

Gast
2006-09-29, 17:00:30
Es schaut so aus, als würde das 384bit SI immer realistischer.

Auf Grund welcher Tatsache?

Botcruscher
2006-09-29, 17:00:43
Auf den Bildern sind zwei Kühl-Möglichkeiten zu sehen: mit Wasser und mit Luft.

Deswegen ist es ein und der selbe Hybridkühler. Ich bin mir ziemlich sicher das die 3 letzten Bohrungen nicht ausversehen aufs PCB gewandert sind.

PS: Hm oder auch nicht. Wir werdens sehen.

PSS: Die Schrauben auf den beiden Bilden sind aber die selben, die liegen nehmlich gleich da.

Gast
2006-09-29, 17:02:02
Auf Grund welcher Tatsache?

Ok hab die Rückseite gesehen. 12 Chips. Hast gewonnen ;)

Slipknot79
2006-09-29, 17:02:44
Deswegen ist es ein und der selbe Hybridkühler. Ich bin mir ziemlich sicher das die 3 letzten Bohrungen nicht ausversehen aufs PCB gewandert sind.


Die letzten 3 Bohrungen könnten auch nur was mit dem Produktionsprozess zu tun haben?

deekey777
2006-09-29, 17:07:25
Die letzten 3 Bohrungen könnten auch nur was mit dem Produktionsprozess zu tun haben?

Oder auch um eine Halterung zu befestigen, wie es zB Dell macht? Keine Ahnung, wir werden es sehen. Gobt es eigentlich einen Grund, warum die Bilder der G80 ausgerechnet heute zu sehen sind?

gguru
2006-09-29, 17:09:51
Oder auch um eine Halterung zu befestigen, wie es zB Dell macht? Keine Ahnung, wir werden es sehen. Gobt es eigentlich einen Grund, warum die Bilder der G80 ausgerechnet heute zu sehen sind?

Weil heute mein Geburtstag ist. :biggrin:
Ne Spaß, sind die überhaupt 100%-ig echt?

AnarchX
2006-09-29, 17:11:20
Ne Spaß, sind die überhaupt 100%-ig echt?
Die Frage ist was für eine Karte sollte es sonst sein?
Nvidia auf dem PCB, SLI-Connector, 12 Speicherchips -> ?

gguru
2006-09-29, 17:15:23
Photoshop -> Nvidia auf dem PCB
Aber das ist auch unrealistisch.

G!ZMo
2006-09-29, 17:31:09
das teil sieht irgendwie ziemlich lang aus...

25cm+ würd ich mal meinen :eek:

Hvoralek
2006-09-29, 17:35:05
http://www.beyond3d.com/forum/showpost.php?p=840894&postcount=600

[...] it will be using gddr4 memory at 1500-1750 mhz, and will not have a full 1 gig memory.Die Formulierung aE könnte auch für ein 384- bit- SI sprechen. Warum ist nicht einfach die Rede von einem halben GiB? Mit den genannten Taktraten wären das dann allerdings 144 - 168GB/s, ggü einer 7900 GTX also etwa eine Verdreifachung :eek:

MadManniMan
2006-09-29, 17:37:40
Es schaut so aus, als würde das 384bit SI immer realistischer.

Wollen wir es nicht einfach "unbestätigten Fakt" nennen? ;) 12 Chips kann man praktisch gar nicht so sinnlos verschwenden, als daß dabei ein 256er SI herauskäme.

Bei angenommenen 1,5GHz GDDR4-Speicher ergäbe das wahnwitzige 140GB/s :ucatch:

G!ZMo
2006-09-29, 17:39:12
Wollen wir es nicht einfach "unbestätigten Fakt" nennen? ;) 12 Chips kann man praktisch gar nicht so sinnlos verschwenden, als daß dabei ein 256er SI herauskäme.

Bei angenommenen 1,5GHz GDDR4-Speicher ergäbe das wahnwitzige 140GB/s :ucatch:

naja besser als nix :ulol:

Hvoralek
2006-09-29, 17:43:31
naja besser als nix :ulol:Wie viele TMUs bräuchte man denn, um so eine Bandbreite sinnvoll nutzen zu können? Da könnte ich mir sogar noch mehr als 32 vorstellen. Naja, besser zu viel als zu wenig.

Zur Größe: Korrigiere mich, aber messen nicht die 7800/7900 und 1800/1900 teils 27cm? Von der 7900GX2 mit 33 mal ganz zu schweigen.

G!ZMo
2006-09-29, 17:45:11
Zur Größe: Korrigiere mich, aber messen nicht die 7800/7900 und 1800/1900 teils 27cm? Von der 7900GX2 mit 33 mal ganz zu schweigen.

ka ich hab sowas noch nich nachgemessen...
aber ich würd mal meinen das ding geht von der länge her eher richtung 7900gx2 :confused:

Slipknot79
2006-09-29, 17:46:30
Weil heute mein Geburtstag ist. :biggrin:
Ne Spaß, sind die überhaupt 100%-ig echt?


Naja vom Zeitraum her sollte es schon eher passen. 1.5 Monate vor Veröffentlichung, klingt recht realistisch, dass gerade jetzt Bilder auftauchen.

deekey777
2006-09-29, 17:51:41
Wie viele TMUs bräuchte man denn, um so eine Bandbreite sinnvoll nutzen zu können? Da könnte ich mir sogar noch mehr als 32 vorstellen. Naja, besser zu viel als zu wenig.
.
Es gibt auch andere Einheiten, die von der Bandbreite nicht genug kriegen.

Hvoralek
2006-09-29, 17:55:35
ka ich hab sowas noch nich nachgemessen...
aber ich würd mal meinen das ding geht von der länge her eher richtung 7900gx2 :confused:Naja, per Augenmaß würde ich schon sagen, dass die größer ist als etwa eine X1900XTX (http://www.computerbase.de/bild/article/541/12/) oder eine 7800 GTX (http://www.computerbase.de/bild/article/472/8/). An eine 7900 GX2 (oben) (http://www.techzine.nl/uploaded/31617_03ea04d3.jpg) scheint sie aber nicht heranzukommen. Wäre auch schlimm.

Es gibt auch andere Einheiten, die von der Bandbreite nicht genug kriegen.Ist nicht Texturbandreite im Regelfall der größte Batzen?

deekey777
2006-09-29, 17:56:25
Ist nicht Texturbandreite im Regelfall der größte Batzen?
Nein, sondern die Framebuffer-Bandbreite.

The_Invisible
2006-09-29, 18:16:27
Es schaut so aus, als würde das 384bit SI immer realistischer.

das wär mal ein richtiger kaufgrund für ne highendkarte

jetzt noch nen guten kühler (gtx like) drauf und ich weiß schon was unterm weihnachtsbaum liegt :D

mfg

Hvoralek
2006-09-29, 18:21:30
Nein, sondern die Framebuffer-Bandbreite.Da kann man natürlich für höhere AA- Grade fast beliebig viel verfeuern (für höhere Auflösungen auch, da braucht man aber auch eine entsprechende Füllrate). Vlt. liefert Nvidia ja auch mal einen braucharen Modus > 4x?

Ich bin aber anscheinend zu blöd, den Bedarf an Farmebuffer- Bandbreite vernünftig zu berechnen. Nehmen wir als Beispiel SXGA in FX8 mit 4xAA: Wo liegt der/ liegen die Fehler?

Auflösung: 1280x1024 =1310720 Pixel
32bit Farbtiefe, dazu z/Stencil: 1310720 x4 x2 = 10485760 Byte
4xMSAA: 10485760 x4 = 41943040 Byte, die pro Frame benötigt werden
Nehmen wir mal 60 fps an: 41943040 x60 = 2516582400

Das wären etwa 2,5 GB/s, also noch nicht so die Welt.

Da fehlt auf jeden Fall noch der Overdraw, wie bekomme ich den sauber in die Berechnung hinein und wieviel macht der im Durchschnitt aus?

Habe ich da sonst noch etwas übersehen oder stimmt die Herangehensweise so gar nicht?

Moralelastix
2006-09-29, 18:39:57
Gibts weitere Infos zum Stromverbrauch?

Zwei PCIe Stomstecker..... ----> 150W aufwärts?
Aus Langeweile hats bestimmt keine Wakü Version.


Die Lüftung ist ja bis auf die Plastikfarbe und die Lüfterform idenitsch mit dem Silencer von der neuen ATi. Qualität setzt sich durch! :biggrin:


http://www.xbitlabs.com/news/video/display/20060929090635.html

Gast
2006-09-29, 18:40:50
Ich bin aber anscheinend zu blöd, den Bedarf an Farmebuffer- Bandbreite vernünftig zu berechnen. Nehmen wir als Beispiel SXGA in FX8 mit 4xAA: Wo liegt der/ liegen die Fehler?

Blending, Z-Tests, mehrer Bilder pro Frame (Reflection, Refraction,Shadowmaps, Z-First) etc

G!ZMo
2006-09-29, 18:46:36
Gibts weitere Infos zum Stromverbrauch?

Zwei PCIe Stomstecker..... ----> 150W aufwärts?
Aus Langeweile hats bestimmt keine Wakü Version.


pcie-slot --> 75W + 2x stromstecker --> 2x75W macht 225W max

selbst wenn das ding "nur" 150W zieht reicht ein stromstecker nich aus :wink:

aths
2006-09-29, 20:12:57
Ist nicht Texturbandreite im Regelfall der größte Batzen?Nein, sondern die Framebuffer-Bandbreite.Das kann man so pauschal nicht sagen. Wenn mehrere Texturschichten genutzt werden, wobei die Texturen nicht kompromiert sind, spielt die Framebuffer-Bandbreite im Vergleich zur Texturbandbreite kaum noch eine Rolle.

Hvoralek
2006-09-29, 20:24:58
Wenn mehrere Texturschichten genutzt werden, wobei die Texturen nicht kompromiert sind, spielt die Framebuffer-Bandbreite im Vergleich zur Texturbandbreite kaum noch eine Rolle.Wo werden denn, abgesen von Doom3- Engine- Spielen auf Ultra- High, unkomprimierte Texturen verwendet?

Ailuros
2006-09-29, 20:25:43
Die Formulierung aE könnte auch für ein 384- bit- SI sprechen. Warum ist nicht einfach die Rede von einem halben GiB? Mit den genannten Taktraten wären das dann allerdings 144 - 168GB/s, ggü einer 7900 GTX also etwa eine Verdreifachung :eek:

Weil es weder 512 noch 1024 onboard Speicher sind ;)

***edit: bevor Ihr nochmal an eine sehr hohe Anzahl von X Einheiten denkt, ueberdenkt bitte nochmal wie "fett" genau jede Einheit sein koennte. Es wuerde mich kein bisschen wundern wenn z.B. die Anzahl der TMUs nicht zunimmt, sondern eher das Gegenteil.

****editNr.2: Du schaetzt zu viel Bandbreite IMHLO.

Raff
2006-09-29, 20:33:12
Wo werden denn, abgesen von Doom3- Engine- Spielen auf Ultra- High, unkomprimierte Texturen verwendet?

Hoffentlich nirgends, denn das ist IMO inakzeptabel. Kostet und bringt nichts.

MfG,
Raff

deekey777
2006-09-29, 20:35:02
Wo werden denn, abgesen von Doom3- Engine- Spielen auf Ultra- High, unkomprimierte Texturen verwendet?

FP16-Texturen, da sie noch nicht komprimiert werden können (INT16 auch?).
Das wäre so ein Fall, wo man viel Bandbreite braucht.
Zu deiner Rechnung:
Ich klaue mal was aus einem anderen Forum.
http://www.beyond3d.com/forum/showthread.php?p=841126#post841126
Und dann das Posting Nr. 10 lesen.:)

Wird eigentlich G80 endlich das 1010102-Format nutzen? Es muss doch nicht immer FP16 von A bis Z sein.

Gast
2006-09-29, 20:36:17
Und FP16-Framebuffer natürlich auch. FP16-Texturkompression könnte ich mir bei G80 aber vorstellen.

Gast
2006-09-29, 20:38:18
Das kann man so pauschal nicht sagen. Wenn mehrere Texturschichten genutzt werden, wobei die Texturen nicht kompromiert sind, spielt die Framebuffer-Bandbreite im Vergleich zur Texturbandbreite kaum noch eine Rolle.
Bei ner HDR-Szene mit Refraction und Reflection kommt man bei den Settings von oben schon auf 14 GiB/s. Nicht mitgezählt sind Overdraw und die üblichen Shadowmaps, was den Bedarf wohl nochmal mindestens verdoppelt.

Von "kaum eine Rolle spielen" ist man da momentan noch weit weg.

Hvoralek
2006-09-29, 20:40:09
Weil es weder 512 noch 1024 onboard Speicher sind ;)Genau das meinte ich ja :wink:

****editNr.2: Du schaetzt zu viel Bandbreite IMHLO.Mir scheint das auch etwas übertrieben, aber aus den im B3DF genannten Taktraten und einem angenommenen 384- bit- SI ergibt sich nun einmal eine solche Bandbreite. Ob nicht auch ~ 1,6GHz @ 256 bit oder ~1,1GHz @ 384 bit reichen würden - jeweils gut 100 GB/s -, ist natürlich eine Frage. Das hängt aber von der Stärke des Chips selbst ab, und die wird man wohl erst Mitte November wirklich beurteilen können.

Ach ja: Fotos fertig montierter Prototypen etwa sechs Wochen vor der voraussichtlichen off. Vorstellung sprechen wohl für einen Hardlaunch?

FP16-Texturkompression könnte ich mir bei G80 aber vorstellen.Kann man FP- Texturen mit bestehenden Verfahren komprimieren oder bräuchte man dafür neue?

Gast
2006-09-29, 20:44:11
Kann man FP- Texturen mit bestehenden Verfahren komprimieren oder bräuchte man dafür neue?
Mehr oder weniger ja.
Auf Siggraph und Eurographics gabs zum Thema HDR-Texture Compression verdammt viele Papers.

Hvoralek
2006-09-29, 20:46:03
Mehr oder weniger ja.Bedeutet das jetzt "Ja, aber nur mit einigen Umbauten" oder "Ja, aber sehr langsam"?

Gast
2006-09-29, 21:12:05
Bedeutet das jetzt "Ja, aber nur mit einigen Umbauten" oder "Ja, aber sehr langsam"?
Ja es geht.
DXT Formate interpolieren für einen 4x4 Block ja nur zwischen 2 Extrema. Welcher Datentyp diese besitzen spielt für das Verfahren selbst keine Rolle.
Ob DX9-Karten schon die entsprechende Hardwareunterstüzung besitzen, bezweifel ich aber. DX bietet auch keine Texturformate von sich aus dafür an.

D3D10 bietet hingegen "block-compression" Formate und RGBE an.

Es hindert einen aber keiner dran jetzt schon solche Dinge im PS selbst zu erledigen.

Bei den Blockbasierenden Methoden muss man aber u.U. mit stärkeren Artefakten bei HDR-Material rechnen.

Merlin31
2006-09-30, 00:07:17
Glaubt ihr auch, das NV es schafft die Teile schon im Nov zu verkaufen ?
http://www.gamestar.de/news/pc/hardware/nvidia/1465053/nvidia.html

Gast
2006-09-30, 00:58:10
schnellschuss um zum start von vista die planlosen zu fangen,die nur denken "hauptsache dx10"

Gast
2006-09-30, 01:05:15
G80 ist mitnichten ein "Schnellschuß". Das Ding ist schon Ewigkeiten in Entwicklung.

Merlin31
2006-09-30, 01:53:14
Ich glaube auch nciht das NV es so eilig hätte um so ein Risiko im kauf zu nehmen.

Warum auch, da ATi erst im 1. Q2007 raus kommt.

tombman
2006-09-30, 04:03:32
Und G80 kauft man nicht nur wegen DX10, sondern weil er natürlich das schnellste sein wird ;)

p.s: OMG, jetzt erst die PICS gesehen --> mir ging einer ab (virtuell). Aber falls diese 12 chips wirklich auf 384bit hindeuten -> :eek:^:eek:
Zu Weihnachten mein PC: Kentsfield @ 4ghz, G80 SLI + neues Netzteil, Stromverbrauch unter Volllast: 1KW ;D;D

Ailuros
2006-09-30, 06:34:46
Genau das meinte ich ja :wink:

Bingo.

Mir scheint das auch etwas übertrieben, aber aus den im B3DF genannten Taktraten und einem angenommenen 384- bit- SI ergibt sich nun einmal eine solche Bandbreite. Ob nicht auch ~ 1,6GHz @ 256 bit oder ~1,1GHz @ 384 bit reichen würden - jeweils gut 100 GB/s -, ist natürlich eine Frage. Das hängt aber von der Stärke des Chips selbst ab, und die wird man wohl erst Mitte November wirklich beurteilen können.

War die angegebene Frequenz auf B3D 1500MHz oder 1500 DDR? Waren das finale Frequenzen oder nur die Frequenz der 512MB Dev-samples?

Ach ja: Fotos fertig montierter Prototypen etwa sechs Wochen vor der voraussichtlichen off. Vorstellung sprechen wohl für einen Hardlaunch?

Hardlaunch = zumindest maessige Verfuegbarkeit. IMHO nein. Erstmal abwarten bis die gesamte Presse voll eingeweiht wird und bis es bessere Verfuegbarkeit gibt.

Was jetzt die wichtigen Internas und Faehigkeiten der Einheiten betrifft will ich noch gar nichts wagen, aber Transistoren hat NV diesmal anscheinend nicht gerade gespart. Da meine Konzentration hauptsaechlich in die AA/AF Richtung faellt, will ich hoffen dass ich nicht enttaeuscht werde. Orthogonalitaet wurde ja schon seit einiger Zeit bestaetigt; mal sehen wie "fett" diese genau sein wird.

Gast
2006-09-30, 10:45:56
Zur Größe: Korrigiere mich, aber messen nicht die 7800/7900 und 1800/1900 teils 27cm? Von der 7900GX2 mit 33 mal ganz zu schweigen.Eine 7900GTX ist ~23 cm lang. Die x1900xtx soweit ich weiß auch.

Krustovsky
2006-09-30, 10:49:02
Und G80 kauft man nicht nur wegen DX10, sondern weil er natürlich das schnellste sein wird ;)

p.s: OMG, jetzt erst die PICS gesehen --> mir ging einer ab (virtuell). Aber falls diese 12 chips wirklich auf 384bit hindeuten -> :eek:^:eek:
Zu Weihnachten mein PC: Kentsfield @ 4ghz, G80 SLI + neues Netzteil, Stromverbrauch unter Volllast: 1KW ;D;D

Tja G80 SLI zum Launch muss wohl sein :biggrin: Will jemand noch zwei GTXen ;). Wenigstens kommt jetzt so langsam Leben in die G80 Geschichte, 384bit SI, ich finde die Sache sieht äußerst vielversprechend aus.

The_Invisible
2006-09-30, 10:55:18
Tja G80 SLI zum Launch muss wohl sein :biggrin: Will jemand noch zwei GTXen ;). Wenigstens kommt jetzt so langsam Leben in die G80 Geschichte, 384bit SI, ich finde die Sache sieht äußerst vielversprechend aus.

von sli ist halt immer blöd umsteigen, da muss dann schon wieder sli her sonst hat man mit einer karte nur die performance des vorigen sli

mfg

Gast
2006-09-30, 11:04:47
Tja G80 SLI zum Launch muss wohl sein :biggrin: Will jemand noch zwei GTXen ;). Wenigstens kommt jetzt so langsam Leben in die G80 Geschichte, 384bit SI, ich finde die Sache sieht äußerst vielversprechend aus.

Ich weiß nicht was ein 384Bit SI bringen soll. Die Bandbreite wurde ja erst durch GDDR 4 erhöht. Vll hat der G80 eine integrierte PPU-Einheit, die separat auf 256Mb Speicher und über eine separate SI zugreifen kann.

AnarchX
2006-09-30, 11:06:58
Ich weiß nicht was ein 384Bit SI bringen soll. Die Bandbreite wurde ja erst durch GDDR 4 erhöht.
Bandbreite kann man nie genug haben, vor allem wird mit G80/R600 der Einsatz von FP-HDR+MSAA wohl richtig losgehen. ;)

Krustovsky
2006-09-30, 12:55:12
Bandbreite kann man nie genug haben, vor allem wird mit G80/R600 der Einsatz von FP-HDR+MSAA wohl richtig losgehen. ;)

Na, das wollen wir doch hoffen!

Ailuros
2006-09-30, 14:02:47
Ich weiß nicht was ein 384Bit SI bringen soll. Die Bandbreite wurde ja erst durch GDDR 4 erhöht. Vll hat der G80 eine integrierte PPU-Einheit, die separat auf 256Mb Speicher und über eine separate SI zugreifen kann.

Beispiel:

1000MHz GDDR4@384bit = 96,00 GB/sec
1500MHz GDDR4@256bit = 96,00 GB/sec

Welches der beiden Alternativen ist billiger und skaliert Bandbreite mit zunehmender Frequenz besser?

Gast
2006-09-30, 14:21:12
Mhh ich würde das letztere nehmen, da man so weniger Chips benötigt und auf einen stärkeren Speichercontroller verzichtet. Daraus folgt eine Transistoreinsparung.

Kläre mich auf wenn ich falsch liege.

Ailuros
2006-09-30, 14:33:43
IHVs planen ihre Architekturen nicht nur fuer ein Jaehrchen sondern versuchen so gut wie moeglich die zukuenftigen Forderungen zu decken. Dabei versucht man im Idealfall nicht nur die Skalierung nach oben fuer Refreshes zu decken, sondern auch die Skalierung nach unten fuer mainstream Produkte.

Wie breit wird denn der Bus im Mainstream-Segment sein hm? (angenommen die 384bits fuer high end stimmen tatsaechlich) ;)

Gast
2006-09-30, 14:37:03
Okay jetzt versteh ich was du meinst. Dann wäre der Speicherbus 192Bit breit, auch nur mit 6 Speicherbausteinen realisierbar.

Ailuros
2006-09-30, 14:41:09
Koennte auch mehr als 192bits sein. Hauptsache man bekommt so billig wie moeglich ca. die Haelfte der Bandbreite zwischen high end und mainstream.

robbitop
2006-09-30, 14:42:51
XGI hat das mit dem XG45 mal versucht. Das Teil kam aber nie auf den Markt (der XG45 war wohl Müll).

AnarchX
2006-09-30, 14:47:57
Koennte auch mehr als 192bits sein. Hauptsache man bekommt so billig wie moeglich ca. die Haelfte der Bandbreite zwischen high end und mainstream.

Im Mainstream könnte man imo durchaus auch noch mit 128bit auskommen, immerhin gab es ja jetzt durch GDDR4 einen erheblichen Boost und GDDR4 soll ja auch nicht so kostenintensiv in der Herstellung sein.
Wobei aber ein 192bit SI auch nicht verkehrt wäre.;)

Gast
2006-09-30, 14:48:08
Wieso springt man nicht gleich auf 512Bit, wenn man für die Zukunft plant, wäre das wirklich so viel mehr unwirtschaftlicher?

* GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
* GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler

Ich weiß, das das eine unglaubige News ist, aber wie soll man bitte etwas wie ein 320-Bit Interface realisieren, wie er anscheinend bei der 8800GT verwendet werden sollte?

AnarchX
2006-09-30, 14:50:48
Wieso springt man nicht gleich auf 512Bit, wenn man für die Zukunft plant, wäre das wirklich so viel mehr unwirtschaftlicher?


512bit ist einfach noch zu viel teuer für den Consumermarkt, 384bit ist mittlerweile wo bei einem vernünftigen Niveau angekommen.

Botcruscher
2006-09-30, 15:02:58
Ich weiß, das das eine unglaubige News ist, aber wie soll man bitte etwas wie ein 320-Bit Interface realisieren, wie er anscheinend bei der 8800GT verwendet werden sollte?

In dem die zusätzlichen 128Bit in zwei 64er geteilt sind. Bei der GT spart man sich warscheinlich dann die Hälfte des Speichers und der Leitungen.

Beispiel:

1000MHz GDDR4@384bit = 96,00 GB/sec
1500MHz GDDR4@256bit = 96,00 GB/sec

Welches der beiden Alternativen ist billiger und skaliert Bandbreite mit zunehmender Frequenz besser?

- Wieviel Leistung pro Bandbreite sind zu erreichen
- wie hoch sind die zusätzlichen Kosten für das PCB
- wie teuer sind die Speicherbausteine
- wie groß ist der Stromverbrauch der höhergetakten Speicherbausteine
- Verfügbarkeit

und und und...

Die Frage ist also ohne genaue Zahlen nicht zu beantworten.

Und die wichtigste Frage ist wie der Zusätzliche Speicher/Bandbreite genutzt wird. Es giebt ja Spekulationen das die Nutzung etwas spezieller ausfällt.

Skeptisch bleibern sollte man aber alle mal.

Ailuros
2006-09-30, 15:32:15
Natuerlich sollte man skeptisch bleiben, nur macht es eben mehr Sinn wenn man im high end auf 384bits zielt, dann im mainstream eben doch nicht bei 128bit bleibt.

Das Preis-/Leistungsverhaeltnis fuer mainstream GPUs wird normalerweise in etwa der Haelfte als im high end angelegt.

Wozu hoechstwahrscheinlich so viel Bandbreite im mainstream wie in heutigen high end GPUs? MSAA+HDR Kombinationen werden oefters gerechtfertigt erwaehnt; die naechste Antwort ist dann aber auch wie gross der grid genau sein wird. Zwar nicht besonders wichtig fuer PC Spiele, aber fuer professionelle Maerkte bzw. User dann eben schon. NVIDIA entwickelt ja nicht fuer PC mainstream und wenn Quantum3D als Beispiel durch Clarity auf multi-GPU Systemen schon 64x MSAA mit G7x erreichen kann, kann sich dieses gerne mit dieser Generation um einiges steigern.

Gast
2006-09-30, 19:54:34
512bit ist einfach noch zu viel teuer für den Consumermarkt, 384bit ist mittlerweile wo bei einem vernünftigen Niveau angekommen.

genau sowas haben früher alle gesagt und dann kam die 9700pro

robbitop
2006-09-30, 21:23:36
genau sowas haben früher alle gesagt und dann kam die 9700pro
:rolleyes: In letzter Zeit kreist diese Urban Legend oft herum? Bereits Monate vor dem R300 Soft-launch kam mit dem 3DLabs P10 (März/April) und der Parhelia 512 (14.5.) GPUs mit 256 Bit DDR Interface.
Ich weiß nicht, wo die Urban Legend herkommt, dass das unerwartet kam.
Außerdem war R300 so "gut", weil die Konkurrenz einfach langsam unterwegs war.

Raff
2006-09-30, 21:24:49
Die "langsame" Konkurrenz in Form der GF4 Ti-4600 rockte damals aber alles andere, inklusive der eher vermurksten Parhelia, weg.

MfG,
Raff

robbitop
2006-09-30, 21:28:20
Die "langsame" Konkurrenz in Form der GF4 Ti-4600 rockte damals aber alles andere, inklusive der eher vermurksten Parhelia, weg.

MfG,
Raff
Die GF4 war keine R300 Konkurrenz. GF FX war es.
Klar die Parhelia war ein vermurkstes Design mangels Ressourcen...aber dieses Trauerlied wurde oft genug an anderen Stellen gesungen...

Gast
2006-09-30, 22:23:36
:
Außerdem war R300 so "gut", weil die Konkurrenz einfach langsam unterwegs war.

man dreht sich wieder alles so,wie man es grad braucht hm

Gast
2006-09-30, 23:12:03
die fx war nicht wegen dem 128bit si so lahm
die fx5900 war kaum schneler als ne 5800U

Gmax
2006-09-30, 23:19:51
Erste Bilder einer G80 Karte auf Inquirer (http://www.theinquirer.net/default.aspx?article=34772)

http://www.theinquirer.net/images/articles/g801.jpg

AnarchX
2006-09-30, 23:25:24
Erste Bilder einer G80 Karte auf Inquirer (http://www.theinquirer.net/default.aspx?article=34772)

http://www.theinquirer.net/images/articles/g801.jpg

Sind schon seit Seite 53 bekannt... ;)

Hvoralek
2006-10-01, 00:58:30
War die angegebene Frequenz auf B3D 1500MHz oder 1500 DDR? Waren das finale Frequenzen oder nur die Frequenz der 512MB Dev-samples?Geht daraus nicht klar hervor (Die Angabe ist natürlich ohnehin mit Vorsicht zu genießen). Es ist die Rede von "gddr4 memory at 1500-1750 mhz". Wären effektive Taktfrequenzen gemeint, lägen die realen bei 750-875 MHz. Damit an einem 384- bit- SI käme man auf eine Bandbreite, die nicht allzu weit über der einer X1950XTX liegt - und braucht man bei solchen Frequenzen GDDR4? Anderereits: Real ist das für November... nicht pessimistisch. Naja, in ein paar Wochen werden wir es genauer wissen.

tombman
2006-10-01, 01:15:51
Also die G80 wird sicher keine chips verwenden, die UNTER der X1950 liegen. Selbst wenn es nur die gleichen 1000mhz chips sind, bei 384bit wären das auf einen Schlag gleich 50% mehr Bandbreite. Einfacher gehts nimmer ;) (vielleicht noch ein bischen gepimped, und schon kann mit die Marketingsfuzzis mit 100gb/s beliefern ;))

Banshee18
2006-10-01, 02:44:33
die fx5900 war kaum schneler als ne 5800U
In SM2-Spielen war sie recht deutlich schneller. Kaum vorstellbar, wenn man bedenkt, was für eine lahme Ente die 5900 Ultra da war.;)

Zum 384bit SI: Waren sich da die Gurus vor einiger Zeit nicht noch sicher, dass das aus technischen Gründen kaum machbar sei (ich meine nicht die finanziellen Gründe!)? Welche Gründe waren das nochmal?

Ailuros
2006-10-01, 02:45:07
Geht daraus nicht klar hervor (Die Angabe ist natürlich ohnehin mit Vorsicht zu genießen). Es ist die Rede von "gddr4 memory at 1500-1750 mhz". Wären effektive Taktfrequenzen gemeint, lägen die realen bei 750-875 MHz. Damit an einem 384- bit- SI käme man auf eine Bandbreite, die nicht allzu weit über der einer X1950XTX liegt - und braucht man bei solchen Frequenzen GDDR4? Anderereits: Real ist das für November... nicht pessimistisch. Naja, in ein paar Wochen werden wir es genauer wissen.

Vor der G70 Vorstellung bekamen ISVs quasi 7800GTs. Ich hab mehr angedeutet als gefragt; die dev-samples sind sowieso nur vorzeitige Test-Exemplare fuer Entwickler und die bekamen sie schon seit einiger Zeit und nicht gestern.

Wie dem auch sei, 768MB@384bit@=/>1500MHz klingt mir als zu verdammt teuer damit sich das Ganze Paket unter $650 halten koennte. Ich sehe uebrigens zwar guten Grund fuer mehr Bandbreite, aber nicht gleich 3x mal so viel auf einen Schub.

Ailuros
2006-10-01, 02:55:40
Zum 384bit SI: Waren sich da die Gurus vor einiger Zeit nicht noch sicher, dass das aus technischen Gründen kaum machbar sei (ich meine nicht die finanziellen Gründe!)? Welche Gründe waren das nochmal?

Welche technischen Gruende? Ich kann mich erinnern dass jegliche Behauptung doch mit Unkosten und Komplexitaet verbunden waren. In einem Zeitalter wo man zwei chips und 1024MB auf einer GX2 mit knapp ueber $500 kaufen kann, koennte das jeder nochmal ueberdenken.

Banshee18
2006-10-01, 03:27:42
Welche technischen Gruende?
Wenn ich das wüsste, würde ich nicht fragen.;)
Ich glaube, es hatte was damit zu tun, dass solche "Zwischenschritte" zumindest unpraktisch seien (wegen dem RAM?) und dass, wenn überhaupt, der nächste Schritt ein 512bit SI sei.

Gast
2006-10-01, 05:02:15
Was ist an einem 384Bit Speicherinterface so seltsam? Der/Die NV40/G70 ist doch so Modular aufgebaut worden das man Einheiten einfacher abschalten kann und das SI ist unterteilt, so dass ich da doch auch "einfach" sag ich mal etwas hinzufügen kann. Der Crossbar macht das doch mit Sicherheit nix was sie zu verwalten hat.
Sind doch theoretisch/vereinfacht betrachtet nur zusammengelegte 64Bit SI an einen Verteiler?

Und den RAM Takt wird man so wählen wie immer, grade so das man genug Leistung hat um die alte Generation im Worst Case um 20% zu überflügeln, wenn nicht dem Chip die Füllrate ausgeht. Das zuviel Ramtakt unnötig ist hat ja die 7800GTX512 bewießen.

The_Invisible
2006-10-01, 08:22:03
Und den RAM Takt wird man so wählen wie immer, grade so das man genug Leistung hat um die alte Generation im Worst Case um 20% zu überflügeln, wenn nicht dem Chip die Füllrate ausgeht. Das zuviel Ramtakt unnötig ist hat ja die 7800GTX512 bewießen.

unnötig? was ich noch weiß war die 7800gtx512 in seltenen fällen sogar vor der 7900gtx, eben wegen dem höheren ramtakt

mfg

Gast
2006-10-01, 21:47:46
Ich bin etwas verwirrt.
Hat nun der G80 laut den neusten Informationen/Gerüchten eine native
US-Architektur (also nicht nur per Treiber) oder nicht?
Meine so wie der R600 sie haben soll..

Banshee18
2006-10-02, 04:20:58
Ich bin etwas verwirrt.
Hat nun der G80 laut den neusten Informationen/Gerüchten eine native
US-Architektur (also nicht nur per Treiber) oder nicht?
Meine so wie der R600 sie haben soll..
Anscheinend nicht.

Ailuros
2006-10-02, 06:52:43
Nicht zu 100% unified.

Godmode
2006-10-02, 10:24:39
Anscheinend nicht.

Also wenn ich alles richtig verstanden habe, dann wird es gewisse Allzweckeinheiten - zB eine Arithmetic Logic Unit - geben, die dann eben für verschiedene Dinge verwendet werden können. Welche das nun genau sind kommt aber nicht deutlich heraus.

Gast
2006-10-02, 10:25:17
Nicht zu 100% unified.

Ich vermute langsam dass die TMUs wenigstens unified sind, nicht?

Gast
2006-10-02, 10:37:33
Was heist die TMUs sind unified...

Der Generationssprung wird wohl ähnlich wie FX59-NV40 ausfallen.
Wenn man bedenkt wieviele Gerüchte es gibt und keiner wirklich was weis, würd ich davon ausgehen das sie Bottlenecks wie TMUs die Shadereinheiten blockieren beseitigen. Den Geometrieshader nur als "haben wir auch" Feature einbinden, und das Teil auf SM3 Speed trimmen.
Um mal auf rein theoretische Zahlen zu kommen, würd ich tippen das man auf Füllraten Niveau einer 7900GTX bleibt oder leicht drüber geht, denn Füllrate brauchs ja auch wegen der Auflösungen die heutzutage gefahren werden, vorallem im Oberen Segment.
Kommt nun halt hinzu das man neue AA Modi wohl eingebaut hat, und damit bisherige Erkenntnisse AA=Füllratenschlucker und Speicherbandbreitenfresser vieleicht mehr oder minder Einfluss auf die Performance nehmen.
Schaut euch dochmal an was allein beim Einschalten von HDR heute passiert, die Grakas brechen richtig ein, und da wird sicher auch noch ein Hebel angesetzt.

Ailuros
2006-10-02, 11:18:56
Was heist die TMUs sind unified...

Vielleicht hat das Ding TMROPs ;)

Der Generationssprung wird wohl ähnlich wie FX59-NV40 ausfallen.
Wenn man bedenkt wieviele Gerüchte es gibt und keiner wirklich was weis, würd ich davon ausgehen das sie Bottlenecks wie TMUs die Shadereinheiten blockieren beseitigen. Den Geometrieshader nur als "haben wir auch" Feature einbinden, und das Teil auf SM3 Speed trimmen.
Um mal auf rein theoretische Zahlen zu kommen, würd ich tippen das man auf Füllraten Niveau einer 7900GTX bleibt oder leicht drüber geht, denn Füllrate brauchs ja auch wegen der Auflösungen die heutzutage gefahren werden, vorallem im Oberen Segment.

Wobei ich aber prompt fragen muss warum einer R580 mit nur 10.4 GTexels/Pixels Fuellrate, diese in sehr hohen Aufloesungen nicht ausgeht.

Kommt nun halt hinzu das man neue AA Modi wohl eingebaut hat, und damit bisherige Erkenntnisse AA=Füllratenschlucker und Speicherbandbreitenfresser vieleicht mehr oder minder Einfluss auf die Performance nehmen.
Schaut euch dochmal an was allein beim Einschalten von HDR heute passiert, die Grakas brechen richtig ein, und da wird sicher auch noch ein Hebel angesetzt.

Die Beduerfnisse an Fuellrate fuer MSAA sind generell gering.

Gaestle
2006-10-02, 11:28:27
Inwiefern ist ein bei B3D spekuliertes geteiltes 256+128 Interface anstatt eines 384Blocks denkbar? Gäbe das Vorteile für die Skalierbarkeit in den MidRange und LowEd bereich (Stichwort Einheiten weglassen)?
Oder eine andere Aufteilung:
Wäre eine Aufteilung des Speichers (mit dieser 256+128 Unterteilung) auf bestimmte Funktionsgruppen sinnvoll?

@Ailuros:
Ich halte 384@1000MHz für sinnvoller, weil es besser zu skalieren geht (mehr Taktreserven nach oben) als bei 256@1500. Die Kosten für das teurere PCB und den Speichercontroller werden IMHO mit zunehmender Produktionszahl sinken (spricht man beim PCB auch von yields?).
Siehst Du das anders? Wenn ja, warum?

grüße

Gast
2006-10-02, 11:39:52
Wobei ich aber prompt fragen muss warum einer R580 mit nur 10.4 GTexels/Pixels Fuellrate, diese in sehr hohen Aufloesungen nicht ausgeht.

Vieleicht weil in "herkömmlichen" Designs Bandbreite verschleudert wurde oder einfach die TMUs blockiert waren durch was anderes, sprich die Auslastung (Ulilization?) der TMUs einfach nicht hochgenug war um.

Gast
2006-10-02, 11:49:51
Die Beduerfnisse an Fuellrate fuer MSAA sind generell gering.

Auch bei HDR?
Vgl.: http://www.firingsquad.com/hardware/hdr_aa_ati_radeon_x1k/page8.asp

Leider gibts ja nicht allzuviele Games bei denen man das anschalten kann, Farcry lass ich außen vor, das hat für mich immer einen Beta Geschmack hat.
Wie man sieht brauchs "irgendwas" damit wie gewohnt 4xAA@1280x960 gefahren werden kann.

Ailuros
2006-10-02, 12:53:26
Auch bei HDR?
Vgl.: http://www.firingsquad.com/hardware/hdr_aa_ati_radeon_x1k/page8.asp

Leider gibts ja nicht allzuviele Games bei denen man das anschalten kann, Farcry lass ich außen vor, das hat für mich immer einen Beta Geschmack hat.
Wie man sieht brauchs "irgendwas" damit wie gewohnt 4xAA@1280x960 gefahren werden kann.

Genau aus dem Grund erwarte ich fuer die kommenden GPUs "fettere" Einheiten.

blackbox
2006-10-02, 16:29:35
Habe gerade zum ersten Mal die Bilder gesehen. OMG!

Wie lang ist denn das Teil?
Wasserkühlung?
Zwei Stromanschlüsse?

Sind sie wahnsinnig geworden?

(+44)-Gastmode
2006-10-02, 16:50:46
Zwei Stromanschlüsse?

Sind sie wahnsinnig geworden?


Das haben sie zum GeForce FX 5800 Ultra /6800 Ultra -Launch auch alle gerufen *schmunzel*

Gast
2006-10-02, 17:17:41
Wie war das mit den ewig gestrigen *g

Ne dicke Graka brauch halt mal Saft und hat kein deluxe Sockel wie ne CPU.
Die Länge der Karte wird halt normal sein das was sie heute lang sind, meine Güte jedesmal das selbe seit 2Jahren wenn was neues kommt. Spielt schockiert und wtf Stromverbrauch weil 2 externe Anschlüsse und omg die Umwelt...

Das es da auch nen Kühler ohne Wakü gibt sieht halt keiner, is doch fein wenns schon von nV ein Design für Wakü gibt, müssen die Grakahersteller es nicht selbst Entwickeln = Karte günstiger und die Lösung wird vieleicht öfters eingesetzt.

Zurück zu den "fetten" Einheiten, d.h. es könnte bei einem 24Pipeline Design / 6Quad genannt bleiben, sprich 24TMUs dazu halt viele Hilfseinheiten (3-4 ALUs) und davor setzt man die Omniverselle Vertexeinheit vereint mit GS Feature. Das Rad muss ja nicht neuerfunden werden, man hat ja einen gesunden Stamm, wenn man den an einigen Stellen entkoppelt, arbeitet mein Quad auch mal öfters als bisher ^^

Gast
2006-10-02, 17:17:45
Wie war das mit den ewig gestrigen *g

Ne dicke Graka brauch halt mal Saft und hat kein deluxe Sockel wie ne CPU.
Die Länge der Karte wird halt normal sein das was sie heute lang sind, meine Güte jedesmal das selbe seit 2Jahren wenn was neues kommt. Spielt schockiert und wtf Stromverbrauch weil 2 externe Anschlüsse und omg die Umwelt...

Das es da auch nen Kühler ohne Wakü gibt sieht halt keiner, is doch fein wenns schon von nV ein Design für Wakü gibt, müssen die Grakahersteller es nicht selbst Entwickeln = Karte günstiger und die Lösung wird vieleicht öfters eingesetzt.

Zurück zu den "fetten" Einheiten, d.h. es könnte bei einem 24Pipeline Design / 6Quad genannt bleiben, sprich 24TMUs dazu halt viele Hilfseinheiten (3-4 ALUs) und davor setzt man die Omniverselle Vertexeinheit vereint mit GS Feature. Das Rad muss ja nicht neuerfunden werden, man hat ja einen gesunden Stamm, wenn man den an einigen Stellen entkoppelt, arbeitet mein Quad auch mal öfters als bisher ^^

Winter[Raven]
2006-10-02, 17:43:17
Ich bin so frech, und tippe mal das wir den Kühler von diesem "Eng.Sample" garnicht auf der RetailKarte wiederfinden werden.

=Floi=
2006-10-02, 19:31:50
DAS glaube ich wiederum garnicht

so wird nämlich auch gleich der kühler getestet und wenn es noch einen extra kühler geben würde hätte hier auch ein VF900 gereicht bzw wird NV wohl nicht extra eine sonderanfertigung bringen

bin gespannt wie schnell die karte wirklich ist
würde mich nicht wundern wenn sie teilweise die doppelte bis 3fache leistung hätte
vor allem in AA modi zeigt eine neue generation meistens den fortschritt

Blackpitty
2006-10-02, 19:42:13
Habe gerade zum ersten Mal die Bilder gesehen. OMG!

Wie lang ist denn das Teil?

Sind sie wahnsinnig geworden?

sie ist 28cm lang

The_Invisible
2006-10-02, 19:57:00
bin gespannt wie schnell die karte wirklich ist
würde mich nicht wundern wenn sie teilweise die doppelte bis 3fache leistung hätte
vor allem in AA modi zeigt eine neue generation meistens den fortschritt

wenn ich gerade vorher in der pcgh gelesen habe das gothic3 mit meiner gtx gerade mal für 1024x768/max details reichen soll wäre das auch bitter nötig.

mfg

Nightspider
2006-10-02, 23:27:15
Ist es nicht so, dass ASUS/MSI/PNY/EVGA/AOpen/Sparkle/etc. die Kühler aussuchen und montieren ?

Ich würde zwar auch eine Wakü-Variante kaufen...aber nicht mit diesem hässlichen DDR Kühler ;D
Braune Plasik...ich weiß nicht aber braune Plastik fällt bei mir unter das Jahrzehnt 1980. ;D

Wenn dann schon einen edlen Alu-PlexiGlas(leucht)-Kühler =)

(+44)
2006-10-02, 23:41:53
Ist es nicht so, dass ASUS/MSI/PNY/EVGA/AOpen/Sparkle/etc. die Kühler aussuchen und montieren ?



Eeeeh, wie meinst du das?

nVidia baut immer ein Referenzdesign, an das sich auch fast alle Hersteller halten - aus Kostengründen eben.

Schau dir doch den Markt an, die meisten Karten gleichen sich bis auf die Aufkleber, und hergestellt werden die Referenzboards mittlerweile eh alle von nVidia, die "Hersteller" kaufen nur komplette Karten und pappen ihren Sticker drauf.

Blackpitty
2006-10-02, 23:56:01
Außer Asus und Leadtek und Gigabyte verbauen kaum andere Hersteller eigene Kühler.

Dann ist der Unterschied echt nur noch beim Aufkleber und der Verpackung-Zubehör

Ailuros
2006-10-03, 00:00:35
']Ich bin so frech, und tippe mal das wir den Kühler von diesem "Eng.Sample" garnicht auf der RetailKarte wiederfinden werden.

Das Dingsbums auf den Bildern ist zu "neu" um ein engineering sample zu sein.

Ailuros
2006-10-03, 00:03:20
Ist es nicht so, dass ASUS/MSI/PNY/EVGA/AOpen/Sparkle/etc. die Kühler aussuchen und montieren ?

Ich würde zwar auch eine Wakü-Variante kaufen...aber nicht mit diesem hässlichen DDR Kühler ;D
Braune Plasik...ich weiß nicht aber braune Plastik fällt bei mir unter das Jahrzehnt 1980. ;D

Wenn dann schon einen edlen Alu-PlexiGlas(leucht)-Kühler =)

Weil Vendors meistens keine Zeit haben wenn es zu einem hard launch kommt, kommt der erste Schub von einem Hersteller. Wie viele G70 von wie vielen Herstellern sahen am Anfang gleich aus?

StefanV
2006-10-03, 00:24:09
@Ail
Wieviele G70 schauen denn aktuell noch gleich aus?
Öhm, hm, alle bzw fast alle?!

Botcruscher
2006-10-03, 00:29:01
Bis auf den Kühler kannst du das "fast" imo weck lassen.

Naja ich bin mal gespannt ob morgen auf diesem ominösen MS-DX10-Kongres was neues kommt. In irgend einem Hinterzimmer giebts da bestimmt was zusehen.

StefanV
2006-10-03, 01:10:03
Eeeeh, wie meinst du das?

nVidia baut immer ein Referenzdesign, an das sich auch fast alle Hersteller halten - aus Kostengründen eben.

Schau dir doch den Markt an, die meisten Karten gleichen sich bis auf die Aufkleber, und hergestellt werden die Referenzboards mittlerweile eh alle von nVidia, die "Hersteller" kaufen nur komplette Karten und pappen ihren Sticker drauf.
...nur die High End Modelle mit 256bit Speicherinterface...

Bei den low End schauts anders aus, da lohnts sich teilweise noch, was eigenes zu basteln...

Gast
2006-10-03, 01:18:43
Ich hoffe ja enlich mall auf ein neuen AF Modus.64 AF oder 128 AF sollten es schon bei der neuen Karte sein.

Nightspider
2006-10-03, 01:26:30
64 oder 128 faches AF ? :| Vllt 2008 für Alan Wake auf 3 Km Weitsicht...

ansonsten...""Hey, mit meiner neuen GF8 kann ich bei CSS mit dem Wallhack jetzt sogar noch die Texturen vom Spawn-Punkt der Gegner scharf erkennen!"" ;D

(+44)
2006-10-03, 01:32:48
...nur die High End Modelle mit 256bit Speicherinterface...

Bei den low End schauts anders aus, da lohnts sich teilweise noch, was eigenes zu basteln...

Klar, von denen sprach ich ja.

Gibts seitens nVidia eigentlich Restriktionen, also dürfen die Boardhersteller noch eigene Designs für Highend-Chips entwerfen, oder ist das lediglich unrentabel?

Ich meine - bei ner 7900GTX ist das Referenzdesign absolut passend, aber auf ner 7900GT/GS will ich den winzigen, lauten Radial-Quirl nicht sehn...

Wo wir schon bei Restriktionen sind - nVidia sollte Boardherstellern wie BFG verbieten, nen schönen Kühler wie den der 7800/512 / 7900GTX mit Aufklebern zu verunstalten... :(

Gast
2006-10-03, 02:34:08
64 oder 128 faches AF ? :| Vllt 2008 für Alan Wake auf 3 Km Weitsicht...

ansonsten...""Hey, mit meiner neuen GF8 kann ich bei CSS mit dem Wallhack jetzt sogar noch die Texturen vom Spawn-Punkt der Gegner scharf erkennen!"" ;D


also je mehr af desto besser, find ich...

StefanV
2006-10-03, 04:02:28
Klar, von denen sprach ich ja.

Gibts seitens nVidia eigentlich Restriktionen, also dürfen die Boardhersteller noch eigene Designs für Highend-Chips entwerfen, oder ist das lediglich unrentabel?
AFAIK gibts seit einiger Zeit einige Dinge, die ein AIB können muss, insbesondere beim RF Filter, wo frühere nV Karten einfach nur unterirdisch schlecht waren...

Bei den High End Modellen lohnts sich aber einfach nicht, da die abgesetzte Menge zu klein ist.

Ailuros
2006-10-03, 06:27:29
also je mehr af desto besser, find ich...

Qualitaet vor Quantitaet aber dann bitte schoen.

Gast
2006-10-03, 09:17:31
Fragt sich ob 64x oder 128x AF überhaupt noch viel bringt. Das sind dann ja schon extreme Winkel in denen die Tris liegen müssten um das überhaupt abzubekommen.

Gast
2006-10-03, 09:21:08
[...]beim RF Filter, wo frühere nV Karten einfach nur unterirdisch schlecht waren...
Manche Karten mit Nvidia-Chips. Genauso wie manche Karten mit Ati-Chips und manche Karten mit IMGTec-Chips.


Q

deekey777
2006-10-03, 11:53:02
Bei iXBT ist zu lesen, dass DigiTimes berichtet, dass die G80-Generation Mitte November kommt.

http://www.digitimes.com/mobos/a20061002A2007.html

StefanV
2006-10-03, 14:15:24
Manche Karten mit Nvidia-Chips. Genauso wie manche Karten mit Ati-Chips und manche Karten mit IMGTec-Chips.
Nein, allen Karten, danach fast allen/den meißten Karten!!

Manche ist stark untertrieben, bei nV Chip Karten...

Gast
2006-10-03, 15:48:28
Nein, allen Karten, danach fast allen/den meißten Karten!!

Manche ist stark untertrieben, bei nV Chip Karten...

Alle Karten ist mindestens genauso übertrieben. ^^

StefanV
2006-10-03, 16:57:10
Zu Zeiten der TNT bzw nV1x nicht wirklich, da ists durchaus treffend...

Botcruscher
2006-10-03, 17:04:23
Zu Zeiten der TNT bzw nV1x nicht wirklich, da ists durchaus treffend...

Da erübrigt sich aber AA und AF, da ja nichtmal 32Bit richtig lief.


PS: Was ist eigentlich aus diesem ominösen DX10-Treffen geworden?

Don Vito
2006-10-03, 17:20:19
Bis Januar lass ich meinen kleinen Rechner mit meinen beiden x2Karten laufen und dann wird bei mir definitiv eine neue G80er Serie Einzug halten (SLI)

Gast
2006-10-03, 17:51:56
Bis Januar lass ich meinen kleinen Rechner mit meinen beiden x2Karten laufen und dann wird bei mir definitiv eine neue G80er Serie Einzug halten (SLI)würdest du uns bitte mal dein geprolle ersparen? seit juli bombardierst du das forum damit wie ach so toll deine rechner sind. 80% deiner posts sind spam oder geproll. meine güte, muss das denn sein?

Gast
2006-10-03, 19:07:01
Zu Zeiten der TNT bzw nV1x nicht wirklich, da ists durchaus treffend...

Stefan Payne, lass doch bitte das Thread-Geschredder sein. Es ist definitiv nicht so, dass alle Karten davon betroffen waren. Ansonsten weise das bitte nach!

dargo
2006-10-03, 22:23:04
Ist schon etwas zum Stromverbrauch des G80 bekannt?
Mein Gott, zwei PCIe Stromstecker heißt 150W aufwärts beim Stromverbrauch. X-D

Das Ding kann doch nur verdammt laut sein, oder?

StefanV
2006-10-03, 23:14:50
Ja, die Lüfterkonstruktion schaut auch nicht sonderlich gescheit aus, das Teil wird mächtig warm werden!

paul.muad.dib
2006-10-03, 23:47:03
Warum sollten sie auf einmal wieder einern schwächeren Lüfter einsetzen?

StefanV
2006-10-04, 02:04:14
Wieso schwächeren?!
Schau dir das Teil mal genau an, ist ganz schön umfangreich, der Kühler...

Anarchy-HWLUXX
2006-10-04, 12:08:19
Außer Asus und Leadtek und Gigabyte verbauen kaum andere Hersteller eigene Kühler.

Dann ist der Unterschied echt nur noch beim Aufkleber und der Verpackung-Zubehör

Nur bei den Kleineren Karten - bei den Highend Teilen 6800U, 7800GTX, 7900GTX, 7950GX2 sind fast alle Karten durchgehend vom ersten bis zum letzten Tag Grün und mit Referenzkühler unterwegs.


@Kühler -

Die diskussion bringt doch nix - bei der 7800GTX hätte wohl auch keiner vermutet das der Single Slot kühler ausreicht und das bei recht niedrigem Geräuschpegel ...

Meine FX5800 nU mit Referenzkühler war auch bei Ultra Taktraten recht angenehm weil sie im betrieb NIEMALS so stark aufdrehte wie beim anschalten des Rechners.



Ansonsten ist mein größtes Problem bei der G80 : Ich brauch nen neuen TFT ;D Ein 18" mit 1280er langt da nicht wirklich - um die Power auch auszunutzen muss 1600er auflösung her.

Winter[Raven]
2006-10-04, 12:32:39
Wieso schwächeren?!
Schau dir das Teil mal genau an, ist ganz schön umfangreich, der Kühler...

Na dann wartst ab, wie die Kühlerkonstruktion beim R600 aussieht...

Omnicron
2006-10-04, 12:36:49
Meint ihr die Pics von HardOCP? Mir will irgendwie nicht einleuchten einen Kühler mit Wakü Anschluss und Lüfter zu bauen :|

StefanV
2006-10-04, 12:46:38
Nur bei den Kleineren Karten - bei den Highend Teilen 6800U, 7800GTX, 7900GTX, 7950GX2 sind fast alle Karten durchgehend vom ersten bis zum letzten Tag Grün und mit Referenzkühler unterwegs.

Richtig, weils sich einfach nicht lohnt, dafür was zu basteln, mangels Absatz...


@Kühler -
Die diskussion bringt doch nix - bei der 7800GTX hätte wohl auch keiner vermutet das der Single Slot kühler ausreicht und das bei recht niedrigem Geräuschpegel...
Nujo, die G70 hat ja auch nicht soo eine hohe Abwärme, dazu kommt, das der Lüfter da drauf auch ganz schön viele (und große) Schaufeln hat...



Meine FX5800 nU mit Referenzkühler war auch bei Ultra Taktraten recht angenehm weil sie im betrieb NIEMALS so stark aufdrehte wie beim anschalten des Rechners.
Meine Erinnerungen an 5800er sind alle ziemlich übel, egal was fürn Kühler da drauf war...
Den Vogel schießt aber Leadtek mit ihrer gekapselten 2 Lüfterkühlung ab...
Natürlich nach der völlig dämlichen Fehlkonstruktion FlowFX...

Sowas bescheuertes gabs vorher noch nie und nachher auch nicht -> kaum Oberfläche + winzquirl (dürft wohl ein 30-40mm Yen Sun Radiallüfter sein), dazu der Lufttunnel...
In der Theorie ganz nett, in der Praxis aber unbrauchbar, da Lufttunnel = Strömungsgeräusche...


@Winter[Raven]
Sachmal, was hat dein Kommentar überhaupt mit dem Thread zu tun?!
Ist echt Kindergartenniveau 'abba die annaren sind noch viel schlimmer', vielleicht ists dir noch nicht aufgefalllen, aber hier gehts um G80 und nicht um den R600, dein Kommentar ist auch reichlich Sinnfrei, ergo Spam...

Anarchy-HWLUXX
2006-10-04, 13:03:49
Den Vogel schießt aber Leadtek mit ihrer gekapselten 2 Lüfterkühlung ab...
Natürlich nach der völlig dämlichen Fehlkonstruktion FlowFX...

Sowas bescheuertes gabs vorher noch nie und nachher auch nicht -> kaum Oberfläche + winzquirl (dürft wohl ein 30-40mm Yen Sun Radiallüfter sein), dazu der Lufttunnel...
In der Theorie ganz nett, in der Praxis aber unbrauchbar, da Lufttunnel = Strömungsgeräusche...



Absolut, ich hatte eine FX5800 und FX5900 mit Alu-Durchzug-Backofen :rolleyes: (Die Karte mit Referenzkühler war von PNY).

Elendig laut und heiss, dagegen war die PNY traumhaft. Komigerweise hat nen einfacher Titan Kupferkühler für dir GPU gereicht + passiv RAM Kühlers, ganz nach dem motto : wozu einfach wenn es auch kompliziert geht ?

Bei der FX5900er ist der WLP-auftrage-Maschiene wohl die WLP ausgegangen, auf dem RAMs war immer weniger von Chip zu Chip - auf der GPU war NIX ... resultierte in 120° bei 5min 3D belastung :eek:

Gast
2006-10-04, 13:15:40
']Na dann wartst ab, wie die Kühlerkonstruktion beim R600 aussieht...

Oh Winter hämmert mall wieder gegen Ati.

MadManniMan
2006-10-04, 15:28:01
Meine Erinnerungen an 5800er sind alle ziemlich übel, egal was fürn Kühler da drauf war...

Selektives Langzeitgedächtnis?

Moralelastix
2006-10-04, 15:34:25
"Selektives Langzeitgedächtnis?"

Sei aufrichtig, das hamm wir doch alle. :)

deekey777
2006-10-04, 15:44:14
Schluss mit dem OT. Hier geht es nur um den G80 und relevante Themen. Geht von mir aus ins Nostalgiehardrware-Forum.

mapel110
2006-10-04, 15:45:15
Jup.
btw wir sind hier ein wenig Offtopic und Flamisch. ;(
gruss mapel110
Doch mal Zeit gefunden, mich einzuloggen. :-)
Back2topic plz

Iwan
2006-10-04, 19:38:23
G80 nur mit GDDR3 (1,1ns)?

http://www.xtremesystems.org/forums/showpost.php?p=1752320&postcount=178

Hvoralek
2006-10-04, 19:51:33
G80 nur mit GDDR3 (1,1ns)?

http://www.xtremesystems.org/forums/showpost.php?p=1752320&postcount=178Wenn das stimmt, wäre diese absurd hohe Bandbreite vom Tisch. 1,1- ns- Speicher an einem 384- bit- SI würde ggü. dem Noch- High- End eine Steigerung um grob 50% bedeuten, das klingt doch schon glaubwürdiger. Das läge dann etwa auf dem Niveau, das auch mit GDDR4 und 256 bit zu erwarten gewesen wäre.

Ailuros
2006-10-04, 20:13:49
Wenn das stimmt, wäre diese absurd hohe Bandbreite vom Tisch. 1,1- ns- Speicher an einem 384- bit- SI würde ggü. dem Noch- High- End eine Steigerung um grob 50% bedeuten, das klingt doch schon glaubwürdiger. Das läge dann etwa auf dem Niveau, das auch mit GDDR4 und 256 bit zu erwarten gewesen wäre.

*raeusper* *hust* :biggrin:

Ich vermute dass der Speichercontroller total neu aufgelegt wurde, wobei es theoretisch auch fuer zukuenftige Frequenzen die ueber 2GHz reichen keinen Halt gaebe. Speicher ist aber und bleibt ein Kopfschmerz wenn es zu Unkosten kommt; IMO reichen ~90GB/sec fuer den Anfang durchaus aus.

Irgendwie hab ich ebenso das Gefuehl dass die mainstream Varianten irgendwo Mitte 2007, heutige high end GPUs regelrecht wegfegen werden. Geruechte wollen eine sehr gesunde Effizienz-steigerung mit AA, wobei mich eine Differenz in gewissen Situationen zwischen G80 und GX2 von >50% keineswegs wundern wuerde.

Botcruscher
2006-10-04, 20:27:18
Damit wird aber auch klar das einige Hersteller Versionen mit "ordentlichem RAM" anbieten werden. Die Verfügbarkeit bietet sich ja geradezu an.

Ailuros
2006-10-04, 20:33:53
Damit wird aber auch klar das einige Hersteller Versionen mit "ordentlichem RAM" anbieten werden. Die Verfügbarkeit bietet sich ja gerade zu an.

Der Preis muss sich auf logischen Niveau halten; mit =/>500M Transistoren und einer extravaganten Kuehlungsloesen werden die Bengel garantiert nicht billig sein.

Sicher werden einige Vendors wieder leicht uebertakten und etwas schnelleren Speicher verpassen aber IMO nur in moderaten Dosen, ueberhaupt nach den Problemen mit G71....

dildo4u
2006-10-04, 20:42:38
Vieleicht gibts die GT mit GDDR3 und die GTX mit GDDR4 in einem Interview mit Jens Neuschäfer von Nvidia in der neusten Ausgabe der PCGH kommt GDDR4 garantiert mit der GF 8 Serie im November.

Hvoralek
2006-10-04, 21:06:27
*raeusper* *hust* :biggrin:Ich habe mein Posting gerade nocheinmal gelesen; das klang wirklich zu sehr nach "Ich habe doch gleich gesagt, dass das nichts wird". Ich habe mich aber schon gewundert ("Mir scheint das auch etwas übertrieben, aber aus den im B3DF genannten Taktraten und einem angenommenen 384- bit- SI ergibt sich nun einmal eine solche Bandbreite."), nahm aber an, dass im B3DF reale Frequenzen gemeint waren, weil man bei effektiv 1500-1750 MHz nicht GDDR4 braucht - der ja dem Posting bei Xtremesystems zufolge auch nicht verbaut ist.

Ich lach mir einen ab, wenn G80 jetzt doch mit GDDR4 und einem 256- bit- SI kommt... :biggrin:

Godmode
2006-10-04, 21:09:40
Nvidia wird sich wohl die Kombinationen angesehen haben, und jene - wo das beste Preis-Leistungsverhältnis herausgekommen ist - genommen haben. Wenn wirklich ein 384 Bit SI verwendet wird, dann ist ja nach oben hin wirklich alles offen, also könnten sie mit 90 GB/sek anfangen und diese dann mit Hilfe von GDDR4 ordentlich in die höhen schrauben.

Freue mich schon auf die ersten richtigen Daten und Benches, ich denke es wird wieder eine interessante Runde werden.

Quasar
2006-10-04, 21:10:51
Samsung liefert derzeit auch nur bis max. 1.400 MHz aus - und das, IIRC, auch nur als Samples. Von daher wären >1.500 MHz sowieso ein bißchen unrealistisch gewesen.

Gast
2006-10-04, 22:29:41
Warum gibt es noch keine Bilder vom eigentlichen Chip?
Die hätten nicht nur die Rückseite und den Kühler fotografieren sollen...
Oder war vielleicht diese Platine noch gar nicht mit einem Chip bestückt?!
Naja, vielleicht sind die Bilder je nur Fake oder sonst was

Godmode
2006-10-04, 22:44:41
Warum gibt es noch keine Bilder vom eigentlichen Chip?
Die hätten nicht nur die Rückseite und den Kühler fotografieren sollen...
Oder war vielleicht diese Platine noch gar nicht mit einem Chip bestückt?!
Naja, vielleicht sind die Bilder je nur Fake oder sonst was

Ich denke das haben sie sich dann doch nicht getraut, die Konsequenzen wären wohl fatal!

Gast
2006-10-04, 23:24:19
Naja, vielleicht sind die Bilder je nur Fake oder sonst was

Dann muss der Fake aber geradezu unglaublich gut sein.

Ailuros
2006-10-05, 06:32:41
Ich habe mein Posting gerade nocheinmal gelesen; das klang wirklich zu sehr nach "Ich habe doch gleich gesagt, dass das nichts wird". Ich habe mich aber schon gewundert ("Mir scheint das auch etwas übertrieben, aber aus den im B3DF genannten Taktraten und einem angenommenen 384- bit- SI ergibt sich nun einmal eine solche Bandbreite."), nahm aber an, dass im B3DF reale Frequenzen gemeint waren, weil man bei effektiv 1500-1750 MHz nicht GDDR4 braucht - der ja dem Posting bei Xtremesystems zufolge auch nicht verbaut ist.

Ich lach mir einen ab, wenn G80 jetzt doch mit GDDR4 und einem 256- bit- SI kommt... :biggrin:

Siehe Quasar's Kommentar; 1400MHz@256bit ergibt eben zufaellig etwa genau so viel Bandbreite. Das was die 384bit These momentan sinnvoller macht ist das Mainstream-Segment; normalerweise "verpassen" IHVs hier ca. die Haelfte der Bandbreite im Vergleich zum high end. Rein aus der Luft gegriffen sagen wir mal </=50GB/s.

1500MHz@128bit oder 780MHz@256bit? (und ja das Zeug ist nur eine spekulative Rechenuebung).

seahawk
2006-10-05, 07:13:36
Sicherlich eher 256Bit, weil der Preis einer Mainstreamkarte mit 256 oder gar 512MB 1500er RAM kaum attraktiv sein dürfte.

Winter[Raven]
2006-10-05, 07:53:15
@Winter[Raven]
Sachmal, was hat dein Kommentar überhaupt mit dem Thread zu tun?!
Ist echt Kindergartenniveau 'abba die annaren sind noch viel schlimmer', vielleicht ists dir noch nicht aufgefalllen, aber hier gehts um G80 und nicht um den R600, dein Kommentar ist auch reichlich Sinnfrei, ergo Spam...

Warum spam?

Man muss bedenken, dass du nunmal ein gekennzeichneter ATI Fanboy bist, ergo muss man sich bei deinen Postings das sehen was hinter dem Wald liegt.

Ja, die Lüfterkonstruktion schaut auch nicht sonderlich gescheit aus, das Teil wird mächtig warm werden!

Ob mein Posting spam ist, kann ich nicht entscheiden, es ist aber nunmal die Tatsache das beide, NV als auch ATI bei dieser Generation sich schon was einfallen werden müssen...

Oh Winter hämmert mall wieder gegen Ati.

Troll wo anders, danke!

AnarchX
2006-10-05, 08:32:04
Power and the NVIDIA "G80"

Gentlemen, start your DirectX10 engines

DailyTech received its first looks at GeForce 8800 production sample today, and by the looks of it, the card is a monster: at least with regard to size and power requirements.

The GeForce 8800 comes in two flavors, which we will get into more detail about over the course of the next few days. Both cards are dual-slot PCIe cards measuring a little less than nine inches in length. The first card, the GeForce 8800GTX, is the full blown G80 experience. The GeForce 8800GTS is a cut down version of the first. [...]
http://www.dailytech.com/article.aspx?newsid=4442

Gast
2006-10-05, 08:37:12
GeForce 8800GTX & GTS Details

DailyTech has gotten some juicy details on the GeForce 8 flagship products and it has confirmed some of the leaked specs earlier on. We have mentioned about G80 being unified back in July 2005. Expect GeForce 8800GTX and 8800GTS products to launch the second week of November 2006.

GeForce 8800GTX : 575MHz core clock, 900MHz memory clock, 768MB of GDDR3, 384-bit memory interface, 86GB/s memory bandwidth, 128 unified shaders clocked at 1350 MHz, HDCP compliant, 450W for single and 800W for SLI

GeForce 8800GTS : 500MHz core clock, 900MHz memory clock, 640MB of GDDR3, 320-bit memory interface, 64GB/s memory bandwidth, 96 unified shaders clocked at 1200MHz, HDCP compliant, 400W for single and 800W for SLI


http://www.vr-zone.com/?i=4114

Anarchy-HWLUXX
2006-10-05, 09:14:30
Hmm ... die US-clock ist GPU-clock*2+200, bin mal gespannt wie dafür die erklärung aussehen wird ...

ShadowXX
2006-10-05, 09:18:15
GeForce 8800GTX & GTS Details

DailyTech has gotten some juicy details on the GeForce 8 flagship products and it has confirmed some of the leaked specs earlier on. We have mentioned about G80 being unified back in July 2005. Expect GeForce 8800GTX and 8800GTS products to launch the second week of November 2006.

GeForce 8800GTX : 575MHz core clock, 900MHz memory clock, 768MB of GDDR3, 384-bit memory interface, 86GB/s memory bandwidth, 128 unified shaders clocked at 1350 MHz, HDCP compliant, 450W for single and 800W for SLI

GeForce 8800GTS : 500MHz core clock, 900MHz memory clock, 640MB of GDDR3, 320-bit memory interface, 64GB/s memory bandwidth, 96 unified shaders clocked at 1200MHz, HDCP compliant, 400W for single and 800W for SLI

http://www.vr-zone.com/?i=4114
Was bitte hat daily auch nur ansatzweise von den VR-Specs confirmt? Den Namen, mehr aber auch nicht.

Am besten finde ich bei den VR-Specs 575MHz Core Clock und dann 1350MHz Shader Clock.

Was läuft denn nur mit 575? Die ROPs & TMUs? Die machen sehr wahrscheinlich wesentlich weniger Die-Fläche als ihre imaginären 128 Unified Shader aus und dürften somit einen "Cool-Spot" darstellen....der Rest des Chips backt inzwischen Pizza wenn er auf 1350MHz läuft (in 90nm).
Das waren nämlich keine Anschlüsse für eine Wasserkühlung auf den Pics, sondern Heissluftanschlüsse für einen externen Ofen.

Waren VR nicht auch die Jungs die dem r580 32Pipelines angedichtet hatten und bis 2 sekunden vor "Toreschluss" auf der Richtigkeit bestanden (wenn ich mich richtig erinnere sind Sie ja noch immer der Meinung das der r580 eigentlich 32Pipes hat und das nur eine Weltweite verschwörung verhindert hat das ATI den Chip in der Form auf den Markt bringt...)

Gast
2006-10-05, 09:27:49
Warum auf einmal nur DDR3 ?

Anarchy-HWLUXX
2006-10-05, 09:45:58
Warum auf einmal nur DDR3 ?

Weil die Bandbreite hier aufgrund des breiten SIs immernoch ca. 20GB höher ist als bei der schnellsten aktuellen single GPU Karte ?

Langt doch dicke und man hat viel luft nach oben - WENN diese Daten denn stimmen sollten.

Gast
2006-10-05, 10:36:36
GeForce 8800GTX & GTS Details

DailyTech has gotten some juicy details on the GeForce 8 flagship products and it has confirmed some of the leaked specs earlier on. We have mentioned about G80 being unified back in July 2005. Expect GeForce 8800GTX and 8800GTS products to launch the second week of November 2006.

GeForce 8800GTX : 575MHz core clock, 900MHz memory clock, 768MB of GDDR3, 384-bit memory interface, 86GB/s memory bandwidth, 128 unified shaders clocked at 1350 MHz, HDCP compliant, 450W for single and 800W for SLI

GeForce 8800GTS : 500MHz core clock, 900MHz memory clock, 640MB of GDDR3, 320-bit memory interface, 64GB/s memory bandwidth, 96 unified shaders clocked at 1200MHz, HDCP compliant, 400W for single and 800W for SLI


http://www.vr-zone.com/?i=4114


zweitschnellste is immer zu stark geschnitten,wenug ram kein ding,75 mhz naja aber auch noch an der bandbreite und shader rumfuschen :(

Ailuros
2006-10-05, 10:56:10
zweitschnellste is immer zu stark geschnitten,wenug ram kein ding,75 mhz naja aber auch noch an der bandbreite und shader rumfuschen :(

7800GT vs. 7800GTX

Kein Kommentar zum vr-zone/dailytech Quark.

Anarchy-HWLUXX
2006-10-05, 11:05:10
Man muss ja irgendwie die Leistung der kleineren Karte auch unten halten ... ist mal arg witzlos ne GTX zu kaufen wenn die GTS per OC die gleiche leistung hinbekommt. Hier ist die verringerung der Shader und verengung des SI der effektivste weg ... und man braucht auch nicht 2 verschieden schnelle RAM sorten ordern -> Mengenrabatt ? Weniger aufwand bei Logistik und zusammenbau ?

Gast
2006-10-05, 12:13:25
"GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz."

Wow, also doch US-Architektur. und dann gleich 128 von den Dingern!
auch wenn sie nicht soo effizient sind ist das beachtlich

Werden dann doch so 700Mio transistoren…
Würde auch die zwei Stromanschlüsse erklären ^^

Anarchy-HWLUXX
2006-10-05, 12:15:41
Na ja, was Shader und Co. angeht glaub ich nix bis es offiziell bestätigt wird.

Gast
2006-10-05, 13:32:16
Für mich scheinen diese Zahlen derbst unrealitisch. Warum auf einmal 128 US-Einheiten, wo doch bis zuletzt von Nvidia die US-Architektur dementiert wurde? Ich mein, was hätten die davon, sowas geheim zu halten? Und wer soll denn die Stromrechnung noch bezahlen, wenn das Ding noch immer in 90nm kommt. Und die Kühlung erst recht. Am besten das ganze dann noch in SLI.
Bei den Clocks könnte die Seite schon ganz richtig liegen, denn die liegen noch im Rahmen des machbaren. Aber alles andere scheint mir ein bisschen, öhm ein bisschen mehr zu hoch.

Gast
2006-10-05, 13:34:34
Ich meinte die Clocks wären realistisch bei kleinerer Bauweise.

Hakim
2006-10-05, 13:34:49
für 384 Bit reichen GDDR3 speicher noch locker aus. Laut Nvidia soll ja ein 450 Watt Netzteil reichen. Hört sich bis jetzt sehr gut an.

aths
2006-10-05, 13:42:16
"GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz."

Wow, also doch US-Architektur. und dann gleich 128 von den Dingern!"128 Shader" sagt gar nichts. Je nach dem wie man zählt, kann man beim G70 schon auf 192 "Shader" alleine im Pixelteil kommen. Zählt man anders, kommt man auf 48 "Shader" im Pixel- und 8 im Vertex-Teil.



Für mich scheinen diese Zahlen derbst unrealitisch. Warum auf einmal 128 US-Einheiten, wo doch bis zuletzt von Nvidia die US-Architektur dementiert wurde? Dementiert wurde meines Wissens nichts. Es gibt einige kritische Äußerungen zu den Unified Shadern.

Ailuros
2006-10-05, 14:33:21
Nun ja dass mit den 48 Fragment Prozessoren auf G7x ist ja auch so ein Ding fuer sich mit den texture OPs.

So schwer duerfte es gar nicht sein diese magische 128 Zahl zu entziffern.

Gast
2006-10-05, 14:56:10
Mhh vll so:

16 VS, 16 GS und dann noch 96 PS, wobei bei den PS das typische G70-Design angenommen wird.

Oder wie seht ihr das?

Gast
2006-10-05, 15:21:04
So sicher nicht ;)

Sunrise
2006-10-05, 15:56:28
Was bitte hat daily auch nur ansatzweise von den VR-Specs confirmt? Den Namen, mehr aber auch nicht.

Da sind schon mehrere Parallelen vorhanden, als nur der Name. So Unrecht hat der Gast hier nicht.

Unified Shader Architecture
Support FP16 HDR+MSAA
Support GDDR4 memories
Close to 700M transistors (G71 - 278M / G70 - 302M)
New AA mode : VCAA
Core clock scalable up to 1.5GHz
Shader Peformance : 2x Pixel / 12x Vertex over G71
8 TCPs & 128 stream processors
Much more efficient than traditional architecture
384-bit memory interface (256-bit+128-bit)
768MB memory size (512MB+256MB)
Two models at launch : GeForce 8800GTX and GeForce 8800GT
GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499

Bis auf Kleinigkeiten gleichen sich die Daten relativ stark.

Gast
2006-10-05, 16:16:23
38,4 gTexel/s sind etwas unrealistisch, würde bei dem takt 66 tmus ergeben wenn ich mich nicht verrechnet habe
aber schon toll das die die texturfüllrate in gpixel/s angeben

und wie soll man bei 320bit und 900mhz takt auf 64GB/s kommen?


die news stimmt hinten und vorne nicht

AnarchX
2006-10-05, 16:43:14
NVIDIA "G80" Retail Details Unveiled

DirectX 10 compliant GeForce 8800GTX and 8800GTS headed your way

DailyTech's hands-on with the GeForce 8800 series continues with more information about the GPU and the retail boards. The new NVIDIA graphics architecture will be fully compatible with Microsoft’s upcoming DirectX 10 API with support for shader model 4.0, and represents the company's 8th generation GPU in the GeForce family.[...]

http://www.dailytech.com/article.aspx?newsid=4441

:uponder:

dildo4u
2006-10-05, 16:46:29
"NVIDIA defines the 8800GTX with 128 "stream processors." Each shader has a clock of 1350MHz, but the core clock is 575MHz. We will detail more on the architecture later today."

http://www.dailytech.com/article.aspx?newsid=4441

Gast
2006-10-05, 16:46:30
Zitat von VR-Zone - die wiederum von den orangenen Slides abgeschrieben hatten
...
Close to 700M transistors (G71 - 278M / G70 - 302M)
...
Two models at launch : GeForce 8800GTX and GeForce 8800GT
GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499

Na das wird ja nen heisser Herbst...

Bin mal gespannt wie die "Nvidia-Low-Power-Consumption"-Fraktion ihre anstehende Neuanschaffung rechtfertigt.

AnarchX
2006-10-05, 16:56:03
128 ALUs mit 1350MHz, mal ausgehend von der Power einer R5xx ALU, das wären ja über 2 TFLOPS...:|

Gast
2006-10-05, 17:30:14
An denn namen 8800 muss man sich wirklich erst gewönnen.

ShadowXX
2006-10-05, 17:31:33
Da sind schon mehrere Parallelen vorhanden, als nur der Name. So Unrecht hat der Gast hier nicht.

Bis auf Kleinigkeiten gleichen sich die Daten relativ stark.

Ähhmmm....im DailyTech-Artikel werden überhaupt keine technischen Specs genannt (mach mal den spoiler auf).

Gentlemen, start your DirectX10 engines

DailyTech received its first looks at a GeForce 8800 production sample today, and by the looks of it, the card is a monster: at least with regard to size and power requirements.

The GeForce 8800 comes in two flavors, which we will get into more detail about over the course of the next few days. Both cards are dual-slot PCIe cards measuring a little less than nine inches in length. The first card, the GeForce 8800GTX, is the full blown G80 experience. The GeForce 8800GTS is a cut down version of the first.

The marketing material included with the card claims NVIDIA requires at least a 450W power supply for a single GeForce 8800GTX, and 400W for the 8800GTS. Top tier vendors in Taiwan have already confirmed with DailyTech that GeForce 8800 cards in SLI mode will likely carry a power supply "recommendation" of 800W. NVIDIA's GeForce 7950GX2, currently the company's top performing video card, carries a recommendation of 400W to run the card in single-card mode.

NVIDIA is slated to launch both versions of the GeForce 8800 in November of this year. More details on the GeForce 8800 will be available later today on DailyTech.


Dieser Link ( http://www.dailytech.com/article.aspx?newsid=4441 ) kam erst später....wohl nachdem bei Daily jemanden aufgefallen war, das bei Vr was ähnliches steht und Sie dann die VR-Specs einfach kopiert haben.

dildo4u
2006-10-05, 17:33:56
Ähhmmm....im DailyTech-Artikel werden überhaupt keine technischen Specs genannt (mach mal den spoiler auf).
[spoiler]

Im Neuem schon. ;) http://www.dailytech.com/article.aspx?newsid=4441

ShadowXX
2006-10-05, 17:36:20
Im Neuem schon. ;) http://www.dailytech.com/article.aspx?newsid=4441
Sieh mal meine Ergänzung.....diese Specs die Daily da plötzlich aufzählt haben Sie definitiv von VR abgeschreiben, nachdem Sie mitbekamen, das die auch was über den G80 geschreiben hatten.

Weder VR noch Daily sind wirklich gute Quellen.....(ich frag die Redis bei VR jeden Monat einmal wo denn der r580 mit 32Pipelines bleibt).

The_Invisible
2006-10-05, 17:43:17
Na das wird ja nen heisser Herbst...

Bin mal gespannt wie die "Nvidia-Low-Power-Consumption"-Fraktion ihre anstehende Neuanschaffung rechtfertigt.

wer sagt das ati es besser macht?

mfg