PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Der G80-Thread, part deux


Seiten : [1] 2

deekey777
2006-10-16, 11:58:17
Zunächst: Wer meint, allen kundzutun, dass er die 8800 holt oder nicht, dass er sie geil oder ungeil findet oder ähnlich qualitativ, möge er dies hier machen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=323496
Solche Posting sind hier unerwünscht. Bleibt beim Thema.
Teil eins (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326183), letztes Posting (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4882524#post4882524).
NVIDIA "G80" Retail Details Unveiled (http://www.dailytech.com/article.aspx?newsid=4441)
Zusammenfassung der vermeintlichen Specs der G80-Generation (gefunden hier (http://www.beyond3d.com/forum/showpost.php?p=845779&postcount=802)):
8800GTX
575MHz Core Clock
900MHz Mem Clock
768MB GDDR3 memory
384-bit memory interface (86GB/s)
128 unified shaders clocked at 1350 MHz
38.4 billion pixels per second theoretical texture fill-rate
450W PSU Recommended
Hard launch in second week of November


8800GTS
500MHz Core Clock
900MHz Mem Clock
640MB GDDR3 memory
320-bit memory interface (64GB/s)
96 unified shaders clocked at 1200 MHz
?? billion pixels per second theoretical texture fill-rate
400W PSU Recommended
Hard launch in second week of November


From dailytech (http://www.dailytech.com/article.aspx?newsid=4441).
Wann soll die neue kommen? Anfang oder Mitte November (siebter oder achter November geheime Präsentation und am 17. Nov dann der Launch?). Finales Tapeout: Mitte Sommer. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4882524&postcount=1495)
128 Shader? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4844698&postcount=1236) von aths.
"G80" To Feature 128-bit HDR, 16X AA (http://dailytech.com/article.aspx?newsid=4450)
Zu 16xMSAA von robbitop. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4847291&postcount=1275)
Mögliche Unterteilung der Speicheranbindung von ailuros. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4851735#post4851735)
3DMarks der G80? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4855782#post4855782) Update (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4897588&postcount=167)
Preise der 8800? (http://www.beyond3d.com/forum/showpost.php?p=848128&postcount=1129)
G80-Mainstream/Lowend auf der CeBIT? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4876123#post4876123)

€dit:
Was vergessen: Wenn ihr auf ein Postings aus dem ersten Teil eingeht, verlinkt dieses bitte.

Slipknot79
2006-10-16, 12:04:09
"Mit was haetten sie denn ueberhaupt die angeblichen D3D10 Effekte implementiert? Mit dem refrast?"


Ich geh mal davon aus, dass Crytek ne Art DX10 SDK bekommen hat?

Die gelbe Eule
2006-10-16, 12:18:24
Bin nur noch auf die Preise gespannt, hoffe nicht das es so wie mit der 7800 GTX512 enden wird und diese dann am selben Limit arbeiten.

Ailuros
2006-10-16, 12:21:52
"Mit was haetten sie denn ueberhaupt die angeblichen D3D10 Effekte implementiert? Mit dem refrast?"


Ich geh mal davon aus, dass Crytek ne Art DX10 SDK bekommen hat?

Meinte ich ja auch mit dem refrast; erstens heisst es dann erstmal SPF (seconds per frame) und zweitens wie gut kann ein ISV raten wie genau jegliche Funktion in zukuenftigen GPUs implementiert wurde? Crysis Entwicklung begann weder gestern noch vor einem Jahr. Im besten Fall ist deren D3D10 path nur fuer Beschleunigungen die aber auch sowieso nicht die Welt insgesamt ausmachen werden. Alles was bis jetzt gezeigt oder erwaehnt wurde sah mir nicht nach >DX9.0c aus. Dass D3D10 GPUs um einiges schneller sein werden als heutige high end GPUs sollte verstaendlich sein, ist aber auch ein ganz anderes Kapitel.

Ailuros
2006-10-16, 12:28:31
Bin nur noch auf die Preise gespannt, hoffe nicht das es so wie mit der 7800 GTX512 enden wird und diese dann am selben Limit arbeiten.

Ich schaetze dass es auf dem bisherigem Niveau der MSRPs bei Vorstellung bleiben wird, wobei es natuerlich wie immer an der Verfuegbarkeit, Mittelmaennern, Steurn oder weiss der Geier was noch am Ende ankommt.

Die 7800GTX512 war ein Zwischenschieber bis G71 ankam; wieso braucht momentan NV einen Zwischenschieber? Sie koennten auch weiterhin auf GX2/7900GTX rumhocken und auf Q1 2007 warten. Es ist ja nicht gerade so dass ATI gerade was in Richtung D3D10 Produktionsreif hat momentan.

Eine besonders grosse Verfuegbarkeit erwarte ich von G80 trotz allem nicht; NV ist tatsaechlich wie andere schon erwaehnten ziemlich sicher ueber G80 und will erstmal Eindruecke gewinnen.

Slipknot79
2006-10-16, 12:33:24
Meinte ich ja auch mit dem refrast; erstens heisst es dann erstmal SPF (seconds per frame) und zweitens wie gut kann ein ISV raten wie genau jegliche Funktion in zukuenftigen GPUs implementiert wurde? Crysis Entwicklung begann weder gestern noch vor einem Jahr. Im besten Fall ist deren D3D10 path nur fuer Beschleunigungen die aber auch sowieso nicht die Welt insgesamt ausmachen werden. Alles was bis jetzt gezeigt oder erwaehnt wurde sah mir nicht nach >DX9.0c aus. Dass D3D10 GPUs um einiges schneller sein werden als heutige high end GPUs sollte verstaendlich sein, ist aber auch ein ganz anderes Kapitel.


Meinst du also, dass der bewegte Rauch in Windrichtung auch unter DX9.0 dargestellt werden wird? Oder dargestellt werden kann, nur dass man aus Marketinggründen die Funktion nur unter DX10 freischalten wird?

Ailuros
2006-10-16, 12:42:20
Meinst du also, dass der bewegte Rauch in Windrichtung auch unter DX9.0 dargestellt werden wird? Oder dargestellt werden kann, nur dass man aus Marketinggründen die Funktion nur unter DX10 freischalten wird?

Gibt es irgendeine Aussage oder Quelle die bestaetigen dass bestimmte Funktionen nur mit dem D3D10 path verfuegbar sein werden? Was genau ist denn so besonders an Rauch der sich in Windrichtung bewegt, dass es nicht unter DX9 moeglich sein sollte?

Anarchy-HWLUXX
2006-10-16, 12:45:27
Bin nur noch auf die Preise gespannt, hoffe nicht das es so wie mit der 7800 GTX512 enden wird und diese dann am selben Limit arbeiten.

Der Preis der 512er wurde absichtlich sehr hoch angelegt um die nachfrage unten zu halten da nVidia eben wusste das sie nicht genug solch schneller GPUs haben ;)

Der vergleich ist also mal lichtjahre daneben, vergleich es besser mit dem 7800GTX / 7900GTX launch ...

Slipknot79
2006-10-16, 12:50:43
Gibt es irgendeine Aussage oder Quelle die bestaetigen dass bestimmte Funktionen nur mit dem D3D10 path verfuegbar sein werden? Was genau ist denn so besonders an Rauch der sich in Windrichtung bewegt, dass es nicht unter DX9 moeglich sein sollte?


Es gibt nur die Aussage eines Crytekprogrammieres auf einer Spielemesse (glaube die GC in Leipzig) wo er am GIGA-Stand ein Video von Crysis unter DX10 vorgeführt hat da echte DX10 Hardware nicht verwendet werden durfte. Darin war bewegter Rauch zu sehen. Ich zweifle nicht daran, dass es unter DX9 nicht ginge, aber es scheint ein Effekt zu sein der nur DX10 Usern vorbehalten sein wird. Ich meine auch, dass im selben Atmezug gemeint wurde, dass der bewegte Rauch nur unter DX10 zu sehen sein wird.

Ich hoffe ich kann das Video auf die Schnelle finden, dann poste ich den Link. Ausser du kennst das Video und ich habe da was falsch interpretiert?

dargo
2006-10-16, 12:57:46
Gibt es schon was handfestes zum Stromverbrauch?
Wenn ich mir die empfohlenen NTs anschaue dürfte selbst die G8800GTX kaum mehr als eine X1950XTX benötigen. Auf jedem Fall sollte sie unter 150W bleiben.

Anarchy-HWLUXX
2006-10-16, 13:03:51
Gibt es schon was handfestes zum Stromverbrauch?
Wenn ich mir die empfohlenen NTs anschaue dürfte selbst die G8800GTX kaum mehr als eine X1950XTX benötigen. Auf jedem Fall sollte sie unter 150W bleiben.

Auf den ersten Pics die eine G80 darstellen "könnten" sind zwei 6-pin anschlüsse zu sehen ... ist aber nicht klar ob dies nun die Retail version ist.

Mit solch einer Stromversorgung wüder die verbrauchsobergrenze auf 225W steigen.

dildo4u
2006-10-16, 13:08:28
Auf den ersten Pics die eine G80 darstellen "könnten" sind zwei 6-pin anschlüsse zu sehen ... ist aber nicht klar ob dies nun die Retail version ist.Das sagt auch wenig bis gar nix über der Verbrauch aus zu Erinnerung eine 6800Ultra.


http://666kb.com/i/aif3fwyjdbp0bqdwb.jpg

Slipknot79
2006-10-16, 13:11:02
Gibt es irgendeine Aussage oder Quelle die bestaetigen dass bestimmte Funktionen nur mit dem D3D10 path verfuegbar sein werden? Was genau ist denn so besonders an Rauch der sich in Windrichtung bewegt, dass es nicht unter DX9 moeglich sein sollte?


Habe zwar den Link gefunden, aber die Vids sind nicht mehr online :(

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4718868&postcount=337

dargo
2006-10-16, 13:14:13
@Anarchy-HOCP
Bei möglichen 225W würde NV kein NT mit nur 450W empfehlen. Ein durchschnittliches NT mit 450W hat combined ~25-30A auf der 12V Schiene.
Bei 225W würde alleine die Grafikkarte 17-18A (ein kleiner Teil fließt noch über die 3,3V Schiene) von der 12V Schiene saugen. Einen Intel Pentium D 840 mit 130W dazu und schon hat NV bzw. der User dann Probleme.

@dildo4u
Eine G6800U AGP ist aber ein etwas schlechter Vergleich.

1. Der AGP Slot liefert weniger Strom als ein PCIe Slot (knapp 30W weniger).
2. Die ~49W (4,22A) alleine über ein 12V Kabel zu jagen

http://www.xbitlabs.com/images/video/ati-vs-nv-power/6800u_table-b.gif

wäre mir auch zu riskant. Deswegen kann man sich wohl für zwei Stecker entschieden. Ein einzelner PCIe Stecker kann bis zu 3 12V Kabel vertragen.

PS: die 3,7A vom 5V Kabel sind auch nicht gerade wenig.

Anarchy-HWLUXX
2006-10-16, 13:40:41
Das sagt auch wenig bis gar nix über der Verbrauch aus zu Erinnerung eine 6800Ultra.


http://666kb.com/i/aif3fwyjdbp0bqdwb.jpg

EHEM !

Das sind zwar 2 Stromstecker aber nur mit jeweils EINER 12V Leitung, ein 6-Pin hat direkt 3 davon, die 6800Ultra für PCIe hat ebenfalls nur einen 6pin ...

Ergo -> Wenn man keine ahnung hat ;)

Nur hat das dargo ja scho erklärt ;D


@dargo -
Ich hab geschrieben Verbrauchsobergrenze, nicht das die Karte auch wirklich soviel brauchen wird ;) In dem moment wo es über 150W geht muss scho nen zweiter stecker her ... und seien es 160W.

dildo4u
2006-10-16, 13:43:43
Jo sorry ich hab gesucht und gesucht ich war mit sicher die PCI-E 6800U hatte auch zwei Stromanschlüsse.

dargo
2006-10-16, 13:48:41
Ich hab geschrieben Verbrauchsobergrenze, nicht das die Karte auch wirklich soviel brauchen wird ;) In dem moment wo es über 150W geht muss scho nen zweiter stecker her ... und seien es 160W.
Natürlich. Ich würde sogar davon ausgehen, dass selbst bei 140W der Karte zwei Stecker zur Sicherheit verpasst werden. Die gemessenen Werte @xbitlabs und Co unterscheiden sich nunmal etwas von den max. möglichen Werten der Hersteller.

Slipknot79
2006-10-16, 13:56:19
Habe zwar den Link gefunden, aber die Vids sind nicht mehr online :(

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4718868&postcount=337


So, jetzt hab ich das Video gefunden: http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=86&ttitle=Crytek_@_GigaGames_GC2006_-_Reportage_#3_-_WMV

Relativ schnell am Anfang des Videos wird von Crytek ein Video vorgeführt wo über die "DX10-Effekte" geredet wird. Unter anderem werden die bewegten Rauchschwaden erwähnt.

Anarchy-HWLUXX
2006-10-16, 14:42:30
Natürlich. Ich würde sogar davon ausgehen, dass selbst bei 140W der Karte zwei Stecker zur Sicherheit verpasst werden. Die gemessenen Werte @xbitlabs und Co unterscheiden sich nunmal etwas von den max. möglichen Werten der Hersteller.

Na ja, net wirtklich - die 7950GX2 verschlingt laut nVidia maximal 143W (also knapp unter dem maximum von 150W) und bekommt trozdem nur einen Stromstecker.

Man baut ja keine zwei drauf wenn es nicht wirklich sein muss da dies Marketingtechnsich sehr schlecht wäre ...

Gast
2006-10-16, 14:42:56
8. November solls jetzt devinitv soweit sein:
http://www.hartware.de/news_40907.html

dargo
2006-10-16, 15:01:47
Na ja, net wirtklich - die 7950GX2 verschlingt laut nVidia maximal 143W (also knapp unter dem maximum von 150W) und bekommt trozdem nur einen Stromstecker.

Man baut ja keine zwei drauf wenn es nicht wirklich sein muss da dies Marketingtechnsich sehr schlecht wäre ...
Ich habe auch von gemessenen 140W gesprochen. :wink:
Was NV angibt und was die GX2 dann wirklich verbraucht sieht man ja hier.

http://www.xbitlabs.com/images/video/ati-x1950xtx/x1950_power.gif

Und da laut NV die GX2 die 150W nicht überschreitet ist kein zweiter PCIe Stecker nötig.

PS: bei der G7900GX2 waren sogar zwei Stecker vorhanden.

Anarchy-HWLUXX
2006-10-16, 15:25:23
Ich habe auch von gemessenen 140W gesprochen. :wink:
Was NV angibt und was die GX2 dann wirklich verbraucht sieht man ja hier.

http://www.xbitlabs.com/images/video/ati-x1950xtx/x1950_power.gif

Und da laut NV die GX2 die 150W nicht überschreitet ist kein zweiter PCIe Stecker nötig.

PS: bei der G7900GX2 waren sogar zwei Stecker vorhanden.

Ich rede immer von den TDP vorgaben der Hersteller - wenn die Karte 140W real verbraten würe wär der TDP wohl bei 180.

@7900GX2 -

Die hat ja normale G71 drauf, auf der 7950GX2 werden soweit ich weiss Mobile GPUs mit niedrigerer Spannung verbaut -> weniger Verbrauch und wärme ...

gguru
2006-10-16, 15:37:11
8. November solls jetzt devinitv soweit sein:
http://www.hartware.de/news_40907.html

Das steht auch auf der vertrauenswürdigsten Seite zu dem Thema: http://www.geforcelan.com

- Witness the launch of NVIDIA's next generation Gaming PLATFORM (GPU and MCP together!)

Godmode
2006-10-16, 19:53:54
Was meint ihr eigentlich zu der sehr hohen ALU-Clock-Domain, könnte das hinhauen, oder ist das FUD? Ich weiß man kann eigentlich gar nichts zu diesen ALUs sagen, nur das man nicht weiß was sie können, daher ist nicht wirklich einzuschätzen was das Teil kann oder nicht. Aber wenn ich mir die 360 GFlop/s des R580 anschaue, dann könnte man eventuell mehr als 500 GFlop/s für G80 annehmen.

Die entscheidende Frage ist also:
Was kann eine ALU?
Sind es wirklich 128, oder nur eine kreative zählweise?
Was ist mit diesem Takt, über 1000 MHz doch recht heftig wenn man mit aktuellen Produkten vergleicht?
Oder einfach alles nur FUD?

AnarchX
2006-10-16, 21:15:54
http://we.pcinlife.com/attachments/forumid_206/%7BD1C2ED10-CB49-4E40-84FE-E31D505ABFFB%7D_WGsqvstuovGt.jpg

Botcruscher
2006-10-16, 21:21:25
Hm 20x zu 27x ist ja nicht zu prikelnd.

Godmode
2006-10-16, 21:42:18
Hm 20x zu 27x ist ja nicht zu prikelnd.

Kommt drauf an ob die 7950 oder die 7900 gemeint ist!

AnarchX
2006-10-16, 21:48:17
Kommt drauf an ob die 7950 oder die 7900 gemeint ist!
Naja, wohl nur eine 7900 (1 GPU), da 7600 10x und 7900 20x, was ja auch so stimmt.

TheGood
2006-10-16, 22:18:47
Die 7800GTX512 war ein Zwischenschieber bis G71 ankam; wieso braucht momentan NV einen Zwischenschieber? Sie koennten auch weiterhin auf GX2/7900GTX rumhocken und auf Q1 2007 warten. Es ist ja nicht gerade so dass ATI gerade was in Richtung D3D10 Produktionsreif hat momentan.

Eine besonders grosse Verfuegbarkeit erwarte ich von G80 trotz allem nicht; NV ist tatsaechlich wie andere schon erwaehnten ziemlich sicher ueber G80 und will erstmal Eindruecke gewinnen.
Kannst du mal kurz näher drauf eingehen was du mit Zwischenschieber und Nvidia ist sich sicher meinst? Irgendwie verstehe ich es einfach nicht.
Danke :)

Godmode
2006-10-16, 22:19:47
Das wäre dann ein Leistungsplus von 25 % was reichlich wenig ist! Wobei man hier nicht sieht was diese Zahlen genau aussagen!

AnarchX
2006-10-16, 22:21:33
Das wäre dann ein Leistungsplus von 25 % was reichlich wenig ist!
G80 vielleicht schwach unter DX9? ;)


Wobei man hier nicht sieht was diese Zahlen genau aussagen, vielleicht ist es ja auch nur der Stromverbrauch!
Ich lese da 3DMark06...

Godmode
2006-10-16, 22:40:46
G80 vielleicht schwach unter DX9? ;)


Ich lese da 3DMark06...

Eigentlich müsste er doch ein wahres Monster unter DX9 sein, also die erste richtige DX9 Karte von Nvidia(richtige in Bezug auf Performance, ihr wisst schon DynBranching und solche super Sachen)

Aber vielleicht könnte zb Demirug Stellung dazu nehmen ob sowas überhaupt möglich wäre, DX9 Krücke DX10 Monster! Ich selbst glaube nicht daran, aber vielleicht kann mir das ja wer erklären.

Die Folien sehen sehr nach Nvidia Folien aus, müssen aber auch nicht wirklich von ihnen sein.

Was sagt ihr zu den Folien, haltet ihr diese für Glaubhaft? Also IMHO: es könnte ja durchaus sein, dass Nvidia wieder einen sehr kleinen Chip baut, der sehr billig zum fertigen ist und eher nur Checklisten Features besitzt, aber irgendwie passt mir das überhaupt nicht in mein momentanes G80 Konzept rein, vor allem wenn man diese Screenshots der G80 Boards betrachtet!

Ich bin jetzt ziemlich ratlos was den G80 angeht, hoffentlich gibt es bald weitere Details über die Architektur!

Ailuros
2006-10-16, 23:40:53
Kannst du mal kurz näher drauf eingehen was du mit Zwischenschieber und Nvidia ist sich sicher meinst? Irgendwie verstehe ich es einfach nicht.
Danke :)

Die 7800GTX512 war anfangs nie geplant; da aber G71 noch seine Zeit brauchte kam ein ueberseltenes, sauteures mit sehr seltenem (damals) Speicher zu Tag. Das ist in meinem Buch ein "Zwischenschieber" oder auch anders eine "Notloesung".

G80 gehoert zu einer ganz neuen Generation und obwohl NV die G7x -"Kuh" noch fuer ein paar Monate ausmelken koennte und es keinen absoluten Zeitdruck fuer D3D10 gibt, veroeffentlichen sie trotz allem das Ding weil sie meinen guten Grund dazu zu haben. Ergo faellt G80 wohl nicht in die Zwischenschieber-Kategorie wie die 7800GTX512, zumindest IMHO.

Gast
2006-10-16, 23:56:21
Aber vielleicht könnte zb Demirug Stellung dazu nehmen ob sowas überhaupt möglich wäre, DX9 Krücke DX10 Monster!

Nein ist es nicht. D3D9 ist ja eine Untermenge von D3D10.

Gast
2006-10-16, 23:58:24
Eigentlich müsste er doch ein wahres Monster unter DX9 sein, also die erste richtige DX9 Karte von Nvidia(richtige in Bezug auf Performance, ihr wisst schon DynBranching und solche super Sachen)

Was für "solche Sachen". G7x schwächelt nur bei dyn. branching und das wird für D3D9 wohl für immer irrelevant bleiben.

Ailuros
2006-10-17, 00:09:08
http://we.pcinlife.com/attachments/forumid_206/%7BD1C2ED10-CB49-4E40-84FE-E31D505ABFFB%7D_WGsqvstuovGt.jpg

Ist das Zeug sicher 3dmark06 oder nur 3dmark05? Ich dachte G965 kann mit den heutigen Treibern ueberhaupt nicht 06' laufen?

Was genau liefert denn ein G965 Dingsbums in 05' 800 Punkte oder wieviel? 800*20= 16000. Wie sicher seit Ihr Euch dass es sich nicht bei den 7900-ern um SLi handelt? Mit einem FX-60 liefern 2*7900GTX@SLi ~14.000; der setup ist aber im Graph ein Conroe.

Ich koennte noch an hohe Aufloesungen mit AA denken, aber viel Hoffnung dass da der G965 nicht eine weisse Fahne wedelt hab ich gerade nicht ;)

Natuerlich koennten es nur 35% sein, aber es klingt mir reichlich unterirdisch momentan.

Aber vielleicht könnte zb Demirug Stellung dazu nehmen ob sowas überhaupt möglich wäre, DX9 Krücke DX10 Monster! Ich selbst glaube nicht daran, aber vielleicht kann mir das ja wer erklären.

http://www.beyond3d.com/forum/showpost.php?p=775688&postcount=6

(mit Fragezeichen aber bitte)

Palpatin
2006-10-17, 01:33:15
35% wär ne Entäuschung aber an die technischen Daten die hier in letzter Zeit angegeben werden glaub ich eh net was hies es alles im vorraus zur 7900er GTX und was kam am Ende raus......

[](-__-)[]
2006-10-17, 02:04:53
Für die Unwissenden:

128 unified shaders clocked at 1350 MHz

Was wird da geklockt? Hatten PixelPipelines und VertexShader mal eine Taktung?

Weil beides ist jetzt ja zusammengewürfelt > Unified Shader.

Ailuros
2006-10-17, 02:19:00
(-__-)[]']Für die Unwissenden:

:|

Was wird da geklockt? Hatten PixelPipelines und VertexShader mal eine Taktung?

Weil beides ist jetzt ja zusammengewürfelt > Unified Shader.

Wie meinen?

BlackBirdSR
2006-10-17, 06:36:05
(-__-)[]']Für die Unwissenden:



Was wird da geklockt? Hatten PixelPipelines und VertexShader mal eine Taktung?

Weil beides ist jetzt ja zusammengewürfelt > Unified Shader.

Man kann durchaus verschiedene Taktdomänen in einem Chip haben.
Wenn die ALUs und einige dafür notwendige Schaltungen mit doppeltem Takt laufen, können Operationen in einem halben (globalen) Takt ausgeführt werden.
Das verdoppelt theoretisch den Durchsatz und halbiert die Latenz. ( wie das prkatisch aussieht wissen wir erst nachher ;) )

Wichig ist hierbei die ALUs auch zu füttern. Es bringt nichts, wenn die ALUs nur bei jedem 2. Takt etwas zu tun bekommen.

Der Pentium4 war hier Vorreiter.

Gast
2006-10-17, 07:10:30
http://we.pcinlife.com/attachments/forumid_206/%7BD1C2ED10-CB49-4E40-84FE-E31D505ABFFB%7D_WGsqvstuovGt.jpg

Da steht noch nicht mal die verwendete Auflösung.

BlackBirdSR
2006-10-17, 07:19:15
Da steht noch nicht mal die verwendete Auflösung.

Ich erinnere mich da an die 7x schneller für die Geforce3 gegenüber der Geforce2. Das stimmte vielleicht in speziellen Bereichen. Aber für Spiele erstmal gar nicht.

Von daher schenke ich solchen Voerhersagen erstmal sehr wenig Gehör.

Gast
2006-10-17, 08:22:14
Ich erinnere mich da an die 7x schneller für die Geforce3 gegenüber der Geforce2. Das stimmte vielleicht in speziellen Bereichen. Aber für Spiele erstmal gar nicht.

Von daher schenke ich solchen Voerhersagen erstmal sehr wenig Gehör.

Exakt, aber ohne die verwendete Auflösung ist die Info wertlos. In 800X600 dürfte man auch mit der verwendeten CPU irgendwann mal in der CPU-Begrenzug reinlaufen. Außerdem bin ich mir gar nicht so sicher ob es wirklich der 06 sein kann.

Godmode
2006-10-17, 09:14:59
Bekommen wir davon noch ein bessseres Bild, wo man auch was rauslesen kann?

Matthias1981
2006-10-17, 09:16:34
Naja. Also wenn die Wirklich noch GDDR3 Ram hat is des ja net wirklich ein großer Fortschritt

BlackBirdSR
2006-10-17, 09:22:23
Naja. Also wenn die Wirklich noch GDDR3 Ram hat is des ja net wirklich ein großer Fortschritt

Alles zu seiner Zeit.
Wenn es wirklich GDDR3 ist, warum dann nicht? Es kommt immer auf den Nutzen an. Wenn GDDR3 schnell genug ist um den Chip zu versorgen, und dabei auch noch billiger...

Damit bleibt auch für Refreshes genügend Spielraum übrig. Es muss nicht immer das best mögliche sein.

seahawk
2006-10-17, 09:25:35
Naja. Also wenn die Wirklich noch GDDR3 Ram hat is des ja net wirklich ein großer Fortschritt

Durch die Erhöhung der Busbreite um 50% steigt die verfügbare Speciehrbandbreite um 50% bei gleicher Taktung. (theoretisch)

Matthias1981
2006-10-17, 09:29:57
Ja aber wenn die den auf 900Mhz bringen is doch (theoretisch) net wirklich mehr durch oc drinn. Oder seh ich des falsch. Ich meine warum noch GDDR3 verbauen wenn ati sogar schon GDDR4 verbaut

Ailuros
2006-10-17, 09:38:14
Ja aber wenn die den auf 900Mhz bringen is doch (theoretisch) net wirklich mehr durch oc drinn. Oder seh ich des falsch. Ich meine warum noch GDDR3 verbauen wenn ati sogar schon GDDR4 verbaut

Weil Du mit 900MHz@384bit genauso viel Bandbreite erreichst wie mit 1350MHz@256bit. Welcher der beiden Speicher ist billiger und besser verfuegbar momentan?

Winter[Raven]
2006-10-17, 09:40:43
Ja aber wenn die den auf 900Mhz bringen is doch (theoretisch) net wirklich mehr durch oc drinn. Oder seh ich des falsch. Ich meine warum noch GDDR3 verbauen wenn ati sogar schon GDDR4 verbaut

Bei einem 384 Bit SI sollte genug Bandbreite zur Verfügung stehen.

//EDIT

Zuspäte :(

Anarchy-HWLUXX
2006-10-17, 10:25:47
Ja aber wenn die den auf 900Mhz bringen is doch (theoretisch) net wirklich mehr durch oc drinn. Oder seh ich des falsch. Ich meine warum noch GDDR3 verbauen wenn ati sogar schon GDDR4 verbaut

Meinst du es gibt genug HIGHEST END GDDR4 Chips um beide Hersteller zu beliefern ? Bei 40.000 Karten im ersten G80 Schwung (gerücht) wären das dann 400.000 Chips angenommen es wären alles nur GTS und nicht GTX ...

Meinst du das GDDR4 der scho am anschlag getaktet ist gut zum clocken sein würde ?


Ich sage in beiden fällen : Nö.

Nightspider
2006-10-17, 14:47:00
Meinst du, dass man GDDR3 Speicher noch weit overclocken kann ?
Ich denke GDDR4 könnte man weiterübertakten, da dieser mit der Taktung noch lange nicht so weit ist, wie er könnte. kA ^^

Gast
2006-10-17, 15:13:31
Sollten nicht morgen (also am 18.10) offizielle infos zum G80 chip kommen?

deekey777
2006-10-17, 15:27:26
Sollten nicht morgen (also am 18.10) offizielle infos zum G80 chip kommen?
Morgen soll ein G80-Event stattfinden, aber ich glaub, dass Normalsterbliche nichts zu sehen bekommen.

The_Invisible
2006-10-17, 15:39:22
ich glaube kaum das nvidia das übertakten interessieren wird, und deswegen extra gddr4 verbauen...

mfg

Snoopy1978
2006-10-17, 16:32:06
[Zitat von DK777][/Morgen soll ein G80-Event stattfinden, aber ich glaub, dass Normalsterbliche nichts zu sehen bekommen].


Naja das würde vielleicht davon abhängen ob ein paar Quasselstrippen mit dabei sind.
Oder ob Nvidia ihre persönlichen und heißgeliebten Freunde vom Inquirer eingeladen haben.;D :biggrin:

Anarchy-HWLUXX
2006-10-17, 17:15:43
Ich erinner mich da zu gern an den Präsentations Slide : "Do not leak to the Inquirer" ;)

Hvoralek
2006-10-17, 18:18:13
(-__-)[]']Hatten PixelPipelines und VertexShader mal eine Taktung?Ja, haben sie. Bei einer X1900XT zB beide 625 MHz oder bei einer 7900 GTX zB 650 bzw. 700 MHz. :confused:

Gast
2006-10-17, 18:29:36
einer 7900 GTX zB 650 bzw. 700 MHz. :confused:Afaik takten die Vertexshader auch nur mit 650 MHz. Nur das Triangle-Setup taktet ein wenig höher.

Hvoralek
2006-10-17, 18:58:19
Afaik takten die Vertexshader auch nur mit 650 MHz. Nur das Triangle-Setup taktet ein wenig höher.Es sind mW die VS. Die Leistung nur des Triangle Setup durch mehr Takt zu erhöhen, wäre ja auch noch weniger sinnvoll. Siehe auch die Eckdaten des G71 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/2/#abschnitt_technische_daten). Da wird für die 7900 GTX ein Dreiecksdurchsatz von 1400 MV/s angegeben. Bei 8 VS ergibt sich als Takt 1400*4/8=700 MHz.

Ailuros
2006-10-17, 22:16:18
Es sind mW die VS. Die Leistung nur des Triangle Setup durch mehr Takt zu erhöhen, wäre ja auch noch weniger sinnvoll. Siehe auch die Eckdaten des G71 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/2/#abschnitt_technische_daten). Da wird für die 7900 GTX ein Dreiecksdurchsatz von 1400 MV/s angegeben. Bei 8 VS ergibt sich als Takt 1400*4/8=700 MHz.

Das mit dem triangle setup stimmt fuer die 7800GTX256 aber:

http://www.beyond3d.com/previews/nvidia/g70/index.php?p=04

Dabei zeigt Rivatuner ein hoeheres clock domain fuer die Vs an. G71 ist ein anderes Kapitel. Im offiziellen 7800GTX Reviewer guide wurden 860M Vertices/s angegeben aber unter Triangle setup stand folgende Notiz:

Improved efficiency of Cull and Setup over 6800 Ultra by 30%+ in fixed-function portion of geometry pipeline

Hvoralek
2006-10-18, 00:11:53
Das mit dem triangle setup stimmt fuer die 7800GTX256 aber:

http://www.beyond3d.com/previews/nvidia/g70/index.php?p=04

Dabei zeigt Rivatuner ein hoeheres clock domain fuer die Vs an. G71 ist ein anderes Kapitel. Im offiziellen 7800GTX Reviewer guide wurden 860M Vertices/s angegeben aber unter Triangle setup stand folgende Notiz:Dh offiziell taktet bei G70 nur das Tri Setup höher, laut Rivatuner aber auch die VS und bei G71 offiziell auch die VS? :confused:

Ailuros
2006-10-18, 06:28:16
Dh offiziell taktet bei G70 nur das Tri Setup höher, laut Rivatuner aber auch die VS und bei G71 offiziell auch die VS? :confused:

Ich hab mich mit dem Zeug nie ausfuehrlich beschaeftigt. Ich kann sowieso nicht verstehen wie man zur gleichen Zeit sagen kann dass die "fixed function geometry pipeline" ueberarbeitet wurde und dann nur 860M Vertices angibt; fixed function wird ja afaik auch durch die VS ausgefuehrt. Rivatuner zeigt in 2D fuer geometric/shader/ROP domains 275,40MHz an; in 3D wird es dann geometric= 468MHz, shader & ROP domains= 432MHz.

Nur ein Geometrie-Vergleichstest zwischen einer 7800GTX und einer 7900GTX koennte zeigen ob im einen Fall zu wenig oder im anderen Fall zu viel angegeben wird. Die "kleineren" Modelle der jeweiligen Produkt-linie (7800/7900) haben ja sowieso keine verschiedenen domains fuer VS.

AnarchX
2006-10-18, 21:03:30
http://forum.coolaler.com/showthread.php?p=1606617

1680*1050 06(8 AA/ 16 Anis) 7XXX


http://www.beyond3d.com/forum/showpost.php?p=855347&postcount=1454

Anarchy-HWLUXX
2006-10-18, 21:43:25
Jo, des hat ich eben scho gesehn ... nur ist der poster wohl das faulste stück ever, a bissi was hätt er ja noch dazu schreiben können :rolleyes:

Und in das coolaler forum kümm ich net rein :(

Godmode
2006-10-18, 22:26:28
1680*1050 06(8 AA/ 16 Anis) 7XXX

Ist das gut, ich habe nämlich keine Ahnung was man in diesen Settings normal so erreicht?

ShadowXX
2006-10-18, 22:35:40
1680*1050 06(8 AA/ 16 Anis) 7XXX

Ist das gut, ich habe nämlich keine Ahnung was man in diesen Settings normal so erreicht?
Wenn sich das wirklich auf 3DMark06 bezieht ist das für 8xAA in der Auflösung ziemlich gut.

Superheld
2006-10-18, 22:36:56
man muss aber erst die Qualität abwarten:biggrin:

Hvoralek
2006-10-18, 22:38:44
Wenn sich das wirklich auf 3DMark06 bezieht ist das für 8xAA in der Auflösung ziemlich gut.Da erreicht eine 7900 GTX in SXGA ohne AA/AF mW rund 6000 Punkte. Wenn der G80 in einer 30% höheren Auflösung mit "8x/16x" (Ist "8x" 8xMS oder das bisherige 8xS?) 1000 Pkte mehr schafft...

w0mbat
2006-10-18, 22:43:11
Was für eine Auflösung hat SXGA?

Hvoralek
2006-10-18, 22:44:02
1280x1024

w0mbat
2006-10-18, 22:46:40
Thx.

deekey777
2006-10-18, 23:12:29
http://tomshardware.co.uk/2006/10/18/the_new_graphics_uk/page2.html

From what we hear, the new card might not adopt the Microsoft graphics standard of a true Direct 3D 10 engine with a unified shader architecture. Unified shader units can be changed via a command change from a vertex to geometry or pixel shader as the need arises. This allows the graphics processor to put more horsepower where it needs it. We would not put it past Nvidia engineers to keep a fixed pipeline structure. Why not? They have kept the traditional pattern for all of their cards. It was ATI that deviated and fractured the "pipeline" view of rendering; the advent of the Radeon X1000 introduced the threaded view of instructions and higher concentrations of highly programmable pixel shaders, to accomplish tasks beyond the "traditional" approach to image rendering.

Unified oder nicht unified, das ist hier die Frage.

Anarchy-HWLUXX
2006-10-18, 23:30:13
TomsHW schreibt mal wieder müll ohne ende - MS hat nirgendwo geschrieben das DX10 Hardware UnifiedShader braucht :rolleyes:

Und solange die Performance stimmt ist mir die Architektur vollends egal ;D

Ailuros
2006-10-18, 23:37:29
Da erreicht eine 7900 GTX in SXGA ohne AA/AF mW rund 6000 Punkte. Wenn der G80 in einer 30% höheren Auflösung mit "8x/16x" (Ist "8x" 8xMS oder das bisherige 8xS?) 1000 Pkte mehr schafft...

Ich wuerde schaetzen dass hoechstwahrscheinlich D3D10 GPUs ueber single cycle 4xMSAA faehig sind.

http://www.beyond3d.com/forum/showthread.php?t=33678

Total unmoeglich ist die 8xS auch nicht unbedingt (verrueckt hohe Fuellrate + single cycle 4xMSAA +2xOGSS), aber doch etwas zu weit gegriffen mit dem Resultat.

man muss aber erst die Qualität abwarten

Wenn nicht wird es wohl Stunk geben bei den Eckdaten ;)

Unified oder nicht unified, das ist hier die Frage.

Wenn die bisherigen Geruechte stimmen sollten, ist G80 vielleicht am Ende auf seiner Basis noch komplizierter und flexibler als R600. Es wird aber auch hier genauso auf technologischem Interesse bleiben, wie auch wo und wieviel vereinigt wurde. Was am anderen Ende rauskommt wird wohl fuer beide und hoffentlich auch die Kaeufer wichtiger sein.

Gast
2006-10-18, 23:50:16
http://tomshardware.co.uk/2006/10/18/the_new_graphics_uk/page2.html



Unified oder nicht unified, das ist hier die Frage.

Lest mal genau, sie haben das angenommen, bevor sie ein NDA unterzeichnet haben und gebrieft wurden. Reine Speku, auserdem Käse bezüglich der zweifel von "full d3d10 rdy". Der Treiber gibt den Ton an ob eine Karte d3d10 voll Unterstützt oder nicht, was die Hardware unified oder fixed pipe mäßig macht, sieht die Software nicht!

Godmode
2006-10-19, 10:13:25
Wenn die bisherigen Geruechte stimmen sollten, ist G80 vielleicht am Ende auf seiner Basis noch komplizierter und flexibler als R600. Es wird aber auch hier genauso auf technologischem Interesse bleiben, wie auch wo und wieviel vereinigt wurde. Was am anderen Ende rauskommt wird wohl fuer beide und hoffentlich auch die Kaeufer wichtiger sein.

Auf welche Gerüchte beziehst du dich, eigene Quellen? Und flexibler heißt auch bessere Granularität beim Branching?

robbitop@work
2006-10-19, 10:29:55
Auf welche Gerüchte beziehst du dich, eigene Quellen? Und flexibler heißt auch bessere Granularität beim Branching?

Er denkt vermutlich an die 128x skalare Prozessoren @1350 MHz. Das klingt technologisch erstmal sehr weit fortgeschritten. Da gehört jede Menge Steuerlogik dazu.

Ailuros
2006-10-19, 11:46:36
Er denkt vermutlich an die 128x skalare Prozessoren @1350 MHz. Das klingt technologisch erstmal sehr weit fortgeschritten. Da gehört jede Menge Steuerlogik dazu.

Nicht nur; ich bezweifle dass G80 immer noch TMUs oder ROPs im bis jetzt bekannten Sinn hat.

Gast
2006-10-19, 12:01:58
Was ist gestern (18.10.) eigentlich auf der Konferenz bei rum gekommen ? Brauchbare Informationen gibt es da wohl nicht zu, oder ?

-Ghosty

Godmode
2006-10-19, 12:05:16
Was ist gestern (18.10.) eigentlich auf der Konferenz bei rum gekommen ? Brauchbare Informationen gibt es da wohl nicht zu, oder ?

-Ghosty

Die Leute die dort waren, mussten sicher alle eine NDA unterschreiben.

Anarchy-HWLUXX
2006-10-19, 12:16:02
Die Leute die dort waren, mussten sicher alle eine NDA unterschreiben.

Jup, und wenn nVidia ausschließlich Leute eingeladen hat die 100% verlässlich sind bekommen mer handfeste infos erst am Launch Day ...

So hat dann ATi auch keine möglichkeit vorzeitig auf den G80 zu reargieren :|

Ailuros
2006-10-19, 12:23:56
Jup, und wenn nVidia ausschließlich Leute eingeladen hat die 100% verlässlich sind bekommen mer handfeste infos erst am Launch Day ...

So hat dann ATi auch keine möglichkeit vorzeitig auf den G80 zu reargieren :|

Ist es nicht ein bisschen zu spaet (moment ich sag lieber verdammt spaet) jetzt noch in irgend einer Art zu reagieren?

Es sickert immer etwas durch ;)

Godmode
2006-10-19, 12:27:15
Ist es nicht ein bisschen zu spaet (moment ich sag lieber verdammt spaet) jetzt noch in irgend einer Art zu reagieren?

Es sickert immer etwas durch ;)

Siehe NV30, einfach den Takt extrem in die Höhe ;D

Ailuros
2006-10-19, 12:32:30
Siehe NV30, einfach den Takt extrem in die Höhe ;D

Dazu muessen sie erst mal das bis jetzt angepeilte Ziel erreichen heh...

Anarchy-HWLUXX
2006-10-19, 12:37:54
Ist es nicht ein bisschen zu spaet (moment ich sag lieber verdammt spaet) jetzt noch in irgend einer Art zu reagieren?


Es macht nen unterschied wenn man 3 Wochen vorm Launch weiss wie die Leistungsfähigkeit des Konkurrenzprodukts aussieht als erst am Launch Day.

Ailuros
2006-10-19, 12:51:00
Es macht nen unterschied wenn man 3 Wochen vorm Launch weiss wie die Leistungsfähigkeit des Konkurrenzprodukts aussieht als erst am Launch Day.

Wie bans3i sagte ist die einzige Massnahme die noch moeglich klingt eine Erhoehung der Taktrate. Wenn mit R600 tatsaechlich alles nach Plan gelaufen sein sollte, hat dazu ATI genug Zeit selbst nach dem G80 Launch. 3 Monate reichen cores mit der Hand auszusuchen ;)

Anarchy-HWLUXX
2006-10-19, 12:57:59
Wie bans3i sagte ist die einzige Massnahme die noch moeglich klingt eine Erhoehung der Taktrate. Wenn mit R600 tatsaechlich alles nach Plan gelaufen sein sollte, hat dazu ATI genug Zeit selbst nach dem G80 Launch. 3 Monate reichen cores mit der Hand auszusuchen ;)

Wenn der R600 noch 3 Monate hat kann man da mehr tun als nur Rosienen aussortieren ... hier hätten mer dann wieder recht bald das "Ultra" bzw. "7800GTX 512MB" problem -> schlechte lieferbarkeit.

robbitop@work
2006-10-19, 12:58:07
Nicht nur; ich bezweifle dass G80 immer noch TMUs oder ROPs im bis jetzt bekannten Sinn hat.
Du meinst die vereinten TMU/ROPs aka "TCP"? Naja das wäre ja "nur" eine Zusammenfassung beider Einheitengruppen.

Ailuros
2006-10-19, 13:15:08
Du meinst die vereinten TMU/ROPs aka "TCP"? Naja das wäre ja "nur" eine Zusammenfassung beider Einheitengruppen.

Keine Ahnung was zum Henker eine TCP sein koennte. Zwar reine Spekulationen aber so verrueckt ist das Ganze nun auch wieder nicht:

http://www.beyond3d.com/forum/showpost.php?p=853729&postcount=1402

Alle bisherigen TMU und/oder ROP Aufgaben muessen nicht unbedingt auf spezifische Einheiten verteilt werden.

robbitop@work
2006-10-19, 13:23:22
Keine Ahnung was zum Henker eine TCP sein koennte. Zwar reine Spekulationen aber so verrueckt ist das Ganze nun auch wieder nicht:

http://www.beyond3d.com/forum/showpost.php?p=853729&postcount=1402

Alle bisherigen TMU und/oder ROP Aufgaben muessen nicht unbedingt auf spezifische Einheiten verteilt werden.

*läl* also sollen die 128 mikrigen skalarunits auch noch die Texturfilterung übernehmen? Viel Spaß. Ein bilineares Sample kostet 3x LERPs, was 3xMADD4 +3xRCP wäre. Kann man sich ja ausmalen, dass am Ende nicht viel dabei herauskommt.

IMO ist es noch viel zu früh, die Filteraufgaben die ALUs erledigen zu lassen. Spezielle fixed function Units sind billiger und schneller. Dafür die flexiblen und teuren ALUs zu "verheizen" scheint mir kontraproduktiv.

Ailuros
2006-10-19, 13:42:21
Mickrig und scalar units? :rolleyes:

Ich hab das Gefuehl dass Du das hier uebersehen hast:

TMU/ROP fetch/store processors

Und ich wiederhole dass es nur eine These von Jawed ist sonst nichts.

Spezielle fixed function Units sind billiger und schneller.

Zwar wurden bis jetzt nur uebetriebene Fuellraten angegeben, aber rein theoretisch mit 600MHz braeuchte man dann 64 TMUs um 38400 zu erreichen. Kommt ganz drauf an auf was man insgesamt zielt. So einfach ist es nicht zu definieren was teurer und was genau billiger ist.

Anarchy-HWLUXX
2006-10-19, 13:49:40
Der Grund wieso die G80 warscheinlich auf GDDR3 setzt ist :

http://uk.theinquirer.net/?article=35198

Na subbi ...


Na ja, vieleicht net DER grund aba sicherlich eine gute Entscheidung.

robbitop@work
2006-10-19, 14:09:15
Mickrig und scalar units? :rolleyes:

Ich hab das Gefuehl dass Du das hier uebersehen hast:
Ich glaube du hast was übersehen ;)

ALU - uses register file/packet memory to execute a clause of instructions for:

* VS ALU
* GS ALU
* PS ALU
* TMU filtering (e.g. these 8 texels from two mipmaps need filtering)


Ok, dann betreiben wir mal ein wenig Mathematik:

Ich möchte mit einem 2x2 boxfilter ein Bilineares Sample haben. Dazu habe ich 4 Texel mit jeweils 4 Komponenten (Rot/Grün/Blau/Alpha).

Texel 1 (R1/G1/B1/A1)
Texel 2 (R2/G2/B2/A2)
Texel 3 (R3/G3/B3/A3)
Texel 4 (R4/G4/B4/A4)

Nun muss ich 3x linear Interpolieren (LERP).

Fangen wir an Texel 1 mit Texel 2 und parallel Texel 3 mit Texel 4 zu mischen:

Texel_linear_1:= ( (R1/G1/B1/A1) + (R2/G2/B2/A2) ) * (2^-1);
Texel_linear_2:= ( (R3/G3/B3/A3) + (R4/G4/B4/A4) ) * (2^-1);

Das machen wir jetzt mal skalar:
R_linear_1:= R1 + R2 * 2^-1 (ADD,MUL,RCP) sind 2 Operationen
G_linear_1:= G1 + G2 * 2^-1 (ADD,MUL,RCP) sind 2 Operationen
B_linear_1..
A_linear_1..

R_linear_2..
....

Das sind 2 Operation pro Komponente * 4 Komponenten *2 Lineare Interpolationen. Das sind 16 Ops bis hierhin.

Nun müssen beide beide miteinander gemischt (analog zu oben) werden. Das sind nochmal 8 Ops.

Texel_bilinear_final:= ( Texel_linear_1 + Texel_linear_2 ) * (2^-1);
-> analog zu oben nochmal skalar aufschlüsseln...

8+16 OPs = 24 Operationen für ein einziges bilineares Sample. (mit skalaren und flexiblen Einheiten muss ich ja zu Fuß gehen. Also klaut allein die bilineare Filterung eines Samples bereits 24 ALUs einen Takt lang oder 1 ALU 24 Takte oder, oder, oder. Eine Fixed Funktion TMU kann das in einem Takt und kostet nicht sonderlich viele Transistoren, kann aber dafür auch kaum etw anderes.

Zur hohen Pixelfüllrate: da stand ja nichts von "gefilterten" Pixel. Das ist wieder so eine Marktetingzahl, wieviele Pixel/Zixel man theoretisch in den Framebuffer schreiben können. Man bräuchte nur 32 ROPs, die je 4x Z-Werte pro Takt schreiben können (4xMSAA in einem Takt) bei 600 MHz, um das hinzubekommen.

Ich möchte mich hier natürlich nicht festlegen und weder dir noch Jawed widersprechen, jedoch bin ich was dieses Thema angeht skeptisch.

Ailuros
2006-10-19, 14:20:03
Wie schwer ist es zu verstehen dass Jawed Spekulation zwar nicht stimmt, aber Anhieb zu Gedanken sein koennte?

Zur hohen Pixelfüllrate: da stand ja nichts von "gefilterten" Pixel.

Texture Fillrate: 38.4 Billion Pixels/sec
Pixels per clock (peak): (absichtlich lehr gelassen)

robbitop@work
2006-10-19, 14:28:25
Wie schwer ist es zu verstehen dass Jawed Spekulation zwar nicht stimmt, aber Anhieb zu Gedanken sein koennte?
Ich habe es verstanden, jedoch wollte ich veranschaulichen, dass das in nächster Zeit einfach nicht drin ist. ;)

Zu welchen Gedanken brachte dich denn dieser "Anhieb", wenn ich fragen darf? ;)


Texture Fillrate: 38.4 Billion Pixels/sec

Texturefüllrate wird normalerweise in Texel/sec angeben. Entweder ist diese Information unwahr oder derjenige hat sich dort vertippt und meinte etwas anderes.
Whitepaper werden meist von Nicht-Technikern geschrieben. Vieleicht pflanzte sich dort auch ein Missverständnis ein?

Ailuros
2006-10-19, 14:47:36
Ich habe es verstanden, jedoch wollte ich veranschaulichen, dass das in nächster Zeit einfach nicht drin ist. ;)

Zu welchen Gedanken brachte dich denn dieser "Anhieb", wenn ich fragen darf? ;)

Geduld; lange wird es nicht mehr dauern ;)

Texturefüllrate wird normalerweise in Texel/sec angeben. Entweder ist diese Information unwahr oder derjenige hat sich dort vertippt und meinte etwas anderes.

Es ist eben bei NVIDIA nicht immer so:

http://www.nvidia.com/page/geforce_7900.html

Steht da nicht auch rein zufaellig Billion Pixels/sec? Oder geben Dir 16 ROPs@650MHz 15.6 GigaPixels/s?

Und es ist auch nicht der einzige Fall wo Texel- als Pixel-fuellraten angegeben werden.

robbitop@work
2006-10-19, 15:02:00
Es ist eben bei NVIDIA nicht immer so:

http://www.nvidia.com/page/geforce_7900.html

Steht da nicht auch rein zufaellig Billion Pixels/sec? Oder geben Dir 16 ROPs@650MHz 15.6 GigaPixels/s?
Wieso? Die Angaben sind doch korrekt. Dort steht Füllrate und nicht Texture-Fillrate. Und genau das meinte ich. Eine Füllrate von 38,4 GPix/sec ist denkbar, wenn die ROPs das können. Zwar relativ sinnfrei aber denkbar.

Ailuros
2006-10-19, 15:06:04
Wieso? Die Angaben sind doch korrekt. Dort steht Füllrate und nicht Texture-Fillrate. Und genau das meinte ich. Eine Füllrate von 38,4 GPix/sec ist denkbar, wenn die ROPs das können. Zwar relativ sinnfrei aber denkbar.

G71 hat 15.6 GigaTexels/s und 10.4 GigaPixels/s streng genommen.

X.Perry_Mental
2006-10-19, 15:06:16
Zitat vom Inquirer: "GeForce 8800 line to hit 12K in 3DMark ... Not quite enough to beat R600 from what I hear though."
http://uk.theinquirer.net/?article=35195

Gast
2006-10-19, 15:15:53
Zitat vom Inquirer: "GeForce 8800 line to hit 12K in 3DMark ... Not quite enough to beat R600 from what I hear though."
http://uk.theinquirer.net/?article=35195
jaja, und dann kommt halt wieder so ein kleines Intermezzo mit einigen Treiberupdates und Futuremark-Updates garniert mit dem ein oder anderen Interview zum Thema "So verstehen wir einen Benchmark" und schon ist jedlicher Vorsprung der ein oder anderen Partei dahin. ^^

robbitop@work
2006-10-19, 15:20:34
G71 hat 15.6 GigaTexels/s und 10.4 GigaPixels/s streng genommen.
Right ;)
Soviel zum Durcheinanderbringen von Begriffen X-D

Ganz streng genommen hat G71 15,6 GTex/sec Texturfüllrate und 20 GPix/sec Pixelfüllrate. Er kann 32 Zixel pro Takt schreiben, was streng genommen auch Pixel sind.

Ailuros
2006-10-19, 15:24:59
Right ;)
Soviel zum Durcheinanderbringen von Begriffen X-D

Ganz streng genommen hat G71 15,6 GTex/sec Texturfüllrate und 20 GPix/sec Pixelfüllrate. Er kann 32 Zixel pro Takt schreiben, was streng genommen auch Pixel sind.

OK damit wir endlich aus dem Schlammassel kommen, NV gibt in Marketing Specs (u.a. nvidia.com, AIB partners etc) fuer Textur-fuellraten Billion Pixels an und erst in Reviewer Guide whitepapers wird akkurat die Textur- von der Pixel-Fuellrate angegeben. Und ja da steht 10.4 drin und nicht 20.

Anarchy-HWLUXX
2006-10-19, 15:45:51
Zitat vom Inquirer: "GeForce 8800 line to hit 12K in 3DMark ... Not quite enough to beat R600 from what I hear though."
http://uk.theinquirer.net/?article=35195

Ein einziger wert, Wow ! ... ich schlaf gleich ein :rolleyes:

Der schmarrn ist netmal die Zeit wert das zu lesen ...

Snoopy1978
2006-10-19, 17:52:24
Ich habe mir auch den Artikel vom Inquirer durchgelesen.
Interessant ist vor allem woher die wissen wollen was der R600 leistet.:confused:.
Anbei mal noch ne Frage(könnte zwar sein daß das Thema schon behandelt wurde), was ist denn aus dem Gerücht geworden das der G80 ein Dualcore Chip wäre. Die Spezifikationsgerüchte mit den unterschiedlichen Taktungen innerhalb der GPU könnten ja darauf hindeuten (man belehre mich wenn ich Grütze rede:rolleyes: ).

Gast
2006-10-19, 20:13:54
Die ersten komprimierten Infos zur 3DMark-Leistung, aber immer noch sehr kurz gehalten.

http://we.pcinlife.com/thread-630584-1-1.html
(asiatische Seite)

-Ghosty

Godmode
2006-10-19, 21:18:40
Die ersten komprimierten Infos zur 3DMark-Leistung, aber immer noch sehr kurz gehalten.

http://we.pcinlife.com/thread-630584-1-1.html
(asiatische Seite)

-Ghosty

IIRC wurden diese Zahlen schon vor ein paar Seiten gepostet.

Gast
2006-10-19, 21:32:49
Bans3i:

Das war aber von der "Bildzeitung theinquirer" und die schreiben viel wenn der Tag lang ist. Hier kann man sich wenigstens mal nicht auf diese Schönschreiberlinge berufen :-)

-Ghosty

AnarchX
2006-10-19, 21:35:26
Bans3i:

Das war aber von der "Bildzeitung theinquirer" und die schreiben viel wenn der Tag lang ist. Hier kann man sich wenigstens mal nicht auf diese Schönschreiberlinge berufen :-)

-Ghosty

Nein Bans3i hat recht, die Werte sind sogar im ersten Post dieses Threads vermerkt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4882731&postcount=1
->
3DMarks der G80? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4855782#post4855782)

Gast
2006-10-20, 00:47:47
Anbei mal noch ne Frage(könnte zwar sein daß das Thema schon behandelt wurde), was ist denn aus dem Gerücht geworden das der G80 ein Dualcore Chip wäre. Die Spezifikationsgerüchte mit den unterschiedlichen Taktungen innerhalb der GPU könnten ja darauf hindeuten (man belehre mich wenn ich Grütze rede:rolleyes: ).

Hat nix zu sagen, beim G70 war es ja so das es einen Geometry Clock von 470MHz gab, während der Rest bei 430MHz taktete. Unterschiedliche Clockdomains sind nichts ungewöhnliches, nur wundert sich alle Welt wenn ein Hersteller das als Feature bringt, ui neu *g
Beim P4 ists ja auch nicht anders, die ALUs takten da mit der doppelten Taktrate des Chips.

Ailuros
2006-10-20, 04:36:09
http://www.beyond3d.com/forum/showpost.php?p=856547&postcount=1488

Und jetzt bitte echte Spiele in >1280 mit AA/AF ;)

seahawk
2006-10-20, 07:20:14
Da sieht die 8800GTS aber sehr interessant aus. Wobei der R600 deutlich drüber liegt - lait Inq. dem sicher ne Karte bereits vorliegt. :D

Ich frage mich allerdings welche Infos der Inq. überhaupt hat, man hört eigentlich eher andere Aussagen zum R600, als gerade überragende Leistung.)welche möglich sein dürfte, wenn das Ding so kommt wie ATI es sich vorstellt)

Godmode
2006-10-20, 08:40:43
Also die GTS sieht wirklich sehr interessant aus, bin schon gespannt. Ja und zum INQ: die haben wahrscheinlich überhaupt keine Werte und müssen sich auf eine Quelle verlassen. Ich würde denen auch zutrauen dass sie einfach selber was erfinden.

X.Perry_Mental
2006-10-20, 09:45:05
Ja und zum INQ: die haben wahrscheinlich überhaupt keine Werte und müssen sich auf eine Quelle verlassen. Ich würde denen auch zutrauen dass sie einfach selber was erfinden.

Wie Charlie in der Meldung schon geschrieben hat: Sie haben keine eigenen Werte, da man sie nicht eingeladen hat (oh Wunder). Die Werte kommen von einer nicht genannten Quelle, die auf der Veranstaltung war.
Man sollte Mike & Co nicht vorwerfen, dass der Inquirer eine Gerüchte-Seite ist, denn das soll er sein. Ein wenig mehr Skepsis oder etwas mehr journalistischer Abstand könnte aber wohl niemandem schaden.

dargo
2006-10-20, 09:54:05
http://www.beyond3d.com/forum/showpost.php?p=856547&postcount=1488

Und jetzt bitte echte Spiele in >1280 mit AA/AF ;)
Immer diese blöden 3DMark Werte. ;(
Wenn die wenigstens mit AA/AF testen würden. Ich könnte mir gut vorstellen, dass die G8800GTX mit 4xAA dann ca. doppelt so schnell wäre wie eine X1950XTX oder?

AnarchX
2006-10-20, 09:57:55
dass die G8800GTX mit 4xAA dann ca. doppelt so schnell wäre wie eine X1950XTX oder?

Ausgehend von den 7k im 3DM06 in 1680 mit 8xMSAA/8xS AA und 16xAF, könnte das mehr als hinkommen.

dargo
2006-10-20, 10:00:16
Ausgehend von den 7k im 3DM06 in 1680 mit 8xMSAA/8xS AA und 16xAF, könnte das mehr als hinkommen.
Dieser Wert ist doch kaum realistisch oder etwa doch?
Mit 8xMSAA oder sogar 8xSSAA? :eek:

AnarchX
2006-10-20, 10:02:16
Dieser Wert ist doch kaum realistisch oder etwa doch?
Mit 8xMSAA oder sogar 8xSSAA? :eek:

Schau dir einfach die Interpretation der Gurus dazu an, unter gewissen Umständen könnte es durchaus realistisch sein.;)

dargo
2006-10-20, 10:04:41
Schau dir einfach die Interpretation der Gurus dazu an, unter gewissen Umständen könnte es durchaus realistisch sein.;)
Boah, endlich mal ein würdiger Kandidat für den C2D >3Ghz. :up:
Ich hoffe nur NV hat was an der AF Qualität verbessert.

Gast
2006-10-20, 10:09:17
Geforce 8800 GTX:

* 575 MHz Chiptakt
* 1.350 MHz Stream-Prozessor-Takt
* 128 Unified Shader (laut Quelle Unified Shader-Einheiten)
* 900 MHz Speichertakt
* 768 MByte Speicher (12 Chips, 384 Bit Speicheranbindung)
* zwei SLI-Anschlüsse
* zwei 6-Pol-Stromanschlüsse
* Preis ca. 650 Euro

Geforce 8800 GTS:

* 500 MHz Chiptakt
* 1.200 MHz Stream-Prozessor-Takt
* 96 Stream-Prozessoren (laut Quelle Unified Shader-Einheiten)
* 800 MHz Speichertakt
* 640 MByte Speicher (10 Chips, 320 Bit Speicheranbindung)
* ein SLI-Anschluss
* ein 6-Pol-Stromanschluss
* Preis ca. 450 - 500 Euro

Generelle Features:

* Gigathread-Architektur
* 16x FSAA (programmierbares AA-Muster (noch) nicht bestätigt)
* 128 Bit Floating Point HDR
* OpenGL 2.0
* Direct3D 10

AnarchX
2006-10-20, 10:11:41
Ich hoffe nur NV hat was an der AF Qualität verbessert.

Hier kann man nur hoffen, es könnte durchaus sein, dass der Zeitpunkt der Präsentation von ATIs HQ-AF und die aufkommende Forderung nach weniger winkelabhängigen AF schon zu spät war innerhalb des G80-Designprozesses.
Aber das werden wir ja schon bald erfahren...:wink:

Generelle Features:

* Gigathread-Architektur
* 16x FSAA (programmierbares AA-Muster (noch) nicht bestätigt)
* 128 Bit Floating Point HDR
* OpenGL 2.0
* Direct3D 10

Das dürfte doch nicht ganz korrekt sein oder? ;)

Anarchy-HWLUXX
2006-10-20, 10:13:19
Hmm, sowidda nen paar neue Aspekte ... zwei SLI verbinder :|



@Hardwareluxx wurden angebliche Preise von BFG (Österreich) gepostet, Quelle -> Händler, umgerechnet 610€ für die GTX, 500€ für die GTS ...

AnarchX
2006-10-20, 10:15:48
Hmm, sowidda nen paar neue Aspekte ... zwei SLI verbinder

Naja durchaus sinnvoll für Tripple-SLI(ATI mach es ja mit dem neuen Nativ CF vor).;)

ScottManDeath
2006-10-20, 10:16:33
Das dürfte doch nicht ganz korrekt sein oder? ;)

OpenGL 2.0 ist die aktuelle Spezifikation. OpenGL 3.0 ist noch in der Entwurfsphase.

Godmode
2006-10-20, 10:17:19
* 16x FSAA (programmierbares AA-Muster (noch) nicht bestätigt)


Also dieses Feature wäre echt der Hammer, damit hätte man wahrscheinlich perfekte Glättung.

AnarchX
2006-10-20, 10:18:15
OpenGL 2.0 ist die aktuelle Spezifikation. OpenGL 3.0 ist noch in der Entwurfsphase.

Achso, na dann (aktuell) doch korrekt.

robbitop@work
2006-10-20, 10:19:18
Jetzt fehlt nur noch die Angabe der Füllrate X-D

Anarchy-HWLUXX
2006-10-20, 10:25:45
Naja durchaus sinnvoll für Tripple-SLI(ATI mach es ja mit dem neuen Nativ CF vor).;)

Oder für eine verdoppelung der Transferrate zwischen den Karten wie bei der SLI Connector Kopie bei der neuen X1950Pro ...

Ailuros
2006-10-20, 10:28:52
Hier kann man nur hoffen, es könnte durchaus sein, dass der Zeitpunkt der Präsentation von ATIs HQ-AF und die aufkommende Forderung nach weniger winkelabhängigen AF schon zu spät war innerhalb des G80-Designprozesses.
Aber das werden wir ja schon bald erfahren...:wink:


Bei dem Transistoren-aufwand und den Einheiten die eigentlich die Filterung uebernehmen waere NV4x/G7x AF absoluter Bloedsinn; IMHO.

Jetzt fehlt nur noch die Angabe der Füllrate.

38400 :P

robbitop@work
2006-10-20, 10:30:31
38400 :P
OMG, nicht schon wieder X-D

Godmode
2006-10-20, 10:38:02
Bei dem Transistoren-aufwand und den Einheiten die eigentlich die Filterung uebernehmen waere NV4x/G7x AF absoluter Bloedsinn; IMHO.



38400 :P

Der Wert ist doch hoch theoretisch, also nur in Sonderfällen zu erreichen oder?

AnarchX
2006-10-20, 10:40:31
Der Wert ist doch hoch theoretisch, also nur in Sonderfällen zu erreichen oder?

Naja es kommt halt ganz darauf an welche Einheiten beim G80 dafür verantwortlich sind, wären es herkömliche TMUs/ROPs, so wäre der Wert nicht mehr so theoretisch und könnte sich deutlich bemerkbar bei TRSSAA bzw. SS-AA-Modis machen.

robbitop@work
2006-10-20, 10:43:19
Der Wert ist doch hoch theoretisch, also nur in Sonderfällen zu erreichen oder?
Wurde doch schon zig mal erörtert. Das ist keine Texturfüllrate. Bestenfalls die Zixelfüllrate. Sie ergibt sich aus einem Chiptakt von 600 MHz statt 575 MHz und den obligatorischen NV Doppel-ROPs.
IMO wird die Texturfüllrate die Hälfte davon. Bei 575 MHz wären das 18,4 GTex/sec. Ist allerdings nur eine Vermutung meinerseits.
Klingt jedenfalls nach einer netten Füllrate, wenn es so kommen sollte. Besonders, da man diese nun hoffentlich besser nutzen kann (dank Entkopplung von den Recheneinheiten).

AnarchX
2006-10-20, 10:46:07
IMO wird die Texturfüllrate die Hälfte davon. Bei 575 MHz wären das 18,4 GTex/sec. Ist allerdings nur eine Vermutung meinerseits.
.
Das entspräche 32TMUs@575MHz, was durchaus schlüssig klingt.

Ailuros
2006-10-20, 10:50:31
Der Wert ist doch hoch theoretisch, also nur in Sonderfällen zu erreichen oder?

In wie vielen Faellen bekommst Du eigentlich 15600 MegaTexels/s auf einer G71? Lass mal MDolenc's Fuellraten-Tester durchlaufen und seh wieviel davon uebrig bleibt mit Shadern. So und jetzt denkt mal was ein theoretisches zweimal so hohes Maximum in solchen Tests genau anrichten koennte :P

Ailuros
2006-10-20, 10:57:13
Das entspräche 32TMUs@575MHz, was durchaus schlüssig klingt.

Und wie wird aus 18400-wasauchimmer dann gleich 38400-wasauchimmer genau? Die Einheiten die fuer texture mapping zustaendlich sind koennen wohl schwer weder auf 575 noch auf 1350MHz getaktet sein. Clock domains sind nichts neues bei NV.

Superheld
2006-10-20, 11:16:48
3DM05 / 3DM06

8800GTX 16909 / 11843
8800GTS 15233 / 10071
7950GX2 12931 / 8781
1950XTX 11866 / 7007
1950PRO 10044 / 5600

http://www.beyond3d.com/forum/showthread.php?p=856729#post856729

Spezifikationen enthüllt und bestätigt

http://www.gamestar.de/news/hardware/geforce_8800_gtx_und_gts/1465523/geforce_8800_gtx_und_gts.html


sorry zu spät:uhammer2:

AnarchX
2006-10-20, 11:18:28
3DM05 / 3DM06

8800GTX 16909 / 11843
8800GTS 15233 / 10071
7950GX2 12931 / 8781
1950XTX 11866 / 7007
1950PRO 10044 / 5600

http://www.beyond3d.com/forum/showthread.php?p=856729#post856729

Spezifikationen enthüllt und bestätigt

http://www.gamestar.de/news/hardware/geforce_8800_gtx_und_gts/1465523/geforce_8800_gtx_und_gts.html

Mal eine Seite zurück und da stehen schon diese ganze Infos...;)

robbitop@work
2006-10-20, 11:28:36
Und wie wird aus 18400-wasauchimmer dann gleich 38400-wasauchimmer genau? Die Einheiten die fuer texture mapping zustaendlich sind koennen wohl schwer weder auf 575 noch auf 1350MHz getaktet sein. Clock domains sind nichts neues bei NV.
Dann wiederhole ich es nochmal:
die 38,4GPix/sec kamen IMO von 32 Einheiten (ob das ROPs oder ein ROP/TMU Hybrid ist, sei dahingestellt), die pro Takt 2 Zixel in den FB schreiben können. Strenggenommen sind das Pixel also eine gültige Aussage über die Pixelfillrate.
Und es kam anscheinend aus einer Zeit bei der von 600 MHz Coreclock statt 575 MHz galt. 600 MHz * 32 ROPs * 2 Zixel (das können die NV ROPs ja schon seit NV3x).
Hingegen gefilterte Pixel können nur die Hälfte geschrieben werden (siehe NV4x z.B.).


Das entspräche 32TMUs@575MHz, was durchaus schlüssig klingt.
Blitzmerker ;)

AnarchX
2006-10-20, 12:53:15
Nvidia bans overclocking for its G80
Geforce 8800 GTX and GTS all clocked the same
http://www.theinquirer.net/default.aspx?article=35244

Also verzichtet NV nun auf den Vorteil der werkseitig-übertakteten Karten, den man in der Vergangheit gegenüber ATI hatte.

Gast
2006-10-20, 12:53:37
Und was kann man über die Leistungsfähigkeit des G80 nun aussagen?
Natürlich wird er schneller als sein Vorgänger.
Ich bin halt kein Guru wir ihr, was kann man nun zur Leistungsfähigkeit sagen?

Godmode
2006-10-20, 12:56:57
Nvidia bans overclocking for its G80
Geforce 8800 GTX and GTS all clocked the same
http://www.theinquirer.net/default.aspx?article=35244

Also verzichtet NV nun auf den Vorteil der werkseitig-übertakteten Karten, den man in der Vergangheit gegenüber ATI hatte.

Aus Marketingtechnischen gründen nachvollziehbar, da es dem Ruf sicherlich schadet wenn viele Karten nach kurzer Zeit defekt sind! Finde ich sehr schade, weil meine 79GT läuft recht gut mit den 555 Mhz (default 450)

LovesuckZ
2006-10-20, 12:58:36
Und was kann man über die Leistungsfähigkeit des G80 nun aussagen?


Nach den Zahlen, welche rumschwirren, ist die GTX wohl mindesten 50% schneller als 7950gx².

dargo
2006-10-20, 13:03:42
Nach den Zahlen, welche rumschwirren, ist die GTX wohl mindesten 50% schneller als 7950gx².
Welche Zahlen?
Außer den 3DMark Werten, die gar nichts aussagen, habe ich noch nichts gesehen.

AnarchX
2006-10-20, 13:11:40
G80 demand will outstrip supply
http://www.theinquirer.net/default.aspx?article=35243

Also wer einen G80 will, sollte ihn sofort kaufen, sonst heißt es erstmal warten.;)

Ailuros
2006-10-20, 13:12:27
Aus Marketingtechnischen gründen nachvollziehbar, da es dem Ruf sicherlich schadet wenn viele Karten nach kurzer Zeit defekt sind! Finde ich sehr schade, weil meine 79GT läuft recht gut mit den 555 Mhz (default 450)

Du wirst die GPUs als User schon uebertakten koennen; vendors wie BFG, EVGA und dergleichen muessen sich eben nur auf die vorgeschriebenen Frequenzen halten, was wohl heisst dass oc'ing in keinem Fall mehr unter der Garantie des Herstellers sein wird (big deal pfff ;) )

Ailuros
2006-10-20, 13:16:55
Welche Zahlen?
Außer den 3DMark Werten, die gar nichts aussagen, habe ich noch nichts gesehen.

Es sieht noch besser aus in wahren Spielen ;)

Anarchy-HWLUXX
2006-10-20, 13:19:50
Nvidia bans overclocking for its G80
Geforce 8800 GTX and GTS all clocked the same
http://www.theinquirer.net/default.aspx?article=35244

Also verzichtet NV nun auf den Vorteil der werkseitig-übertakteten Karten, den man in der Vergangheit gegenüber ATI hatte.


Für die übnerschrift würd ich dem Inq schreiber gerne eins inne visage geben :rolleyes:



Ansonsten ist das OC ab werk spätestens seit dem 7900er fiasko nemmer tragbar ...

dargo
2006-10-20, 13:20:10
Es sieht noch besser aus in wahren Spielen ;)
Das will ich stark hoffen. Gerade für meine native Auflösung von 1280x1024 wäre der G80 interessant mit den zusätzlichen AA Modis. Deswegen bin ich schon so auf die AA Leistung gespannt. :naughty:

Godmode
2006-10-20, 13:20:50
Du wirst die GPUs als User schon uebertakten koennen; vendors wie BFG, EVGA und dergleichen muessen sich eben nur auf die vorgeschriebenen Frequenzen halten, was wohl heisst dass oc'ing in keinem Fall mehr unter der Garantie des Herstellers sein wird (big deal pfff ;) )

Ah, das ist dann doch nicht so tragisch, hab den Beitrag falsch verstanden.

Auf Gamestar schreiben sie, dass die GTX die ihnen gezeigt wurde keine Wasseranschlüsse mehr hatte. Und sie denken das der G80 um die 700 Mio. Transistoren haben wird, was ihnen aber nicht bestätigt wurde. Wenn ich die Leistungsdaten betrachte - welche jetzt im Umlauf sind - könnte ich mir einen Transistorcount von 600-700 Mio. durchaus vorstellen.

Es sieht noch besser aus in wahren Spielen ;)

Ah, da hat wer gute Zahlen ;)

|MatMan|
2006-10-20, 13:45:15
omg 600-700 Mio Transistoren bei 575 MHz @ 90nm?? Ok, vielleicht 80nm, aber das ist wohl nicht soo der Unterschied...

Wie soll denn das gehen, dass beim gleichen Fertigungsprozess die Transistormenge verdoppelt wird, aber die Taktrate in etwa gleich bleibt? :uponder:

Wenn man das mal abschätzt, dann heißt das, man wäre wirklich so in etwa beim Verbrauch einer 7950GX2, eher etwas drüber.

AnarchX
2006-10-20, 13:48:59
Wenn man das mal abschätzt, dann heißt das, man wäre wirklich so in etwa beim Verbrauch einer 7950GX2, eher etwas drüber.

Genau das wird doch schon länger vermutet, alles andere wäre auch nicht wirklich realistisch gewesen.

Slipknot79
2006-10-20, 13:54:34
>zwei SLI-Anschlüsse

Kann man dann so viele G80 parallel schalten wie man PCIe-16x Slots hat? Oo

Ailuros
2006-10-20, 13:57:29
Wie soll denn das gehen, dass beim gleichen Fertigungsprozess die Transistormenge verdoppelt wird, aber die Taktrate in etwa gleich bleibt?

Je mehr handfeste Einzelheiten einfliessen desto mehr schwindlig wird es mir. Viel mehr als ich erwartet haette....*faints*

Ailuros
2006-10-20, 14:03:45
Ah, da hat wer gute Zahlen ;)

Viel mehr interessiert mich die Qualitaets-steigerung.

Godmode
2006-10-20, 14:11:43
Viel mehr interessiert mich die Qualitaets-steigerung.

Ja naturlich, 100 % ack. Ich hoffe auch auf einen guten anisotropischen Filter und natürlich gutes Anti Aliasing!

Aber Zahlen sind einfacher zu verstehen! Kannst du ungefähr sagen wann wir erste richtige Informationen bekommen? Und was hatte es mit den G80 nur 35 % schneller auf sich, was wir vor auf ein paar Seiten auf einer Folie gesehen haben(79 = 20x, G80 27x faster then Integrated Graphics), war das nur FUD?

Ailuros
2006-10-20, 14:15:30
Ja naturlich, 100 % ack. Ich hoffe auch auf einen guten anisotropischen Filter und natürlich gutes Anti Aliasing!

Aber Zahlen sind einfacher zu verstehen! Kannst du ungefähr sagen wann wir erste richtige Informationen bekommen? Und was hatte es mit den G80 nur 35 % schneller auf sich, was wir vor auf ein paar Seiten auf einer Folie gesehen haben(79 = 20x, G80 27x faster then Integrated Graphics), war das nur FUD?

Es war Bullshit ganz einfach; bestes AA/AF auf dem Markt momentan, zumindest klingt es danach auf Papier. Vorzeitige Schlussfolgerungen sind zu gefaehrlich ohne etwas in Echtzeit gesehen zu haben. Geduld schon diese Aussage ist momentan viel zu gefaehrlich ;)

StefanV
2006-10-20, 14:18:04
Wie soll denn das gehen, dass beim gleichen Fertigungsprozess die Transistormenge verdoppelt wird, aber die Taktrate in etwa gleich bleibt? :uponder:
Wenn man Transistoren für den Takt verbrät, kann mans hinbekommen, siehe 130nm K7 zu 130nm K8.

Letzterer hat ja eindeutig mehr Transistoren, geht aber auch eindeutig höher und ist bei gleichem Takt deutlich schneller ;)

Anarchy-HWLUXX
2006-10-20, 14:25:47
Wenn man Transistoren für den Takt verbrät, kann mans hinbekommen, siehe 130nm K7 zu 130nm K8.

Letzterer hat ja eindeutig mehr Transistoren, geht aber auch eindeutig höher und ist bei gleichem Takt deutlich schneller ;)

Na ja, nur kann man die zwei unterschiedlichen 130er Herstellungsprozesse nicht vergleichen - der A64 wurde ja scho immer in SOI bauweise gefertigt ... der AXP net.


Die G80 müsste den exakt gleichen Prozess bekommen wie die G71 da es nix anderes gibt :| 80nm wurde bisher ausgeschlossen, 65nm ist bisher bei komplexen Cores nicht möglich @ TSMC und UMC ...

Gast
2006-10-20, 15:34:46
Nvidia bans overclocking for its G80
Geforce 8800 GTX and GTS all clocked the same
http://www.theinquirer.net/default.aspx?article=35244

Also verzichtet NV nun auf den Vorteil der werkseitig-übertakteten Karten, den man in der Vergangheit gegenüber ATI hatte.Fände ich sehr schade. Fand es schon immer toll, dass es bei NV werksseitig übertaktete Grafikkarten gab.

Aber:
Remember, Nvidia didn't allow anyone to overclock Geforce 7950 GX2 and they all worked at the same reference 500MHz clocks as this was what Nvidia guaranteed for these cards.Das hier stimmt nicht. Es gab z.b. von XFX mehrere Modelle, die werksseitig übertaktet waren, bis hin zu Taktraten von 570/775.

Gast
2006-10-20, 16:04:08
>zwei SLI-Anschlüsse

Kann man dann so viele G80 parallel schalten wie man PCIe-16x Slots hat? Oo

ich denk mal ja ....also min 4 denn quad sli wird in den treibern gleich mit vorhanden sein....der erste freak der sich 4 8800gtx holt wird bestimmt nich lange auf sich warten.....

Gast
2006-10-20, 16:04:20
>zwei SLI-Anschlüsse

Kann man dann so viele G80 parallel schalten wie man PCIe-16x Slots hat? Oo

ich denk mal ja ....also min 4 denn quad sli wird in den treibern gleich mit vorhanden sein....der erste freak der sich 4 8800gtx holt wird bestimmt nich lange auf sich warten lassen.....

Spasstiger
2006-10-20, 16:06:52
....der erste freak der sich 4 8800gtx holt wird bestimmt nich lange auf sich warten lassen.....
Unter Vista und D3D10 dürfte Tombman sicherlich dazugehören, denn dann geht das effiziente AFR@QuadSLI endlich auch unter Direct3D.
Ich finde übrigens das 320 Bit Speicherinterface interessant. Einfach zwei Speicherchips weggelassen. Gabs überhaupt je so einen "krummen" Wert beim SI eines Nvidia-Chips?

tombman
2006-10-20, 16:22:17
Oh Mann, das wird wieder ne Schlacht überhaupt einen oder zwei G80 zu bekommen...
Ich seh schon die ebay Abzocke mit 800+ Euro für eine Karte :rolleyes:

Vielleicht werde ich diesmal erst nur eine kaufen, denn der R600 soll ja angeblich noch schneller sein.

Gast
2006-10-20, 16:23:59
QuadAFR effizient? Was den reinen FPS-Output angeht schon, die Spielbarkeit dürfte unter der zusätzlichen Latenz aber spürbar leiden. Mit 3 GPUs ginge es ja noch halbwegs, zumindest, wenn der Rechner an einem CRT mit recht hohen Hz hängt. Bei TFT-Standard 60Hz, am schlimmsten noch mit Overdrive (also noch ein weiterer Frame Latenz) und Vsync+Triplebuffering (noch ein Frame Latenz) kann mans aber für Multiplayer definitiv vergessen. Eher bin ich gespannt, was sich an der SFR-Effizienz getan hat und auf neue AA- und SLI-AA-Modi.

Spasstiger
2006-10-20, 16:50:52
QuadAFR effizient? Was den reinen FPS-Output angeht schon, die Spielbarkeit dürfte unter der zusätzlichen Latenz aber spürbar leiden.
Du musst aber bedenken, dass du bei vierfachen fps auch nur 1/4 der Latenzzeit je zurückgehaltenem Frame hast. ;)
Klar, in einer typischen Spielsituation, die teilweise auch mal CPU-limitiert ist, wird man wohl ein Lag merken.

tombman
2006-10-20, 16:54:49
Wers noch ned kennt.
http://www.beyond3d.com/forum/showpost.php?p=856547&postcount=1488

3DM05 / 3DM06
8800GTX 16909 / 11843
8800GTS 15233 / 10071
7950GX2 12931 / 8781
1950XTX 11866 / 7007
1950PRO 10044 / 5600

boxleitnerb
2006-10-20, 17:02:15
War ja klar, dass da wieder einer 3DMark geil ist. Meine Güte, wenn das alles ist, woran du denkst...

dargo
2006-10-20, 17:04:25
War ja klar, dass da wieder einer 3DMark geil ist. Meine Güte, wenn das alles ist, woran du denkst...
Diese 3DMark Werte tauchen schon zum dritten oder vierten Mal hier auf. X-D

deekey777
2006-10-20, 17:06:11
War ja klar, dass da wieder einer 3DMark geil ist. Meine Güte, wenn das alles ist, woran du denkst...
Hö? Was hat er mit den Werten zu tun? Bzw. hast überhaupt auf den Link geklickt? Das sind zZ die einzigen Werte der kommenden G80, denen man Glauben schenken darf, auch wenn eingeschränkt.
Es gibt durchaus Leute, die sich daraus was zusammenbasteln können.

Zu den Werten: Wo bleiben die Ergebnisse mit AA?

Melbourne, FL
2006-10-20, 17:09:34
Ist eigentlich schon was über mobile Ausführungen bekannt? Ich will mir gegen April nächsten Jahres ein Notebook holen und dachte dabei an einen mobilen Ableger des G80 oder R600. Ich dachte dabei an einen, der performancemäßig im Mainstream-Segment liegt...sollte dann von der Performance her ja im Bereich einer X1800 liegen.

Alexander

boxleitnerb
2006-10-20, 17:19:14
Ich weiss, dass die Werte schon mehrmals gepostet wurden. Deshalb und weil gerade tombman sie natürlich nochmal posten musste, hab ich was gesagt. Es ist ferner klar, dass 3DMark eine Aussagekraft in gewissem Rahmen hat. Aber ich finde diesen Hype vor dem Launch nur wegen ein paar Zahlen fürchterlich.
Leider springen gewisse Personen immer wieder darauf an.

Spasstiger
2006-10-20, 17:24:18
Aber ich finde diesen Hype vor dem Launch nur wegen ein paar Zahlen fürchterlich.
Leider springen gewisse Personen immer wieder darauf an.
Die 3DMark-Ergebnisse sind aber eigentlich weit weniger hypenswert als die Specs. ;)

Hvoralek
2006-10-20, 17:33:44
ich denk mal ja ....also min 4 denn quad sli wird in den treibern gleich mit vorhanden sein....der erste freak der sich 4 8800gtx holt wird bestimmt nich lange auf sich warten.....Von einem MoBo mit vier PCiE- Slots habe ich noich nichts gehört. Und das am besten noch mit Dual- Slot- Kühlung :eek:

AnarchX
2006-10-20, 17:38:20
Von einem MoBo mit vier PCiE- Slots habe ich noich nichts gehört.

Na dann wird es aber Zeit:
http://www.geizhals.at/deutschland/a213965.html
Aber mit 4 GF8 wird es hier eher nix...

nForce 680i soll aber 3x PCIe x16 (einer davon elektrisch nur x8) bieten, vielleicht doch Tripple-SLI, da es dann mit WinXP WHQL-konformen 3Way-AFR doch schnell sein sollte und mit einem Heizer ala G80 noch keine GX2 möglich ist.

Gast
2006-10-20, 17:38:50
Du musst aber bedenken, dass du bei vierfachen fps auch nur 1/4 der Latenzzeit je zurückgehaltenem Frame hast. ;)
Klar, in einer typischen Spielsituation, die teilweise auch mal CPU-limitiert ist, wird man wohl ein Lag merken.Bei aktivem Vsync hat man die Zusatzlatenz immer, und ehrlich gesagt verstehe ich Leute nicht, die Highendhardware ohne Vsync betreiben. Wenn man eh nicht viel auf die Bildqualität gibt braucht man kein Highend.

Nebenbei, Mobos mit 4 PEGs gibt es mit Intelchipsätzen. Falls NV SLI auch für Intelboards freigeben sollte ginge es also schon, nur eben nicht in einem Standardgehäuse.

Anarchy-HWLUXX
2006-10-20, 17:39:13
Von einem MoBo mit vier PCiE- Slots habe ich noich nichts gehört. Und das am besten noch mit Dual- Slot- Kühlung :eek:

Gigabyte hatte eines zusammengeschustert ... das funzt aber nicht im Quad ;)

Ailuros
2006-10-20, 17:43:45
Zu den Werten: Wo bleiben die Ergebnisse mit AA?

Die waeren momentan total nutzlos, wenn man nicht weiss was die GPU genau anstellt.

Gast
2006-10-20, 18:03:30
Bei aktivem Vsync hat man die Zusatzlatenz immer, und ehrlich gesagt verstehe ich Leute nicht, die Highendhardware ohne Vsync betreiben. Wenn man eh nicht viel auf die Bildqualität gibt braucht man kein Highend.

Nebenbei, Mobos mit 4 PEGs gibt es mit Intelchipsätzen. Falls NV SLI auch für Intelboards freigeben sollte ginge es also schon, nur eben nicht in einem Standardgehäuse.

Unabhängig von VSync hat man zwar die im besten Fall 4-fache Framerate (was unwahrscheinlich und ein theoretischer Wert ist, dem man sich nur nähert aber nie erreicht) , doch immer noch die gleiche Latenz auf Eingaben, dh. das Sytem reagiert langsamer auf Eingaben, der Lag steigt. IMHO ist AFR was für Frameratenprotzer ohne handfesten Vorteil, eher nachteilig.

TheGamer
2006-10-20, 18:17:29
Wunderbar mal sehen ob ich im Nov gleich 2 bekommen werde. Min. eine muss drin sein

master_blaster
2006-10-20, 18:24:33
Mal noch eben 'ne Frage: Ist das mit dem 384Bit Speicherinterface durch, soll heißen bestätigt? Außerdem wüsst' ich gern' mal, wie das mit den Preisen aussieht; sollte das schon irgendwo stehen, bitte 'n Link. (Will nicht mehr weitersuchen:wink: ); und falls möglich bitte noch 'n Händler zum Vorbestellen; kann keinen finden.

deekey777
2006-10-20, 18:28:19
Mal noch eben 'ne Frage: Ist das mit dem 384Bit Speicherinterface durch, soll heißen bestätigt? Außerdem wüsst' ich gern' mal, wie das mit den Preisen aussieht; sollte das schon irgendwo stehen, bitte 'n Link. (Will nicht mehr weitersuchen:wink: ); und falls möglich bitte noch 'n Händler zum Vorbestellen; kann keinen finden.
Wie wär's wenn du dir doch die Mühe machst und das allererste Posting anschaust? Da findest du zB was zu den Preisen.
Vorbestellen? Wie soll das gehen, wenn die Grafikkarte noch nichteinmal angekündigt wurde? :wink: Da musst du dich gedulden, bis die 8800 auf dem Markt ist.

Willkommen im 3DC-Forum.=)

Gast
2006-10-20, 19:39:21
naja weiss net was ihr mit 4 8800gtx im quad wollt
ein atx tower hat nur 7slots

da funktioniert höchstens mit wakü
ein singleslot lukühler wirds wohl nicht geben der das packt

Anarchy-HWLUXX
2006-10-20, 19:55:35
naja weiss net was ihr mit 4 8800gtx im quad wollt
ein atx tower hat nur 7slots

da funktioniert höchstens mit wakü
ein singleslot lukühler wirds wohl nicht geben der das packt

Oder nen Tower kaufen wo das Board nicht direkt an der unterkante aufliegt ... huh ... davon gibbet aba viele ;)

Super Grobi
2006-10-20, 20:17:45
Mich würde noch mehr interessieren, wie sich NV die Preise der 7950gx2 vorstellt. Die günstigeste kostet schlappe 460 Euro :eek: Angesichts, daß die G80 vor der Tür steht, ist das unverschämt³

SG

dargo
2006-10-20, 20:24:19
Mich würde noch mehr interessieren, wie sich NV die Preise der 7950gx2 vorstellt. Die günstigeste kostet schlappe 460 Euro :eek: Angesichts, daß die G80 vor der Tür steht, ist das unverschämt³

Ich könnte mir gut vorstellen, dass die GX2 mit dem Erscheinen des G80 früher oder später eingestellt wird.

AnarchX
2006-10-20, 20:24:32
Mich würde noch mehr interessieren, wie sich NV die Preise der 7950gx2 vorstellt. Die günstigeste kostet schlappe 460 Euro :eek: Angesichts, daß die G80 vor der Tür steht, ist das unverschämt³


Er steht vor der Tür und ist noch nicht erhältlich, was doch ein Unterschied ist.;)
Zudem ist das P/L-V. im Vergleich zur Konkurrenz gar nicht so übel.

StefanV
2006-10-20, 20:32:19
Oder nen Tower kaufen wo das Board nicht direkt an der unterkante aufliegt ... huh ... davon gibbet aba viele ;)
Und dann??

Alle 1,5 Wochen 'ne neue kaufen weil die alte abgefackelt ist??

Ailuros
2006-10-20, 20:47:25
Kann mir vielleicht irgend jemand erklaeren wer zum Henker genau gegen unified shader cores fuer D3D10 in der Vergangenheit war? (ja der Geistesblitz kam mir gerade).

Ich zaehle Intel, ATI, NVIDIA, IMG und hoechstwahrscheinlich noch S3 mit Destination Films. Ergo wuerde ex-XGi und "ex"-3DLabs uebrig bleiben.....*gruebel*

tombman
2006-10-20, 20:48:49
War ja klar, dass da wieder einer 3DMark geil ist. Meine Güte, wenn das alles ist, woran du denkst...
Den nächsten Verleumdungspost bitte ohne Neid verfassen. Danke ;)

Deshalb und weil gerade tombman sie natürlich nochmal posten musste,
Weil ja tombman 100% wußte, daß die in dem Megathread schon gepostet wurden :rolleyes: Denken anyone?

Demirug
2006-10-20, 20:59:15
Kann mir vielleicht irgend jemand erklaeren wer zum Henker genau gegen unified shader cores fuer D3D10 in der Vergangenheit war? (ja der Geistesblitz kam mir gerade).

Ich zaehle Intel, ATI, NVIDIA, IMG und hoechstwahrscheinlich noch S3 mit Destination Films. Ergo wuerde ex-XGi und "ex"-3DLabs uebrig bleiben.....*gruebel*

Was spricht gegen nvidia? So wie David Kirk immer in der Öffentlichkeit geredet hat mußten sie sich ja auch bei DirectX die Option offen halten. Wenn auch vielleicht nur zum Schein.

Gast
2006-10-20, 21:16:15
Mal noch eben 'ne Frage: Ist das mit dem 384Bit Speicherinterface durch, soll heißen bestätigt?

wenn die bisher gezeigten bilder der G80-karte echt sind gibt es wohl kaum zweifel.

dort waren eindeutig 12 speicherchips zu sehen was zwangsläufig entweder zu einem 384bit oder 192bit interface führen würde.

Anarchy-HWLUXX
2006-10-20, 21:25:53
Und dann??

Alle 1,5 Wochen 'ne neue kaufen weil die alte abgefackelt ist??

Kannst du wirklich net für dich selbst denken oder schreibst du den Müll absichtlich ?

Die Kühler sind so gebaut das ein Slot abstand reicht - siehe 7950 GX2 ...

Zapat
2006-10-20, 21:55:30
Die neue Nvidia karte wird in 2 Wochen im Betrieb in rauch aufgehen.=)

boxleitnerb
2006-10-20, 21:57:13
Neid, alles klar :tongue:
Naja, wir wollen mal nicht so sein, heisst ja schliesslich auch Spekuforum. Aber trotzdem ist es jedesmal dasselbe mit dem 3DMurks, bei jeder neuen Karte sind es die Scores, die zuerst leaken, weil man damit die Kiddies beeindrucken kann.
3DMark hab ich das letzte mal gespielt...hm, wann war das nur?

deekey777
2006-10-20, 21:57:54
Schluss mit dieser "Inrauchauflösen"-Diskussion!
Schreibt entweder vernünftiges farbloses Zeug oder verzichtet darauf. Solche Postings bringen nichts außer Modtext.

Spasstiger
2006-10-20, 21:59:06
Aber trotzdem ist es jedesmal dasselbe mit dem 3DMurks, bei jeder neuen Karte sind es die Scores, die zuerst leaken, weil man damit die Kiddies beeindrucken kann.
3DMark hab ich das letzte mal gespielt...hm, wann war das nur?
Mit was soll man sonst vergleichen? Ein "15,2 fps min/26,3 fps avg/185,3 fps max. in Oblivion in Savegame xyz mit GeForce 8800 GTX gegenüber 15,2 fps min/24,3 fps avg/105,3 fps max. mit GeForce 7950 GX2" wäre weniger aussagekräftig bzw. man würde nur sehen, wie CPU-limitiert das Game ist. ;)

Slipknot79
2006-10-20, 21:59:44
Und dann??

Alle 1,5 Wochen 'ne neue kaufen weil die alte abgefackelt ist??


Ne, wozu gibts Garantieleistungen? Oo Alle 1.5 Wochen ne neue bekommen bis NV pleite geht :p

Super Grobi
2006-10-20, 22:01:54
Mit was soll man sonst vergleichen? Ein "15,2 fps min/26,3 fps avg/185,3 fps max. in Oblivion in Savegame xyz" wäre weniger aussagekräftig.

Aber echt... vieleicht mit Online-Poker oder Solitär? So ein 3dMurks kann jeder starten und hat dann einen Wert, mit dem er vergleichen kann. Mir ist auch nicht bekannt, das es eine Karte gibt, die im 06er super Ergebnisse schafft, aber in Games nicht annähert das schafft, was der 06er Wert versprochen hat.

SG

AnarchX
2006-10-20, 22:04:01
Mir ist auch nicht bekannt, das es eine Karte gibt, die im 06er super Ergebnisse schafft, aber in Games nicht annähert das schafft, was der 06er Wert versprochen hat.

Naja, die gibt es schon... *auf Radeon X1600er schiel*(dank 12 ALUs im 3DMark Hui! aber in Games wegen den 4 TMUs desöfteren Pfui!)
Aber ansonsten ist der 3DMark doch schon ein recht guter Leistungsindikator, wenn auch etwas zukünftig ausgerichtet.

dargo
2006-10-20, 22:21:18
So ein 3dMurks kann jeder starten und hat dann einen Wert, mit dem er vergleichen kann.
Nicht wirklich. Nach diesen 3DMark06 Werten ist eine X1950XTX nur 25% schneller als eine X1950Pro. Ich glaube kaum, dass dieser Vorsprung bei 6xAA so bleibt. ;)

AnarchX
2006-10-20, 22:33:23
Preview: Geforce 8800 GTX und GTS

Am 8. November 2006 will Nvidia die nächste Grafikchip-Generation Geforce 8 vorstellen. Die PC-WELT konnte nun die ersten Referenzkarten mit dem Geforce 8800 GTX und dem Geforce 8800 GTS begutachten.[...]
http://www.pcwelt.de/news/hardware/video/61081/index.html

Specs:
http://www.pcwelt.de/news/hardware/video/61081/index7.html

:|


Ist PC WELT dafür bekannt sich solche Dinge auszudenken?

dildo4u
2006-10-20, 22:38:26
Irgendwie wirkt das so als wenn die einfach die Spekulationen im Netz gesammelt haben.Und sorry aber 700Mio Transistoren WTF. :|

ShadowXX
2006-10-20, 22:39:52
http://www.pcwelt.de/news/hardware/video/61081/index.html

Specs:
http://www.pcwelt.de/news/hardware/video/61081/index.html

:|


Ist PC WELT dafür bekannt sich solche Dinge auszudenken?
Nur 30% über einer 1950xtx?....kann ich mir nicht vorstellen, das wäre zu wenig (speziell für den angeblichen Transistoraufwand von 700Mios).

Irgendwie wirkt das so als wenn die einfach die Spekulationen im Netz gesammelt haben.Und sorry aber 700Mio Transistoren WTF. :|
So was ähnliches hab ich auch gedacht, als ich den Text gelesen habe....

dargo
2006-10-20, 22:45:25
Nur 30% über einer 1950xtx?....kann ich mir nicht vorstellen, das wäre zu wenig (speziell für den angeblichen Transistoraufwand von 700Mios).

Ich frage mich wie die auf 30% kommen wenn der gepostete 3DMark06 Wert schon eine Steigerung von 69% aufweist, und das ohne AA/AF. :|

ShadowXX
2006-10-20, 22:48:49
Ich frage mich wie die auf 30% kommen wenn der gepostete 3DMark06 Wert schon eine Steigerung von 69% aufweist, und das ohne AA/AF. :|
Ich glaube nicht, dass sich ein PC-Welt Redakteur auf Beyond3D oder dem 3DC rumtummelt......der kennt diese 3DMark-Werte wohl gar nicht. Ehrlich gesagt bin ich mir nicht mal sicher, ob er überhaupt versteht/weiß was er da so schreibt......

AnarchX
2006-10-20, 22:52:25
Ich glaube nicht, dass sich ein PC-Welt Redakteur auf Beyond3D oder dem 3DC rumtummelt......der kennt diese 3DMark-Werte wohl gar nicht. Ehrlich gesagt bin ich mir nicht mal sicher, ob er überhaupt versteht/weiß was er da so schreibt......

Naja, die Füllratenwerte scheinen nicht ganz unüberlegt...
Zudem hat man diese auch vorher so noch nie gesehen.

Wenn der Artikel morgen verschwunden ist, wissen wir mehr. ;)

StefanV
2006-10-20, 22:54:34
Die neue Nvidia karte wird in 2 Wochen im Betrieb in rauch aufgehen.=)
Nein, wird sie nicht.

Das 'Problem' in diesem Falle ist, das der Kühler die warme Luft nach draußen befördert, man also einen Slot für den Lüfter braucht.
Dann braucht man einen für die Anschlüsse.
Macht also 2 Slots, die man für eine Karte benötigt, das ganze mal vier ergibt acht.
Und das ist eben nicht so ohne weiteres möglich, wenn man das ganze in einem unmodifizierten Gehäuse betreiben möchte, selbst wenns passen könnte, so besteht noch das Problem, das der Luftstrom des Lüfters blockiert wird...

kurzum: Quad SLI ist ein Traum, der nut mit 'doppelkarten' a la 79x0GX2 möglich ist, nicht aber mit 4 einzel Karten, die einen dual Slot Lüfter verwenden, der die Luft nach draußen pustet (mit dem Quatro Kühler würds u.U. durchaus gehen).

Das ganze ist also ein Konstruktionsproblem der bestehenden Gehäusestandards + Kühllösungen der aktuellen High End Grafikkarten (mit ausnahme des dicken Quatro Kühlers)...

Ein ähnliches Beispiel wäre, wenn man den Rechner sehr dicht an die Wand stellen würde, so dicht, das die Lüfter nicht mehr wirklich gut arbeiten können (und u.U. die Lüfteröffnungen abdeckt)...

Godmode
2006-10-20, 22:56:01
Viel interessanter wäre, was so eine Shadereinheit kann! Ob das auch wieder Quads sind, oder doch richtige Einheiten wo jede einzeln angesteuert werden kann?

Das gschreibsel auf PC-Welt klingt aber so, als wären sie sich ziemlich sicher, naja mal schaun. Freu mich schon auf die ersten Reviews.

Gast
2006-10-20, 22:59:57
30%.....mal wieder nur das nötigste getan. und der spruch das die mit dx10 spielen mehr abgeht,naja echte dx10 kommen erst in jahren

eine graka muß jetzt schnell sein und nicht irgendwann

Godmode
2006-10-20, 23:03:23
30%.....mal wieder nur das nötigste getan. und der spruch das die mit dx10 spielen mehr abgeht,naja echte dx10 kommen erst in jahren

eine graka muß jetzt schnell sein und nicht irgendwann

Wahrscheinlich sind die Games alle Cpu limitiert mit diesem Monster ;D
Schau dir die 3D-Mark 06 Werte an, das sind mehr als 30 %!

StefanV
2006-10-20, 23:04:52
30%.....mal wieder nur das nötigste getan. und der spruch das die mit dx10 spielen mehr abgeht,naja echte dx10 kommen erst in jahren

eine graka muß jetzt schnell sein und nicht irgendwann
Naja, erstmal abwarten udn Tee rauchen, wie das Teil nun wirklich ausschaut...

Und was man noch alles für Funktionen hat, die auf dem Papier nicht so beeindrucken dafür aber in Real World umgebungen...

dargo
2006-10-20, 23:09:24
Wahrscheinlich sind die Games alle Cpu limitiert mit diesem Monster ;D

Nicht, wenn sie einen C2D benutzt haben. Aber vielleicht haben sie ja GTR2 damit getestet. ;D

Godmode
2006-10-20, 23:14:38
Nicht, wenn sie einen C2D benutzt haben. Aber vielleicht haben sie ja GTR2 damit getestet. ;D

Oder HL2 in 12*10 ohne AA/AF! Wäre dieser Seite sicher zum zutrauen.

StefanV
2006-10-20, 23:16:38
@dargo
Glaubst du wirklich, das es wirklich kein Spiel gibt, das nicht auch einen C2D zum schwitzen bringen kann, so dass sich die GraKa langweilt? :ugly:

dargo
2006-10-20, 23:19:24
@dargo
Glaubst du wirklich, das es wirklich kein Spiel gibt, das nicht auch einen C2D zum schwitzen bringen kann, so dass sich die GraKa langweilt? :ugly:
Doch, gibt es --> GTR2. Sicherlich auch einige Strategiespiele, Simulationen. Aber auf keinem Fall ein Shooter. :tongue:

Und nur da macht so ein G80 auch Sinn.

dildo4u
2006-10-20, 23:20:34
30% hin oder her die sind eh Schall und Rauch bevor man nicht weiß ob NV beim AF Qualitativ nicht zumindest endlich gleichgezogen ist.

dargo
2006-10-20, 23:22:23
30% hin oder her die sind eh Schall und Rauch bevor man nicht weiß ob NV beim AF Qualitativ nicht zumindest endlich gleichgezogen ist.
30% sind viel zu wenig. Auch wenn das AF diesmal gleichwertig dem von ATI sein sollte. Du musst bedenken, dass der R600 bei AF nicht mehr nachziehen muss.

Super Grobi
2006-10-20, 23:24:09
30% glaub ich nicht! Wenn ich die Daten lesen, MUSS das mehr sein.

SG

dildo4u
2006-10-20, 23:26:53
30% im Schnitt sind ok wenn da CPU limitierte Benches dabei waren was ich annheme eine 1950XTX kostet 400€ da wäre 600€ für 30% mher Leistung plus DX10 Hype Bonus nicht unrealistisch.Ich schätze bis der erste R600 kommt hat NV schon den ersten Refresh in der Hinterhand.Ihr verkennt ein bissel den Speed einer 1950XTX und die Karte ist immerhin schon der dritte Refrech der 1800/1900XT Serie der auch mit Speedmäßig ausgereiften Treibern ins Rennen geht im gegensatz zur G80.

dargo
2006-10-20, 23:37:22
30% im Schnitt sind ok wenn da CPU limitierte Benches dabei waren was ich annheme eine 1950XTX kostet 400€ da wäre 600€ für 30% mher Leistung plus DX10 Hype Bonus nicht unrealistisch.

Die 400€ der X1950XTX würde ich nicht als Anhaltspunkt betrachten. Wenn die G8800GTX wirklich 70% und mehr schneller sein sollte wird auf kurz oder lang ATI den Preis einfach senken müssen.


Ihr verkennt ein bissel den Speed einer 1950XTX und die Karte ist immerhin schon der dritte Refrech der 1800/1900XT Serie der auch mit Speedmäßig ausgereiften Treibern ins Rennen geht im gegensatz zur G80.
Naja, ich habe zwar "nur" eine X1900XT, ist aber nicht wirklich was besonderes wenn man entsprechende CPU hat. Und die X1950XTX ist kaum schneller. Aber mit den Treibern hast du schon recht. Da wird NV mit Sicherheit noch einiges mit reißen können.

Gast
2006-10-20, 23:42:03
Bei den ganzen schwachsinnigen INQ meldungen verliert man ja den überblick... wird die karte nun am 7-8 vorgestellt oder ist das noch immer nicht fest?

tombman
2006-10-20, 23:49:37
30% ist sicher Schwachsinn. Kann mir nur denken, daß da der Tester ärger cpu limitiert war, oder die Anwendung.
Mit 30% schneller könnte der Chefdesigner seinen Hut nehmen, weil der R600 den G80 sonst BÖSE hauen würde. Da könnten die beim R600 launch den G90 rausbringen, wenn sie da mitziehen wollten ;D;D

Gast
2006-10-20, 23:51:51
@Gast:

Ja, am 8.11.

Etwa gegen Vormittag (USA-Zeit, GMT) wird die Präsentation der Karte auf der GeForce-LAN-III Party stattfinden. Auch die des neuen Nforce-Chipssatzes wird dort vorgeführt.

-Ghosty

tombman
2006-10-20, 23:52:20
kurzum: Quad SLI ist ein Traum, der nut mit 'doppelkarten' a la 79x0GX2 möglich ist, nicht aber mit 4 einzel Karten, die einen dual Slot Lüfter verwenden, der die Luft nach draußen pustet (mit dem Quatro Kühler würds u.U. durchaus gehen).

Das ganze ist also ein Konstruktionsproblem der bestehenden Gehäusestandards + Kühllösungen der aktuellen High End Grafikkarten (mit ausnahme des dicken Quatro Kühlers)...
Quad SLI geht sicher auch ohne einen Quad-Decker à la GX2 zu machen.
Einfach eine FULL LENGTH pci-e Karte mit nem riesen Kühler über die ganze Länge und über zwei Chips drüber, dazu zwei Stück 80mm Lüfter und fertig. Gehen tut alles ;)
Siehe DAS
http://img88.imageshack.us/img88/5030/imageviewphpqy5.jpg
Schneller als eine 7950GX2, da volle pixel u. vertex shader und 600/760 ;)
Alles weitere hier
http://www.guru3d.com/article/Videocards/382/1/

Gast
2006-10-21, 00:15:45
Auf die PCWelt Daten würd ich gar nix geben, das ist nur ein sammelsurium ausm Netz der Gerüchte, die Specs die die Listen sind doch 1:1 hier bekannt seit Wochen. Man hat einfach n Artikel rausgebracht damit man auch was dazu gesagt hat, Pasta. Mehr als Käse kann bei dem Verlag eh nicht rauskommen.

up¦²
2006-10-21, 01:14:51
http://img384.imageshack.us/img384/3569/091dm64n14s9syx3.jpg

8800GTX / 8800GTS
Stream Processors 128 / 96
Core Clock 575Mhz / 500Mhz
ShaderClock 1350Mhz / 1200Mhz
Memory Clock 900Mhz / 800Mhz
Memory Amount 789Mb / 640Mb
Memory Interface 384bitt / 320bit
Memory Bandwidth 86.4 / 64
Texture Fill Rate 36.8 / 24
Power connectors 2x 6pin / 2x 6pin
PSU 450W, 12v 30a / 400w, 12v 26a

NVIDIA unified architecture with GigaThreadTechnolo
Full DirectX 10 ShaderModel 4.0 support
NVIDIA SLI Ready
16x full0screen anti-aliasing (Lumenex Engine)
True 128-bit floating point high dynamic-range (HDR) (Lumenex Engine)
NVIDIA Quantum Effects physics processing technology (Advanced shader processors architected for physics computation)
Two dual-link DVI (2560 x 1600 resolution displays)
NVIDIA Pure Video support
PCI-E Express support
Open GL 2.0 support
NVIDIA ForceWareUnified Driver Architecture
Built for Microsoft Windows Vista








Das sind ja Aussichten! :smile:

tombman
2006-10-21, 01:17:51
http://img384.imageshack.us/img384/3569/091dm64n14s9syx3.jpg

Das sind ja Aussichten! :smile:

TOP! ;)

Ich bin schon sehr auf die ersten G80 SLI Werte gespannt. Das Netzteil dazu will ich auch sehen. Wahrscheinlich 800 bis 1000 Watt ;)

Blaire
2006-10-21, 01:27:46
6-700 Watt dürfte man sicherlich brauchen.

up¦²
2006-10-21, 01:28:38
Weisst du noch wie die 1000er belächelt wurden ... :smile:
G80GTX hat übrigens 2x SLI wie die x1950pro
G80GTS nur 1x SLI - mal schaun warum ...
Beide locker doppelt so schnell wie die 7900GTX :up:

dildo4u
2006-10-21, 01:30:15
. Das Netzteil dazu will ich auch sehen. Wahrscheinlich 800 bis 1000 Watt ;)

:naughty:
http://www.enermax.de/index.php?section=pdinfo&pdmain=1&pdid=76

http://www.geizhals.at/deutschland/?a=214144&t=alle&plz=&va=nachnahme&vl=de&v=l#filterform

Blaire
2006-10-21, 01:32:13
http://geizhals.at/deutschland/a203820.html

^^ Das sollte reichen. :biggrin:

dildo4u
2006-10-21, 01:36:05
http://geizhals.at/deutschland/a203820.html

^^ Das sollte reichen. :biggrin:Das hat nur 2 PCI-E Stromstecker das reicht grad mal für ein G80. *g*

Blaire
2006-10-21, 01:37:13
Stimmt hat doch nur zwei :\

StefanV
2006-10-21, 01:37:29
http://planet3dnow.de/vbulletin/showpost.php?p=2921767&postcount=85

dildo4u
2006-10-21, 01:38:27
Nein hat auch 4 +12V1: 18A ±3% • +12V2: 18A ±3% • +12V3: 18A ±3% • +12V4: 18A

6-pin PCI Express Connector
X 2

http://www.thermaltake.com/product/Power/ToughPower/W0117/w0117.asp

Blaire
2006-10-21, 01:42:32
6-pin PCI Express Connector
X 2

http://www.thermaltake.com/product/Power/ToughPower/W0117/w0117.asp

Adapter drauf und fertig. :D

tombman
2006-10-21, 02:25:15
:naughty:
http://www.enermax.de/index.php?section=pdinfo&pdmain=1&pdid=76

http://www.geizhals.at/deutschland/?a=214144&t=alle&plz=&va=nachnahme&vl=de&v=l#filterform
Hmm, das sollte wahrscheinlich reichen ;)Preis is auch ok. Allerdings ist Enermax bei Netzteilen ned so wirklich meine erste Wahl...

Falls alle Stricke reißen -> PPC 1000 Watt und fertig ;)

http://www.pcpower.com/products/viewproduct.php?show=T1KWSR
http://www.pcpower.com/products/assets/T1KWSR/T1KWSR_photo_03.jpg

tombman
2006-10-21, 02:30:15
16x full0screen anti-aliasing (Lumenex Engine)
True 128-bit floating point high dynamic-range (HDR) (Lumenex Engine):
LUMENEX ENGINE??? WTF???

Mein Hype-Epenis-Meter wächst schon wieder ;D

Gast
2006-10-21, 04:14:39
Ich frag mich, wer hier schon alles einen R600 gebencht hat, daß hier immer wieder die Behauptung kommt, dieser sei schneller. Der G80 ist ein von Grund auf neudesignter Chip und wir sollten uns nun mal ansehen, was dieser zu Leisten im Stande ist. Dann warten wir auf den R600 und sehen, ob dieser tatsächlich so toll ist oder auch nicht. Für mich jedenfalls sehen die Werte die man bei der PC-Welt über den G80 lesen kann sehr vielversprechend aus.

Und natürlich wisst Ihr auch alle, daß dort niemand die Karten selber testen kann und die Redaktion sich die Daten aus den Fingern gesaugt hat. Ich frage mich ob ihr mir auch die Lottozahlen von der nächsten Ziehung schon jetzt hier sagen könnt denn ihr scheint ja alles zu wissen.

Nightspider
2006-10-21, 04:20:24
Was glaubt ihr, wann eine Dual GPU Karte wie die 7950 GX2 kommen wird ?

Also eine 8850 GX2 oder so ? Zum R600 Release ? Zu Vista ? Zu Weihnachten ? Zu Crysis ? ;D Oder gar nicht ? :eek:

@ Tombman, was hast du an Enermax auszusetzen ?


PS: Wieviel Netzeile gibt es, die 4 6-polige Graka Stecker haben ? Welche zum Bleistift ?

Ailuros
2006-10-21, 04:34:07
Ich frag mich, wer hier schon alles einen R600 gebencht hat, daß hier immer wieder die Behauptung kommt, dieser sei schneller. Der G80 ist ein von Grund auf neudesignter Chip und wir sollten uns nun mal ansehen, was dieser zu Leisten im Stande ist. Dann warten wir auf den R600 und sehen, ob dieser tatsächlich so toll ist oder auch nicht. Für mich jedenfalls sehen die Werte die man bei der PC-Welt über den G80 lesen kann sehr vielversprechend aus.

Und natürlich wisst Ihr auch alle, daß dort niemand die Karten selber testen kann und die Redaktion sich die Daten aus den Fingern gesaugt hat. Ich frage mich ob ihr mir auch die Lottozahlen von der nächsten Ziehung schon jetzt hier sagen könnt denn ihr scheint ja alles zu wissen.

Nachdem NVIDIA alle an der Nase herumgefuert hat mit dem non-USC Zeug, fliegt das oede Argument ueber nicht vereinigte Einheiten erst mal zum Fenster raus. Jetzt kommt es nur noch auf die Implementierung, Effizienz, Bildqualitaet, Stromverbrauch (kurz alles was ueblicherweise verglichen wird) an.

Ich hab bis jetzt nichts gehoert was andeuten koennte dass G80 den kuerzeren ziehen koennte; obwohl ich erwarte dass R600 auf gleich hohem Niveau sein duerfte hat NVIDIA es ATI diesmal wirklich nicht leicht gemacht und das in allen Aspekten.

ScottManDeath
2006-10-21, 08:45:39
6-700 Watt dürfte man sicherlich brauchen.

Ein kleines bischen mehr, aber die Größenordnung ist ok.

Blackpitty
2006-10-21, 09:34:26
Was glaubt ihr, wann eine Dual GPU Karte wie die 7950 GX2 kommen wird ?

Also eine 8850 GX2 oder so ? Zum R600 Release ? Zu Vista ? Zu Weihnachten ? Zu Crysis ? ;D Oder gar nicht ? :eek:

@ Tombman, was hast du an Enermax auszusetzen ?


PS: Wieviel Netzeile gibt es, die 4 6-polige Graka Stecker haben ? Welche zum Bleistift ?

Laut Gamestar soll es ja so eine Karte geben, und die werde ich mir dann holen.

Ich denke mal dass die so Anfang nächstes Jahr kommt, spätestens nach dem R600 Release

Gast
2006-10-21, 09:39:14
Wieso nur Opengl2.0 und nicht 2.1 und wieso nur DDR3 ??

Gast
2006-10-21, 09:41:52
Uff, 2x 6-polige Stecker... Mein Netzteil erfüllt zwar die Vorgabe, aber ich habe diese Stecker nicht. Gibt es da Möglichkeiten nen Aufsatz dran zu stecken (Adapter) ?? Ungerne möchte ich schon wieder nen Netzteil kaufen.

-Ghosty

Superheld
2006-10-21, 09:43:10
ja gibts, liegt auch vielleicht bei wenn du Glück hast:smile:

Gast
2006-10-21, 10:11:58
Ich weiß, leicht OT, aber wo kann man die bestellen ?
Bei Alternate gibt es da nichts.

AnarchX
2006-10-21, 10:15:21
Ich weiß, leicht OT, aber wo kann man die bestellen ?
Bei Alternate gibt es da nichts.
Am 8. November kannst du sie bestellen...;)

Wieso nur Opengl2.0 und nicht 2.1
Es gibt halt noch keine OpenGL 2.1 Treiber, irgendwann wird wohl der G80 mit OpenGL 3.0 Treibern versorgt werden.


und wieso nur DDR3 ??
384bit SI und Lieferschwierigkeiten bei GDDR4.

Gast
2006-10-21, 10:22:14
AnarchX:

War die Frage an Superheld. Ich meinte die Adpater für die 2x 6poligen Stecker, nicht die 8800er Karten selber.