PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)


Seiten : [1] 2 3 4 5 6 7 8 9

deekey777
2006-10-22, 22:17:42
Wichtig: Es ist einfach zum Brechen, dass der zweite Teil für einen Glaubenskrieg missbraucht wurde. Soll es sich nochmal wiederholen, nehme ich mir das Recht vor, nicht nur wegen Missachtung der Moderation härter vorzugehen, sondern auch ein Hausverbot für diesen Thread auszusprechen, dessen Missachtung gleich einen siebentägigen Ausflug ins RL beschert.
Der Inhalt dieses Thread ist einzig und allein die kommende G80-Generation. Postings über den Stromverbrauch der aktuellen Generation oder älteren Generation, Schwächen der FX-Generation, schlechtere Filterqualität der R300-R420, also wirklich alles, was nicht im Bezug auf den G80 ist, ist gefährdet, getrasht und geahndet werden. Soll jemand doch ins OT abdriften, ignoriert es einfach und meldet es ggf.
Wer meint, allen kundzutun, dass er die 8800 holt oder nicht, dass er sie geil oder ungeil findet oder ähnlich qualitativ, möge er dies hier machen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=323496
Solche Posting sind hier unerwünscht. Bleibt beim Thema.
Teil eins (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326183), letztes Posting (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4882524#post4882524).
Teil zwei. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326254)
NVIDIA "G80" Retail Details Unveiled (http://www.dailytech.com/article.aspx?newsid=4441)
Zusammenfassung der vermeintlichen Specs der G80-Generation (gefunden hier (http://www.beyond3d.com/forum/showpost.php?p=845779&postcount=802)):
8800GTX
575MHz Core Clock
900MHz Mem Clock
768MB GDDR3 memory
384-bit memory interface (86GB/s)
128 unified shaders clocked at 1350 MHz
38.4 billion pixels per second theoretical texture fill-rate
450W PSU Recommended
Hard launch in second week of November


8800GTS
500MHz Core Clock
900MHz Mem Clock
640MB GDDR3 memory
320-bit memory interface (64GB/s)
96 unified shaders clocked at 1200 MHz
?? billion pixels per second theoretical texture fill-rate
400W PSU Recommended
Hard launch in second week of November


From dailytech (http://www.dailytech.com/article.aspx?newsid=4441).
Wann soll die neue kommen? Anfang oder Mitte November (siebter oder achter November geheime Präsentation und am 17. Nov dann der Launch?). Finales Tapeout: Mitte Sommer. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4882524&postcount=1495)
128 Shader? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4844698&postcount=1236) von aths.
"G80" To Feature 128-bit HDR, 16X AA (http://dailytech.com/article.aspx?newsid=4450)
Zu 16xMSAA von robbitop. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4847291&postcount=1275)
Mögliche Unterteilung der Speicheranbindung von ailuros. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4851735#post4851735)
Hier Update (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4904853&postcount=2).
3DMarks der G80? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4855782#post4855782) Update (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4897588&postcount=167)
Preise der 8800? (http://www.beyond3d.com/forum/showpost.php?p=848128&postcount=1129)
G80-Mainstream/Lowend auf der CeBIT? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4876123#post4876123)
Preview: Geforce 8800 GTX und GTS (http://www.pcwelt.de/news/hardware/video/61081/index.html)
700 Mio Transistoren, aber wofür? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4905167#post4905167)
ASUS 8800GTX/GTS? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4907282&postcount=63)
Spionage-Bilder der 8800er! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4909857#post4909857) X-D
Weitere Bilder inkl. 8800GTS (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4910140#post4910140)
Soll hier was wichtiges fehlen, meldet euch per PM, ich werde es hier dann erwähnen.
3D Mark 2006???
3DMark Score: 11795
SM2.0 Score: 4783
HDR/SM3.0 Score: 4095
CPU Score: 4419
All 8800GTX Cards Being Recalled (http://www.vr-zone.com/?i=4253)
Beachte: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4954564#post4954564
8800GTS Shadermark Results (http://www.beyond3d.com/forum/showthread.php?t=35343) inkl. Bilder des neuen AF.
8800GTX Shadermark results (http://www.beyond3d.com/forum/showthread.php?t=35306)
G80-Prasentation. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4957470#post4957470)

Ailuros
2006-10-22, 22:28:20
1. Mach aus 32bit, 6*64bit fuer die Speicheranbindung.

2. Robbitop sorry; die 16xMSAA These duerfte auch zum Fenster rausfliegen.

3. Die bisher (meistens) angegebene Transistoren-Anzahl duerfte auch etwas zu moderat sein.

AnarchX
2006-10-22, 22:31:20
3. Die bisher (meistens) angegebene Transistoren-Anzahl duerfte auch etwas zu moderat sein.

Also doch etwas dran an den 700 Millionen Transistoren? ;)
Diese Zahl klingt auch für mich mittlerweile doch gar nicht mehr so unrealistisch, vor allem im Zusammenhang mit der Quantum Physic Engine.

Juerg
2006-10-22, 22:32:53
Also die "128 unified shaders clocked at 1350 MHz" sind doch inflationäre "echte" 575 MHz DDR (core clock) oder?

Ailuros
2006-10-22, 22:33:45
Ach ueber extra "layers" fuer Aufgabe X oder Y wuerde ich mich nicht zu stark kuemmern, ebenso wie mit PureVideo. Es ist eben nun mal so dass man mit so hoher Programmierbarkeit einen Haufen von Dingen anrichten kann.

MikBach
2006-10-22, 22:34:06
Was interresiert ist wu-AF.

Sollte es der G80 nicht können, dann sollten wir von Sondermüll sprechen.

Gruß M_B

Ailuros
2006-10-22, 22:34:59
Also die "128 unified shaders clocked at 1350 MHz" sind doch inflationäre "echte" 575 MHz DDR (core clock) oder?

Siehe Pentium 4.

Ailuros
2006-10-22, 22:38:36
Was interresiert ist wu-AF.

Sollte es der G80 nicht können, dann sollten wir von Sondermüll sprechen.

Gruß M_B

Zu dem habe ich mich schon geaeussert, was aber dem anderen Thread ein miserables Schicksal goennte. Es gibt kein zu 100% winkel-unabhaengiges AF, denn selbst R5x0's Area AF hat seine "Ohren" bei 45-gradigen Winkeln (was mir persoenlich aber auch nicht besonders wichtig ist). Winkel-unabhaenigeres AF ist das 2xAF vom NV4x/G7x.

Wenn man solche Andeutungen selbst im obrigen Detail nicht verstehen kann, dann ist wohl eher etwas anderes faul. Klar herausspucken werde ich nichts. Merci bien ;)

Hvoralek
2006-10-22, 22:47:17
Also doch etwas dran an den 700 Millionen Transistoren? ;) Ausgehend von G71 wären das dann etwa 500mm². Wenn man dann noch ein 384-bit-SI berücksichtigt, sind 500 bzw 650€ ja geradezu Schnäppchen.

AnarchX
2006-10-22, 22:52:09
Ausgehend von G71 wären das dann etwa 500mm².
First is the arrangement of the chip, physically we are hearing that it is 2 * 2 cm, or about a 400mm die. Ouch.
http://www.theinquirer.net/default.aspx?article=34359

:uponder:

Ailuros
2006-10-22, 22:57:18
Da steht so viel Quark drin, dass der INQ mal wieder einen eigenen Rekord an BS-Menge in einem einzigen Newsblurb erreicht hat :rolleyes:

MikBach
2006-10-22, 22:58:06
Zu dem habe ich mich schon geaeussert,
Und?

was aber dem anderen Thread ein miserables Schicksal goennte. Es gibt kein zu 100% winkel-unabhaengiges AF, denn selbst R5x0's Area AF hat seine "Ohren" bei 45-gradigen Winkeln (was mir persoenlich aber auch nicht besonders wichtig ist).
Schaue nicht auf die Theorie. Schau dir die Praxis an.
Mit meinem 42"TV kann ich es SEHR GUT nachprüfen.
Für Gegenargumente bin ich natürlich offen. :)

Winkel-unabhaenigeres AF ist das 2xAF vom NV4x/G7x.
2xAF ist aber zu wenig.
Mindestes 8X muss man schon haben.

Wenn man solche Andeutungen selbst im obrigen Detail nicht verstehen kann, dann ist wohl eher etwas anderes faul. Klar herausspucken werde ich nichts. Merci bien ;)
Ail, ich weiß, dass du es drauf hast, also raus mit der Sprache. :)

Gruß M_B

Hvoralek
2006-10-22, 22:59:33
400 mm² bei 700 Mio Transistoren wäre schon eine enorme Transistordichte. Der R580 ist ja kaum kleiner, aber nur gut halb so komplex.

Godmode
2006-10-22, 23:01:18
:uponder:

Omg, wie kann man nur solchen Bullshit von sich geben: 48 DX9 + 48 DX10 Pipes ;D

Naja INQ halt!

edit: zu langsam

AnarchX
2006-10-22, 23:05:36
Omg, wie kann man nur solchen Bullshit von sich geben: 48 DX9 + 48 DX10 Pipes ;D


Ja es ist BS und es ging mir auch nicht um diesen Teil, sondern um die Angabe der Diesize, welche ich gequotet habe.
Die ca. 2cm, was vielleicht auch mehr als 2cm sind und somit wieder bei etwa 500mm² ergäbe und wiederrum auf 700Mio Transis hindeuten könnten.
Imo doch eine seltsame Parallelle...

Aber in gut 2 Wochen weiß die Mehrheit mehr darüber.:wink:

Neosix
2006-10-22, 23:10:07
konnte man bereits wirklich etwas über die architektur wo rauslesen? hat die g80 wirklich teile die nur für dx9 und andere für dx10 sind? wäre sonst ne zimmliche verschwending wenn man beides zusammen nicht nutzen könnte.

Ailuros
2006-10-22, 23:13:40
Und?

Was soll ich noch weiteres dazu sagen?

Schaue nicht auf die Theorie. Schau dir die Praxis an.
Mit meinem 42"TV kann ich es SEHR GUT nachprüfen.
Für Gegenargumente bin ich natürlich offen. :)

Miserables oder sehr gutes AF kann ein erfahrenes Auge auf jeder erhaeltlichen Bildschirmgroesse sehen.

2xAF ist aber zu wenig.
Mindestes 8X muss man schon haben.

Es sollte wohl klar sein dass ich lediglich andeuten wollte, dass es noch winkel-unabhaengiger geht als bei R5x0.

Ail, ich weiß, dass du es drauf hast, also raus mit der Sprache. :)

Gruß M_B

Dann versuche zumindest zwischen den Zeilen zu lesen; dass ich hier mit dem Feuer spiele solltest Du oder jeder andere einsehen koennen.

Ailuros
2006-10-22, 23:15:11
400 mm² bei 700 Mio Transistoren wäre schon eine enorme Transistordichte. Der R580 ist ja kaum kleiner, aber nur gut halb so komplex.

Was mich umhaut sind die Einzelheiten ueber den relativ niedrigen Stromverbrauch im Gegensatz.

MikBach
2006-10-22, 23:25:56
Miserables oder sehr gutes AF kann ein erfahrenes Auge auf jeder erhaeltlichen Bildschirmgroesse sehen.
Nicht wirklich, und du weißt ganz genau, was ich miene.

Es sollte wohl klar sein dass ich lediglich andeuten wollte, dass es noch winkel-unabhaengiger geht als bei R5x0.
Klar, nobody´s perfect. :)
Dann versuche zumindest zwischen den Zeilen zu lesen; dass ich hier mit dem Feuer spiele solltest Du oder jeder andere einsehen koennen.
Akzeptiert. :)

Gast
2006-10-22, 23:31:25
Also doch etwas dran an den 700 Millionen Transistoren? ;)
Diese Zahl klingt auch für mich mittlerweile doch gar nicht mehr so unrealistisch,

find ich auch nicht, bis jetzt wurde die transistorenzahl bei jeder "echten" neuen generation etwas mehr als verdoppelt.

ausgehend von den +-300Mio. der G70/71-serie sollten es also auf jeden fall 600-650Mio sein.

Ailuros
2006-10-22, 23:37:44
Nicht wirklich, und du weißt ganz genau, was ich miene.

Zwar wieder verdammt OT, aber ausser der zu grossen Bildschirmflaeche in Relation zur vergleichsmaessigen ziemlich niedrigen Aufloesung faellt mir nichts anderes ein, auf was Du hinaus willst. Falls ja, sieht man zwar Unterschiede leichter, aber dass heisst bei weitem nicht dass man Filterungs-Unterschiede auch nicht auf einem Handheld mit einer 240*320 Aufloesung sehen koennte.

Gast
2006-10-23, 00:09:34
konnte man bereits wirklich etwas über die architektur wo rauslesen? hat die g80 wirklich teile die nur für dx9 und andere für dx10 sind? wäre sonst ne zimmliche verschwending wenn man beides zusammen nicht nutzen könnte.

Das wäre sinnlos Einheiten einzubaun die für min. 1Jahr überhaupt nicht genutzt werden. Was nV wohl gemacht hat, Einheiten einzubauen die sich vielfältig programmieren lassen, also Vertex Einheiten die auch mit GeometrieShader klar kommen. Aber was die 128 Einheiten können und wie da gezählt wurde muss man abwarten, da nützt keine Speku.
Sieht man am entsprechenden Thread auf Beyond3d, zig Patente und nix genaues weiß man net ;)

Ailuros
2006-10-23, 00:21:38
Es gibt genug Leute auf B3D die in der Zwischenzeit wissen wo es mehr oder weniger lang geht; die endlose Irrefuehrung kann ich nur als absichtlich interpretieren.

Sunrise
2006-10-23, 00:46:36
Diese Zahl klingt auch für mich mittlerweile doch gar nicht mehr so unrealistisch, vor allem im Zusammenhang mit der Quantum Physic Engine.
Immer daran denken, dass NV mit Marketing-Begriffen (bei G80 erwartet uns wieder ein Fest par excellence) nur so um sich werfen wird, was u.a. damit zu tun hat, dass G80 sehr flexibel einsetzbar sein wird, wie Ailuros bereits betont hat. Zudem wird wohl eine beträchtliche Menge der Transistoren von G80 nichts mit Logik zu tun haben, sondern Speicher sein, der sich natürlich dichter packen lässt und man sich um dessen Leistungsaufnahme/Abwärme keine großen Sorgen machen muss, was auch die relativ "gemäßigte" Gesamt-Leistungsaufnahme belegen wird.

aths
2006-10-23, 00:49:19
Was interresiert ist wu-AF.

Sollte es der G80 nicht können, dann sollten wir von Sondermüll sprechen.Beim R580 auch?

Nazar
2006-10-23, 01:06:16
Es geht hier nicht um den R580!
Das Thema ist der G80.
Bitte bleib beim Thema, dass solltest Du aber von alleine wissen!

Wu AF ist nunmal eine Möglichkeit die BQ deutlich zu verbessern.
Die Vorgänger des G80 haben gezeigt, dass BQ einen deutlich höheren Stellenwert bei der Comm hat, als die Entwickler meinten.

Ob es nun sinnvoll ist "echtes" wu AF einzusetzen und so viel Performance zu verbraten, ist eine gute Frage!
Mir würde es schon reichen, wenn das AF des R580 im G80 vorzufinden wäre oder besser gesagt: die BQ des R580!
Wie das letztendlich erreicht wird ist mir egal!

aths
2006-10-23, 01:09:42
Es geht hier nicht um den R580!
Das Thema ist der G80.
Bitte bleib beim Thema, dass solltest Du aber von alleine wissen!Es ging um "wu-AF" beim G80. Da darf man doch mal fragen, ob das AF im R580 auch "wu" sein soll.

find ich auch nicht, bis jetzt wurde die transistorenzahl bei jeder "echten" neuen generation etwas mehr als verdoppelt.

ausgehend von den +-300Mio. der G70/71-serie sollten es also auf jeden fall 600-650Mio sein.Warum interessieren sich so viele für die Transistor-Zahlen?


Ausgehend von G71 wären das dann etwa 500mm². Wenn man dann noch ein 384-bit-SI berücksichtigt, sind 500 bzw 650€ ja geradezu Schnäppchen.Mich interessieren eher die Modelle, die erst später auf den Markt kommen, und zwar die Mittelklassen-Modelle des G80-Refreshes. Egal wie viel Leistung der G80 bringt, der Refresh dürfte deutlich mehr bringen. Zumindest war es bei NV bisher immer so.

Raff
2006-10-23, 01:12:15
Es ging um "wu-AF" beim G80. Da darf man doch mal fragen, ob das AF im R580 auch "wu" sein soll.

Es ist bis 8x etwa so "wu" wie das von NV3x, also fast. Kehrte man zu dieser Qualität zurück, dann wäre das schon nett. Vor allem, wenn man es zu 16x fast-wu macht. Hach, ich liebe dieses "wu"! ;)

MfG,
Raff

aths
2006-10-23, 01:33:33
Es ist bis 8x etwa so "wu" wie das von NV3x, also fast. So richtig "wu" ist das NV30- (bzw NV20-) 8x-AF gar nicht.

Raff
2006-10-23, 01:36:44
Ich sag ja: fast. Aber eben so "fast", dass man ingame keine Winkelabhängigkeit, also Matsch direkt neben Schärfe, feststellen kann. Reicht also – ist ja auch deutlich besser als der Mist von R300, NV40 & Co.

MfG,
Raff

Mr. Lolman
2006-10-23, 02:02:18
Pfeift auf das bisschen Winkelabhängigkeit. Selbst beim 16xAF kann man außerhalb von Colormips nie(!!) feststellen, dass da was winkelabhängig ist. Ich hab div. Szenarien im AF Tester durchgespielt. Da denk ich eher, dass das ne legitime Optimierung ist, die durch die Verzerrung der Texturen an den jew. Winkel nahe dem Optimum ist.

Ailuros
2006-10-23, 04:18:51
Staerkere Winkelabhaengigkeit ist insgesamt weniger stoerend als die mir zu lange Liste an Filterungs-Optimierungen bisher. Ich engagiere mich nicht noch mal in eine oede Debatte ob mit den bisher angegebenen Fuellraten Zixel angedeutet wurden oder nicht; wer will kann schaerfer nachdenken. Unterm Strich waeren sie schoen bloed wenn sie immer noch Optimierungen dazuschrauben wuerden.

puntarenas
2006-10-23, 07:05:35
Wu AF ist nunmal eine Möglichkeit die BQ deutlich zu verbessern.
Die Vorgänger des G80 haben gezeigt, dass BQ einen deutlich höheren Stellenwert bei der Comm hat, als die Entwickler meinten.

Hmm, ich habe eher den Eindruck, die Comm hat auf das "Quality" vs "High Quality" Marketing ganz gut angesprochen, größere Absatzprobleme hatten sie ja wohl eher nicht und auch in Reviews sind sie doch ganz gut damit gefahren.
Unterm Strich waeren sie schoen bloed wenn sie immer noch Optimierungen dazuschrauben wuerden.
Das ist eben die Frage, es geht ja nicht darum, ein möglichst "gutes" (TM) Produkt zu entwickeln, sondern einen möglichst hohen Absatz bei möglichst geringem Aufwand zu erzielen. Die Konkurrenz ist ja leistungstechnisch längst kein Mauerblümchen mehr und lange Benchmarklatten lassen sich eben viel leichter kommunizieren und vermarkten.

Ich hoffe aber auch darauf, dass Nvidia auf den Pfad der Tugend zurückkehrt, schon allein um ATI weiter auf Trab zu halten. Wenn hier endlich ein Wettbewerb um Qualität und Leistung einsetzt, dann kann das für alle nur von Vorteil sein und ich bin beiweitem nicht so dogmatisch, dass ich auf einen Hersteller festgelegt wäre.

ScottManDeath
2006-10-23, 08:25:11
2. Robbitop sorry; die 16xMSAA These duerfte auch zum Fenster rausfliegen.



Jo, 2nd that ;) Ist aber tricky das Ganze.

MikBach
2006-10-23, 09:19:35
Beim R580 auch?
Bitte aths, häng dich nicht an Kleinigkeiten auf.
Ich schreibe fast immer ein "fast" in Klammern. Diesmal habe ich es vergessen.

Lass es nicht drauf ankommen, Mr. FX. :)
Du hast mich ja gestern als Mr. DDX bezeichnet und dies zurecht.

Gruß M_B

Ailuros
2006-10-23, 09:33:27
Jo, 2nd that ;) Ist aber tricky das Ganze.

Das erste Mal dass die original Methode hier erwaehnt wurde, war vor dem NV30 Launch wenn ich mich nicht irre. Ich glaube es hatte damals irgendwas mit HP zu tun, aber der Erfinder wurde ja wenn ich mich nicht irre von NV eingestellt.

doppelschwoer
2006-10-23, 09:46:34
Je mehr ich darüber nachdenke, desto weniger krass finde ich die 700mio Transistoren.
Ne verdopplung der Transitoranzahl bei den NextGen chips ist nicht soo abwegig. Gab es schon öfter. Allerdings würde ich mich wundern wenn das alles wirklich bei 90nm abgeht.

Ailuros
2006-10-23, 09:46:52
Das ist eben die Frage, es geht ja nicht darum, ein möglichst "gutes" (TM) Produkt zu entwickeln, sondern einen möglichst hohen Absatz bei möglichst geringem Aufwand zu erzielen. Die Konkurrenz ist ja leistungstechnisch längst kein Mauerblümchen mehr und lange Benchmarklatten lassen sich eben viel leichter kommunizieren und vermarkten.

Ich hoffe aber auch darauf, dass Nvidia auf den Pfad der Tugend zurückkehrt, schon allein um ATI weiter auf Trab zu halten. Wenn hier endlich ein Wettbewerb um Qualität und Leistung einsetzt, dann kann das für alle nur von Vorteil sein und ich bin beiweitem nicht so dogmatisch, dass ich auf einen Hersteller festgelegt wäre.

Ich wuerde den Aufwand nicht gering nennen; geringer als andere Alternativen wohl sicher schon. Ich deute nochmal auf die enorm angegebene Fuellrate und nein es sind keine Zixel; man muss nur etwas kreativer denken damit man dahinter kommt. Es wuerde mich nicht wundern wenn es der GPU fast gleichgueltig ist fuer ihre Bluetezeit wo und wieviel AF eigentlich angelegt wird.

Was jetzt AA betrifft, hohe sample-Anzahlen wurden schon angedeutet. Man kann hier entweder auf "lossy" setzen was generell mehrere negative Stellen aufweisen wuerde, oder eine Zwischenloesung die fehlerfrei und mit dem kleinst-moeglichen Speicher- und Bandbreiten-Verbrauch ankommt. Bei so vielen samples wuerde es selbst mit 768MB Speicher und 86+GB Bandbreite in hohen Aufloesungen ziemlich eng werden. So "perfekt" ist das Ganze nun auch wieder nicht, kostenlos kommt gar nichts in 3D, aber doch definitiv ein Schritt in die korrekte Richtung.

Was ich nicht weiss und mich brennend interessieren wuerde, ist ob man an den Filtern fuer AA etwas geaendert hat; es soll ja heissen dass sobald die sample Anzahl ansteigt, es auch sinnvoll wird die Filter zu aendern. Da dieses Feld aber bis jetzt nicht erwaehnt wurde, habe ich das Gefuehl dass solche Aenderungen dann vielleicht doch fuer >D3D10xx vorbehalten wurden.

Ailuros
2006-10-23, 09:47:19
Je mehr ich darüber nachdenke, desto weniger krass finde ich die 700mio Transistoren.
Ne verdopplung der Transitoranzahl bei den NextGen chips ist nicht soo abwegig. Gab es schon öfter. Allerdings würde ich mich wundern wenn das alles wirklich bei 90nm abgeht.

:biggrin: ;)

seahawk
2006-10-23, 09:51:43
Zeichen und Wunder - gell. ;)

Ich beahupte mal, dass der Chip nicht enttäuschen wird.

robbitop@work
2006-10-23, 09:53:07
2. Robbitop sorry; die 16xMSAA These duerfte auch zum Fenster rausfliegen.


Why? ;-)

robbitop@work
2006-10-23, 09:59:32
Ich wuerde den Aufwand nicht gering nennen; geringer als andere Alternativen wohl sicher schon. Ich deute nochmal auf die enorm angegebene Fuellrate und nein es sind keine Zixel; man muss nur etwas kreativer denken damit man dahinter kommt. Es wuerde mich nicht wundern wenn es der GPU fast gleichgueltig ist fuer ihre Bluetezeit wo und wieviel AF eigentlich angelegt wird.
Hm das klingt nach TMUs mit einem größeren Filterkernel. Da kann man dann schon kreativ Texel zählen.

AnarchX
2006-10-23, 11:18:56
Nvidia's G80 has problems
SLI and HDCP broken for now
http://theinquirer.net/default.aspx?article=35271

Hvoralek
2006-10-23, 11:26:08
Was mich umhaut sind die Einzelheiten ueber den relativ niedrigen Stromverbrauch im Gegensatz.Ausgehend vom Verbrauch einer 7900 GTX (http://www.xbitlabs.com/articles/video/display/powercolor-x1900gt_5.html) käme man bei 575MHz auf etwa 170W (Gerechnet mit 2,5- fachem Verbrauch/ Takt der 7900 abzüglich ein paar Watt wegen des Speichers). Wenn der Logikanteil geringer ist als bei G71, liegt natürlich auch der Verbrauch darunter, dann könnte es am Ende vlt irgendetwas um 150W sein.

Why? ;-)Brauchst Du ernsthaft einen 16xAA- Modus? Ich bin eher gespannt, ob es sinnvoll nutzbare Modi mis SS- Anteil gibt (Das wäre dann mal was für Raff :wink: ).

robbitop@work
2006-10-23, 11:37:50
Brauchst Du ernsthaft einen 16xAA- Modus? Ich bin eher gespannt, ob es sinnvoll nutzbare Modi mis SS- Anteil gibt (Das wäre dann mal was für Raff :wink: ).

Ich habe bereits betont, dass ein 16xMS Modus per se wenig Sinn macht, mangels verfügbarem "Pixel-Platz" für Kontraststufen.
Mir ging es eher um das Verfahren, auf welches ich spekulierte, welches AiL anscheinend nun ausschließt. Um die Sampleanzahl geht es mir nicht.
16xMSAA samples könnten es dennoch sein.

Gast
2006-10-23, 11:46:40
können das 16aa eigentlich unsere Monitore darstellen also das mein keine Zacken mehr zieht ?

Hvoralek
2006-10-23, 11:49:10
können das 16aa eigentlich unsere Monitore darstellen also das mein keine Zacken mehr zieht ?Wieso sollten bei hohen MS- Modi Monitore Probleme machen? Die bekommen ihr normales SXGA, UXGA oder was auch immer. Nur wäre 16x bei "nur" 86,4 GB/s Bandbreite wohl ziemlich langsam.

Moralelastix
2006-10-23, 12:35:56
SLI naja wird noch bestimmt noch werden.

HDCP pah, wayne! Brauch ma eh net!:biggrin:

Hvoralek
2006-10-23, 12:48:28
Solange es nur Probleme mit dem Treiber sind, ist das ja halb so wild. (*andietonemappingeinheitdesnv40denk*).

Moralelastix
2006-10-23, 12:54:25
Solange es nur Probleme mit dem Treiber sind, ist das ja halb so wild. (*andietonemappingeinheitdesnv40denk*).

Was war den des? Ich kann mich nur an die nicht funktionierende HD Beschleunigung für MPG Files erinnern......

Edit: Hat sich erledigt!

Ailuros
2006-10-23, 13:39:22
Wieso sollten bei hohen MS- Modi Monitore Probleme machen? Die bekommen ihr normales SXGA, UXGA oder was auch immer. Nur wäre 16x bei "nur" 86,4 GB/s Bandbreite wohl ziemlich langsam.

Und was wenn es sich um einen Algorithmus handelt der zufaelligerweise viel weniger Speicher und Bandbreite verbraucht als "herkoemmliches" MSAA?

aylano
2006-10-23, 13:55:50
8800GTX
575MHz Core Clock
900MHz Mem Clock
768MB GDDR3 memory
384-bit memory interface (86GB/s)
128 unified shaders clocked at 1350 MHz

Ich dachte, es gibt bei Grafik-Karten immer nur Core- und Mem-Clock.
Ist es jetzt neu (zumindestens bei Nvidia), dass die shaders einen eigenen Geschwindigkeit [Mhz] haben???

Die 150 bis 170Watt scheinen mir garnicht unlogisch.

Eine 7900GTX hat mit 650 Mhz ähnlichen Takt.
Und mit 48 Pixel-shader (2x24) und 8 Vertex-Shader insgesamt 56 Shaders.

Daumen mal Pi, die 8800GTX hat gegenüber 7900GTX doppelt so viel Shaders und das bei gleichem Takt a la 80Wattx2 = 150 ... 170 Watt.

Na ja, sofern man so überhaupt rechen darf.
Sind die Pixel-, Vertex- und Unified-Shader gleich groß, oder haben die Unterschiedliche Transistoren. Weiß man schon da etwas???
(oder ist es "sinnvoller" den Wattvergleich mit der Transistor-Menge durchzuführen???)

Ailuros
2006-10-23, 13:56:27
Ich habe bereits betont, dass ein 16xMS Modus per se wenig Sinn macht, mangels verfügbarem "Pixel-Platz" für Kontraststufen.
Mir ging es eher um das Verfahren, auf welches ich spekulierte, welches AiL anscheinend nun ausschließt. Um die Sampleanzahl geht es mir nicht.
16xMSAA samples könnten es dennoch sein.

Der Sinn von Multisampling ist eigentlich die hoechstmoegliche Aufloesung mit der hoechstmoeglichen Sample-Anzahl zu benutzen. In dem Sinn wenn man ich als Beispiel ein Dilemma zwischen 2048*1536+4xAA und 1600*1200+16xAA haben wuerde, wuerde ich natuerlich das erste waehlen.

Es gibt jedoch mit antialiasing keine perfekte Methode noch kann jemand so leicht sagen dass so und so viel samples unter allen Faellen genug sind. Obwohl ich es persoenlich als Schwachsinn empfinde schau Dir mal an was fuer Aufloesungen genau 36 oder sogar 40" Fernseher genau momentan unterstuetzen. Wie gross jeder Pixel auf so einem Brummer dann erscheint koennte man sich wohl vorstellen. Nebenbei sollte man wohl nochmal erinnern dass NVIDIA und ATI auch fuer den Profi-Markt entwickeln. Quantum3D's momentane Independence Systeme mit mehreren G7x-Quadros unterstuetzen bis zu 64x MSAA.

Hvoralek
2006-10-23, 14:07:02
Ich dachte, es gibt bei Grafik-Karten immer nur Core- und Mem-Clock.
Ist es jetzt neu (zumindestens bei Nvidia), dass die shaders einen eigenen Geschwindigkeit [Mhz] haben???Gibt es auch schon bei einigen Geforce- 7- Modellen. Dort takten die VS etwas höher als der übrige Chip.

Die 150 bis 170Watt scheinen mir garnicht unlogisch.

Eine 7900GTX hat mit 650 Mhz ähnlichen Takt.
Und mit 48 Pixel-shader (2x24) und 8 Vertex-Shader insgesamt 56 Shaders.

Daumen mal Pi, die 8800GTX hat gegenüber 7900GTX doppelt so viel Shaders und das bei gleichem Takt a la 80Wattx2 = 150 ... 170 Watt.

Na ja, sofern man so überhaupt rechen darf.
Sind die Pixel-, Vertex- und Unified-Shader gleich groß, oder haben die Unterschiedliche Transistoren. Weiß man schon da etwas???Es empfiehlt sich wohl nicht, anhand der Anzahl der Shader zu rechnen. Es ist völlig unklar, wie die einzelnen Shader- Einheiten des G80 aussehen, und über den sonstigen Aufbau des Chips ist auch kaum etwas bekannt. Deshalb habe ich es mit der Komplexität des gesamten Chips versucht.

Und was wenn es sich um einen Algorithmus handelt der zufaelligerweise viel weniger Speicher und Bandbreite verbraucht als "herkoemmliches" MSAA?Wenn er qualitativ gleichwertige Ergebnisse erzeugt, wäre das schon toll. Wie soll dann aber so viel Bandbreite gespart werden, dass 16x AA sinnvoll nutzbar ist? In gut zwei Wochen werden es ja voraussichtlich genau wissen.

Nach Deinen bisherigen Andeutungen habe ich irgendwie das Gefühl, die ersten G80- Artikel weitgehend mit heruntergeklappter Kinnlade betrachten zu müssen.

Ailuros
2006-10-23, 14:13:42
Wenn er qualitativ gleichwertige Ergebnisse erzeugt, wäre das schon toll. Wie soll dann aber so viel Bandbreite gespart werden, dass 16x AA sinnvoll nutzbar ist? In gut zwei Wochen werden es ja voraussichtlich genau wissen.

Hint: warum ist der Speicher- bzw. Bandbreiten-Verbrauch auf TBDRs am kleinsten? (und nein G80 ist natuerlich kein TBDR).

Nach Deinen bisherigen Andeutungen habe ich irgendwie das Gefühl, die ersten G80- Artikel weitgehend mit heruntergeklappter Kinnlade betrachten zu müssen.

Im Masse einer wirklich neuen Generation wohl schon. Es wurde auch ja langsam Zeit denn die ewig wiedergekauten SM3.0 "Refreshes" wurden ja ziemlich langweilig in letzter Zeit.

robbitop@work
2006-10-23, 14:28:38
Hint: warum ist der Speicher- bzw. Bandbreiten-Verbrauch auf TBDRs am kleinsten? (und nein G80 ist natuerlich kein TBDR).

Wegen des Color-tilecaches, in den alle Samples einfließen, diese gemischt werden und erst dann in den FB geschrieben werden. Und natürlich weil kein Z-Traffic auf den FB anfällt. Aber was hat das mit dem G80 zu tun? IMO sehr wenig.

James Ryan
2006-10-23, 14:33:56
Nvidia's G80 has problems
SLI and HDCP broken for now
http://theinquirer.net/default.aspx?article=35271

In dieser Meldung steht im letzten Nebensatz dass mit den 95er Treibern das alte Control Panel endgültig verschwinden soll. :eek:
Damit fällt ein wieterer Vorteil von NVIDIA gegenüber ATi weg, ob die sich damit nicht mal ins eigene Bein schießen?! :rolleyes:

MfG :cool:

robbitop@work
2006-10-23, 14:36:40
Ok habe eine Theorie:
Wenn Z3 AA verwendet werden sollte, könnte man massiv Bandbreite und Speicherplatz sparen.
Gespeichert werden ja nur 3 Farbwerte von max 3 Dreiecken pro Pixel. Das reicht in den allermeisten Fällen aus. Nun kann man damit eine sehr hohe Sampleanzahl nutzen. Von den angenommenen 16 Samples haben alle mit einer sehr hohen Wahrscheinlichkeit (solange max 3 Tris pro Pixel) alle den Farbwert von einem der Dreiecke. Die Werte können dann beliebig in einen Fagmentbuffer geschrieben werden.
Wenn der Platz im Fragment Buffer für weitere Samples nicht mehr ausreicht, werden zwei 'sich nahestende' alte Fragmente verschmolzen, um wieder Platz zu schaffen.

robbitop@work
2006-10-23, 14:43:01
Das schöne an Z3 ist, dass es adaptiv ist. Jedoch glättet es per se kein Stencil. Vieleicht hat man das Verfahren inzwischen soweit im Griff, dass auch dieser Aspekt gelöst ist.
Z3 AA mit einem großen Fragmentbuffer würde auch erklären, warum G80 anscheinend einiges mehr an SRAM auf dem Chip braucht, es nicht soo viel Chipfläche braucht und auch den DIE nicht so "aufheizt".
Aber ob NV Z3 wirklich nutzt, ist fraglich. Sooo einfach ist es sicher nicht ein kompromissfreies gut funktionierendes Z3-AA zu machen.

Wenn sie es realisieren, dann bin ich noch mehr beeindruckt, als ich es ohnehin schon bin!

StefanV
2006-10-23, 15:07:42
In dieser Meldung steht im letzten Nebensatz dass mit den 95er Treibern das alte Control Panel endgültig verschwinden soll. :eek:
Damit fällt ein wieterer Vorteil von NVIDIA gegenüber ATi weg, ob die sich damit nicht mal ins eigene Bein schießen?! :rolleyes:

MfG :cool:
Ist ja auch richtig so, schließlich schauts unter Vista nicht anders aus, was ja auch der Hauptgrund fürs CCC und das neue Panel ist!

Oder andersrum:
Die alten Panels sind NICHT Vista kompatibel, weswegen das jetzt zumindest 3 Hersteller anders lösen.

Sonyfreak
2006-10-23, 15:33:28
In dieser Meldung steht im letzten Nebensatz dass mit den 95er Treibern das alte Control Panel endgültig verschwinden soll. :eek:
Damit fällt ein wieterer Vorteil von NVIDIA gegenüber ATi weg, ob die sich damit nicht mal ins eigene Bein schießen?! :rolleyes:Ich würde es auch sehr schade finden, wenn das alte Panel rausfliegen würde. Meiner Meinung nach ist es um Längen besser als die neue Variante, und ein großer Vorteil der Nvidia Grafikkarten.

mfg.

Sonyfreak

Gast
2006-10-23, 18:00:32
Gab es schon öfter. Allerdings würde ich mich wundern wenn das alles wirklich bei 90nm abgeht.

wieso, von NV30 auf NV40 ist man auch von ~120Mio. auf 225Mio gegangen, und beim 130nm-prozess geblieben.

Anarchy-HWLUXX
2006-10-23, 18:31:30
Da ist bei Asus was ausgelaufen ;)



Quelle : http://www.beyond3d.com/forum/showthread.php?t=33576&page=66



Orginal : http://bbs.mychat.to/read.php?tid=578438



http://img321.imageshack.us/img321/7884/462226658pj4.jpg

http://img162.imageshack.us/img162/2100/462226656sw4.jpg

http://img162.imageshack.us/img162/6425/462226655pw0.jpg

http://img321.imageshack.us/img321/1889/462226657uf4.jpg

EN8800GTX/HTDP/768M , is: USD $540 (FOB).
EN8800GTS/HTDP/640M , is: USD $410 (FOB).

ASUS Exclusive Innovations

HDCP Compliant: Allow playback of HD DVD, Blu-Ray Disc and other protected content at full HDresolutions
Built for Microsoft Windows Vista
ASUS Splendid: Watching movies on PC is as good as on Top-of-the-line consumer television
ASUS Video Security Online: Keep an eye on your home at all times no matter where you are
ASUS Game LiveShow: Stream live gaming action onto the internet and share with other gaming enthusiast
ASUS Game Replay: Recording gaming action and strategy into MPEG4 files to share with other gaming enthusiast
ASUS Game FaceMessenger: Easy IM and live game conference in any PC games
ASUS OnScreenDisplay: Adjust the fame settings and enhance gaming experience without leaving the game


Graphics GPU Feature

�� NVIDIA GeForce 8800GTX
�� Built for Microsoft Windows Vista�� NVIDIA SLI Technology ready
�� NVIDIA unified architecture with GigaThread technology
�� Full support for Microsoft DirectX10.0 and ShaderModel 4.0 enables stunning and complex specialeffects
�� OpenGL2.0 support
�� NVIDIA Quantum Effects Technology
�� True 128-bit floating point high dynamic-range (HDR) lighting
�� Two dual-link DVI outputs support two 2560x1600 resolution displays


Hardware Specification

Model             EN8800GTX/HTDP/768M
Graphics Engine             GeForce 8800GTX
Video Memory             768MB DDR3
Engine Clock              575MHz
Memory Clock              1.8GHz (900MHz DDR3)
Memory Interface            384-bit
Max. Resolution             Up to 2560 x 1600
Bus Standard              PCI Express X16
VGA Output              YES, via DVI to VGA Adapter
HDTV Output              YES, via HDTV Out cable
TV Output               YES, via S-Video to Composite
DVI Output               DVI-I
Dual DVI Output             YES
HDCP Compliant             YES

Adaptor/Cable Bundled   DVI to VGA adapter
                      Power Cable*2
                     HDTV-out cable

Software Bundled     3D Game: Ghost Recon, GTI Racing
                      3Dmark06
                     ASUS Utilities & Driver

[圖三]
Specifications are subject to change without notice.
•PCB color and bundled software versions are change without notice.
•Brand and product names mentioned are trademarks of their respective company.
�� Note: Two 6-pins supplementary power connectors inside the box

Godmode
2006-10-23, 18:44:20
[QUOTE=Anarchy-HOCP]Da ist bei Asus was ausgelaufen ;)
QUOTE]

Ziemilch günstig, und die Daten sind wohl nun bestätigt. Schaden das keine Transenzahlen drinnstehen.

AnarchX
2006-10-23, 18:46:21
Die Kühlung sieht jedenfalls wieder mal sehr gelungen aus und wird wohl auch wie PC WELT berichtet leise arbeiten. :up:

Dann noch die Dollar-Preis...:|

Blackpitty
2006-10-23, 18:47:03
was meint ihr, kostet die dann ca. in €? GTX

Anarchy-HWLUXX
2006-10-23, 18:48:26
was meint ihr, kostet die dann ca. in €? GTX

mach aus dem $ ein € und du bist nah dran ... wenn das jetzt die endkunden Preise sein sollen ...

Gast
2006-10-23, 18:48:31
Also die Packung ist um einiges kleiner als die der 7800GTX, das war ne Schultüte ;)

Der Lüfter sieht gut aus, fragt sich nur ob die Lüftersteuerung auch funktioniert. Die Lüfter der 7900GT sahen ja auch gut aus, und dann haben fast alle Quirls vollgaß gegeben (kann man aber bei fast allen Karten per Bios Update vom Hersteller aktivieren).

Gast
2006-10-23, 18:53:58
EN8800GTX/HTDP/768M , is: USD $540 (FOB).
EN8800GTS/HTDP/640M , is: USD $410 (FOB).

http://de.wikipedia.org/wiki/FOB

Zitat:
"im Handel: FOB ("Free On Board") besagt, dass die Transport-, Versicherungs- und Verladekosten bis zur Verladung der Ware auf das Schiff (Flugzeug/LKW) im Warenpreis eingeschlossen sind."

AnarchX
2006-10-23, 18:55:20
Die Lüfter der 7900GT sahen ja auch gut aus, und dann haben fast alle Quirls vollgaß gegeben.
Imo kann ich diese Meinung nicht teilen, die 7900GT hatte augensichtlich einen Miniquirl bei welchem man eine gewisse Lautstärke assoziert.

Aber bei der 8800GTX sollte man beachten das es sich hier um das Top-HighEnd-Modell handelt und da hat man seit der 7800GTX stets eine leise Kühlung geboten und somit einen Ruf, den man nicht verlieren will.

Gast
2006-10-23, 18:59:38
Da geb ich dir Recht Anarch-X.
Ich hatte ne Asus 7800GTX und die war relativ leise und hat nicht gestört. Meine Colorful 7900GT512 hingegen mit dem Standartlüfter war laut kann man sagen, ich hab nen Asus A8N-SLI, ich weiß was laut ist *g (Der Onboard Lüfter kreischt, auch der nachbestellte leisere).

Was aber auf den Physikteil im G80 (oder nur per Treiber angepatscht) hinweist, ist das Ghost Recon dem Packet ja groß beiliegt.
Mit das erste Spiel das ja mit erweiterten Physikeffekten ausgestattet wurde um den Ageia Chip zu nutzen.

gguru
2006-10-23, 19:01:10
EN8800GTX/HTDP/768M , is: USD $540 (FOB).
EN8800GTS/HTDP/640M , is: USD $410 (FOB).

http://de.wikipedia.org/wiki/FOB

Zitat:
"im Handel: FOB ("Free On Board") besagt, dass die Transport-, Versicherungs- und Verladekosten bis zur Verladung der Ware auf das Schiff (Flugzeug/LKW) im Warenpreis eingeschlossen sind."

Heißt das jetzt, um soviel (-> €) werde ich sie kaufen können? Oder ist da der Wert, den Endkundenhändler noch dazuzählen, nicht mit einberechnet?

Sry mich verwirrt diese FOB Sache. :redface:

AnarchX
2006-10-23, 19:01:25
Was aber auf den Physikteil im G80 (oder nur per Treiber angepatscht) hinweist, ist das Ghost Recon dem Packet ja groß beiliegt.
Mit das erste Spiel das ja mit erweiterten Physikeffekten ausgestattet wurde um den Ageia Chip zu nutzen.

Ich bezweifele doch sehr das Quantum die PhysX-Engine beschleunigen wird.:|

Gast
2006-10-23, 19:03:58
Ich gehe mal davon aus das wir sie für 549-599€ bekommen werden können. Shipment aus Asien hier her + Zoll kommt auf den FOB ja drauf.
Zumal Asus eher zu den teueren Marken gehört.

Wenn schon das Marketing Material ausrutscht, wirds nicht lange dauern bis bei den Großhändlern die Preise eintrudeln ,)

AnarchX
2006-10-23, 19:06:17
Die Preise sehen zwar aktuell toll aus, aber wenn wie spekuliert die Verfügbarkeit schlecht ist, dann werden sie ganz schnell unschöne Regionen erreichen.:wink:

Gast
2006-10-23, 19:10:21
Wenn die Verfügbarkeit so schlecht wäre, würde man die Preise höher ansetzen.

Gast
2006-10-23, 19:11:26
Naja, bei der 7800GTX gabs ja auch nur eine fuhre für Europa (eine war teils defekt, da gabs per Flieger ohne Aufpreis ne Neulieferung) und dann 2-3 Wochen nichts, wenn man früh vorbestellt und nicht gerade im Engpass sein Geld verschleudern...
Ein wenig Hirn beim Einkaufen sollte einem nen extra Preis ersparen.

Hvoralek
2006-10-23, 19:12:25
Ich gehe mal davon aus das wir sie für 549-599€ bekommen werden können. Shipment aus Asien hier her + Zoll kommt auf den FOB ja drauf.
Zumal Asus eher zu den teueren Marken gehört.Zoll und Steuern dürften etwa 20% sein und der Transport wird kaum ins Gewicht fallen. Dh nach aktuellem Umrechnungskurs etwa 520€ + Marge. Für so einen Chip und so ein PCB fast schon günstig :|

gguru
2006-10-23, 19:19:31
Die Länge scheint auch mit den früheren Daten übereinzustimmen (260mm). Ein PCIe Slot ist 90mm lang.

AnarchX
2006-10-23, 19:21:03
[...]and NVIDIA too will roll out its 80nm chip in November, with TSMC also being the contact supplier.[...]
http://www.vr-zone.com/index.php?i=4195
:uponder:

Gast
2006-10-23, 19:45:51
http://www.vr-zone.com/index.php?i=4195
:uponder:

:eek: Kommt außer dem G80 und der nForce 600 Serie nochwas?
Vieleicht nur n vertipper.

p.s.: Die Geforce Go7700 soll doch der erste 80mn sein.

AnarchX
2006-10-23, 19:54:39
:eek: Kommt außer dem G80 und der nForce 600 Serie nochwas?
Vieleicht nur n vertipper.

p.s.: Die Geforce Go7700 soll doch der erste 80mn sein.

Könnte natürlich auch nur der G73-B1 gemeint sein, aber wer weiss...:wink:

btw.
Schon bemerkt das die Bilder von ASUS zwei verschiedene Karten zeigen(siehe Fan-Connector, Lüftereinlässe)?
Die obere, halbschräge scheint wohl die 8800GTS zu sein.

The_Invisible
2006-10-23, 19:59:16
btw.
Schon bemerkt das die Bilder von ASUS zwei verschiedene Karten zeigen(siehe Fan-Connector)?
Die obere, halbschräge scheint wohl die 8800GTS zu sein.

ja, die sieht auch kürzer aus, scheinen dann beide den gleichen lüfter zu haben

mfg

AnarchX
2006-10-23, 20:02:37
Ja, der Lüfter scheint gleich zu sein, nur die GTX hat einen etwas mächtigeren Kühlkörper.

Gast
2006-10-23, 20:05:44
Hat nen Lüftungsschlitz mehr, aber sieht irgendwie Ei förmig aus der Lüfter bei der Draufsicht. Vieleicht auch nur schlecht im Photoshop bearbeitet ^^

reunion
2006-10-23, 20:15:19
Da ich nicht die Zeit habe, mich durch die Tausenden, in der Zwischenzeit geposteten Beiträge zu wühlen: Wie sicher sind diese von DK777 im ersten Beitrag angegebenen Specs? Vorallem die US erscheinen mir nach früheren Aussagen führender nV-Mitarbeiter alles andere als wahrscheinlich. Oder könnte es sich hierbei nur um einen "Marketingbegriff" für die Zusammenlegung von VS und GS handeln?

AnarchX
2006-10-23, 20:17:43
Wie sicher sind diese von DK777 im ersten Beitrag angegebenen Specs? Vorallem die US erscheinen mir nach früheren Aussagen führender nV-Mitarbeiter alles andere als wahrscheinlich.
Naja, ASUS bestätigt sie doch mit ihrer Produktbeschreibung.
Zu U.S.A. :
AFAIK hatte man doch nur gesagt, dass man sie zum richtigen Zeitpunkt bringen wird, was wohl nun in NVs Augen doch schon 2006 ist.
Oder gab es da noch andere Aussagen?

ShadowXX
2006-10-23, 20:46:33
Da ich nicht die Zeit habe, mich durch die Tausenden, in der Zwischenzeit geposteten Beiträge zu wühlen: Wie sicher sind diese von DK777 im ersten Beitrag angegebenen Specs? Vorallem die US erscheinen mir nach früheren Aussagen führender nV-Mitarbeiter alles andere als wahrscheinlich. Oder könnte es sich hierbei nur um einen "Marketingbegriff" für die Zusammenlegung von VS und GS handeln?
Lies mal das: http://www.beyond3d.com/forum/showpost.php?p=858135&postcount=1626
und das:
http://www.beyond3d.com/forum/showpost.php?p=854431&postcount=1434.

Danach ist der G80 doch etwas "anders" als wir früher gedacht haben....und scheinbar noch wesentlich freier Programmierbar als der r600 (= auch ROPs/TMUs sollen frei Programmierbar und eigene Threads sein).

Demirug
2006-10-23, 20:50:31
Jawed spekuliert wild rum.

ShadowXX
2006-10-23, 20:53:55
Jawed spekuliert wild rum.
Das ist mir durchaus bewusst....aber zumindest PS/VS/GS scheinen auch bei nV unfied zu sein.

Gast
2006-10-23, 21:33:12
Da ich nicht die Zeit habe, mich durch die Tausenden, in der Zwischenzeit geposteten Beiträge zu wühlen: Wie sicher sind diese von DK777 im ersten Beitrag angegebenen Specs? Vorallem die US erscheinen mir nach früheren Aussagen führender nV-Mitarbeiter alles andere als wahrscheinlich. Oder könnte es sich hierbei nur um einen "Marketingbegriff" für die Zusammenlegung von VS und GS handeln?

zumindest US, das 384bit(900MHz-DDR) SI mit 768MB und 575MHz chiptakt dürften recht sicher sein. (für die 8800GTX)

was es mit den angeblichen 128 "streamprozessoren" die angeblich mit 1xxxMHz getaktet sind auf sich hat ist allerdings noch ziemlich unklar.

reunion
2006-10-23, 21:38:24
Naja, ASUS bestätigt sie doch mit ihrer Produktbeschreibung.


Achso, deshalb sind hier alle so überzeugt davon - gibt es dafür auch noch andere Gründe? "Unified" ist in der IT-Welt ja mittlerweile fast schon ein Synonym für Fortschritt geworden. Auf so ein Marketingpickerl von ASUS würde ich nicht unbedingt mein letztes Hemd wetten, zumal damit ja durchaus die Vereinheitlichung von Vertex- und Geometrieshader gemeint sein könnte.


Zu U.S.A. :
AFAIK hatte man doch nur gesagt, dass man sie zum richtigen Zeitpunkt bringen wird, was wohl nun in NVs Augen doch schon 2006 ist.
Oder gab es da noch andere Aussagen?

Ich kann mich jetzt auch an keine wortgetreuen Aussagen mehr erinnern, allerdings gab es dutzende Interviews mit führenden nV-Mitarbeitern - und stets hörte man im Bezug auf G80 und vereinheitlichte Shadereinheiten einen äußerst abwartenden und zurückhaltenden Ton.

deekey777
2006-10-23, 21:41:23
Da ich nicht die Zeit habe, mich durch die Tausenden, in der Zwischenzeit geposteten Beiträge zu wühlen: Wie sicher sind diese von DK777 im ersten Beitrag angegebenen Specs? Vorallem die US erscheinen mir nach früheren Aussagen führender nV-Mitarbeiter alles andere als wahrscheinlich. Oder könnte es sich hierbei nur um einen "Marketingbegriff" für die Zusammenlegung von VS und GS handeln?
Wenn ich einige Äußerungen mancher Leute richtig verstanden habe, versucht nVidia alle zu verwirren und das von Anfang an.

reunion
2006-10-23, 21:44:33
Lies mal das: http://www.beyond3d.com/forum/showpost.php?p=858135&postcount=1626
und das:
http://www.beyond3d.com/forum/showpost.php?p=854431&postcount=1434.


Interessante Spekulationen.


Danach ist der G80 doch etwas "anders" als wir früher gedacht haben....und scheinbar noch wesentlich freier Programmierbar als der r600 (= auch ROPs/TMUs sollen frei Programmierbar und eigene Threads sein).

Darüber gab es ja auch schon früher Gerüchte aufgrund einiger vielversprechender Patentanmeldungen seitens nV, allerdings ging man bisher davon aus, dass es sich hierbei um den G90 handeln würde. Wenn sich das mit G80 wirklich bestätigen sollte, dann hat uns nV jedenfalls alle geleimt.

Gast
2006-10-23, 22:02:17
Ich kann mich jetzt auch an keine wortgetreuen Aussagen mehr erinnern, allerdings gab es dutzende Interviews mit führenden nV-Mitarbeitern - und stets hörte man im Bezug auf G80 und vereinheitlichte Shadereinheiten einen äußerst abwartenden und zurückhaltenden Ton.

man hat immer nur gesagt, dass man eine unified-architektur einsetzen wird wenn die zeit reif ist, es wurde nie gesagt wann das ist ;)

insofern eine neutrale aussage, die weder dafür noch dagegen spricht beim G80 bereits auf ein unified design zu setzen.

Ailuros
2006-10-23, 22:18:32
Wegen des Color-tilecaches, in den alle Samples einfließen, diese gemischt werden und erst dann in den FB geschrieben werden. Und natürlich weil kein Z-Traffic auf den FB anfällt. Aber was hat das mit dem G80 zu tun? IMO sehr wenig.

*gaehn*

http://www.beyond3d.com/forum/showpost.php?p=112820&postcount=142

Zwar nicht unbedingt relevant aber es sollte auch helfen was mehrere Moeglichkeiten betrifft:

http://patft.uspto.gov/netacgi/nph-Parser?u=%2Fnetahtml%2Fsrchnum.htm&Sect1=PTO1&Sect2=HITOFF&p=1&r=1&l=50&f=G&d=PALL&s1=6697063.PN.&OS=PN/6697063&RS=PN/6697063

Ailuros
2006-10-23, 22:20:42
Darüber gab es ja auch schon früher Gerüchte aufgrund einiger vielversprechender Patentanmeldungen seitens nV, allerdings ging man bisher davon aus, dass es sich hierbei um den G90 handeln würde. Wenn sich das mit G80 wirklich bestätigen sollte, dann hat uns nV jedenfalls alle geleimt.

ROFL :D Welcome to the party.

Godmode
2006-10-23, 22:51:16
ROFL :D Welcome to the party.

Im Bezug auf die FUD Kampange von Nvidia oder G90?

(+44)
2006-10-23, 22:57:12
Argh... bei den Preisen komm ich langsam in Versuchung, die 7900GTX zu verticken und auf den G80 zu warten...
Auch wenns unvernünftig ist... :/

Okay, günstig sind sie nich, aber wenn ich nur 200€ drauflegen müsste...

DrumDub
2006-10-23, 22:58:15
EN8800GTX/HTDP/768M , is: USD $540 (FOB).
EN8800GTS/HTDP/640M , is: USD $410 (FOB).

http://de.wikipedia.org/wiki/FOB

Zitat:
"im Handel: FOB ("Free On Board") besagt, dass die Transport-, Versicherungs- und Verladekosten bis zur Verladung der Ware auf das Schiff (Flugzeug/LKW) im Warenpreis eingeschlossen sind." 16% mwst. nicht vergessen...

Ailuros
2006-10-23, 22:59:58
Im Bezug auf die FUD Kampange von Nvidia oder G90?

NV's bombastische Irrefuehrung.

Gast
2006-10-23, 23:14:20
Allerdings ist mir der Sinn dieser "Verwirrungsaktion" nicht ganz klar. Hätten doch auch gleich sagen können daß G80 mit U.S.A. kommt?
Komisch auch das bis vor kurzem gar nix durchgesickert ist. Da haben wirklich mal alle dicht gehalten. :)

deekey777
2006-10-23, 23:44:15
Zu den Shots der 8800GTX/GTS: Nehmen wir an, sie sind echt - warum GR:AW?
Theorie: GR:AW darum bzw. gerade darum, weil erst mit der 8800 AA mit diesem Spiel möglich sein wird (aber nur mit einer angepassten Version?)?

dargo
2006-10-23, 23:52:32
Theorie: GR:AW darum bzw. gerade darum, weil erst mit der 8800 AA mit diesem Spiel möglich sein wird (aber nur mit einer angepassten Version?)?
GRAW hat schon lange AA mit dem gelieferten Patch abbekommen, auch wenn es beschissen aussieht. Es ist eher ein "Weichzeichner" und kein AA. Man sieht das Aliasing immer noch deutlich.

Nightspider
2006-10-24, 01:07:48
GRAW hat schon lange AA mit dem gelieferten Patch abbekommen, auch wenn es beschissen aussieht. Es ist eher ein "Weichzeichner" und kein AA. Man sieht das Aliasing immer noch deutlich.

Na siehst du, dann ist es gut möglich das doch noch richtiges AA rein kommt.

Wenn ich mich richtig erinnere, waren die Texturen der XBox360-GRAD-Version noch schärfer. Vielleicht verbessern sie auch das, da GRAW so schon 512 MB gebraucht hat, um "High" darzustellen. :tongue: :rolleyes:
(Auch wenn die Wahrscheinlichkeit so groß ist, wie etwas im Lotto zu gewinnen)

Achja: Zudem wird das Spiel ja nur von ASUS gebundelt...muss also nichts bedeuten. Kann genausogut Diablo2 drin sein. ;D

PrefoX
2006-10-24, 01:40:24
GRAW hat schon lange AA mit dem gelieferten Patch abbekommen, auch wenn es beschissen aussieht. Es ist eher ein "Weichzeichner" und kein AA. Man sieht das Aliasing immer noch deutlich.ein widerspruch in sich ;D

INDEX75
2006-10-24, 02:35:27
16% mwst. nicht vergessen...Wenn, dann wohl schon 19% ;)

Die 3%ige Erhöhung wird dann schon im Preis inbegriffen sein um einer späteren Erhöhung des Preises aus dem Weg zu gehen - das es der Kunde nicht merkt. (falls die Karten noch 2006 kommen sollten)

MfG
i75

(+44)
2006-10-24, 05:11:22
Naja, wegen 3% erhöht niemand den Preis - das wäre zu auffällig..

Mal angenommen aus 499€ werden 515€... Das liest sich einfach nicht gut.
Da kalkulieren die Hersteller die 3% eben so ein, dass sie bei der nächsten Preisrunde mit aufgeschlagen werden.
Falls die denn kommt - denn viel mehr als 499$ hat nVidia selten für das aktuelle Topmodell verlangt - Schnellschüsse wie die 7800GTX/512 mal ausgenommen.

Moralelastix
2006-10-24, 06:24:27
Und was ist mit der Wakü?

Kommt die noch?

http://www.headlinerkaps.com/0000/ForumPics/G80_pics/compare_cooler_01.jpg

BTW diese "Wakü" scheint von den Bildern her sehr billig zu sein. Nur eine sehr kleine Fläche steht für den Wärmeaustausch mit der Kühlplatte des GPU Kühlers zu Verfügung(scheinbar nur der Kurze Rohrbogen 4-5 cm?).
Aber wenns zum gleichen Preis kommt (Nem geschenkten Gaul schaut ........*lol*)


Edit:
Nvidia CEO in Taiwan to secure TSMC capacity for DirectX 10-compliant GeForce 8800
http://digitimes.com/mobos/a20061024A1001.html

X.Perry_Mental
2006-10-24, 08:55:29
Edit:
Nvidia CEO in Taiwan to secure TSMC capacity for DirectX 10-compliant GeForce 8800
http://digitimes.com/mobos/a20061024A1001.html
DAS klingt jetzt aber wirklich so, als ob man den G80 gleich in 80nm fertigt. Bisher dachte ich eigentlich immer, dass es noch ein 90nm-Chip würde, und erst die Midrange-Karten bzw. der G80-Refresh in 80nm gefertigt würden - was einerseits Sinn macht, da man einen neuen Prozess ungern mit einem Transistor-Monster einführt. Andererseits erscheinen die geschätzten 600-700M Transistoren des G80 mit den vermuteten Leistungswerten geradezu nach 80nm zu schreien.

robbitop@work
2006-10-24, 09:33:23
Jawed spekuliert wild rum.
Und dabei ist ihm anscheinend nichtmal bewußt, wie teuer ein bilineares Sample sein kann, wenn es über die ALUs gemacht werden soll...

Gast
2006-10-24, 09:54:11
Allerdings ist mir der Sinn dieser "Verwirrungsaktion" nicht ganz klar.
Du erzählst jedem was Anderes. Und je nachdem was öffentlich wird, weisst du wer nicht dichtgehalten hat.


MfG
Die pfiese Priesterin

Gast
2006-10-24, 10:02:38
Allerdings ist mir der Sinn dieser "Verwirrungsaktion" nicht ganz klar. Hätten doch auch gleich sagen können daß G80 mit U.S.A. kommt?
Komisch auch das bis vor kurzem gar nix durchgesickert ist. Da haben wirklich mal alle dicht gehalten. :)

Dann hätte Ati nicht das Marketing für Nv übernommen. :)

Gast
2006-10-24, 10:03:55
Ok habe eine Theorie:
Wenn Z3 AA verwendet werden sollte, könnte man massiv Bandbreite und Speicherplatz sparen.
Gespeichert werden ja nur 3 Farbwerte von max 3 Dreiecken pro Pixel. Das reicht in den allermeisten Fällen aus. Nun kann man damit eine sehr hohe Sampleanzahl nutzen. Von den angenommenen 16 Samples haben alle mit einer sehr hohen Wahrscheinlichkeit (solange max 3 Tris pro Pixel) alle den Farbwert von einem der Dreiecke. Die Werte können dann beliebig in einen Fagmentbuffer geschrieben werden.
Wenn der Platz im Fragment Buffer für weitere Samples nicht mehr ausreicht, werden zwei 'sich nahestende' alte Fragmente verschmolzen, um wieder Platz zu schaffen.

Gute Theorie, aber Z3 ist von Compaq vermutlich patentiert (zumindest von einem Compaq-Mitarbeiter miterfunden worden). Insofern werden sie sicher was machen, was ihnen die Lizenzgebühren erspart.


Q

seahawk
2006-10-24, 10:24:34
Also die GTS sieht verführerisch aus. Akzeptabele Baulänge und sicher immer noch genung Leistung. Ich frage mich nur wen NV alles erfolgreich veräppelt hat.

Ailuros
2006-10-24, 10:32:16
Gute Theorie, aber Z3 ist von Compaq vermutlich patentiert (zumindest von einem Compaq-Mitarbeiter miterfunden worden). Insofern werden sie sicher was machen, was ihnen die Lizenzgebühren erspart.


Q

Wo wurde der Erfinder vor Jahren genau eingestellt?

Gast
2006-10-24, 10:44:57
http://www.nvidia.com/content/event_registration/2006/reality_redefined_general/reality_redefined_bg.jpg

Sieht nett aus

robbitop@work
2006-10-24, 10:52:42
Wo wurde der Erfinder vor Jahren genau eingestellt?
Die Lizenz bleibt aber immer AFAIK bei der Firma und nicht beim Erfinder. Allerdings kann man Patente umgehen, in dem man den Algoritmus etwas abändert.

Soweit wie ich das Verfahren verstanden habe, sind zwei Pässe nötig, um das zu realisieren (ähnlich wie bei einem TBDR). Erst muss die Geometrie sortiert werden. Sonst funktioniert das mit dem Fragmentbuffer nicht.
Wenn man die GPU darauf auslegt, kann das sehr gut sein (auch für den Overdraw) ... jedoch sind die Texturwechsel sehr hässlich (mit speziellen Texturcaches und Algoritmen läßt sich das jedoch sicher etwas abfangen). Das wäre ein großer Schritt weg vom IMR Prinzip.
Oder habe ich das Verfahren gänzlich falsch verstanden?

Gast
2006-10-24, 11:07:02
Also die GTS sieht verführerisch aus. Akzeptabele Baulänge und sicher immer noch genung Leistung. Ich frage mich nur wen NV alles erfolgreich veräppelt hat.

Genug Leistung steht IMO noch gar nicht fest. Wieviel Rechenleistung hat ein R580 noch gleich? Und das bitte auf die angebliche ALU-Sorte eines 8800GTS umgerechnet.

Ich glaube, das wird knapper, als manche denken.


Q

MikBach
2006-10-24, 11:51:34
Habe ich das richtig gelesen?

150 bis 170 Watt? :mad:

Der R600 wird doch wahrscheinlich auch so um den Dreh liegen.

Tolle Entwicklung!
Echt zum kotzen. :frown:

Gruß M_B

Gast
2006-10-24, 12:10:02
Habe ich das richtig gelesen?

150 bis 170 Watt? :mad:

Der R600 wird doch wahrscheinlich auch so um den Dreh liegen.

Tolle Entwicklung!
Echt zum kotzen. :frown:

Gruß M_BWas regst du dich auf? Wenn die 8800GTX doppelt so schnell ist wie eine 7900GTX und dabei 150-170 Watt braucht, sind die Werte nicht schlecht.

dargo
2006-10-24, 12:34:17
Was regst du dich auf? Wenn die 8800GTX doppelt so schnell ist wie eine 7900GTX und dabei 150-170 Watt braucht, sind die Werte nicht schlecht.Und wenn eine zukünftige G9900GTX doppelt so schnell ist wie eine G8800GTX und 300-340W braucht , und wenn eine G10100GTX doppelt so schnell ist wie eine G9900GTX und dann 600-680W braucht ist es auch ok?
Denke mal drüber nach.

MikBach
2006-10-24, 12:38:40
Was regst du dich auf? Wenn die 8800GTX doppelt so schnell ist wie eine 7900GTX und dabei 150-170 Watt braucht, sind die Werte nicht schlecht.
Ein A64 ist schneller als ein Athlon XP, verbraucht aber weniger Leistung...

So eine Entwicklung würde ich mir wünschen, auch wenn es mir bewusst ist, dass dies bei GPUs nicht so einfach ist. ;)

Gruß M_B

Gast
2006-10-24, 12:42:00
Und wenn eine zukünftige G9900GTX doppelt so schnell ist wie eine G8800GTX und 300-340W braucht , und wenn eine G10100GTX doppelt so schnell ist wie eine G9900GTX und dann 600-680W braucht ist es auch ok?
Denke mal drüber nach.

Denk du mal auch etwas nach.
Falls die 8800GTX noch mit 90nm gefertigt wird sind die Werte echt OK.
Die nächsten Chips werden ja 65nm und kleiner werden.

robbitop@work
2006-10-24, 12:43:39
Und wenn eine zukünftige G9900GTX doppelt so schnell ist wie eine G8800GTX und 300-340W braucht , und wenn eine G10100GTX doppelt so schnell ist wie eine G9900GTX und dann 600-680W braucht ist es auch ok?
Denke mal drüber nach.
Bei gleichem Fertigungsprozess ist es durchaus normal, dass die Leistungsaufnahme mit der Anzahl der Logikschaltungen skalliert.
Wer weniger Leistungsaufnahme wünscht, der kann ein Midrangeprodukt mit weniger/gleicher Leistungsaufnahme kaufen wie das vorherige HighEnd Produkt. Oder aber man wartet auf den Refresh, der dank Shrink weniger Leistung aufnimmt. NV/ATI können nicht zaubern. Wenn sie es könnten, würden sie die Leistungsaufnahme senken. Transistoren kosten Leistungsaufnahme. Punkt.
Features und Leistung kosten eben jene Transistoren.


Ein A64 ist schneller als ein Athlon XP, verbraucht aber weniger Leistung...
Ein schöner Apfel-Birnenvergleich. Der K8 verfügt über ein LowK Dielektrikum und SOI.
Andere/neuere Fertigungsprozesse bringen immer eine Besserung.

MikBach
2006-10-24, 12:48:13
Ein schöner Apfel-Birnenvergleich. Der K8 verfügt über ein LowK Dielektrikum und SOI.
Andere/neuere Fertigungsprozesse bringen immer eine Besserung.
Ob dieser Vergleich dir gefällt, juckt mich ehrlich gesagt ziemlich wenig.

Vielleich besser P4 und CoreDuo...;)

Es geht mir einfach nur um die Enwicklung/Trend, welcher mir überhaupt nicht passt.

Gruß M_B

Gast
2006-10-24, 12:49:35
Habe ich das richtig gelesen?

150 bis 170 Watt? :mad:

Der R600 wird doch wahrscheinlich auch so um den Dreh liegen.

Tolle Entwicklung!
Echt zum kotzen. :frown:

Gruß M_B

Wer zwingt dich, High-End zu kaufen? Kleinere Versionen der G80-Architektur kommen bestimmt auch mit weniger elektrischer Leistungsaufnahme aus.

"Porsche verbraucht > 20 Liter bei Vollgas? Kotzen könnt'sch."


Q

ShadowXX
2006-10-24, 12:58:34
Genug Leistung steht IMO noch gar nicht fest. Wieviel Rechenleistung hat ein R580 noch gleich? Und das bitte auf die angebliche ALU-Sorte eines 8800GTS umgerechnet.

Ich glaube, das wird knapper, als manche denken.

Q
Falls die durchgesickerten Benchmarks auch stimmen sollten (wie fast alles, was bisher durchgesickert ist), glaube ich nicht, das die ALUs des G80 wirklich so simpel sind.

Aber in ein paar Tagen sind wir (etwas) schlauer. Ich bin mal gespannt in wie weit sich nV in die Transistoren gucken lassen wird nach dem Launch, oder ob alles nur in marketingtauglichen Begriffen ersoffen wird.
Ich schätze das wir auch noch ein halbes Jahr nach dem Launch noch am spekulieren sein werden, wie nV denn alles im Detail gelöst hat.

@Robbitop:
Jawed hatte bei seiner Kalkulation durchaus die benötigte Rechenleistung fürs Texturfiltering berücksichtigt (guck mal auf die Folie).....das das ganze etwas zu futuristisch/spekulativ ist, ist mir allerdings durchaus bewussst.

robbitop@work
2006-10-24, 13:05:11
Ob dieser Vergleich dir gefällt, juckt mich ehrlich gesagt ziemlich wenig.


Unabhängig davon ob er mir gefällt, er hinkt.


Vielleich besser P4 und CoreDuo...;)

Der P4 ist ein komplexes und ineffizientes Design. Das wissen wir alle.
Bei GPUs verhällt sich das allerdings ganz anders, da eine viel höhere Auslastung aller Ausführungseinheiten parallel gegeben ist.
Bei gleichem Fertigungsprozess: Leistung/Features -> Leistungsaufnahme
Das wird sich auch kaum ändern.
Hätte man den IHVs ein niedrigeres "Leistungsaufnahme-budget" zur Verfügung gestellt, wäre die Endleistung auch geringer.

wie gesagt: Abhilfe schaffen lediglich Shrinks oder auch Produkte mit kleinerer Transistormenge (Midrange)


Es geht mir einfach nur um die Enwicklung/Trend, welcher mir überhaupt nicht passt.
Die passt wenigen. Jedoch kosten mehr Features immer mehr Transistoren als vorher. Das verhällt sich nicht linear. Und zusätzlich wollen wir auch alle eine Leistungsverdoppelung. Um beides abzudecken, steigt die Leistungsaufnahme.
Und da der Transistoraufwand anscheinend expotentiell zum Featureupgrade steigt, ist das nicht verhinderbar.

robbitop@work
2006-10-24, 13:07:02
@Robbitop:
Jawed hatte bei seiner Kalkulation durchaus die benötigte Rechenleistung fürs Texturfiltering berücksichtigt (guck mal auf die Folie).....das das ganze etwas zu futuristisch/spekulativ ist, ist mir allerdings durchaus bewussst.
Ich habe es mir angesehen und halte persönlich nicht viel davon. (Demirug anscheinen auch nicht)
Wie ich schoneinmal eine bilineare Interpolation vorgerechnet habe, kostet diese einfach sehr viele Takte. Eine Fixed Function Unit für das reine Filtern ist IMO in jedem Falle günstiger.

Gast
2006-10-24, 13:08:03
Falls die durchgesickerten Benchmarks auch stimmen sollten (wie fast alles, was bisher durchgesickert ist), glaube ich nicht, das die ALUs des G80 wirklich so simpel sind.
Was genau meinst du mit "so simpel"?


Q

Ailuros
2006-10-24, 13:11:04
Die Lizenz bleibt aber immer AFAIK bei der Firma und nicht beim Erfinder. Allerdings kann man Patente umgehen, in dem man den Algoritmus etwas abändert.

Z3 ist nutzlos fuer den PC, weil es eben zu viele Macken hat. Es reicht dass in 1% Grenzfaellen etwas nicht nach Wunsch laeuft und es streben sich die Haare der NV/ATI engineers.

Soweit wie ich das Verfahren verstanden habe, sind zwei Pässe nötig, um das zu realisieren (ähnlich wie bei einem TBDR). Erst muss die Geometrie sortiert werden. Sonst funktioniert das mit dem Fragmentbuffer nicht.
Wenn man die GPU darauf auslegt, kann das sehr gut sein (auch für den Overdraw) ... jedoch sind die Texturwechsel sehr hässlich (mit speziellen Texturcaches und Algoritmen läßt sich das jedoch sicher etwas abfangen). Das wäre ein großer Schritt weg vom IMR Prinzip.
Oder habe ich das Verfahren gänzlich falsch verstanden?

Ein heutiger IMR bearbeitet nicht stets alles so wie es reinfliesst; ausser ich nehme an dass bei early Z Faellen als Beispiel gar nichts verzoegert wird.

Was jetzt den genauen Algorithmus, dessen Implementierung in Einzelheiten betrifft muessen wir wohl noch ein Weilchen abwarten. Ich hab nur auf die Aehnlichkeiten im Prinzip zwischen TBDRs und coverage mask Algorithmen hingewiesen und natuerlich eine moegliche Erklaerung warum "nur" 768MB Speicher und 86+GB/s Bandbreite ausreichen koennten. Nebenbei weiss ja auch keiner momentan wieviel genau fuer caches bzw. on-chip Speicher verplempert wurde; es wuerde mich aber nicht wundern wenn es ziemlich viel sein sollte.

Gast
2006-10-24, 13:16:47
Ein heutiger IMR bearbeitet nicht stets alles so wie es reinfliesst; ausser ich nehme an dass bei early Z Faellen als Beispiel gar nichts verzoegert wird.

Im Prinzip tut er das. Sortiert wird die Geometrie jedenfalls nicht. Das ist auch einer der Gründe, warum EarlyZ/HirZ nicht soo viel bringen, wie ein TBDR.
Aber auch bei "zufälligen" Auftauchen der Geometrie gibt es genug zu "cullen".
Sobald nach dem ersten übermittelten Objekt ein zweites kommt, mit einem höheren Z-Wert als das erste, wird es nicht gerendert. Ist der Z-Wert hingegen kleiner, war das erste Objekt für den betrachteten Pixel nutzlos.

Ailuros
2006-10-24, 13:18:18
Falls die durchgesickerten Benchmarks auch stimmen sollten (wie fast alles, was bisher durchgesickert ist), glaube ich nicht, das die ALUs des G80 wirklich so simpel sind.

Aber in ein paar Tagen sind wir (etwas) schlauer. Ich bin mal gespannt in wie weit sich nV in die Transistoren gucken lassen wird nach dem Launch, oder ob alles nur in marketingtauglichen Begriffen ersoffen wird.
Ich schätze das wir auch noch ein halbes Jahr nach dem Launch noch am spekulieren sein werden, wie nV denn alles im Detail gelöst hat.

Bis her sind nur die "bescheidenen" Zahlen durchgesickert; es gibt weder AA/AF Vergleichszahlen (nun ja eine ziemlich nutzlose heh) noch gibt es die gewoenlichen "best case shader scenarios".

Persoenlich erwarte ich im Durchschnitt in etwa 2x die Leistung der vorigen Generation, wobei aber die effizientere AA/AF Algorithmen auch ihre Rolle mitspielen werden. Was anderes erwarte ich ehrlich gesagt von R600 auch nicht im Vergleich zu ihrem eigenen Vorgaenger. Es ist sowieso ueblich dass IHVs generell in etwa 2x die Leistung des Vorgaengers als Ziel haben, ergo folge ich eher dieser Logik als jeglichen Marketing-technischen Zahlen bzw. Benchmarks.

Und natuerlich kommt man auf dieses Niveau erst wenn die Treiber dann nach etlichen Monaten voll ausgereift sind; wobei jetzt noch der Kopfschmerz mit den Vista Treibern dazukommt, was die ganze Affaere weder einfacher noch schneller erscheinen laesst.

Ailuros
2006-10-24, 13:26:53
Im Prinzip tut er das. Sortiert wird die Geometrie jedenfalls nicht. Das ist auch einer der Gründe, warum EarlyZ/HirZ nicht soo viel bringen, wie ein TBDR.
Aber auch bei "zufälligen" Auftauchen der Geometrie gibt es genug zu "cullen".
Sobald nach dem ersten übermittelten Objekt ein zweites kommt, mit einem höheren Z-Wert als das erste, wird es nicht gerendert. Ist der Z-Wert hingegen kleiner, war das erste Objekt für den betrachteten Pixel nutzlos.

Wieso sortiert denn ein TBDR Geometrie?

MikBach
2006-10-24, 13:33:09
Wer zwingt dich, High-End zu kaufen? Kleinere Versionen der G80-Architektur kommen bestimmt auch mit weniger elektrischer Leistungsaufnahme aus.

"Porsche verbraucht > 20 Liter bei Vollgas? Kotzen könnt'sch."


Q
Da hast du dir aber ein blöden Vergleich ausgesucht.
Ein Porsche verbraucht heute deutlich weniger als noch vor 20 Jahren, hat dabei aber mehr Leistung.

Aber egal.

Für mich ist hier EoD. :)

Gruß M_B

The_Invisible
2006-10-24, 13:35:39
Ein A64 ist schneller als ein Athlon XP, verbraucht aber weniger Leistung...

So eine Entwicklung würde ich mir wünschen, auch wenn es mir bewusst ist, dass dies bei GPUs nicht so einfach ist. ;)

Gruß M_B

gabs ja eh mit 6800u zu 7900gt/gtx

einfach auf refreshes warten...

mfg

robbitop@work
2006-10-24, 13:37:47
Wieso sortiert denn ein TBDR Geometrie?
Vieleicht ist "sortieren" auch ein wenig übertrieben. Im Z-Pass "sammelt" er Geometrie und schreibt Z Werte. Am Ende dieses Passes sind Geometrie und Z Daten bekannt und werden nun in richtiger Reihenfolge (Front-to-Back), also sortiert, in die Pipeline geschoben. Nur so ist es möglich am Ende der Pipeline einen Tile-Color-Cache zu halten, in dem ggf auch MSAA stattfinden kann, ohne dass auf den FB zugegriffen werden muss (da ja die Geometrie bekannt ist).

ShadowXX
2006-10-24, 13:46:55
Was genau meinst du mit "so simpel"?

Q
Vielleicht hatte ich dich falsch verstanden, aber es hörte sich so an, als wenn du davon ausgingst das die einzelnen ALUs nicht sehr Leistunsgfähig sein werden und dies dann über "Masse" ausgeglichen wird.

Für so ein vorgehen, wären IMHO noch wesentlich mehr ALUs nötig.

Aber wie schon erwähnt....ich hoffe das wir am 8.11. alle etwas schlauer sein werden.

Gast
2006-10-24, 13:53:29
Vielleicht hatte ich dich falsch verstanden, aber es hörte sich so an, als wenn du davon ausgingst das die einzelnen ALUs nicht sehr Leistunsgfähig sein werden und dies dann über "Masse" ausgeglichen wird.

Für so ein vorgehen, wären IMHO noch wesentlich mehr ALUs nötig.

Theoretisch würden sie für eine Verdopplung der PS Leistung ausreichen.
128 ALUs * 2 FLOPs * 1350 MHz = 345 GFLOP/sek
Bei einer deutlichen Effizienzsteigerung durch die Nutzung jedes Kanales + Entkopplung dieser von den TMUs + Beseitigung des Tempregisterproblemes wären diese 345 GFLOPs/sek deutlich mehr wert, als sie klingen ggü vorherigen GPUs.

edit: ich bin der Gast (robbitop)

Gast
2006-10-24, 13:54:02
Vieleicht ist "sortieren" auch ein wenig übertrieben. Im Z-Pass "sammelt" er Geometrie und schreibt Z Werte. Am Ende dieses Passes sind Geometrie und Z Daten bekannt und werden nun in richtiger Reihenfolge (Front-to-Back), also sortiert, in die Pipeline geschoben. Nur so ist es möglich am Ende der Pipeline einen Tile-Color-Cache zu halten, in dem ggf auch MSAA stattfinden kann, ohne dass auf den FB zugegriffen werden muss (da ja die Geometrie bekannt ist).

Tut er nicht. Zumindest nicht ein PowerVR. Die machen Raycasting.

robbitop@work
2006-10-24, 13:56:48
Tut er nicht. Zumindest nicht ein PowerVR. Die machen Raycasting.
Was hat denn das damit zu tun?

Gast
2006-10-24, 13:59:47
Es wird nichts sortiert.

Ailuros
2006-10-24, 14:05:36
Das mit dem TBDR Zeug ist mal wieder zu weit OT. Robbi ein einfaches PM an Leute wie XMas, Simon oder andere wuerde helfen das Ganze etwas besser zu verstehen, als auf falsch interpretiertem Zeug zu bestehen.

ShadowXX
2006-10-24, 14:18:53
Theoretisch würden sie für eine Verdopplung der PS Leistung ausreichen.
128 ALUs * 2 FLOPs * 1350 MHz = 345 GFLOP/sek
Bei einer deutlichen Effizienzsteigerung durch die Nutzung jedes Kanales + Entkopplung dieser von den TMUs + Beseitigung des Tempregisterproblemes wären diese 345 GFLOPs/sek deutlich mehr wert, als sie klingen ggü vorherigen GPUs.

edit: ich bin der Gast (robbitop)
Ja, durchaus möglich.....da ich allerdings auch ein paar andere Zahlen über die GFlop-Leistung gehört habe warte ich erst mal lieber noch etwas ab.
Ich "esse" die 1350MHz für die ALUs auch noch nicht so ganz.

Ich glaube auch, das eine der interessantesten Sachen der tatsächlich verbaute Speicher im Chip sein wird.

Man wird sehen....es ist zwar momentan alles etwas klarer als noch vor einer Woche, aber momentan ist es IMO schwer zwischen Fake und Realität zu unterscheiden.....speziell da nV doch scheinbar sehr gekonnt und gezielt Fehlinformationen gestreut hat. Die Frage ist momentan also eher: Was ist wahr, was ist fake, was ist die Matrix und haben wir die blaue oder die rote Pille geschluckt.

Das Design sieht momentan sooooo anders als das der bisherigen Chips aus, das wir da wohl einen weile dran knabbern werden.

Gast
2006-10-24, 14:23:53
Ich "esse" die 1350MHz für die ALUs auch noch nicht so ganz.

Tja, dann sei mal gespannt ;)

Ich glaube auch, das eine der interessantesten Sachen der tatsächlich verbaute Speicher im Chip sein wird.

Da wird sich im wesentlichen nicht viel ändern ihmo. Ein IMR hat durch Latency-Hiding keinen Bedarf für große Caches.

eDRAM bringt ja C1 auch nur solange etwas wie der Framebuffer reinpasst. Automatisches Caching wäre gar nicht machbar.

robbitop@work
2006-10-24, 14:24:45
Ja, durchaus möglich.....da ich allerdings auch ein paar andere Zahlen über die GFlop-Leistung gehört habe warte ich erst mal lieber noch etwas ab.
Ich "esse" die 1350MHz für die ALUs auch noch nicht so ganz.
wurden die nicht bereits von PC-Welt bestätigt? Der Artikel ist wegen NDA Bruch anscheinend nun aus dem Netz genommen worden (404).

Die 1350 MHz ließen sich IMO durch 2 Möglichkeiten erreichen:
-custom Schaltungen (da wären 1350MHz für den ALU Pool kein Problem)
-ALUs, die eine Op in einem halben Takt schaffen und mit 675MHz getaktet sind.


Ich glaube auch, das eine der interessantesten Sachen der tatsächlich verbaute Speicher im Chip sein wird.
Der Fragmentbuffer? So groß wird der IMO nicht. Man muss ja nur einen kleinen Teil des Bildes in diesem halten, bevor er in den FB geschrieben wird. Das sind ein paar kiB. Eine Art Tile Cache gibt es ja schon seit Langem in GPUs.
[/QUOTE]

Gast
2006-10-24, 14:27:03
-ALUs, die eine Op in einem halben Takt schaffen und mit 675MHz getaktet sind.

Sowas gibts nicht. Bzw. sie wären dann wieder mit 1350 Mhz getaktet. Ohne Taktflanke kein schalten ;)

Eine Art Tile Cache gibt es ja schon seit Langem in GPUs.

Das wäre mir neu. Quelle?

ShadowXX
2006-10-24, 14:28:36
Tja, dann sei mal gespannt ;)

Na gut...dann glaub ich's mal....


Da wird sich im wesentlichen nicht viel ändern ihmo. Ein IMR hat durch Latency-Hiding keinen Bedarf für große Caches.

eDRAM bringt ja C1 auch nur solange etwas wie der Framebuffer reinpasst. Automatisches Caching wäre gar nicht machbar.
Es gibt da ein paar Andeutungen von AIL (bezogen auf AA).....die ich allerdings auch missverstanden haben kann.

AnarchX
2006-10-24, 14:29:29
wurden die nicht bereits von PC-Welt bestätigt? Der Artikel ist wegen NDA Bruch anscheinend nun aus dem Netz genommen worden (404).

Tatsache, also waren es wohl doch Fakten.=)

Superheld
2006-10-24, 14:31:34
Hier hat schon jemand eine:smile:
http://we.pcinlife.com/viewthread.php?tid=639516&extra=&page=1

Gast
2006-10-24, 14:31:45
Es gibt da ein paar Andeutungen von AIL (bezogen auf AA).....die ich allerdings auch missverstanden haben kann.

Bei einem IMR kann man einen Bildteil nicht auf dem Chip halten, weil man z.B. nie Vorraussagen kann ob diese Stelle später noch einmal überschrieben wird.

Ein Tilecache ist dort also reichlich nutzlos.

ShadowXX
2006-10-24, 14:32:03
Tatsache, also waren es wohl doch Fakten.=)
Die Frage ist eher: Stimmte alles oder nur Teile davon?
Selbst wenn nur Teile davon stimmten würde es nV vom Netz nehmen lassen....ich glaube sogar, das es nV vom Netz nehmen lassen würde, wenn alles falsch wäre.

ShadowXX
2006-10-24, 14:34:55
Bei einem IMR kann man einen Bildteil nicht auf dem Chip halten, weil man z.B. nie Vorraussagen kann ob diese Stelle später noch einmal überschrieben wird.

Ein Tilecache ist dort also reichlich nutzlos.

Ich meinte das hier:

Ein heutiger IMR bearbeitet nicht stets alles so wie es reinfliesst; ausser ich nehme an dass bei early Z Faellen als Beispiel gar nichts verzoegert wird.

Was jetzt den genauen Algorithmus, dessen Implementierung in Einzelheiten betrifft muessen wir wohl noch ein Weilchen abwarten. Ich hab nur auf die Aehnlichkeiten im Prinzip zwischen TBDRs und coverage mask Algorithmen hingewiesen und natuerlich eine moegliche Erklaerung warum "nur" 768MB Speicher und 86+GB/s Bandbreite ausreichen koennten. Nebenbei weiss ja auch keiner momentan wieviel genau fuer caches bzw. on-chip Speicher verplempert wurde; es wuerde mich aber nicht wundern wenn es ziemlich viel sein sollte.

Coda
2006-10-24, 14:39:01
Ich glaube da hat Ail mal was falsch verstanden. Ich kann mir zumindest nicht vorstellen wie das gehen sollte.

Gast
2006-10-24, 14:39:35
Sowas gibts nicht. Bzw. sie wären dann wieder mit 1350 Mhz getaktet. Ohne Taktflanke kein schalten ;)
Natürlich wären das dann keine 1350 MHz. Aber es wären 1350 "PR-MHz" ;)
Schaue dir die Integer ALUs im P4 an.


Das wäre mir neu. Quelle?
Dafür brauche ich keine Quelle. GPUs schreiben schon lange...sehr lange in ganzen Tiles die Farben in den Framebuffer. Und das geht natürlich nur mit einem entsprechenden Cache.
Nur müssen diese immer wieder auf den FB zugreifen, um nach Geometrie zu schauen und/oder Farben zu kombinieren. Dies betrifft einen TBDR natürlich nicht.

Anarchy-HWLUXX
2006-10-24, 14:40:24
EDIT - Bringt eh nix :rolleyes:


___________

Hier hat schon jemand eine:smile:
http://we.pcinlife.com/viewthread.php?tid=639516&extra=&page=1

Ich geh ihn mal besuchen und mach den Kühler ab :D

Gast
2006-10-24, 14:41:32
Natürlich wären das dann keine 1350 MHz. Aber es wären 1350 "PR-MHz" ;)
Schaue dir die Integer ALUs im P4 an.

Die laufen in der Tat auch in einer Taktdomäne mit doppeltem Takt wie der Rest vom Chip (ausgenommen der Trace-Cache der mit der Hälfte arbeitet).

Dafür brauche ich keine Quelle. GPUs schreiben schon lange...sehr lange in ganzen Tiles die Farben in den Framebuffer. Und das geht natürlich nur mit einem entsprechenden Cache.

Tun sie sicher nicht. Außer du meinst mit "Tile" ein Quad mit 2x2 Pixeln.

robbitop@work
2006-10-24, 14:45:46
Tun sie sicher nicht. Außer du meinst mit "Tile" ein Quad mit 2x2 Pixeln.
Selbst für ein solches Quad bräuchte man bei GPUs mit weniger als einer vollen Quadpipe einen Cache (NV34 z.B.). Laut aths ist dort definitiv ein Tilecache mit >2x2 vorhanden (wir haben uns zufällig letzte Woche darüber unterhalten).

Super-S
2006-10-24, 14:46:36
Hi, da werf ich doch mal einfach die Frage ein... Kann mann denn das SpeicherInterface nicht verdoppeln? Von 256 auf 512 Bit.... oder ist das aus technisch begrenzter Sicht... nur in so kleinen Schritten möglich?

Und wird sich diese Busbreiten-Erweiterung sehr stark auf die Performance (+) auswirken?

:)

ShadowXX
2006-10-24, 14:47:57
Tun sie sicher nicht. Außer du meinst mit "Tile" ein Quad mit 2x2 Pixeln.
"Tilen" nicht die ATI-GPUs? (Da gibt's doch deswegen auch diesen speziellen CF-Modus).

AnarchX
2006-10-24, 14:48:22
Hi, da werf ich doch mal einfach die Frage ein... Kann mann denn das SpeicherInterface nicht verdoppeln? Von 256 auf 512 Bit.... oder ist das aus technisch begrenzter Sicht... nur in so kleinen Schritten möglich?


Natürlich wäre es möglich, aber es ist einfach noch zu teuer, weshalb sich nV noch dagegen entschieden hat und den Zwischenschritt 384bit nimmt.

Wirklich interessant wird nun was bei den Mainstream-Ablegern für ein SI zum Einsatz kommen wird - 192bit, 160bit, 128bit mit schneller GDDR4?

Gast
2006-10-24, 14:49:20
Hi, da werf ich doch mal einfach die Frage ein... Kann mann denn das SpeicherInterface nicht verdoppeln? Von 256 auf 512 Bit.... oder ist das aus technisch begrenzter Sicht... nur in so kleinen Schritten möglich?

Einerseits muss die Chipfläche groß genug sein um überhaupt genügend Kontakte dafür bereitstellen zu können, andererseits ist das PCB und der Speichercontroller natürlich komplexer.

Das ist einfach keine Sache die über die Zeit wesentlich billiger werden wird, da das Chipshrinking hier nichts bringt.

deekey777
2006-10-24, 14:50:23
Ob dieser Vergleich dir gefällt, juckt mich ehrlich gesagt ziemlich wenig.

Vielleich besser P4 und CoreDuo...;)

Es geht mir einfach nur um die Enwicklung/Trend, welcher mir überhaupt nicht passt.

Gruß M_B
Spätestens jetzt ist Schluss mit den Nettigkeiten deiner Postings der letzten Tage. Auch kommen deine Potings mit immensem Flame-Gehalt in mehreren Thread, die im Trash ihr Dasein tristen. Auch gab es mehrere Beschwerden gegen dich und die Art deiner Postings.
Dafür gibt's einen Tag zum Nachdenken.

Gast
2006-10-24, 14:50:47
"Tilen" nicht die ATI-GPUs? (Da gibt's doch deswegen auch diesen speziellen CF-Modus).

Das betrifft ja nur was die einzelnen Chips rendern (also entweder jeder die obere bzw. untere Hälfte des Bildes oder eben diese Tiles). Jeder verarbeitet aber die ganze Geometrie etc. Das ist nicht vergleichbar.

ShadowXX
2006-10-24, 14:56:29
Das betrifft ja nur was die einzelnen Chips rendern (also entweder jeder die obere bzw. untere Hälfte des Bildes oder eben diese Tiles). Jeder verarbeitet aber die ganze Geometrie etc. Das ist nicht vergleichbar.
AFAIK arbeiten auch die einzelnen Chips in dieser Weise....ich weiß allerdings nicht, ob es dafür extra Cache auf dem Chip gibt, oder ob ATI einfach nur in anderer Art als nV rendert.

Basiert nicht auch ATIs Hyper-Z auf diesem Prinzip (jede Stufe ist ein mehrfaches der zu rendernden "Tiles")?

Moralelastix
2006-10-24, 14:58:08
Heißts net angeblich das der R600 mit nem 512bit interface daher kommen soll?

Gast
2006-10-24, 14:58:41
AFAIK arbeiten auch die einzelnen Chips in dieser Weise....ich weiß allerdings nicht, ob es dafür extra Cache auf dem Chip gibt, oder ob ATI einfach nur in anderer Art als nV rendert.

Das betrifft einfach nur die Stellen die der Rasterizer überhaupt bearbeitet.

Basiert nicht auch ATIs Hyper-Z auf diesem Prinzip (jede Stufe ist ein mehrfaches der zu rendernden "Tiles")?

Nein. Der Z-Buffer wird hierarchisch in immer gröbere Tiles eingeteilt um möglicherweise schon am Anfang der Pipeline ganze Polygone zu verwerfen.

INDEX75
2006-10-24, 14:59:06
Hier hat schon jemand eine:smile:
http://we.pcinlife.com/viewthread.php?tid=639516&extra=&page=1Das Kärtchen hinterlässt ohne jeden Zweifel einen mächtigen Eindruck. Wenn die Leistung der Optik entsprechen sollte dürfen wir uns auf ein Feuerwerk freuen ;)

MfG
i75

AnarchX
2006-10-24, 14:59:22
Heißts net angeblich das der R600 mit nem 512bit interface daher kommen soll?

Ja, wird spekuliert, aber hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=273969).:wink:

robbitop@work
2006-10-24, 15:00:08
Basiert nicht auch ATIs Hyper-Z auf diesem Prinzip (jede Stufe ist ein mehrfaches der zu rendernden "Tiles")?
Das ist etwas anders. Vor dem Rendern wird lediglich ein Tile auf Sichtbarkeit geprüft und dann entweder verworfen oder es geht in die nächste hirarchie-ebene bzw es wird gerendert.

ShadowXX
2006-10-24, 15:01:50
Das betrifft einfach nur die Stellen die der Rasterizer überhaupt bearbeitet.

Ok, dann hatte ich das damals in den falschen Hals bekommen.


Nein. Der Z-Buffer wird hierarchisch in immer gröbere Tiles eingeteilt um möglicherweise schon am Anfang der Pipeline ganze Polygone zu verwerfen.
Das ist etwas anders. Vor dem Rendern wird lediglich ein Tile auf Sichtbarkeit geprüft und dann entweder verworfen oder es geht in die nächste hirarchie-ebene bzw es wird gerendert.
Das meinte ich eigentlich damit....hab mich da wohl unglücklich/falsch ausgedrückt.

X.Perry_Mental
2006-10-24, 15:02:44
Hier hat schon jemand eine:smile:
http://we.pcinlife.com/viewthread.php?tid=639516&extra=&page=1
Was mich daran nach wie vor wundert ist die Beschreibung vom Speicher-Interface und der Speichermenge. Warum steht da 384Bit (256+128) und 768MB (512+256)? Würde man nur 384Bit/768MB schreiben, würde ich "einfach" auf eine verbreiterte Architektur tippen, aber dieses explizite erwähnen von 256+128 und 512+256 ist doch schon merkwürdig.

AnarchX
2006-10-24, 15:03:57
Was mich daran nach wie vor wundert ist die Beschreibung vom Speicher-Interface und der Speichermenge. Warum steht da 384Bit (256+128) und 768MB (512+256)? Würde man nur 384Bit/768MB schreiben, würde ich "einfach" auf eine verbreiterte Architektur tippen, aber dieses explizite erwähnen von 256+128 und 512+256 ist doch schon merkwürdig.

Das sind die uralt vr-zone Specs, also nicht unbedingt ernstnehmen.
Nur 256bit mit 900MHz für die GPU wäre imo viel zu wenig.

Gast
2006-10-24, 15:04:34
Es sind wohl 6x64 Bit. Evtl. ist das Marketing um hervorzuheben, dass es "mehr" ist als "normal".

deekey777
2006-10-24, 15:05:02
Hier hat schon jemand eine:smile:
http://we.pcinlife.com/viewthread.php?tid=639516&extra=&page=1
Interessant: zwei SLI-Anschlüsse.
Aber solche Bilder hätte auch James Bond nicht besser machen können.:biggrin:

Gast
2006-10-24, 15:08:06
2 SLI-Anschlüsse deuten entweder auf Quad-SLI oder auf einen gesteigerten Bandbreitenbedarf des Interconnects hin.

AnarchX
2006-10-24, 15:10:40
2 SLI-Anschlüsse deuten entweder auf Quad-SLI oder auf einen gesteigerten Bandbreitenbedarf des Interconnects hin.
Da hätte man auch einfach nur einen breiteren Interconnect verwenden können, anstatt zwei.
Quad-SLI mit 4 solchen Monstern sollte wohl auch eher nicht machbar sein.
Ich tippe irgendwie auf Tripple-SLi (nForce 680i mit 3x PCIe x16 ;) )

Moralelastix
2006-10-24, 15:12:19
Na James Bond hätte aber sicher noch den Kühler abgenommen!

(War warscheinlich nur ein billiges JB Double:biggrin: )


Hat nur die GTX 2 SLI Brücken oder auch die GTS?

Gast
2006-10-24, 15:12:20
Ich nicht. 3 bringt soviel weniger als 2 dass es sich absolut nicht lohnt. (Selbst 4 ist ja schon minimal schneller).

Imho wollen sie einfach die bisherigen Brücken weiterverwenden.

StefanV
2006-10-24, 15:17:22
Da hätte man auch einfach nur einen breiteren Interconnect verwenden können, anstatt zwei.
Nein, hätte man nicht, denn so hätte man neue SLI Brücken benötigt.
Und wie bitteschön sollen wir da ran kommen?!

Mit 'Special SLI Edition' Karten?? :|

Und welchen Grund könnte es noch haben, das man die alten Brücken weiterverwenden kann, außer das man die alten Brücken weiterverwenden kann :uponder:

Gast
2006-10-24, 15:19:24
Naja wenn man 2 Brücken braucht (verwenden kann) ist das wieder so ne Sache ;)

deekey777
2006-10-24, 15:20:18
Weiter geht's:
http://img146.imageshack.us/img146/9522/462226655bet8.jpg

8800GTS (http://img159.imageshack.us/img159/4827/8800gts2kxazw5kfm7pmxp4.jpg)
8800GTX (http://img159.imageshack.us/img159/6597/8800gtx2h1umlaqvfiwknl4.jpg)

Anarchy-HWLUXX
2006-10-24, 15:21:40
2 SLI-Anschlüsse deuten entweder auf Quad-SLI oder auf einen gesteigerten Bandbreitenbedarf des Interconnects hin.

Also wenn dann eher eine 3-Karten Lösung, für 4 PEG slots müssten die Hersteller zuviele kompromisse eingehen beim Board layout ...

3 Stück hingegen sind recht einfach zu bewerkstelligen, das Intel Bad Axe hat ja 3 PEGs und das 680i Referenzbrett auch (16*/16*/8*).


@Pic -

Also sooooooo super lang ist se auch wieder nicht ;)

Nein, hätte man nicht, denn so hätte man neue SLI Brücken benötigt.
Und wie bitteschön sollen wir da ran kommen?!

Mit 'Special SLI Edition' Karten?? :|

Und welchen Grund könnte es noch haben, das man die alten Brücken weiterverwenden kann, außer das man die alten Brücken weiterverwenden kann :uponder:

Man braucht keine neuen herstellen und hat die alten nicht inner Ecke am rumliegen ... und bei höheren Stückzahlen gehen auch die Kosten pro Brücke runter ...

Don Vito
2006-10-24, 15:21:49
Ich tippe auf die Erhöhung der Bandbreite....
Solte die Bridge nicht 1Gbit schnell sein...
ergo 2Gbit

Superheld
2006-10-24, 15:23:15
So habs mal geklaut:biggrin:

http://img163.imageshack.us/img163/7414/8800gtxdcd3rbtfpmtmmn1.jpg (http://imageshack.us)

http://img163.imageshack.us/img163/29/8800gtss0v8f5jplzzvxo4.jpg (http://imageshack.us)

Moralelastix
2006-10-24, 15:25:19
Seltsam hat die 8800GTS nur einen SLI connect!

Gast
2006-10-24, 15:26:57
WTH? Das Die muss ja riesig sein wenn sie ne Dau-Kappe draufmachen müssen :|

The_Invisible
2006-10-24, 15:27:13
der chip scheint ja riesig zu sein :eek:

mfg

BvB123
2006-10-24, 15:27:28
Was hat die Dau-Kappe mit der Größe zu tun?

Gruß

The_Invisible
2006-10-24, 15:29:41
Was hat die Dau-Kappe mit der Größe zu tun?

Gruß

man darf ja spekulieren das der "die" bei dem hs nicht gerade klein sein wird ;)

mfg

Gast
2006-10-24, 15:29:46
Bei größeren Chips ist das Kantenabknicken wahrscheinlicher bei unsachgemäßer Kühlermontage soweit ich weiß.

BvB123
2006-10-24, 15:30:46
Bei nem kleineren Die find ich es deutlich einfacher etwas abzubrechen da die auflage flächer doch viel kleiner ist und man so viel schneller verkanntet.

Aber egal ;)

Gruß

Gast
2006-10-24, 15:31:20
Hm ja auch wieder wahr. Aber seltsam ist die Dau-Kappe dann trotzdem, weil das den Wärmefluss ja nicht gerade verbessert.

vinacis_vivids
2006-10-24, 15:35:56
Standardmäßig mit schwarzer PCB würde ich sehr gern begrüßen. Mal bisschen Abwechslung zu den tristen Grün.
Von der reinen Optik und Erfahrung her würde ich behaupten der Kühler der 7900GTX/GTO ist besser als der Neue.

gguru
2006-10-24, 15:43:39
http://img163.imageshack.us/img163/29/8800gtss0v8f5jplzzvxo4.jpg


Sind die Speicherchips kaschiert? Und wieso steht da links "Keep out"?

X.Perry_Mental
2006-10-24, 15:48:42
Hm ja auch wieder wahr. Aber seltsam ist die Dau-Kappe dann trotzdem, weil das den Wärmefluss ja nicht gerade verbessert.
Wer sagt, dass das ein stinknormaler "Deckel" ist? Es gab da mal ein paar für den P4 geplante Heatspreader mit gekapselter, sternförmiger Lamellenstruktur und Füllung ähnlich einer Heatpipe. Damit wollte man die enorme Hitze auf eine größere Fläche verteilen und Hotspots besser in den Griff bekommen. Das hat sich für Intel ja erstmal erledigt, aber hier könnte ich mir sowas schon vorstellen.

Gast
2006-10-24, 15:49:03
Da dürfte der HDCP-Chip sein. Und bei den Memory-Chips vermute ich dass einer (oder zwei?) fehlt wegen 320-Bit-SI. Evtl. is das zu brisant ;)

Gast
2006-10-24, 15:50:10
Wer sagt, dass das ein stinknormaler "Deckel" ist? Es gab da mal ein paar für den P4 geplante Heatspreader mit gekapselter, sternförmiger Lamellenstruktur und Füllung ähnlich einer Heatpipe. Damit wollte man die enorme Hitze auf eine größere Fläche verteilen und Hotspots besser in den Griff bekommen. Das hat sich für Intel ja erstmal erledigt, aber hier könnte ich mir sowas schon vorstellen.

Hm guter Punkt. Könnte was dran sein, vor allem die Double-Pumped ALUs dürften starke Hotspots sein.

Gast
2006-10-24, 16:00:14
Weiter geht's:
http://img146.imageshack.us/img146/9522/462226655bet8.jpg

8800GTS (http://img159.imageshack.us/img159/4827/8800gts2kxazw5kfm7pmxp4.jpg)
8800GTX (http://img159.imageshack.us/img159/6597/8800gtx2h1umlaqvfiwknl4.jpg)

nun reichts aber mal mit der länge !
gibs ein genaues datum für das nda,will benches sehn ?

Moralelastix
2006-10-24, 16:08:44
Aha!

Und was is jetzt des der Physik Chip?


http://we.pcinlife.com/attachments/forumid_206/8800%20GTS_7_PhbEyYpicNQ3.jpg

Sunrise
2006-10-24, 16:11:17
Das sind die uralt vr-zone Specs, also nicht unbedingt ernstnehmen.
Nur 256bit mit 900MHz für die GPU wäre imo viel zu wenig.
Du hast ihn da falsch verstanden. Das sind auch keine VR-Zone-Specs, wie bereits bei B3D erwähnt. Die Quelle ist jemand anders.

Gast
2006-10-24, 16:15:19
Da hast du dir aber ein blöden Vergleich ausgesucht.
Ein Porsche verbraucht heute deutlich weniger als noch vor 20 Jahren, hat dabei aber mehr Leistung.

Aber egal.

Für mich ist hier EoD. :)

Gruß M_B

Da hast du dir aber einen blöden Vergleich für meinen blöden Vergleich ausgesucht. Da es ja vor 20 Jahren noch keine 3D-Karten gab, könnte man höchstens Rechenleistung vergleichen und für >250 GFLOPs/s brauchtest du damals sicherlich mehr als 200 Watt

Gast
2006-10-24, 16:16:17
Vielleicht hatte ich dich falsch verstanden, aber es hörte sich so an, als wenn du davon ausgingst das die einzelnen ALUs nicht sehr Leistunsgfähig sein werden und dies dann über "Masse" ausgeglichen wird.


Ich habe nie geglaubt, dass wir 128 Vektor-5-ALUs im G80 sehen werden. ;) ;) ;)


Q

Gast
2006-10-24, 16:16:27
Da hast du dir aber einen blöden Vergleich für meinen blöden Vergleich ausgesucht. Da es ja vor 20 Jahren noch keine 3D-Karten gab, könnte man höchstens Rechenleistung vergleichen und für >250 GFLOPs/s brauchtest du damals sicherlich mehr als 200 Watt

Ich.


Q

Gast
2006-10-24, 16:22:48
Aha!

Und was is jetzt des der Physik Chip?


http://we.pcinlife.com/attachments/forumid_206/8800%20GTS_7_PhbEyYpicNQ3.jpg

Warum hat die GTS nun auch 12 Speicherchips?!
Und was ist das für ein Extrachip?
Greift der kleine Chip etwa auch auf den Speicher zu?
Sehr verwirrend.

Moralelastix
2006-10-24, 16:24:28
Niemals is des nur für den HD Crap.

Vielleicht ein Chip für den 2D Modus von Vista? *lol*


Vielleicht ne Art Cache?

"To be more precise, it handles DirectDraw and Z-ROP rendering via 16MB of 55nm NEC EDRAM"
http://www.beyond3d.com/forum/showpost.php?p=858946&postcount=1716

Gast
2006-10-24, 16:28:14
Was mich daran nach wie vor wundert ist die Beschreibung vom Speicher-Interface und der Speichermenge. Warum steht da 384Bit (256+128) und 768MB (512+256)? Würde man nur 384Bit/768MB schreiben, würde ich "einfach" auf eine verbreiterte Architektur tippen, aber dieses explizite erwähnen von 256+128 und 512+256 ist doch schon merkwürdig.

Da hatter schon die Karte und weiß die Specs nicht richtig, schade. X+X ist jedenfalls unsinn beim Speicherinterface. Wenn dann wäre X+X+X+X+X+X (X+X+X+X+X) oder Y*X (Y-1*X) sinnvoller - IMO.


Q

ShadowXX
2006-10-24, 16:32:42
Ich habe nie geglaubt, dass wir 128 Vektor-5-ALUs im G80 sehen werden. ;) ;) ;)

Q
Nun, an 128 Vektor-5-ALUs glaube ich auch nicht.

Warten wir erstmal ordentliche Benches, mit halbwegs ordentlichen Treibern, ab (Was wohl "etwas" nach dem Launch sein wird). Ich glaube zumindest nicht, das es "knapp" für nV werden wird (auch mit der GTS nicht).

Ich bin mal auf die "Sagen/Gerüchtumwobene" AA-Leistung des G80 gespannt......

Gast
2006-10-24, 16:36:23
nun reichts aber mal mit der länge !

Kauf sie dir halt nicht.

NiCoSt
2006-10-24, 16:40:40
wann fällt das NDA?

Gast
2006-10-24, 16:47:56
wann fällt das NDA?

Das ist Bestandteil des NDA.
http://www.pcgameshardware.de/?article_id=517601

(+44)
2006-10-24, 16:57:52
Dennoch können wir doch vom 8. November ausgehn - denke dann wird alles "aus dem Sack gelassen" - wieso sollte man über dieses Datum hinaus Infos zurückhalten?

robbitop@work
2006-10-24, 17:18:37
"To be more precise, it handles DirectDraw and Z-ROP rendering via 16MB of 55nm NEC EDRAM"
http://www.beyond3d.com/forum/showpost.php?p=858946&postcount=1716

Lies weiter. NEC gibt 55nm eDRAM erst ab 2007 in Volumeproduction. Es war anscheinend ein Scherz von Uttar.

Moralelastix
2006-10-24, 17:37:17
Ich tipp auf einen Physik Chip.

Es liegt für einen Cach vielleicht auch zu weit weg von der GPU auch hats ein NV Logo drauf.

Des Ding hat bei der Die Größe bestimmt um die 150-200 Mio Transen.

Das erklärt so auch die unglaublichen 700 Mio Transen insgesamt.

Wieviel Transen hat denn das Teil von Ageia?

ShadowXX
2006-10-24, 17:43:31
Ich tipp auf einen Physik Chip.

Es liegt für einen Cach vielleicht auch zu weit weg von der GPU auch hats ein NV Logo drauf.

Des Ding hat bei der Die Größe bestimmt um die 150 Mio Transen.
Nö....das Physik-zeug wird von den "normalen" ALUs gehandelt (auch wenn es lt. Beschreibung zuerst so klingt, als wenn es ein extra Teil innerhalb des Chips oder ein extra Chip wäre).

Moralelastix
2006-10-24, 17:45:52
Ja was solls denn sonst sein?

ShadowXX
2006-10-24, 17:53:01
Ja was solls denn sonst sein?
Das wird wohl doch nur für das HDCP zeug sein....vielleicht wurde eine externe Lösung gewählt damit die Kartenhersteller eine die Wahl zwischen mit/ohne haben ohne es indirekt immer mit bezahlen zu müssen.

StefanV
2006-10-24, 18:04:38
Ja was solls denn sonst sein?
Hm, ein seperater Chip, nur für 2D/Low Power 3D Zeugs, um den anderen abzuschalten (z.B. VIsta Desktop), etwas Speicher, in extrem schneller Form, mit proprietärem Interface, 'something else'.

Such dir was aus...

Anarchy-HWLUXX
2006-10-24, 18:11:31
Also bei der 7800er Serie ist ein schön großer Phillips Chip mit drauf für TV-OUT (VIVO ?)

auf der 7900 Serie fehlen sie - hm ? Why that ?

7800 -
http://www.ixbt.com/video2/images/ref/gf7800gtx512-scan-front.jpg

7900 -
http://www.ixbt.com/video2/images/g71/7900gtx-scan-front.jpg




Mal nen altes Pic der rückseite, der kleine Chip hat jedenfalls keine RAM anbindung ...

http://img110.imageshack.us/img110/9871/1159518316603yj6iy8.jpg

Wobei das nen wirklich alter Prototyp sein muss wenn man sich die GTX anschaut mit zwei SLI Verbindern ...

StefanV
2006-10-24, 18:19:04
Also bei der 7800er Serie ist ein schön großer Phillips Chip mit drauf für TV-OUT (VIVO ?)

auf der 7900 Serie fehlen sie - hm ? Why that ?
Kein ViVo?!
Und ja, das ist für Video IN.
Ist bei ATIs ab x1800 eigentlich Standard oder hast du schonmal...



Mal nen altes Pic der rückseite, der kleine Chip hat jedenfalls keine RAM anbindung ...
Und wieviele Lagen hat so ein PCB idR?!
2?? (=oben und unten)

Oder eher 6-12??

Schrotti
2006-10-24, 19:25:29
Ich finde das absoluten Bullshit was nvidia da macht.

Warum muss die Karte so elendig lang sein?
Kann man eine Karte vom schlage einer G80 nicht auch kürzer designen?
Warum einen so extremen Stromverbrauch?

Gut das die alten Karten dann günstiger werden.

Gast
2006-10-24, 19:26:25
Und wieviele Lagen hat so ein PCB idR?!
2?? (=oben und unten)

Oder eher 6-12??

Das ist trotzdem unwahrscheinlich. Wenn dann geht er über G80 um auf den Speicher zuzugreifen.

Gast
2006-10-24, 19:26:57
Warum einen so extremen Stromverbrauch?

Der ist gar nicht so extrem.

dildo4u
2006-10-24, 19:29:59
Warum einen so extremen Stromverbrauch?
Weil die Karte whol 2mal so viele Transistoren haben wird wie eine 7900GTX und im selben Fertigungsprozeß gebaut wird.Hätte man auf ein kleineren Prozeß gewartet würde die Karte whol frühstens in 3-4Monaten kommen.

Zapat
2006-10-24, 20:13:50
Also wird die Karte beim CB Test 400 Watt verbrauchen.Nicht schlecht,dann noch ne 2 karte und wir sind schon bei 700 Watt nicht schlecht.

AnarchX
2006-10-24, 20:20:49
Noch ein paar interessante 3DM06 Werte:

X1900XT Stock / 8800GTX
3DMark06: 6555 / 11795 pts
SM2: 2295 / 4783
SM3: 2555 / 4095
CPU: 4076 / 4419

7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419

http://www.beyond3d.com/forum/showthread.php?t=33576&page=70

Gast
2006-10-24, 20:27:59
Also wird die Karte beim CB Test 400 Watt verbrauchen.Nicht schlecht,dann noch ne 2 karte und wir sind schon bei 700 Watt nicht schlecht.Red doch nicht immer solch einen Unsinn. Über den Stromverbrauch ist noch gar nichts verlässliches bekannt und die Zahlen, die du hier angibst, sind völliger Unfug.

MadManniMan
2006-10-24, 20:36:57
Noch ein paar interessante 3DM06 Werte:

http://www.beyond3d.com/forum/showthread.php?t=33576&page=70

Wenn das stimmen sollte: Hut ab!
Speku: man wußte, daß man einer 'echten' 7950GX2 (also 7900 GTX * 2) mit einer 8800 GTX nicht paroli bieten konnte und taktete erstgenannte deshalb so 'gering'.

AnarchX
2006-10-24, 20:40:38
Speku: man wußte, daß man einer 'echten' 7950GX2 (also 7900 GTX * 2) mit einer 8800 GTX nicht paroli bieten konnte und taktete erstgenannte deshalb so 'gering'.

Da kann durchaus etwas dran sein, nV wollte ja auch nicht das die Hersteller OC-Versionen anbieten, was aber dann doch geschah(so wird wohl eine OC-7950GX2 das eine oder andere mal schneller als die 88GTX sein).

Aber mit G81 kommt vielleicht auch wieder eine 8850GX2.:biggrin:

Gast
2006-10-24, 20:41:42
Naja, die 7950GX2 ist auch mit 500/600 deutlich schneller als alles, was ATI zu bieten hat. Warum (aus Herstellersicht) sollte man sie dann höher takten und sich die Margen ruinieren? Außerdem ist so, wie du schon anmerkst, der Unterschied zur nächsten Generation größer.

Schrotti
2006-10-24, 20:54:08
Sorry Leutz habe den Thread nicht ganz gelesen (bin noch bei).

Aber warum werden die Karten denn immer länger?

K4mPFwUr$t
2006-10-24, 20:58:33
ganz einfach :rolleyes:

mehr transistoren --> mehr leistungsaufnahme --> mehr ICs + spawa's = mehr flächenbedarf. da bleibt nur noch platz nach hinten :(
dann kommt noch dazu speicherinterface wird größer, bei ATI hat man seit der X1800 den ringbus. damit ist es möglich die anbinndungen der speicher an die gpu / memcontroller besser zu bewerkstelligen

Gast
2006-10-24, 20:58:49
Aber warum werden die Karten denn immer länger?

Erstmal ist das PCB deutlich komplexer durch mehr Speicherchips und 384-Bit-SI und zusätzlich musste die Stromversorgung natürlich aufgebohrt werden.

Gast
2006-10-24, 21:00:20
Also wird die Karte beim CB Test 400 Watt verbrauchen.Nicht schlecht,dann noch ne 2 karte und wir sind schon bei 700 Watt nicht schlecht.

selbst wenn die mögliche stromversorgung maximal ausgenützt werden würde käme man auf maximal 225W/karte, und 400x2 ist auch mehr als 700.

Anarchy-HWLUXX
2006-10-24, 21:20:32
Also der Stromverbrauch kann garnicht so extrem sein wenn man GTS und GTX anschaut ...

Die GTS hat einen anschluss, die GTX hat zwei - so viel mehr als eine 7950GX2 kann es also garnicht werden ...

AnarchX
2006-10-24, 21:23:39
Die GTS hat einen anschluss, die GTX hat zwei - so viel mehr als eine 7950GX2 kann es also garnicht werden ...

Im Fall der GTX können es etwa 75W mehr sein als bei der GX2...;)
Aber imo solang der Kühler leise arbeitet -> wayne.

Hvoralek
2006-10-24, 21:36:52
Ich nicht. 3 bringt soviel weniger als 2 dass es sich absolut nicht lohnt. (Selbst 4 ist ja schon minimal schneller).In D3D9 sind vier Chips kaum schneller als zwei. Das liegt va daran, dass in D3D9 max. drei Bilder voraus berechnet werden dürfen, sodass man vier Chips nicht in einem reinen AFR- Modus betreiben kann. Stattdessen laufen man im Fall der GX2 die beiden Karten im AFR und die beiden Chips auf einer Karte im SFR (was sehr viel weniger bringt). In OGL gibt es diese Begrenzung nicht, und demenstprechend sehen auch die Ergebnisse mit vier Chips (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/18/#abschnitt_the_chronicles_of_riddick) erheblich besser aus.

Drei Chips lassen sich auch unter D3D im reinen AFR betreiben und dürften dementsprechend skalieren. Unter D3D10 geht das dann auch mit mehr als dreien.

MadManniMan
2006-10-24, 21:39:35
Nur nicht vergessen: je höher das Prerenderlimit, desto höher der Lag.

Zapat
2006-10-24, 22:03:15
Noch ein paar interessante 3DM06 Werte:

http://www.beyond3d.com/forum/showthread.php?t=33576&page=70

Hab schon immer vermutet das der G80 ein Dual Chip ist.

AnarchX
2006-10-24, 22:05:03
Hab schon immer vermutet das der G80 ein Dual Chip ist.
:confused:
Wie kommst du den da drauf?
G80 ist eine "normale" GPU.

:edit:
Wenn du(ihr) das Bild mit den 2 Dies auf ihren Packages meint, hierbei handelt es sich um eine Gegenüberstellung, also 2 Bilder!

Gast
2006-10-24, 22:08:21
Hab schon immer vermutet das der G80 ein Dual Chip ist.

Woher weißt du das?
oder meinst du den kleinen Chip?
falls ja, wofür ist dieser genau? scheinst ja zu wissen..

Gast
2006-10-24, 22:12:06
Der kleine Chip könnte ein ausgelagerter 2D-/PureVideo-Chip sein, der eventuell sogar über eine, die kleinstmögliche zusammenhängende Shadereinheit verfügen - eine Vista-Minimal-Version. Das große Biest ist dann "nur noch" ein fieser Zahlenknacker und als solches nahezu beliebig skalierbar. ;)


Q

MadManniMan
2006-10-24, 22:12:15
:confused:
Wie kommst du den da drauf?
G80 ist eine "normale" GPU.

:edit:
Wenn du(ihr) das Bild mit den 2 Dies auf ihren Packages meint, hierbei handelt es sich um eine Gegenüberstellung, also 2 Bilder!

Er witzelt, daß ein 8800 GTX eben grob die 7950 GX2 Leistung erreicht.

Godmode
2006-10-24, 22:18:45
Der kleine Chip könnte ein ausgelagerter 2D-/PureVideo-Chip sein, der eventuell sogar über eine, die kleinstmögliche zusammenhängende Shadereinheit verfügen - eine Vista-Minimal-Version. Das große Biest ist dann "nur noch" ein fieser Zahlenknacker und als solches nahezu beliebig skalierbar. ;)


Q

Das wäre eine sehr edle Lösung. Im Windows betrieb verdammt sparsam und im 3D Betrieb verdammt leistungsfähig. Aber daran glaube ich eher nicht!

(+44)
2006-10-24, 22:20:34
Im Fall der GTX können es etwa 75W mehr sein als bei der GX2...;)
Aber imo solang der Kühler leise arbeitet -> wayne.
war
Ob der so leise ist?

Immerhin haben sie wieder nen Radiallüfter ähnlich der 6800 Ultra verbaut - mit dem Axiallüfterdesign der 7900GTX/Quadro's man doch auf dem richtigen Weg - IMO ein Rückschritt :(

deekey777
2006-10-24, 22:22:08
Der kleine Chip könnte ein ausgelagerter 2D-/PureVideo-Chip sein, der eventuell sogar über eine, die kleinstmögliche zusammenhängende Shadereinheit verfügen - eine Vista-Minimal-Version. Das große Biest ist dann "nur noch" ein fieser Zahlenknacker und als solches nahezu beliebig skalierbar. ;)


Q
Wie ist der Smiley zu verstehen? :|
Diese Möglichkeit klingt sehr vernünftig.

Anarchy-HWLUXX
2006-10-24, 22:30:48
Im Fall der GTX können es etwa 75W mehr sein als bei der GX2...;)
Aber imo solang der Kühler leise arbeitet -> wayne.

Klar, durch ein paar MHz mehr direkt 75W draufballern ... können mer mal in der Realität bleiben ?

Die GTS kann nicht mehr verbrauchen als die 7950GX2 denn die ist schon auf 143W eingestuft also gehe ich mal hiervon aus - wenn die GTX eben pi mal daumen 20% mehr braucht als die GTS wärn es ~ +30W, unterm Strich ~180W.

Xbitlabs hat bei der 7950GX2 real 110W gemessen, also wär die GTX bei ~145W ...


Mal Schaun inwieweit meine Schätzung hinkommt *wart*

AnarchX
2006-10-24, 22:35:48
Die 8800GTX wird wohl doch schon sehr nah an der kritischen 150W Marke bzw. darüber sein.

Da könnte man nun auch spekulieren, dass die 8800GTS vielleicht sich nicht so gut übertakten lässt, da einfach dazu die Eingangsleistung fehlt.;)

dargo
2006-10-24, 22:36:29
Denk du mal auch etwas nach.
Falls die 8800GTX noch mit 90nm gefertigt wird sind die Werte echt OK.
Die nächsten Chips werden ja 65nm und kleiner werden.
Dann nimm von mir aus nicht den Verbrauch *2 sondern *~1,5. Wo soll das denn hinführen in ~3 Jahren? Zu 250-300Watt pro Singlecore Grafikkarte?

Ich zumindest sehe nichts positives an dieser Entwicklung dran. Früher hat man sich über den Stromverbrauch einer X1900XTX mit ~120W aufgeregt. Jetzt werden 150-170W einfach akzeptiert nur weil die neue Graka eventuell doppelt so schnell ist? :|

Wer weniger Leistungsaufnahme wünscht, der kann ein Midrangeprodukt mit weniger/gleicher Leistungsaufnahme kaufen wie das vorherige HighEnd Produkt.

Das ist zwar ein netter Vorschlag, der mir aber kaum was bringt. Wenn ich schon upgrade dann möchte ich auch ~100% mehr Leistung haben damit es sich lohnt. Und wenn man eine High-End Graka schon hat wird man keine Verdoppelung der Leistung mit einem Midrangeprodukt haben.


Oder aber man wartet auf den Refresh, der dank Shrink weniger Leistung aufnimmt. NV/ATI können nicht zaubern. Wenn sie es könnten, würden sie die Leistungsaufnahme senken.
Das macht in diesem Fall schon mehr Sinn, wenn der Refreshchip in 65nm kommen sollte. Dann sind wir höchswahrscheinlich wieder bei den gesagten 110-120W, die noch vor kurzem viel waren. :cool: