Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)


Seiten : 1 [2] 3 4 5 6 7 8 9

AnarchX
2006-10-24, 22:45:08
@dargo:
Wenn man aller 12 (+ bis 6) Monate die Leistung verdoppelt und dabei auch das Featureset verbessert ist es doch eine logische Folge, dass die Leistungsaufnahme von HighEnd zum HighEnd der nächsten Generation steigt, da man einfach etwas schneller ist als die Entwicklung kleiner, stromsparender Fertigungsgrößen.

Wenn AMD oder Intel aller 12Monate einen doppelt so schnelle CPU vorstellen würden, wäre es wohl ähnlich.

Zudem stimmt die Leistungsaufnahme, dann wieder mit dem Mainstream der folgenden Generation, so wird wohl 8600GTS schneller als die 7900GTX sein bei niedrigerem Stromverbrauch, gleiches dann auch wieder bei der 9600GTS und der 8800GTX.:wink:

Weiterhin sehe ich die erhöhte Leistungsaufnahme auch nicht so kritisch, solang man eine entsprechende Kühlung mit ausliefert.

Anarchy-HWLUXX
2006-10-24, 22:47:11
Die 8800GTX wird wohl doch schon sehr nah an der kritischen 150W Marke bzw. darüber sein.

Da könnte man nun auch spekulieren, dass die 8800GTS vielleicht sich nicht so gut übertakten lässt, da einfach dazu die Eingangsleistung fehlt.;)

... meinst du jetzt 150W real oder 150W Herstellerangabe ?

Fehlende Eingagnsleistung ? Es werden mehr Anschlüsse benötigt weil sonst zuviel Strom über edie einzelnen Leistungen muss was in wärme resultiert ... zu dünne Kabel könnten sich da glatt der Isolierung erleichtern.

Ansonsten hält ein verbinder auch niemanden davon ab eine 7950GX2 kräftig zu übertakten und diese braucht wie oben scho mal erwähnt 143W laut nV / 110W laut messung.

AnarchX
2006-10-24, 22:48:29
... meinst du jetzt 150W real oder 150W Herstellerangabe ?


Ich tippe auf ~150W real und eine Herstellerangabe von ~175W(wurden schonmal berichtet vor langer Zeit ;)) bei der GTX.

LovesuckZ
2006-10-24, 22:49:33
Dann nimm von mir aus nicht den Verbrauch *2 sondern *~1,5. Wo soll das denn hinführen in ~3 Jahren? Zu 250-300Watt pro Singlecore Grafikkarte?

Ein kleiner Rückblick:
Als der NV40 kam, hat er zur damaligen Zeiten sehr viel Strom benötigt.
Ein Jahr später erschien dann der g70 mit bis zu doppeltem Leistungszuwachs und gleichem Stromverbrauch.
Der G71 hat die Leistung dann nochmal um bis zu 50% erhöht, bei wiederum gleicher Aufnahme.
Nun geschieht ein Bruch. Es ist daher verständlich, dass es am Anfang böse aussieht, aber im Laufe der Zeit es sich wieder normalisieren werde.

Ich zumindest sehe nichts positives an dieser Entwicklung dran. Früher hat man sich über den Stromverbrauch einer X1900XTX mit ~120W aufgeregt. Jetzt werden 150-170W einfach akzeptiert nur weil die neue Graka eventuell doppelt so schnell ist? :|

Dann kauft man sich eben die X1900XTX und lebt mit der geringeren Geschwindigkeit.

Gast
2006-10-24, 22:54:14
Xbitlabs hat bei der 7950GX2 real 110W gemessen, also wär die GTX bei ~145W ...


Letztes Mal, als ich da gelesen habe, haben Sie noch geschätzt, da die Karte in ihrem Board nicht laufen wollte...


Q

robbitop
2006-10-24, 22:56:17
Das wird wohl doch nur für das HDCP zeug sein....vielleicht wurde eine externe Lösung gewählt damit die Kartenhersteller eine die Wahl zwischen mit/ohne haben ohne es indirekt immer mit bezahlen zu müssen.
Der sieht mir ein bisschen zu groß aus für HDCP.

robbitop
2006-10-24, 22:58:17
Das ist trotzdem unwahrscheinlich. Wenn dann geht er über G80 um auf den Speicher zuzugreifen.
Nicht unbedingt. Dann bräuchte das Teil einen eigene Memorycontroller. Wenn es ein eDRAM Chip + ROPs wäre bräuchte er das nicht (siehe C1).

@Vista/2D Core

wäre das nicht eine ziemliche Kostenverschwendung? Ein extra Die kostet neben extra Tapeout noch den Die selbst und das PCB wird teurer. Da könnte man lieber einen großteil der Recheneinheiten in Vista ausschalten und runtertakten.

StefanV
2006-10-24, 23:02:31
Der kleine Chip könnte ein ausgelagerter 2D-/PureVideo-Chip sein, der eventuell sogar über eine, die kleinstmögliche zusammenhängende Shadereinheit verfügen - eine Vista-Minimal-Version. Das große Biest ist dann "nur noch" ein fieser Zahlenknacker und als solches nahezu beliebig skalierbar. ;)


Q
Nein, dafür ist der viel zu groß!!

Schau mal im 'Schönste GraKa' und blätter mal 2-3 Seiten zurück, da hast 'nen Foto von 'ner 7300GS, OHNE KÜHLER.

@Vista/2D Core

wäre das nicht eine ziemliche Kostenverschwendung? Ein extra Die kostet neben extra Tapeout noch den Die selbst und das PCB wird teurer. Da könnte man lieber einen großteil der Recheneinheiten in Vista ausschalten und runtertakten.
Ja und man könnt ihn gleich umlabeln und als Geforce 8100 verkaufen :devil:

dargo
2006-10-24, 23:27:50
X1900XT Stock / 8800GTX
3DMark06: 6555 / 11795 pts
SM2: 2295 / 4783
SM3: 2555 / 4095
CPU: 4076 / 4419

7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419
Ist noch keinem die hohe CPU Leistung bei der G8800GTX aufgefallen?
Wird die CPU in einem so großen Ausmaß entlastet?

AnarchX
2006-10-24, 23:28:51
Ist noch keinem die hohe CPU Leistung bei der G8800GTX aufgefallen?
Wird die CPU in einem so großen Ausmaß entlastet?

Kentsfield...;)
Die Werte stammen von unterschiedlichen Testsystem, wobei das bei den Grafiktests ab einer gewissen CPU-Leistung irrelevant ist.

dargo
2006-10-24, 23:30:50
Kentsfield...;)
Ja, aber wieso ist der Wert bei der GX2 so niedrig im Vergleich zu der G8800GTX?
Ich blicke hier nicht mehr durch. :ucrazy3:

deekey777
2006-10-24, 23:35:33
Ich glaub, wir beenden die Diskussion um den Verbrauch der 8800er bzw. verlegen diese auf den Release. (Betrachtet diesen Text als in Hell-Modorange geschrieben.):)

Ailuros
2006-10-24, 23:42:39
Bei einem IMR kann man einen Bildteil nicht auf dem Chip halten, weil man z.B. nie Vorraussagen kann ob diese Stelle später noch einmal überschrieben wird.

Ein Tilecache ist dort also reichlich nutzlos.

Und was machen Radeons schon seit einer Ewigkeit mit screen space tiling genau?

Ich glaube da hat Ail mal was falsch verstanden. Ich kann mir zumindest nicht vorstellen wie das gehen sollte.

Wenn ein neuer Algorithmus wie z.B. ein coverage mask Algorithmus nicht die externen Speicherzugriffe vermindern wuerde, gaebe es wohl keinen besonderen Grund zu so einer Loesung zu greifen. Natuerlich gibt es noch eine Kleinigkeit die ich noch fuer mich behalte (die zumindest einen Teil erklaert), aber es muss auch eine halbwegs logische Erklaerung geben warum der Leistungs-einbruch mit 16xAA nicht so gigantisch ist wie mit den heutigen Algorithmen.

Coverage mask Algorithmen sind in sehr relativem Sinn "dual pass mechanisms" (so wie ich es verstehe); wie das jetzt ohne zusaetzlichen "caching" Aufwand klappen soll lass ich mir gerne erklaeren.

cl55amg
2006-10-24, 23:44:11
Ja, aber wieso ist der Wert bei der GX2 so niedrig im Vergleich zu der G8800GTX?
Ich blicke hier nicht mehr durch. :ucrazy3:


Beim 7900GTX Test wurde eine schwächere CPU benutzt.
Intel wird ohnehin versuchen es in Zukunft so aussehen zu lassen als ob
ein Quad Core einen Leistungssprung bei Games bewirkt.
Da ist der nichtsausagende 3dmark 06 ein gutes Marketinginstrument...

TheGoD
2006-10-24, 23:46:36
Der kleine Chip könnte ein ausgelagerter 2D-/PureVideo-Chip sein, der eventuell sogar über eine, die kleinstmögliche zusammenhängende Shadereinheit verfügen - eine Vista-Minimal-Version. Das große Biest ist dann "nur noch" ein fieser Zahlenknacker und als solches nahezu beliebig skalierbar. ;)

Glaub ich kaum, afaik verbrauchen aktuelle Chips unter der Vista-Oberfläche sogar minimal weniger Strom als unter XP / Non Areo Vista. Wenn ich mir die recht konservativen Stromsparmodie momentaner GPUs ansehe, bezweifle ich das NVidia jetzt sogar einen extra Chip für Vista mit auf PCB klebt. Ich vermute eher in Richtung Video-Wandler für TV in/out oder ähnliches.

dargo
2006-10-24, 23:49:13
Beim 7900GTX Test wurde eine schwächere CPU benutzt.

G7900GTX? Du meinst wohl die G7950GX2 oder?

7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419
Also hat einer hier wieder Äpfel mit Birnen verglichen.

DrumDub
2006-10-24, 23:53:50
Also hat einer hier wieder Äpfel mit Birnen verglichen. noe. die cpu-werte kannste ja weg lassen. auf die sm-scores hat das keinen einfluss.

dargo
2006-10-24, 23:57:57
noe. die cpu-werte kannste ja weg lassen. auf die sm-scores hat das keinen einfluss.
Richtig, aber auf die Gesamtpunkte. Mit dem Kentsfield wäre die GX2 sonst auf >12000 gekommen. Jetzt wird mir einiges klar weswegen man bei der GX2 andere CPU genommen hat. :wink:

Edit:
Das bedeutet also, die G8800GTX ist im 3DMark06 langsamer als eine G7950GX2. :eek: :cool:

Gast
2006-10-25, 00:04:12
Das bedeutet also, die G8800GTX ist im 3DMark06 langsamer als eine G7950GX2. :eek: :cool:

Ja, mit dem ersten Treibern und DX 9.

ShadowXX
2006-10-25, 00:11:37
Edit:
Das bedeutet also, die G8800GTX ist im 3DMark06 langsamer als eine G7950GX2. :eek: :cool:
IMHO bedeutet das eher, das nV noch viel Treiberarbeit vor sich hat.

Der G80 ist ein völlig neues, völlig anderes Design als die bisherigen nV Chips, da muss im Bereich Treiber noch viel "gelernt" werden.

ich schätze das es bei G80 und r600 tatsächlich mal wieder sogenannte "Wundertreiber" geben wird, die öfters ab und zu mal 10-15% Leistungszuwachs bescheren (und zwar ohne Tricks).

Gerade wenn man den SM3.0-Score betrachtet, sieht man einiges an Beschleunigungsmöglichkeiten (IMHO sollte gerade der SM3.0 Score bei einer G80 mit ordentlichen Treibern wesentlich höher liegen als bei einer GX2).

dargo
2006-10-25, 00:15:35
Ja, mit dem ersten Treibern und DX 9.
Stimmt, den "Treiber-Bonus" hat NV noch. Aber das mit DirectX9 zieht nicht. Bis D3D10 erst langsam interessant wird haben wir schon die Refreshchips vor der Tür.

Habe mir nochmal die Benches mit X1900XT und der G8800GTX angesehen:
X1900XT Stock / 8800GTX
3DMark06: 6555 / 11795 pts
SM2: 2295 / 4783
SM3: 2555 / 4095
CPU: 4076 / 4419
Im SM3.0 Modus (der SM2.0 dürfte wohl langsam an Bedeutung verlieren) ist die NV 60% schneller. Wenn man das auf die X1950XTX überträgt (nur so macht ein Vergleich für mich Sinn, beides Top-Modelle) bleiben wohl ca. 50% übrig.

Jetzt bin ich umso mehr auf die AA Benches gespannt. Und natürlich, was neuere Treiber noch herausholen können.

cl55amg
2006-10-25, 00:28:00
G7900GTX? Du meinst wohl die G7950GX2 oder?




Ja klar...

dargo
2006-10-25, 00:35:42
Noch was zum Stromverbrauch (ich hoffe DK777 bringt mich nicht gleich um *ganz lieb schau*).

NV empfiehlt doch ein NT mit 450W bzw. 30A für die G8800GTX. Wenn NV genauso vorsichtig wie ATI ist dürfte die GTX gar nicht mal an die hier genannten 150-170W kommen. Ich denke eher die Karte überschreitet minimal die max. 150W (deswegen diese PCIe Stecker) und real könnte sie im Bereich ~130W liegen.

PS: ATI empfiehlt ebenfalls 30A für eine X1900XT.

SKYNET
2006-10-25, 01:44:54
Da hätte man auch einfach nur einen breiteren Interconnect verwenden können, anstatt zwei.
Quad-SLI mit 4 solchen Monstern sollte wohl auch eher nicht machbar sein.
Ich tippe irgendwie auf Tripple-SLi (nForce 680i mit 3x PCIe x16 ;) )

klar, externes NT... :wink:

Ich finde das absoluten Bullshit was nvidia da macht.

Warum muss die Karte so elendig lang sein?
Kann man eine Karte vom schlage einer G80 nicht auch kürzer designen?
Warum einen so extremen Stromverbrauch?

Gut das die alten Karten dann günstiger werden.

warum? finde die länge ok... ok, mein lian-li schluckt auch noch längere karten(bis 410mm keine probleme)... also von daher... *pffft*

und der stromverbrauch is doch auch nen witz... wird aller wahrscheinlichekit schneller als nen 7900GTX gespann und zieht dabei weniger strom, also who cares? :smile:

Odal
2006-10-25, 01:55:24
IMHO bedeutet das eher, das nV noch viel Treiberarbeit vor sich hat.

Der G80 ist ein völlig neues, völlig anderes Design als die bisherigen nV Chips, da muss im Bereich Treiber noch viel "gelernt" werden.

ich schätze das es bei G80 und r600 tatsächlich mal wieder sogenannte "Wundertreiber" geben wird, die öfters ab und zu mal 10-15% Leistungszuwachs bescheren (und zwar ohne Tricks).

Gerade wenn man den SM3.0-Score betrachtet, sieht man einiges an Beschleunigungsmöglichkeiten (IMHO sollte gerade der SM3.0 Score bei einer G80 mit ordentlichen Treibern wesentlich höher liegen als bei einer GX2).


naja das noch ein wenig aus den treibern herausgeholt werden kann ist klar....

aber diese flexibilisierung der gpu hatten für schon vom sprung von nv25 auf nv30
auch hier mutmasste man immer das durch shadercompiler usw. noch einiges gerissen werden kann...im rückblick war das doch dann eher ernüchternd....

klar ist der g80 mit unified shadern nochmals deutlich flexibler...aber ich meine das NV ja zeit hatte und ein paar manufactueren samples schon seit monaten existent sind...wunder sollte man sich von neuen treibern nicht mehr erwarten....

besonders nicht in hinsicht auf 3dmark da nv weiss das das immmer zum launch mitgebencht wird und schon sogut es geht darauf optimiert haben wird

ich denke mal sowohl der G80 als auch der R600 habern erin paar probleme damit das der sprung so gross sein musste....anständige mehrperformance würde ich für die refreshs erwarten

seahawk
2006-10-25, 08:10:04
Ich sehe das Problem nicht NV erreicht ohne AA/AF mit dem G80 praktisch die doppelte Leistung der Vorgängergeneration, wer hat da mehr erwartet. Wartet erste Benches in für High-End_Karten typischen Settings ab bevor ihr euch ne Meinung bildet.

Dunkeltier
2006-10-25, 08:29:03
Keine Ahnung, ob die Bilder schon bekannt sind:
http://img86.imageshack.us/my.php?image=rfbqxzawmdk4sqa3aspyuzxticqc2.jpg

http://img115.imageshack.us/img115/5825/rfbqxzawmja4sq6cufvmmtelvvvv5.jpg

http://img172.imageshack.us/img172/5600/rfbqxzawmdm4sq5j0pq3y8kcyeyq7.jpg

http://img226.imageshack.us/img226/914/rfbqxzawmds4sqgcwwn6l1aifpuc0.jpg

http://img115.imageshack.us/img115/7286/rfbqxzawmde4sqb5yjllyhgkhmoh5.jpg


http://www.nvnews.net/vbulletin/showthread.php?t=78819

deekey777
2006-10-25, 08:35:56
Ja, zu den Bilern wurde schon verlinkt, was auch im ersten Posting vermerkt. Darum dent Threadtitel beachten.

robbitop@work
2006-10-25, 09:34:10
Was mir noch auffiel: der 2. Chip ist ein bisschen weit weg vom 1.
Somit sollten die Signallaufzeiten nicht mehr sooo pralle sein. Das spricht IMO deutlich gegen externen Speicher.

Gouvernator
2006-10-25, 10:13:44
Stimmt, den "Treiber-Bonus" hat NV noch. Aber das mit DirectX9 zieht nicht. Bis D3D10 erst langsam interessant wird haben wir schon die Refreshchips vor der Tür.

Habe mir nochmal die Benches mit X1900XT und der G8800GTX angesehen:

Im SM3.0 Modus (der SM2.0 dürfte wohl langsam an Bedeutung verlieren) ist die NV 60% schneller. Wenn man das auf die X1950XTX überträgt (nur so macht ein Vergleich für mich Sinn, beides Top-Modelle) bleiben wohl ca. 50% übrig.

Jetzt bin ich umso mehr auf die AA Benches gespannt. Und natürlich, was neuere Treiber noch herausholen können.
Ich hab mit meiner 1900XTX@800/909mhz im 3dmark06 SM 3.0 test knapp über 3000 Punkte. Also das ist schon nicht schlecht was da mit 575mhz zustande kommt...

Gaestle
2006-10-25, 11:07:18
anständige mehrperformance würde ich für die refreshs erwarten

Also ich weiß nicht, was Ihr habt.

Der Maßstab sollten doch bitteschön die Single-Core - Lösungen der beiden Hersteller sein und nicht SLi oder Crossfire (egal ob auf einem PCB realisiert, oder mit 2 Karten).

Denn allem Anschein nach ist genau das eingetreten, was wohl auch zu erwarten war. Eine EINZELNE X1950XTX und bzw. eine EINZELNE 7950GTX wird von den neuen Karten sehr deutlich geschlagen.

Oder mit anderen Worten: anscheinend hat die 8800GTX im 3DMark06 die Leistung von zwei 7900GTX im SLi-Verbund. Wenn eine 7900GTX im SLi-Verbund im 3DMark06 etwa 70% mehr bringt als eine einzelne 7900GTX, dann sollte die 8800GTX im 3DMark06 etwa 70% über einer einzelnen 7900GTX liegen.

Wo liegt das Problem? Ich finde, dass das eine ganz ordentliche Performance (im 3DMark06) ist, vorausgesetzt, die CPU ist für die SM2 bzw. SM3-Tests wirklich ohne Einfluss.

The_Invisible
2006-10-25, 11:16:08
wobei mich werte mit AA/AF mehr interessierne würden

ohne wirds mit jeder generation immer mehr cpu limitiert

mfg

dargo
2006-10-25, 11:29:19
ohne wirds mit jeder generation immer mehr cpu limitiert

Aber nicht mit einem Kentsfield, der hier zum Test genommen wurde. :wink:
Vorrausgesetzt natürlich, die Grafik-Tests profitieren gut vom Quadcore.

Riplex
2006-10-25, 11:40:21
Das bedeutet also, die G8800GTX ist im 3DMark06 langsamer als eine G7950GX2. :eek: :cool:

Also ich komm mit nem E6600 @ 3 ghz auf knappe 9000 Punkte mit der GX2 @ 570/1300. Wenn die 8800 GTX als einzelne Karte dann ~12000 schafft, find ich das nicht wirklich langsam ;)

dargo
2006-10-25, 11:43:37
Also ich komm mit nem E6600 @ 3 ghz auf knappe 9000 Punkte mit der GX2 @ 570/1300. Wenn die 8800 GTX als einzelne Karte dann ~12000 schafft, find ich das nicht wirklich langsam ;)
Hast du zufällig die Einzelwerte da? SM2.0, SM3.0 und CPU?

Riplex
2006-10-25, 12:05:03
Hast du zufällig die Einzelwerte da? SM2.0, SM3.0 und CPU?

3DMark Score 9250 3DMarks
SM 2.0 Score 4105 Marks
SM 3.0 Score 3934 Marks
CPU Score 2551 Marks

http://service.futuremark.com/compare?3dm06=569287

So langsam müssten die Karten in den Händlerpreislisten doch mal auftauchen, oder ? Sind ja nur noch 3 Wochen bis zum launch.

deekey777
2006-10-25, 12:09:25
wobei mich werte mit AA/AF mehr interessierne würden

[...]

mfg
Genau. Diese Diskussion um die Werte, die für Roh-Performance in 3D 2006 als Gradmesser stehen, sind so was von uninteressant, dass es meiner Meinung nach sich nicht lohnt, Zeit darauf zu verschwenden.

Darum: Mit bösem und dem Zeigefinger drohend bitte ich diese Diskussion einzuschränken.
Findet lieber heraus, wofür dieser kleine Chip dient.:biggrin:

Riplex
2006-10-25, 12:14:19
Findet lieber heraus, wofür dieser kleine Chip dient.:biggrin:

Nvidia Quantum Technologie ??? :D

doppelschwoer
2006-10-25, 12:14:25
Im HWluxx sind sie der Meinung dass es sich um nen Physik Chip handelt. Dasshalb auch der Speicher bei der kleinen Karte:

http://www.forumdeluxx.de/forum/showpost.php?p=4699048&postcount=128

ShadowXX
2006-10-25, 12:22:14
Im HWluxx sind sie der Meinung dass es sich um nen Physik Chip handelt. Dasshalb auch der Speicher bei der kleinen Karte:

http://www.forumdeluxx.de/forum/showpost.php?p=4699048&postcount=128
Das ist kein Physikchip......das kann alles mögliche sein (IMO ist es für HDCP auch wenn alle meinen das er dafür zu groß ist), aber es ist kein Physikchip. Die Physik-Engine läuft über die normalen ALUs.

robbitop@work
2006-10-25, 12:24:40
Ein extra Physikchip macht m.E. wenig Sinn. Sowas kann man die ALUs machen lassen. Außerdem gibt's noch keine richtige Spielebasis geschweige denn eine konforme Physik API. IMO wäre sowas eine richtige Verschwendung.

Das Teil ist ziemlich "weit weg" von der GPU, ergo vermutlich keine sehr guten Signallaufzeiten mehr. Ds würde gegen ext. eDRAM Daughter DIE sprechen.
Es könnte in der Tat ein HDCP Chip sein. Aber wäre der dann soo groß? Müßte der unbedingt FCBGA sein? Kann man da nicht lieber statt eigenene R&D Ressourcen zu verballern eine 3rd Party Lösung nehmen?

Bisher weiß soziemlich niemand, was es damit auf sich hat.

Palpatin
2006-10-25, 12:27:04
Ich find die performance Steigerung schon ganz ordentlich meint ihr eine Karte reicht vorerst für nen 30 Zoll ? AA muss nicht unbedingt sein. AF 16 schon.

deekey777
2006-10-25, 12:30:16
Nvidia Quantum Technologie ??? :D
Das ist kein Physikchip......das kann alles mögliche sein (IMO ist es für HDCP auch wenn alle meinen das er dafür zu groß ist), aber es ist kein Physikchip. Die Physik-Engine läuft über die normalen ALUs.

Obwohl es nicht ausschließt, dass dieser kleine Chip genau dafür zuständig ist, damit der Große um die Grafik kümmert (siehe Folien, wo die einer 7900GTX das Rendering, die 7600GT die Berechnung der Effekte-Physik übernimmt).

Weitere Möglichkeit wäre ViVo (inkl. Videoprozessor für De- und Encoding in HW) uU - wie Q vorschlug - für Desktop zuständig.

X.Perry_Mental
2006-10-25, 12:32:39
Adrianne Curry (das neue G80-Model) - ich weiss allerdings nicht, ob das jetzt schon auf G80 gerendert ist (kann hier wer schwedisch?)
http://www.sweclockers.com/nyhet/?id=4984

Odal
2006-10-25, 12:37:00
könnte dieser kleine chip vielleicht eine art controller für zukünftige multigpu lösungen darstellen? also das die lastverteilung und der sli gewin effizienter gestaltet wird und nicht nur jedes 2. bild vorrausgerandert wird sondern konkret bestimmte teilaufgaben einer gpu zugewiesen werden?
*spekulier* :D

DrumDub
2006-10-25, 12:37:36
Adrianne Curry (das neue G80-Model) - ich weiss allerdings nicht, ob das jetzt schon auf G80 gerendert ist (kann hier wer schwedisch?)
http://www.sweclockers.com/nyhet/?id=4984
das bild gabs schon hier im thread (bzw. in einer älteren version des threads).

robbitop@work
2006-10-25, 12:52:19
könnte dieser kleine chip vielleicht eine art controller für zukünftige multigpu lösungen darstellen? also das die lastverteilung und der sli gewin effizienter gestaltet wird und nicht nur jedes 2. bild vorrausgerandert wird sondern konkret bestimmte teilaufgaben einer gpu zugewiesen werden?
*spekulier* :D
3DLabs hat sowas beim P20 gemacht. Toll war's jedoch nicht.

doppelschwoer
2006-10-25, 13:08:50
Allem zum trotz tip ich auf Physik.
Allerdings ist auch ein 2D chip nicht unwarscheinlich. Der Chip hat in etwas den selben Abstand zu den Speichern wie die GPU. Außerdem ist er auch mittig ausgerichtet. Auch die das umfeld den Chips deutet auf richtig power hin. Da sind Spawas/regler.

VIVO oder andere Zusatzchips werden eher an den Rand der PCB plaziert damit um die GPU alles einfach bleibt.
Ich denke der Chip hat eine sehr Zentrale Rolle bei den neuen Karten, immerhin verhindert der dass die Karten schön schnucklig kurz bleiben.

The_Invisible
2006-10-25, 13:19:27
da ein nvidia logo oben ist darf man ja von nem proprietären chip von nvidia ausgehen.

ob die wirklich nen physik chip entwickelt haben?

mfg

robbitop@work
2006-10-25, 13:25:11
da ein nvidia logo oben ist darf man ja von nem proprietären chip von nvidia ausgehen.

ob die wirklich nen physik chip entwickelt haben?

mfg
Dazu braucht man doch nicht extra etwas entwickeln. Das ist nicht mehr als ein Streamprozessor. Sowas ist auch in jeder aktuellen GPU drin. Das bräuchte man nur einzeln "hinein zu tun" und ein entsprechendes Interface dafür nutzen.

Moralelastix
2006-10-25, 13:25:38
Auch die 700 Mio Transen sind so unglaublich.

Vielleicht 500+ für die eigentliche GPU und der Rest für den Chip?

AnarchX
2006-10-25, 14:10:38
Noch ein paar neue 3DM06-Werte - neuerer Treiber?:
@ 3.15Ghz Core 2 Duo E6600 (350x9)
Default scores with less overclocked core 2

Geforce 8800GTX 768MB 384bit GDDR3 @ 575MHz/1800MHz



3DMark06 Score 11934 3DMarks



SM 2.0 Score 5562 Marks


SM 3.0 Score 5443 Marks


CPU Score 2727 Marks

http://www.google.com/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-641408-1-1.html&langpair=zh-CN%7Cen&hl=en&ie=UTF8

Odal
2006-10-25, 14:10:58
3DLabs hat sowas beim P20 gemacht. Toll war's jedoch nicht.


naja ich hätte ja noch ne idee

eine art memory controller der multigpu lösungen wie der GX2 den zugriff beider GPUs auf den gleichen speicher ermöglicht...

derzeit hat jede gpu ja seperaten speicher....und da speicher die karten relativ stark verteuert....

würde das sinn machen?

doppelschwoer
2006-10-25, 14:12:17
durchaus möglich.
Es wird ja auch immer von 512+256 gesprochen.

Wieso dann nicht 500+200 Transies.

Oh mann. Immer dieses Raten. Am lustigsten ist dann immer nach Vorstellung der Karte solche Threads zu lesen.

Na kommt schon. Irgend ein Tip von jemandem der was weis? Reicht ja schon zu sagen ob wir auf dem Holzweg sind oder schon was richtiges gesaagt haben ;)

Gast
2006-10-25, 14:13:37
http://xtreview.com/addcomment-id-837-view-geforce-8800-gtx-review.html :)

doppelschwoer
2006-10-25, 14:13:53
naja ich hätte ja noch ne idee

eine art memory controller der multigpu lösungen wie der GX2 den zugriff beider GPUs auf den gleichen speicher ermöglicht...

derzeit hat jede gpu ja seperaten speicher....und da speicher die karten relativ stark verteuert....

würde das sinn machen?

weis nett, da wären doch arge probs hier den Speichen entsprechend schnell anzusprechen.

AnarchX
2006-10-25, 14:14:55
http://xtreview.com/addcomment-id-837-view-geforce-8800-gtx-review.html :)

Review? :|
Zudem schafft man auch 11k+ mit einem C2D, siehe oben.

StefanV
2006-10-25, 14:17:49
http://we.pcinlife.com/attachments/forumid_206/8800%20GTS_7_PhbEyYpicNQ3.jpg

http://img146.imageshack.us/img146/929/rimg0115ka4.th.jpg (http://img146.imageshack.us/my.php?image=rimg0115ka4.jpg)

The_Invisible
2006-10-25, 14:22:17
naja ich hätte ja noch ne idee

eine art memory controller der multigpu lösungen wie der GX2 den zugriff beider GPUs auf den gleichen speicher ermöglicht...

derzeit hat jede gpu ja seperaten speicher....und da speicher die karten relativ stark verteuert....

würde das sinn machen?

warum dann auf ne single-card resourcen verbraten? nene, das ist was anderes

mfg

robbitop@work
2006-10-25, 14:25:05
naja ich hätte ja noch ne idee

eine art memory controller der multigpu lösungen wie der GX2 den zugriff beider GPUs auf den gleichen speicher ermöglicht...

derzeit hat jede gpu ja seperaten speicher....und da speicher die karten relativ stark verteuert....

würde das sinn machen?
Sinnig wäre es, aber dazu müßte der Chip dann dort platziert sein, wo der G80 sitzt ;)
Allerdings skallierte dann die Bandbreite mit SLI nicht mit sondern nur die Rechenleistung. Allerdings könnte man den Chip dazu nutzen, beide Speichercontroller miteinander zu verbinden, so dass dann auch die Bandbreite und Speichermenge mitskallieren könnte und Texturen nur 1x vorhanden sein müßten. (so hat 3DLabs das gemacht)

doppelschwoer
2006-10-25, 14:34:06
@ StefanV
Also doch ne kleine extra GraKa. Wobei doch ein Physikchip auch ähnlich aussehen kann.

Torian.cc
2006-10-25, 15:07:02
Hab` ich vielleicht irgendetwas verpasst??
In so ziemlich jedem Vorabbericht zum G80 kann man lesen, das dieser 128 Unified Shader besitzen soll!
Aber soweit ich mich erinnere hieß es doch mal, daß ATI der erste Graka-Entwickler sein soll, der Unified Shader verbauen will (beim R600) und nVidia wollte damit bis zur nächsten Generation warten...

Weiss man denn schon, wie viele US der R600 haben wird?

MfG
Tori

Moralelastix
2006-10-25, 15:13:22
@ StefanV

Was meinst Du mit den Bildern?

Das NV einfach eine Lowend GPU für die Physik verbaut hat vielleicht ja schon einen G81?


Edit: Mir scheint der Chip auf Deiner 7300? is keiner. Vergleichs mal zu den Speichern.

Edit 2:
Ich hab die Bilder transparent übereinander gelegt. Ist exakt so groß wenn die Speicher gleich sind.

Was spricht dagegen einfach eine andere Art einer GX2.

deekey777
2006-10-25, 15:30:52
Mit den Bildern meint er wohl, dass im Hinblick auf die Vergangenheit wir aufhören sollten, wegen der Länge der 8800GTX zu jammern (Übertreibung).
Ich hielt mal eine TV-Karte, die Mitte der 90er Jahre aktuell war: Dagegen ist die 8800GTX ein Zwerg!

StefanV
2006-10-25, 15:34:50
@ StefanV

Was meinst Du mit den Bildern?
Schau dir mal das an, was auf der 7300GS sitzt und dann, was auf der 8800 sitzt!
Kleiner Tip: das auf der 8800 ist größer...

Das NV einfach eine Lowend GPU für die Physik verbaut hat vielleicht ja schon einen G81?
Kommt doch mal mit dem Physikdingsbums runter, das ist so wahrscheinlich, das da sowas draufsitzt wie das morgen die Hölle zufriert!!

Kurz:
Das Teil MUSS für was anderes sein, entweder ist das sowas wie ein externer, erweiterter RAMDAC (mit etwas RAM, ROP/TMUs + ev. 2D Core) oder aber es einfach nur Speicher, jemand von woanders meinte 16MB NEC eDRAM...


Edit: Mir scheint der Chip auf Deiner 7300? is keiner. Vergleichs mal zu den Speichern.
BINGO, darauf wollt ich hinaus!!!

ShadowXX
2006-10-25, 15:38:29
Kurz:
Das Teil MUSS für was anderes sein, entweder ist das sowas wie ein externer, erweiterter RAMDAC (mit etwas RAM, ROP/TMUs + ev. 2D Core) oder aber es einfach nur Speicher, jemand von woanders meinte 16MB NEC eDRAM...

10:1 das das Ding etwas völlig unspektakuläres ist.

Moralelastix
2006-10-25, 15:46:16
Na ja, so oder so sind keine 700 Mio Transen unter der Daukappe.

@StefanV
Das mit dem NEC RAM war aus dem beyond3d forum und wahrscheinlich eher ein böser Joke.
Der soll erst später 2007 auf den Markt kommen.

"BINGO, darauf wollt ich hinaus!!!" Wie, ich komm net mit?

StefanV
2006-10-25, 16:06:49
Also: das Teil was da drauf sitzt, hat 'nen größeren Träger und auch 'nen größeres Die als der Grafikchip der 7300GS.
10:1 das das Ding etwas völlig unspektakuläres ist.Davon kann man eigentlich nur ausgehen!!

Aufgrund der Position ist es nicht unwahrscheinlich, das es was mit der Ausgabe von Videosignalen zu tun hat, ev. auch mit der Eingabe...

Am wahrscheinlichsten ists, IMO, das man einen Schritt zurück gemacht hat und RAMDAC + alles was dabei gehört, rausgeschmissen hat und in einen Seperaten Chip gepflanzt hat (ok, nicht zwangsläufig den RAMDAC aber eher TDMS Transmitter)

Blaire
2006-10-25, 16:11:45
Keine Ahnung ob das hier schon gepostet wurde?

Unknown system specs (but probably C2D or C2Q)
GeForce 8800GTX ----> FEAR 4xAA/8xAF 1600x1200 80fps
16xAA/8xAF 1600x1200 34fps

On the same settings GF7900GTX hits 47fps....

Quelle:
http://www.pcdvd.com.tw/showthread.php?t=665665&page=4&pp=10

Gast
2006-10-25, 16:14:35
Es geht weiter mit der Ankündigung:

http://www.nvidia.com/content/event_registration/2006/reality_redefined_general/rsvp.asp

Gast
2006-10-25, 16:19:38
On the same settings GF7900GTX hits 47fps....in 16xAA/8xAF 1600x1200 34fps ?

Blaire
2006-10-25, 16:21:50
Nein.
1600x1200 4xAA/8xAF:
8800GTX= 80 fps
7900GTX= 47 fps

Für eine Singlecard nicht übel ,das ist in etwa das Level zweier 7900GTX im SLI Verbund.

Gast
2006-10-25, 16:23:51
ned schlecht,mal andere games anschaun. oblivion is pflicht.

ShadowXX
2006-10-25, 16:30:01
Nein.
1600x1200 4xAA/8xAF:
8800GTX= 80 fps
7900GTX= 47 fps

Für eine Singlecard nicht übel ,das ist in etwa das Level zweier 7900GTX im SLI Verbund.
Wobei ich 37FPS für 16xAA auch nicht schlecht finde.

Aber ich muss andererseits auch sagen, das ich den 4xAA-Wert der 8800GTX nicht sooooo berauschend finde, da der GPU eigentlich nachgesagt wurde, das Sie gerade unter AA extrem wegziehen soll (lt. manchen Gerüchte soll 4xMSAA nur das gleiche "kosten" wie momentan 2xMSAA).

Es könnte natürlich sein, das das Game auf einem G80 CPU-Limitiert ist....

Zapat
2006-10-25, 16:33:38
Noch ein paar neue 3DM06-Werte - neuerer Treiber?:

Komisch das der G80 beim Ps 2.0 test mehr punkte kriegt.:| Für ein Next Gen Chip hätte ich gedacht das der G80 grade beim Ps 3.0 test seine volle stärke ausspielen kann.:|

Blaire
2006-10-25, 16:35:03
Fragt sich nur was dieser 16xAA genau ist. 16xS ist damit sicher nicht gemeint, glaub ich jedenfalls nicht.
Mit 7950GX2-QuadSLI@1600x1200 4xAA/16xAF kam man auf ca. 100 fps @FEAR also dürfte da nix cpu limitiert sein.

ShadowXX
2006-10-25, 16:42:41
Fragt sich nur was dieser 16xAA genau ist. 16xS ist damit sicher nicht gemeint, glaub ich jedenfalls nicht.
Mit 7950GX2-QuadSLI@1600x1200 4xAA/16xAF kam man auf ca. 100 fps @FEAR also dürfte da nix cpu limitiert sein.
Hmm...Wenn man sich deine Werte anguckt, dürfte an der verbesserten MSAA-Leistung des G80 wohl doch nichts dran sein (bzw. zumindest sich nicht in den "unteren" MSAA-Bereichen auswirken). Schade.
Ich spiele lieber mit 4xMSAA & TSAA als in 16xMSAA ohne TSAA.

Das 16xAA wird wohl 16xMSAA sein....zumindest heißt es an allen Enden und Ecken das der G80 bis zu 16xMSAA kann.

Anarchy-HWLUXX
2006-10-25, 17:00:26
In den neuen 96.89 Beta Treibern findet sich folgendes :


NVIDIA_G80.DEV_0191.1 = "NVIDIA GeForce 8800 GTX"
NVIDIA_G80.DEV_0193.1 = "NVIDIA GeForce 8800 GTS"



Bei B3D :

The reference to the GT has been misteriously erased, but the internal id is still valid, as the GTX is 0191.1, the GTS is 0193.1 and the "supposed" GT was listed as 0192.1.

Gast
2006-10-25, 17:24:46
Dazu braucht man doch nicht extra etwas entwickeln. Das ist nicht mehr als ein Streamprozessor. Sowas ist auch in jeder aktuellen GPU drin. Das bräuchte man nur einzeln "hinein zu tun" und ein entsprechendes Interface dafür nutzen.

Lol, was für einen Driss du hier erzählst ist echt schon fast witzig! :)

ShadowXX
2006-10-25, 17:28:52
Lol, was für einen Driss du hier erzählst ist echt schon fast witzig! :)
Er hat aber recht....das Problem ist mehr die Software, nicht die Hardware.

Mit der entsprechenden SW (die ja jetzt scheinbar vorhanden ist -> Quantum Dingsbums Engine) könnte nV theoretisch jeden G80 Ableger ebenfalls als Physikchip zu verkaufen ohne auch nur einen Transistor umdrehen zu müssen.

robbitop
2006-10-25, 17:35:43
Wer sagt denn, dass die geleakten FEAR Werte authentisch sind? Ich kann mir wenn ich will auch ein paar Zahlen ausdenken und die in irgend einem Forum veröffentlichen.

Blaire
2006-10-25, 17:43:27
Erste 8800 gelistet :D
https://www.excaliberpc.com/parts.asp?stxt=8800+gtx

Gast
2006-10-25, 17:47:24
Ist das der Versandpreis (sprich inkl. allem Drum und Dran)?

Gast
2006-10-25, 17:47:35
Er hat aber recht....das Problem ist mehr die Software, nicht die Hardware.

Mit der entsprechenden SW (die ja jetzt scheinbar vorhanden ist -> Quantum Dingsbums Engine) könnte nV theoretisch jeden G80 Ableger ebenfalls als Physikchip zu verkaufen ohne auch nur einen Transistor umdrehen zu müssen.

Das ist ein völlig andere Technologie, Shaders und Pipes können keine Objekte in einem Raum berechnen (Flugbahn, Winkel, etc.) . Das kann nur die CPU oder die PPU.

Blaire
2006-10-25, 17:51:31
Ist das der Versandpreis (sprich inkl. allem Drum und Dran)?

Das kostet extra sicherlich aber keine Aufregung die Karten sind auch noch garnicht lieferbar. :)

LovesuckZ
2006-10-25, 17:51:40
Ist das der Versandpreis (sprich inkl. allem Drum und Dran)?

Ich denke nicht. Wäre auch unmöglich, da in den USA unterschiedliche Steuersätze gelten.

Godmode
2006-10-25, 17:51:42
Das ist ein völlig andere Technologie, Shaders und Pipes können keine Objekte in einem Raum berechnen (Flugbahn, Winkel, etc.) . Das kann nur die CPU oder die PPU.

Es sind Gleitkommarechnungen und genau das kann eine GPU ganz besonder gut!

Gast
2006-10-25, 18:02:42
Aha und was passiert wenn 10.000 Objekte gleichzeitig berechnet werden müssen und paralell noch die GPU die Shader Effekte / Polis etc. mitberechnen muß??? lol

Btw, der kleine Chip auf dem PCB neben dem eigentlich VGA Chip ist ein reiner Kommunikationschip ala Interface HDMI etc. pepe

AnarchX
2006-10-25, 18:20:54
Mal noch eine Vermutung zu dem kleinen Chip:
Könnte er vielleicht etwas mit SLI zu tun haben, immerhin ist er ja nicht soweit entfernt von den Connectoren?
Könnte man vielleicht mit entsprechender Logik einen neuen Multi-GPU-Modus realisieren?

Gast
2006-10-25, 18:22:53
Mal noch eine Vermutung zu dem kleinen Chip:
Könnte er vielleicht etwas mit SLI zu tun haben, immerhin ist er ja nicht soweit entfernt von den Connectoren?
Könnte man vielleicht mit entsprechender Logik einen neuen Multi-GPU-Modus realisieren?

Ne Ne, guter Gedanke aber ich glaube es ist tatsächlich eine "ART" Inferface für HDMI, Blueray, etc pepe.

gguru
2006-10-25, 18:22:54
Erste 8800 gelistet :D
https://www.excaliberpc.com/parts.asp?stxt=8800+gtx

Die Preise sind schon ziemlich hoch, wenn man bedenkt, dass sie 1:1 von Dollar zu Euro übernommen werden.

Ist es da nicht billiger zu importieren? Der Händler verschickt international, da komme ich auf ~$660 zu mir nach Österreich. Das wären ~525€, also schon viel besser.

Oder muss man noch mehr zahlen beim importieren von Hardware?

LovesuckZ
2006-10-25, 18:24:31
Oder muss man noch mehr zahlen beim importieren von Hardware?

Zoll...

cl55amg
2006-10-25, 18:24:55
Die Preise sind schon ziemlich hoch, wenn man bedenkt, dass sie 1:1 von Dollar zu Euro übernommen werden.

Ist es da nicht billiger zu importieren? Der Händler verschickt international, da komme ich auf ~$660 zu mir nach Österreich. Das wären ~525€, also schon viel besser.

Oder muss man noch mehr zahlen beim importieren von Hardware?

mehrwertsteuer und zoll!
Ein paar europäische statten haben eine Luxussteuer auf PC Hardware.

Gast
2006-10-25, 18:33:58
Es sollte doch auch eine neue Funktion ( zumindest bei notebooks )geben:
Falls der Bildschirminhalt sich nicht ändert wird dieser gespeichert und Ständig zum monitor gesendet. der Rest der Graka wird abgeschaltet.
Vielleicht hat der mysteriöse Chip auch diese Funktion (neben HDMI und ViVo Krimms)

Gast
2006-10-25, 18:44:57
Aha und was passiert wenn 10.000 Objekte gleichzeitig berechnet werden müssen und paralell noch die GPU die Shader Effekte / Polis etc. mitberechnen muß??? lol

Dann ist die GPU immer noch viel schneller als die Physik auf der CPU zu berechnen.

robbitop
2006-10-25, 18:58:10
Das ist ein völlig andere Technologie, Shaders und Pipes können keine Objekte in einem Raum berechnen (Flugbahn, Winkel, etc.) . Das kann nur die CPU oder die PPU.
Aha und warum soll das nicht gehen?
Shader ALUs sind Vec4 SIMD ALUs. Für physikalische Berechnungen lassen sich SIMD als auch MIMD ALUs hervorragend benutzten. Man braucht eigentlich nur 3 Kaneäle pro Operation. Man kann sehr viel über Eulerwinkel machen oder über vereinfachte Infenitisimalrechnung von einzelnen Strömungsteilchen.
Die PhysX PPU ist auch nicht mehr als ein Array von Streamprozessoren gekoppelt mit einem ARM Prozessor. Bereits ATIs R5xx Architektur ist für physikalische Berechnungen sehr gut geeignet. G80 wird es dank besserer dynamischen Branching/Loopingfähigkeiten auch sein.

|MatMan|
2006-10-25, 19:30:36
warum sollte man alles außer dem reinen 3D Teil aus einer GPU werfen (also 2D zeugs, HDCP, RAMDAC, Transmitter, TV zeugs, ...)?? Das macht doch für Midrange und Lowend gar keinen Sinn...

Könnte man vielleicht die 128 Stream Prozessoren ausgekoppelt haben? die dann aber in der Mitte unter dem Heatspreader sitzen, da die sicher die Meiste Hitze verursachen...
D.h. eine GPU mit "durchschnittlichem" Stromverbrauch aber eine Menge ALUs extra als "Lastknechte"? :)

ich glaube aber nicht, dass das irgendwie möglich wäre :tongue:

Gast
2006-10-25, 19:59:14
Nein, dafür ist der viel zu groß!!

Schau mal im 'Schönste GraKa' und blätter mal 2-3 Seiten zurück, da hast 'nen Foto von 'ner 7300GS, OHNE KÜHLER.
Du weißt doch gar nicht, wieviel Transistoren für Vista/SM4 allein draufgehen, unabhängig von der Anzahl der Recheneinheiten. Die Transistorzahl von PureVideo kennst du auch nicht - woher also deine Annahme, dass eine 7300GS irgendeinen brauchbaren Hinweis auf die Die-Größe geben könnte?


Q

Gast
2006-10-25, 20:00:32
Glaub ich kaum, ...

Ich glaube es auch nicht, daher der Smiley. Aber das wäre eine mögliche Denkrichtung.


Q

Noch was zum Stromverbrauch (ich hoffe DK777 bringt mich nicht gleich um *ganz lieb schau*).

NV empfiehlt doch ein NT mit 450W bzw. 30A für die G8800GTX. Wenn NV genauso vorsichtig wie ATI ist dürfte die GTX gar nicht mal an die hier genannten 150-170W kommen. Ich denke eher die Karte überschreitet minimal die max. 150W (deswegen diese PCIe Stecker) und real könnte sie im Bereich ~130W liegen.

PS: ATI empfiehlt ebenfalls 30A für eine X1900XT.

Gute Einschätzung!


Q

Adrianne Curry (das neue G80-Model) - ich weiss allerdings nicht, ob das jetzt schon auf G80 gerendert ist (kann hier wer schwedisch?)
http://www.sweclockers.com/nyhet/?id=4984

Das ist Fake.


Q

Keine Ahnung ob das hier schon gepostet wurde?

Unknown system specs (but probably C2D or C2Q)
GeForce 8800GTX ----> FEAR 4xAA/8xAF 1600x1200 80fps
16xAA/8xAF 1600x1200 34fps

On the same settings GF7900GTX hits 47fps....

Quelle:
http://www.pcdvd.com.tw/showthread.php?t=665665&page=4&pp=10

Die Werte klingen halbwegs plausibel.


Q

ShadowXX
2006-10-25, 20:45:12
Die Werte klingen halbwegs plausibel.
Q
Dann ist die MSAA-Leistung aber doch nicht besser (zumindest nicht wesentlich bzw. unter "niedrigen" (=bis 4x) AA Stufen nicht wesentlich besser) als bei den jetzigen Chips.

Das ist wirklich schade, da sowas wirklich mal was allgemein brauchbares und sofort bemerkbares gewesen wäre.
Bremst meine "Euphorie" doch etwas....16xMSAA schön und gut, aber wofür? Ich sehe den Unterschied zwischen 4 und 6xMSAA bei 1680x1050 bzw. 1600x1200 jetzt schon meistens nicht.
Da wäre mir ein 4xMSAA das sehr wenig Leistung zieht lieber gewesen.

Ich hoffe das wenigstens das AF besser als bei den nv40/G70/G71-Chips ist.

Aha und warum soll das nicht gehen?
Shader ALUs sind Vec4 SIMD ALUs. Für physikalische Berechnungen lassen sich SIMD als auch MIMD ALUs hervorragend benutzten. Man braucht eigentlich nur 3 Kaneäle pro Operation. Man kann sehr viel über Eulerwinkel machen oder über vereinfachte Infenitisimalrechnung von einzelnen Strömungsteilchen.
Die PhysX PPU ist auch nicht mehr als ein Array von Streamprozessoren gekoppelt mit einem ARM Prozessor. Bereits ATIs R5xx Architektur ist für physikalische Berechnungen sehr gut geeignet. G80 wird es dank besserer dynamischen Branching/Loopingfähigkeiten auch sein.
Nicht zu vergessen das nV sicher nicht ganz umsonst ihre Quantum-Physik-Engine anpreist, was man bestimmt nicht machen würde wenn sowas gar nicht funktioniert.....es kann natürlich sein, das wir da einen Gast haben, der aufgrund einer schon gekauften Aegis Physik-Karte gar nicht möchte das sowas funktioniert (auf gut deutsch: seine Investition den Bach runtergehen sieht).

Zapat
2006-10-25, 20:49:07
Jetzt können wir wieder alle die Frage in denn raum werfen warum die hohen AA Modi wenn auch ein G80 damit überfordert ist.:cool:

LovesuckZ
2006-10-25, 20:51:38
Jetzt können wir wieder alle die Frage in denn raum werfen warum die hohen AA Modi wenn auch ein G80 damit überfordert ist.:cool:

Technisch gesehen, habe ich keine Ahnung.
Aber rein logisch gesehen, ist es doch nicht verwunderlich, wenn bei dem vierfachen Aufwand mehr Leistung nötig ist. ;)

ShadowXX
2006-10-25, 20:54:36
Jetzt können wir wieder alle die Frage in denn raum werfen warum die hohen AA Modi wenn auch ein G80 damit überfordert ist.:cool:
Nun ja....in niedrigeren Auflösungen oder bei nicht so fordernen Games wird das wohl ganz OK laufen.
Ausserdem macht es sich in den Specs ganz gut und man darf auch nicht vergessen das der Refresh des G80 nochmal schneller werden wird und das ganze dann auch wohl mit etwas leistungshungerigeren Games laufen wird.

The_Invisible
2006-10-25, 20:57:56
Jetzt können wir wieder alle die Frage in denn raum werfen warum die hohen AA Modi wenn auch ein G80 damit überfordert ist.:cool:

weil es zwei nicht sind? :D

aber stimmen die fear werte könnte man zumindest in 1280 mit 16xaa spielen, selbst 8xaa würde bei einem guten muster in dieser auflösung locker reichen

mfg

ShadowXX
2006-10-25, 21:10:25
weil es zwei nicht sind? :D

Bei G80-SLI würde ja wieder neue AA-Modi hinzukommen, die die Belastung wieder hochschrauben.

Anarchy-HWLUXX
2006-10-25, 22:14:38
Das ist Fake.



Ein Fake WOVON ?

Das es ein Rendering ist ist wohl klar ... und was die komige Quali angeht, die Bilder wurden abgescant ...

AnarchX
2006-10-25, 22:18:06
Ein Fake WOVON ?

Das es ein Rendering ist ist wohl klar ... und was die komige Quali angeht, die Bilder wurden abgescant ...

... die Bilder stammen aus Adrianne Curry's Blog:
http://blog.myspace.com/index.cfm?fuseaction=blog.view&friendID=42771364&blogID=170277897&Mytoken=DD8BFE5D-2FD4-4083-9C3DABFDCC2CC52B48395911

btw.
Hier noch ein Pic der MSI 8800GTS:
http://img288.imageshack.us/img288/5278/msi8800gtsvt4.jpg

Hvoralek
2006-10-25, 22:25:30
Keine Ahnung ob das hier schon gepostet wurde?

Unknown system specs (but probably C2D or C2Q)
GeForce 8800GTX ----> FEAR 4xAA/8xAF 1600x1200 80fps
16xAA/8xAF 1600x1200 34fps

On the same settings GF7900GTX hits 47fps....

Quelle:
http://www.pcdvd.com.tw/showthread.php?t=665665&page=4&pp=10Interessant, dass da 8x AF genutzt wurde. Ähnelt die AF des G80 vlt der des NV30: Fast völlig winkelunabhängig, aber nur max. 8x?

Aha und was passiert wenn 10.000 Objekte gleichzeitig berechnet werden müssen und paralell noch die GPU die Shader Effekte / Polis etc. mitberechnen muß??? lolNatürlich kostet das Arithmetikleistung. Aber was ist wohl sinnvoller: Einen zuätzlichen Chip entwickeln und auf das PCB setzen, der mit spezieller Hardware nur Physikberechnungen durchführen kann (und dass ohne, dass bisher erkennbar wäre, was für eine API sich in dem Bereich durchsetzen wird) oder einfach mehr Arithketikeinheiten verbauen, die dann je nach Bedarf für Shading, für Physikberechnungen (mit gewisser Flexibilität bzgl der API) oder für sonst was genutzt werden können? :rolleyes:

Gast
2006-10-25, 22:39:14
Ich zumindest sehe nichts positives an dieser Entwicklung dran. Früher hat man sich über den Stromverbrauch einer X1900XTX mit ~120W aufgeregt. Jetzt werden 150-170W einfach akzeptiert nur weil die neue Graka eventuell doppelt so schnell ist? :|


wenn es um performance/watt geht, ist die neue karte dann ja schneller.

Anarchy-HWLUXX
2006-10-25, 22:47:53
... die Bilder stammen aus Adrianne Curry's Blog:
http://blog.myspace.com/index.cfm?fuseaction=blog.view&friendID=42771364&blogID=170277897&Mytoken=DD8BFE5D-2FD4-4083-9C3DABFDCC2CC52B48395911

btw.
Hier noch ein Pic der MSI 8800GTS:
mg288.imageshack.us/img288/5278/msi8800gtsvt4.jpg[/URL]

Wo stammt denn das MSI pic her ?

SKYNET
2006-10-25, 22:49:25
Hab` ich vielleicht irgendetwas verpasst??
In so ziemlich jedem Vorabbericht zum G80 kann man lesen, das dieser 128 Unified Shader besitzen soll!
Aber soweit ich mich erinnere hieß es doch mal, daß ATI der erste Graka-Entwickler sein soll, der Unified Shader verbauen will (beim R600) und nVidia wollte damit bis zur nächsten Generation warten...

Weiss man denn schon, wie viele US der R600 haben wird?

MfG
Tori

anhand der leistungsdaten, vermute ich das der G80 eingestampft wurde, und der G90 zum G80 gelabelt wurde...

AnarchX
2006-10-25, 22:52:33
Wo stammt denn das MSI pic her ?
B3D

anhand der leistungsdaten, vermute ich das der G80 eingestampft wurde, und der G90 zum G80 gelabelt wurde...
... bzw. es gab nie den G80, welcher kein USA ist.

SKYNET
2006-10-25, 22:56:34
Jetzt können wir wieder alle die Frage in denn raum werfen warum die hohen AA Modi wenn auch ein G80 damit überfordert ist.:cool:

GTX8850 X2?

das ganze mal zwei....

ihr glaubt noch net, das NV das neue flagschiff "quad-sli", mit der neuen generation wegstreicht... :rolleyes:

B3D


... bzw. es gab nie den G80, welcher kein USA ist.

weißt was ich mein... :wink:

AnarchX
2006-10-25, 22:59:34
ihr glaubt noch net, das NV das neue flagschiff "quad-sli", mit der neuen generation wegstreicht... :rolleyes:
Mit D3D10 wird Quad-SLI nun auch wirklich interessant, nur glaube ich wird wohl eine GX2 mit einem stromsparenderen Refresh des G80 erst erscheinen.

dargo
2006-10-25, 23:01:51
Noch ein paar neue 3DM06-Werte - neuerer Treiber?:
@ 3.15Ghz Core 2 Duo E6600 (350x9)
Default scores with less overclocked core 2

Geforce 8800GTX 768MB 384bit GDDR3 @ 575MHz/1800MHz



3DMark06 Score 11934 3DMarks



SM 2.0 Score 5562 Marks


SM 3.0 Score 5443 Marks


CPU Score 2727 Marks
Mal eben ~22% mehr Leistung bei SM3.0 rausgeholt? Nicht schlecht. :up:

AnarchX
2006-10-25, 23:07:53
Mal eben ~22% mehr Leistung bei SM3.0 rausgeholt? Nicht schlecht. :up:

Bei nV wird man wohl bis zum 8. noch fleissig am Treiber werkeln.

Ailuros
2006-10-25, 23:10:50
Dann ist die MSAA-Leistung aber doch nicht besser (zumindest nicht wesentlich bzw. unter "niedrigen" (=bis 4x) AA Stufen nicht wesentlich besser) als bei den jetzigen Chips.

70% mehr Leistung (wenn die Werte stimmen sollten) fuer 4xAA vs. 4xAA. Ich wuerde liebend gerne wissen wer schon Treiber hat denn es wurden noch keine inoffiziell ausgereicht, aber fuer unmoeglich halte ich die Zahlen auch nicht.

Was jetzt >4xAA betrifft, es gibt eine gute Erklaerung dafuer; 4xAA und 16xAA haben eben im einen Modus etwas gemeinsam ;) Was aber auch heisst dass die angegebene 16xAA Zahl momentan rein gar nichts aussagt, denn es fehlt eine sehr wichtige Kleinigkeit.

Das ist wirklich schade, da sowas wirklich mal was allgemein brauchbares und sofort bemerkbares gewesen wäre.
Bremst meine "Euphorie" doch etwas....16xMSAA schön und gut, aber wofür? Ich sehe den Unterschied zwischen 4 und 6xMSAA bei 1680x1050 bzw. 1600x1200 jetzt schon meistens nicht.
Da wäre mir ein 4xMSAA das sehr wenig Leistung zieht lieber gewesen.

4x vs. 6x sind auch nur 50% mehr samples.

Ich hoffe das wenigstens das AF besser als bei den nv40/G70/G71-Chips ist.

:P

Gast
2006-10-25, 23:13:25
ob andere hersteller auch mal andere kühler bauen? ich hoffe einer der hersteller bastelt da was besseres. das monster kühler sieht war okay aus. aber es gibt immer raum für verbesserungen

AnarchX
2006-10-25, 23:17:22
ob andere hersteller auch mal andere kühler bauen? ich hoffe einer der hersteller bastelt da was besseres. das monster kühler sieht war okay aus. aber es gibt immer raum für verbesserungen

Kommt halt darauf wie gut der Kühler ist, man muss halt abschätzen ob es sich lohnt ein eigenes Design zu entwickeln.
Bei dem 78GTX512/79GTX Kühler lohnte es sich z.B. nicht, da es eben kaum noch besser ging.

dargo
2006-10-25, 23:18:54
Jetzt können wir wieder alle die Frage in denn raum werfen warum die hohen AA Modi wenn auch ein G80 damit überfordert ist.:cool:
Naja, jeder weiß, dass FEAR völlig grafikkarten-limitiert ist. In anderen Games (zb. GTR2) könnte mir 16xMSAA ganz gut gefallen. Wobei ich dann ehrlich gesagt 8xMSAA mit einem gewissen SSAA Anteil besser finden würde.

Gast
2006-10-25, 23:22:32
ob andere hersteller auch mal andere kühler bauen? ich hoffe einer der hersteller bastelt da was besseres. das monster kühler sieht war okay aus. aber es gibt immer raum für verbesserungen

am launchday wird es garantiert nur referenzdesigns mit referenzkühlungen geben, bis es alternative kühlungen geben wird, wird noch einige zeit vergehen.

dargo
2006-10-25, 23:25:41
Bei nV wird man wohl bis zum 8. noch fleissig am Treiber werkeln.
Jetzt sag bloß, die schaffen es noch an die +~50% ausgehend von den 44xx. :O
Dann sehe ich den G80 mit ganz anderen Augen. :biggrin:

Die GTS interessiert mich vorallem.

Gouvernator
2006-10-25, 23:31:23
am launchday wird es garantiert nur referenzdesigns mit referenzkühlungen geben, bis es alternative kühlungen geben wird, wird noch einige zeit vergehen.
Wer bei 700 mio Transen *grins* immer noch nicht kapiert das das Teil eigentlich eine Wakü braucht dem ist nicht zu helfen. Deshalb wurde auch das DIE abgedeckt...

Ailuros
2006-10-25, 23:35:47
Wer bei 700 mio Transen *grins* immer noch nicht kapiert das das Teil eigentlich eine Wakü braucht dem ist nicht zu helfen. Deshalb wurde auch das DIE abgedeckt...

Ich will hoffen dass einige von Euch endlich einsehen werden dass so und so viel mehr Leistung und Bildqualitaet nicht umsonst kommen kann und nein es wird bei weitem auch nicht umsonst oder viel anders auf anderen high end D3D10 GPUs sein.

Wenn ihr es nicht glauben wollt dass der Verbrauch-unterschied im Vergleich zu einer R580 (noch mehr wenn man Chipkomplexitaet bzw. Transistorendichte mitberechnet) relativ klein ist, so sei es. Lange wird es ja nicht mehr dauern oder?

dildo4u
2006-10-25, 23:40:01
@Ailuros nur hat schon der R520 das erträgliche Maß überschritten das macht den Verbrauch der 8800 auch nicht besser und ob man in den nästen 3 Monaten D3D10 braucht wage ich zu beweifeln auf 80nm hätte man ruhig noch warten können.Dank der 7950 GX2 ist Nvidia ja nicht in Zugzwang.

Coda
2006-10-25, 23:40:22
G80 ist deutlich schneller als GX2.

Wer bei 700 mio Transen *grins* immer noch nicht kapiert das das Teil eigentlich eine Wakü braucht dem ist nicht zu helfen.

Oder sie wissen einfach mehr :tongue:

Deshalb wurde auch das DIE abgedeckt...

Gaynau. Wegen dem geilen Hitzestau unterm Heatspreader...

dildo4u
2006-10-25, 23:42:30
G80 ist deutlich schneller als GX2.Klar aber da es noch Monate keine D3D10 Konkkurenz seitens ATI geben wird schlägt man vom Speed her unsinnigerweise nur sein eigenes Produckt.

Coda
2006-10-25, 23:43:54
Und? In Anbetracht der Tatsache dass die D3D10-GPUs angekündigt sind würden eh nur noch wenige zu Weihnachten ne GX2 kaufen.

Und btw: Ich glaube nicht dass da 80nm viel hilft. Wäre man evtl. so bei ~100W. Allgemein geht mir diese Energiekacke deftig am Arsch vorbei bei ner ~600€ (?) GPU.

MadManniMan
2006-10-25, 23:45:03
Ein Fake WOVON ?

Das es ein Rendering ist ist wohl klar ... und was die komige Quali angeht, die Bilder wurden abgescant ...

Herrjee... es heißt komisch. Oder häß(ss)lich. Oder lieblich.

Nicht immer nur 'g' ... OK?

AnarchX
2006-10-25, 23:45:20
In Anbetracht der Tatsache dass die D3D10-GPUs angekündigt sind würden eh nur noch wenige zu Weihnachten ne GX2 kaufen.

Zudem ist man der erste mit D3D10-HW auf dem Markt, was sich dann auch etwas auf die zukünftigen Projekte der Developer auswirkt.

Gouvernator
2006-10-25, 23:45:24
Gaynau. Wegen dem geilen Hitzestau unterm Heatspreader...
Also , so weit ich weiss ist meistens eher die CPU am Ende bevor irgendein Spreaderabbau was hilft.

Coda
2006-10-25, 23:47:14
Also , so weit ich weiss ist meistens eher die CPU am Ende bevor irgendein Spreaderabbau was hilft.

Spreader wegbauen bringt zumindest einen messbaren Unterschied bei CPUs. Und nein G80 wird nicht soviel verbrauchen.

Gleiches Thema wie damals als alle wegen den 2 Anschlüssen bei der 6800 Ultra geschrien haben (da hätte auch einer gereicht im Prinzip). NVIDIA geht nur auf Nummer sicher.

Zudem ist man der erste mit D3D10-HW auf dem Markt, was sich dann auch etwas auf die zukünftigen Projekte der Developer auswirkt.

Das Featureset der GPUs muss ja identisch sein. Ich glaube irgendwie nicht dass G80 und R600 sich soviel nehmen was die relative Performance von bestimmten Features angeht. Aber mal sehen - bei den Geo-Shadern könnte ich mir komische Effekte am besten vorstellen.

dildo4u
2006-10-25, 23:50:53
Zudem ist man der erste mit D3D10-HW auf dem Markt, was sich dann auch etwas auf die zukünftigen Projekte der Developer auswirkt.Jo das ist mit sicherheit die positive Seite Nvidia war ja auch mit der 6800 Serie zu erst mit einer SM3.0 Karte am Markt nur richtig nutzen konnte man das als reiner Gamer leider nicht.Da hofft man natürlich das man diesmal alle SM4.0/D3D10 Features beim zocken auch flüssig nutzen kann.(Stichwort HDRR+MSAA)

Coda
2006-10-25, 23:51:51
Meine Glaskugel sagt mir das zumindest das Branching auf G80 kein Problem mehr darstellen wird. Schon allein weil es bei den VS schon immer gut war und nVIDIA keine Rückschritte machen wird mit den US an diesem Punkt ;)

Auch denke ich dass bei der BQ zumindest in High Quality keine Abstriche mehr gemacht werden mussten bei 700 Mio. Transistoren.

Ailuros
2006-10-25, 23:51:57
@Ailuros nur hat schon der R520 das erträgliche Maß überschritten das macht den Verbrauch der 8800 auch nicht besser und ob man in den nästen 3 Monaten D3D10 braucht wage ich zu beweifeln auf 80nm hätte man ruhig noch warten können.Dank der 7950 GX2 ist Nvidia ja nicht in Zugzwang.

Und wer genau hat Dir "erzaehlt" dass G80/R600 sehr schnelle echte D3D10 GPUs sind? Wart erstmal ab was beide IHVs dann erstmal erzaehlen bei +1 oder +2 komplianten GPUs.

Nebenbei wo genau steht denn eigentlich dass der Stromverbrauch groesser ist als bei GX2? Wo liegt jetzt der Unterschied? X Prozent mehr Leistung und zur gleichen Zeit Y Prozent mehr IQ waere ein guter Anfang und das mit "nur" D3D9 und winXP. Dass momentan die Leistung selbst der D3D9 GPUs in Vista eher laecherlich ist entgeht mir zumindest erstmal nicht.

http://www.xbitlabs.com/articles/video/display/vista-performance-preview.html

Coda
2006-10-25, 23:53:07
Und wer genau hat Dir "erzaehlt" dass G80/R600 sehr schnelle echte D3D10 GPUs sind?

Definiere "echte". Das Featureset ist da.

Dass momentan die Leistung selbst der D3D9 GPUs in Vista eher laecherlich ist entgeht mir zumindest erstmal nicht.

Ist mit den neuen Treibern deutlich besser geworden. Da haben einfach die Optimierungen gefehlt. Es ist ja im Prinzip nur ein neues (und in allen Fällen schnelleres Interface). Deshalb kann ein Einbruch gar nicht pauschal vorhanden sein.

Ailuros
2006-10-25, 23:54:44
Jo das ist mit sicherheit die positive Seite Nvidia war ja auch mit der 6800 Serie zu erst mit einer SM3.0 Karte am Markt nur richtig nutzen konnte man das leider nicht.Da hofft man natürlich das man diesmal alle SM4.0/D3D10 Features beim zocken auch flüssig nutzen kann.(Stichwort HDRR+MSAA)

Float HDR ist weder ein SM3.0 noch ein SM4 Feature sondern kann ebenso auf stinknormalen SM2.0 GPUs auftreten. Der Unterschied ist dass es nur bei SM3.0 GPUs auftauchte.

Welche D3D10 "Features" willst Du denn genau benutzen koennen? Weil Software ploetzlich frueher ankommt als die Hardware?

dildo4u
2006-10-25, 23:57:14
Ja ok es ist sowieso naiv zu glauben das "echte" D3D10 Games flüssig auf den ersten Karten der neuen Generation laufen PCler sind ja zum Glück für ATI/NV immer Aufrüstwillig.

Coda
2006-10-25, 23:58:42
Das Thema wird alt. Es wäre nicht gut, wenn G80 oder R600 jetzt noch D3D9-GPUs wären.

Ailuros
2006-10-25, 23:59:35
Definiere "echte". Das Featureset ist da.

Ein gutes "Featureset" war auch im NV30 theoretisch vorhanden. Und welches Featureset haben genau die ersten D3D10 GPUs? Nicht wohl eher wir unterstuetzen alles noetige heute und kuemmern uns um Leistung morgen?

Geometry shaders sind nicht rein zufaellig momentan durch das API bedingt oder? Die Frage ist dann wohl eher ob man hier nicht auch einiges sparen konnte und sich ebenso um groessere Effizienz in der Zukunft zu kuemmern.


Ist mit den neuen Treibern deutlich besser geworden. Da haben einfach die Optimierungen gefehlt. Es ist ja im Prinzip nur ein neues (und in allen Fällen schnelleres Interface). Deshalb kann ein Einbruch gar nicht pauschal vorhanden sein.

Was mir aber persoenlich Vista noch nicht notwendig macht. Schon gar nicht die angeblichen D3D10 Spiele die noch kommen sollen....

Ailuros
2006-10-26, 00:00:57
Das Thema wird alt. Es wäre nicht gut, wenn G80 oder R600 jetzt noch D3D9-GPUs wären.

Sie sind ausgezeichnete D3D9 GPUs und unterstuetzen das kleinstmoegliche was D3D10 betrifft. Seit wann um Himmel's Willen war es ueberhaupt je anders?

Gast
2006-10-26, 00:01:48
Ein gutes "Featureset" war auch im NV30 theoretisch vorhanden. Und welches Featureset haben genau die ersten D3D10 GPUs? Nicht wohl eher wir unterstuetzen alles noetige heute und kuemmern uns um Leistung morgen?

Was willst du denn genau einsparen? Die ALU-Leistung muss da sein. Was sein könnte sind Probleme mit dem GS wenn man wirklich viel Tris emitiert. Aber sonst fällt mir echt nich ein.

Geometry shaders sind nicht rein zufaellig momentan durch das API bedingt oder? Die Frage ist dann wohl eher ob man hier nicht auch einiges sparen konnte und sich ebenso um groessere Effizienz in der Zukunft zu kuemmern.

Fragt sich wie. Man könnte aufs RAM schreiben wenn die internen Puffer zu klein werden oder solche Spielchen.

Was mir aber persoenlich Vista noch nicht notwendig macht. Schon gar nicht die angeblichen D3D10 Spiele die noch kommen sollen....

Ich bekomms sowieso geschenkt :tongue: (MSDNAA)

Coda
2006-10-26, 00:02:27
Gast war natürlich ich :rolleyes:

Sie sind ausgezeichnete D3D9 GPUs und unterstuetzen das kleinstmoegliche was D3D10 betrifft. Seit wann um Himmel's Willen war es ueberhaupt je anders?

Das ist einfach Quatsch. Die Int-ALUs werden auf keinen Fall lahm sein, das geht schon vom Pipelineaufbau nicht. GS-Shader die nix emitieren können durch den US-Aufbau gar nicht lahm sein. Auch das Stream-Out lahm zu konstruieren bringt keinen mir ersichtlichen Vorteil.

Wie gesagt, der Knackpunkt sind die GS-Shader mit viel Output. Aber das ist echt zu verschmerzen. Es gibt viele andere schöne D3D10-Dinge ;)

Ein NV30-Fiasko werden wir auf jeden Fall nicht mehr sehen.

dildo4u
2006-10-26, 00:04:07
Das Thema wird alt. Es wäre nicht gut, wenn G80 oder R600 jetzt noch D3D9-GPUs wären.Wäre es eigentlich zu Teuer wenn man die D3D10 GPUs erstmal nur für Devs in einer Kleinserie in 90nm baut und den Usern die Karte erst 5-6Monate später in 65NM anbietet.Dann wäre die Karte viel kompackter weil man sich viele Spannungwandler sparen könnte und leichter zu kühlen/leiser wäre sie auch.

Coda
2006-10-26, 00:05:03
Wäre es eigentlich zu Teuer wenn man die D3D10 GPU erstmal nur für Devs in 90nm baut und den Usern die Karte erst 5-6Monate später in 65NM anbietet.

Ein Tape-Out kostet Millionen. Frage geklärt?

Zudem sind 90nm und 65nm ganz andere Libraries. Da ist viel mehr Arbeit nötig als bei einem simplen Die-Shrink wie 90nm->80nm.

Ailuros
2006-10-26, 00:08:14
Was willst du denn genau einsparen? Die ALU-Leistung muss da sein. Was sein könnte sind Probleme mit dem GS wenn man wirklich viel Tris emitiert. Aber sonst fällt mir echt nich ein.

Was wohl heisst dass es Deiner Meinung nach keine extra HW-Anpassungen fuer +1/+2 geben wird oder?

Fragt sich wie. Man könnte aufs RAM schreiben wenn die internen Puffer zu klein werden oder solche Spielchen.

Ich bin mir sicher dass Entwickler wie verrueckt auf solche Rettungsplanken greifen werden. Wenn ich jetzt glauben soll dass sowohl ATI als auch NVIDIA fuer das gesamte D3D10x halbe Jahrzent ausgesort haben und nur Taktraten bzw. die Anzahl der Einheiten erhoehen koennen, tut mir leid aber es faellt mir verdammt schwer es zu glauben.

Ich bekomms sowieso geschenkt :tongue: (MSDNAA)

Tolles Argument; egal was ich selber an HW und SW geschenkt bekommen kann aendert sich nichts an der jeweiligen Notwendigkeit.

Coda
2006-10-26, 00:09:34
Was wohl heisst dass es Deiner Meinung nach keine extra HW-Anpassungen fuer +1/+2 geben wird oder?

Natürlich nicht.

Ich bin mir sicher dass Entwickler wie verrueckt auf solche Rettungsplanken greifen werden.

Das macht wenn dann der Treiber selber (wenn nicht sogar eher die GPU automatisch). Sowas kannst du von der API auch gar nicht beeinflussen.

Wenn ich jetzt glauben soll dass sowohl ATI als auch NVIDIA fuer das gesamte D3D10x halbe Jahrzent ausgesort haben und nur Taktraten bzw. die Anzahl der Einheiten erhoehen koennen, tut mir leid aber es faellt mir verdammt schwer es zu glauben.

Im wesentlichen wird es imho aber so sein. Verkauft wird eh nur über die Balkenlänge und neuerdings über wie die breite Masse über die Bildqualität denkt (obs stimmt is ja wieder die andere Frage, das ist im Moment deutlich überzogen finde ich).

Tolles Argument; egal was ich selber an HW und SW geschenkt bekommen kann aendert sich nichts an der jeweiligen Notwendigkeit.

Ich mag Vista aber ;)

Ailuros
2006-10-26, 00:12:39
Das ist einfach Quatsch. Die Int-ALUs werden auf keinen Fall lahm sein, das geht schon vom Pipelineaufbau nicht. GS-Shader die nix emitieren können durch den US-Aufbau gar nicht lahm sein. Auch das Stream-Out lahm zu konstruieren bringt keinen mir ersichtlichen Vorteil.

Wie gesagt, der Knackpunkt sind die GS-Shader mit viel Output. Aber das ist echt zu verschmerzen. Es gibt viele andere schöne D3D10-Dinge ;)

Ein NV30-Fiasko werden wir auf jeden Fall nicht mehr sehen.

NV30 war nur ein Beispiel dass Featuresets auf Papier gar nichts heisst. Und natuerlich deute ich nicht an dass G80 ein aehnlicher Fall ist.

Nichtdestominder waere es aber verdammt naiv mir einreden zu wollen dass zukuenftige D3D10 GPUs nichts an Effizienz dazugewinnen koennen. Denn um das geht es eigentlich.

Coda
2006-10-26, 00:14:06
Nichtdestominder waere es aber verdammt naiv mir einreden zu wollen dass zukuenftige D3D10 GPUs nichts an Effizienz dazugewinnen koennen. Denn um das geht es eigentlich.

An ein Fiasko-Feature wie dyn. branching auf NV40 oder PS2.0 auf NV30 glaube ich halt nicht...

Ansonsten gibts natürlich immer noch Spielraum für Effizienzsteigerungen. Das sieht man ja schon an Core 2 bei den CPUs. Da dachte ich vorher auch lange es wäre alles getan was man sich vorstellen kann ;)

Gute Nacht btw.

Ailuros
2006-10-26, 00:22:02
Im wesentlichen wird es imho aber so sein. Verkauft wird eh nur über die Balkenlänge und neuerdings über wie die breite Masse über die Bildqualität denkt (obs stimmt is ja wieder die andere Frage, das ist im Moment deutlich überzogen finde ich).

Ueberzogen ja und nein (nur leider darf ich momentan nicht zu stark darauf eingehen) was AA betrifft.

Was jetzt AF betrifft, es handelt sich sowohl um eine Leistungs als auch eine IQ-Steigerung, obwohl ich vermute dass trilinear wieder einiges kosten wird. Da waere mir eine anstaendige "fast trilinear" Implementierung doch lieber am Ende.

Und nein es wird eben nicht so sein und schon gar nicht so einfach wie Du es darstellen oder Dir vorstellen willst was die generelle Effizienz betrifft.

Ich mag Vista aber ;)

Ich werde es erst moegen, wenn alles so laeuft wie ich es erwarten wuerde (nach 1 oder 2 "service packs") und andere Vendors endlich aufraffen und Vista Treiber liefern. Ich hab momentan nicht die geringst Lust fuer zusaetzliche Kopfschmerzen.

dildo4u
2006-10-26, 00:43:59
8800GTX is selling

http://img115.imageshack.us/img115/7286/rfbqxzawmde4sqb5yjllyhgkhmoh5.jpg

http://img172.imageshack.us/img172/8484/rfbqxzawmdw4sqk2yyuitr2b93zr3.jpg

http://img115.imageshack.us/img115/5825/rfbqxzawmja4sq6cufvmmtelvvvv5.jpg

http://www.nvnews.net/vbulletin/showthread.php?t=78819

StefanV
2006-10-26, 01:11:55
Die Bilder sind sowas von alt und schon vor ~300 Postings gepostet worden, siehe erstes Posting dieses Threads...

PS: ich mag Vista auch :P

up¦²
2006-10-26, 01:40:19
Zum orientieren ... erste listings:
https://www.excaliberpc.com/parts-stxt-8800-page-1.html

Gast
2006-10-26, 02:19:17
Was jetzt >4xAA betrifft, es gibt eine gute Erklaerung dafuer; 4xAA und 16xAA haben eben im einen Modus etwas gemeinsam ;) Was aber auch heisst dass die angegebene 16xAA Zahl momentan rein gar nichts aussagt, denn es fehlt eine sehr wichtige Kleinigkeit.Wenn es das heißt, was ich glaube, gibt es reichlich Grund zur Freude. Einige Modi mit gleicher Samplezahl, aber unterschiedlicher Realisierung könnten eine sehr interessante Spielwiese bei der Suche nach den für manches Spiel idealen Einstellungen werden.
4x vs. 6x sind auch nur 50% mehr samples.Und außerdem nur MSAA. Samplequalität zählt häufig mehr als die reine Zahl, und damit meine ich nicht nur EER und möglichst "lochfreies" Abtastmuster.

up¦²
2006-10-26, 04:15:31
http://www.slizone.com/object/slizone_build_psu.html#certified_powersupplies :biggrin:

StefanV
2006-10-26, 04:34:26
Ja, und?!
Was soll uns der Link sagen? :|

Die gelbe Eule
2006-10-26, 06:16:21
Das mal wieder versucht wird auch den dritten Thread auf Netzteile auszuweiten. Manche begreifen es einfach nicht ...

MadManniMan
2006-10-26, 06:26:42
Ich bin ja nun wahrlich nicht der Typ für allzu große Hype-Vorfreude, aber nach 4 Jahren DX9 hibbelts doch schon ganz gewaltig in mir ;) Hoffentlich hat meine Liebste Verständnis...

Ailuros
2006-10-26, 07:10:14
http://www.slizone.com/object/slizone_build_psu.html#certified_powersupplies :biggrin:

Dass der Link fuer zwei GX2 in quad SLi ist, sollte Dir wohl einblitzen. Nur ganz so nebenbei ATI schlaegt fuer ihre heutige high end GPUs schon 30A vor, und so viel wird auch fuer G80 vorgeschlagen werden.

Mit anderen Worten wer nicht schon ein Netzteil hat dass so viel auf dem (oder den) +12V rail(-s) liefert, kann ein gutes Netzteil um etwa 100 euro finden.

Selbst das hier reicht vollkommen aus:

http://www.tagan.de/pages/products/2forceS/TG-580-U22_Tagan_DE_mini.pdf

seahawk
2006-10-26, 07:56:01
Fragt sich nur was dieser 16xAA genau ist. 16xS ist damit sicher nicht gemeint, glaub ich jedenfalls nicht.
Mit 7950GX2-QuadSLI@1600x1200 4xAA/16xAF kam man auf ca. 100 fps @FEAR also dürfte da nix cpu limitiert sein.

AF ist nicht AF, wenn man die gleichen Settings nutzt.

Moralelastix
2006-10-26, 08:25:14
So so!

Wo muss ich drücken um die Bilder als Thumbnail anzuzeigen?

http://vic.expreview.com/attachment/1161835755.jpg

http://vic.expreview.com/attachment/1161835812.jpg

Die gelbe Eule
2006-10-26, 08:45:17
Sinnfreier Benchmark, weil wer hat einen 3.9GHz Conroe rumstehen? Denke kaum das soetwas zu einer Standardbenchmaschine gehört.

Real world sollte bald kommen, wenns geht sehr schnell.

StefanV
2006-10-26, 08:49:58
Dass der Link fuer zwei GX2 in quad SLi ist, sollte Dir wohl einblitzen. Nur ganz so nebenbei ATI schlaegt fuer ihre heutige high end GPUs schon 30A vor, und so viel wird auch fuer G80 vorgeschlagen werden.

Mit anderen Worten wer nicht schon ein Netzteil hat dass so viel auf dem (oder den) +12V rail(-s) liefert, kann ein gutes Netzteil um etwa 100 euro finden.

Selbst das hier reicht vollkommen aus:

http://www.tagan.de/pages/products/2forceS/TG-580-U22_Tagan_DE_mini.pdf
...nur reicht für 'ne x1800XT bzw 2 x1800XL auch schon ein sehr gutes 300W Netzteil (HEC-300LR), bei 'nem 3500+, mit 'nur' 17A auf der +12V Rail.

Die Angaben sind also ziemlich hoch gegriffen...

cl55amg
2006-10-26, 09:38:52
Sinnfreier Benchmark, weil wer hat einen 3.9GHz Conroe rumstehen? Denke kaum das soetwas zu einer Standardbenchmaschine gehört.

Real world sollte bald kommen, wenns geht sehr schnell.

Die CPU ist in dem Fall unwichtig.
Zieh 500 - 1000 Punkte ab bei 3DMARK06, wegen dem idiotischen CPU Bench,
und du hast das Ergebnis einer normalen Intel/AMD Dual Core CPU.

Game Benches sollten bald kommen, bei denen ist es ohnehin egal welche CPU verwendet wird.

darkcrawler
2006-10-26, 09:47:07
Sinnfreier Benchmark, weil wer hat einen 3.9GHz Conroe rumstehen? Denke kaum das soetwas zu einer Standardbenchmaschine gehört.

Real world sollte bald kommen, wenns geht sehr schnell.

soooooviel macht die cpu bei 3dm05 / 06 nich aus

Moralelastix
2006-10-26, 10:55:54
Nvidia 8800GTS is "cheap as chips"
http://uk.theinquirer.net/?article=35335

Superheld
2006-10-26, 10:58:51
macht schon was aus im 05:smile:

11*345=3795Mhz= 18963
11*353=3882,5Mhz= 19114

http://www.xtremesystems.org/forums/showthread.php?t=120598&page=7

Mr Power
2006-10-26, 11:05:25
OC Results: (die vorher geposteten 05er und 06er kommen auch daher)

http://vic.expreview.com/index.php

@ Sinnfrei: Schau doch einfach auf den SM2 oder SM3 Score und beachte die CPU nich :rolleyes: .

Superheld
2006-10-26, 11:14:53
hat der den Core auf 660

dargo
2006-10-26, 11:15:01
So so!

Wo muss ich drücken um die Bilder als Thumbnail anzuzeigen?

http://vic.expreview.com/attachment/1161835755.jpg

http://vic.expreview.com/attachment/1161835812.jpg
Hier mal zum Vergleich:

E6400@3,3Ghz
Gigabyte GA-965P-S3
2x 1GB DDR2-667@412Mhz
X1900XT 512MB

29310

Also, die G8800GTX geht schon nicht schlecht ab in den SM2.0 und SM3.0 Benches. :up:

Edit:
Gibt es schon die gleichen Benches von einer G8800GTS?

Superheld
2006-10-26, 11:19:32
was willste von ein Monster erwarten:biggrin:

Mr Power
2006-10-26, 11:24:05
Victor Wang wird definitv keine Vorab-Benches einer GTS liefern können. Er hat "nur" ne GTX.

robbitop@work
2006-10-26, 11:32:06
Victor scheint Games nicht zu kennen. Nur 3DMark...

Zapat
2006-10-26, 11:32:53
Victor scheint Games nicht zu kennen. Nur 3DMark...

In XS Forum kennen die alle nur die 3dmark Serie.;)

Anarchy-HWLUXX
2006-10-26, 11:47:04
http://uk.theinquirer.net/?article=35334


Mmmmmm ... 4 Slots == Quad SLI ;D

Gast
2006-10-26, 11:53:10
http://uk.theinquirer.net/?article=35334Geil, 12 SATA2-Ports, die direkt am Chipsatz hängen. Sowas hab ich mir schon immer gewünscht. Da ist mir auch der hohe Stromverbrauch (2x NF590SLI Chips) vollkommen egal.

Nun aber zurück zum G80. ;)

Anarchy-HWLUXX
2006-10-26, 12:06:53
Geil, 12 SATA2-Ports, die direkt am Chipsatz hängen. Sowas hab ich mir schon immer gewünscht. Da ist mir auch der hohe Stromverbrauch (2x NF590SLI Chips) vollkommen egal.

Nun aber zurück zum G80. ;)

Mir gehts um Quad SLI, der rest ist herzlich egal ...


-> Mit so einem untersatz können die Absoluten Speedjunkies ein Quad aufsetzen ohne eine GX2 zu benutzen ... mit den Doppelten SLI Brücken sollt auc die effizienz besser sein wenn alle Karten in Reihe verbunden sind, bei den bisherigen waren es ja immer nur zwei mit einer Direkten verbindung ...

SavageX
2006-10-26, 12:09:23
http://we.pcinlife.com/attachments/forumid_206/8800%20GTS_7_PhbEyYpicNQ3.jpg

Die meisten gucken auf dieses Chip-Packaging und erwarten Godzilla unter der Haube. Sicher, dass das nicht ein Engineering Sample mit "handverpacktem" Chip ist (das Board beisst sich mit dem was ich so gehört habe... alter SLi Anschluss, nur ein Stromstöpsel...)

Zum ersten Mal habe ich das Bild beim Inquirer gesehen - vielleicht haben die ja wieder einen Bock geschossen...

mapel110
2006-10-26, 12:10:00
Die Performance bei QualSLi war doch bislang deshalb so schlecht, weil m$ ein Prerenderlimit von mehr als 3 nicht erlaubt oder so ähnlich :confused:

Anarchy-HWLUXX
2006-10-26, 12:15:45
Die meisten gucken auf dieses Chip-Packaging und erwarten Godzilla unter der Haube. Sicher, dass das nicht ein Engineering Sample mit "handverpacktem" Chip ist (das Board beisst sich mit dem was ich so gehört habe... alter SLi Anschluss, nur ein Stromstöpsel...)

Zum ersten Mal habe ich das Bild beim Inquirer gesehen - vielleicht haben die ja wieder einen Bock geschossen...

Liegt daran das es die GTS ist ... die GTX hat zwei SLI verbinder und zwei Stromstecker ...

PS : Von Hand verpackt, sicha ;) Und von Hand gelötet ...

Winter[Raven]
2006-10-26, 12:16:18
Die Performance bei QualSLi war doch bislang deshalb so schlecht, weil m$ ein Prerenderlimit von mehr als 3 nicht erlaubt oder so ähnlich :confused:

Naja, mit Direct3D 10 fällt das ganze...

robbitop@work
2006-10-26, 12:22:19
QuadSLI mit 4xAFR ist IMO sinnfrei. Dann ist der Lag doch schon viel zu groß (zumindest in niedrigen FPS).
Wenn je 2 Karten SFR machen würden und dann dessen komplett gerenderte Bilder widerum mit AFR kombinieren, wäre der Lag erträglich.

Wenn man die Speichercontroller jeder GPU noch verbinden würde, dann würde sogar die VRAM Größe mitskallieren, da die Redundanz bzgl der Texturen dann abgeschafft wäre. Dann könnte man (wenn der FB Zugriff auf allen GPUs unified ist) sogar wieder Zeilen verteilen. Dann hätte man gar keinen Lag mehr und eine bessere Effizienz (weder muss das Bild vom Treiber aufgeteilt werden, noch muss die CPU mehrere Bilder vorausberechnen...alle arbeiten an einem einzigen Bild).

ShadowXX
2006-10-26, 12:24:27
In XS Forum kennen die alle nur die 3dmark Serie.;)
Ich werde nie verstehen, wie man sich solche High-End Grakas kauft/besorgt/geschenkt bekommt und dann nur damit bencht.....

SavageX
2006-10-26, 12:31:59
Liegt daran das es die GTS ist ... die GTX hat zwei SLI verbinder und zwei Stromstecker ...


Okay, wieder was gelernt.


PS : Von Hand verpackt, sicha ;) Und von Hand gelötet ...

Klar. Beim Prototyping werden die seltsamsten Sachen zusammengebastelt (für Chips gibt es Verpackungen, die "von Hand" zusammengepresst werden - mit entsprechendem Werkzeug natürlich).

Gast
2006-10-26, 12:39:25
QuadSLI mit 4xAFR ist IMO sinnfrei. Dann ist der Lag doch schon viel zu groß (zumindest in niedrigen FPS).


Das ist aber eine rein theoretische Betrachtung und wird in der Praxis nie vorkommen, denn mit welchem System willst du ein Spiel spielen, dass selbst bei Quad SLI nur niedrige FPS liefert?

robbitop@work
2006-10-26, 12:44:40
Das ist aber eine rein theoretische Betrachtung und wird in der Praxis nie vorkommen, denn mit welchem System willst du ein Spiel spielen, dass selbst bei Quad SLI nur niedrige FPS liefert?
Du siehst ja wie "toll" QuadSLI performt. Nämlich grottig. Das liegt vor Allem daran, dass die CPU zur gleichen Zeit vier frames vorberechnen muss statt nur einem.
Gerade bei Spielen, die am CPU limit knabbern (Gothic2, Oblivion und noch einige andere) bist du schnell mal auf 20-30fps. Das ist spielbar, aber der Lag suckt dann.

Und selbst wenn keine CPU Limitierung dabei ist, stelle ich die BQ Features so ein, dass ich minFPS von 30 habe. Was soll ich mit >60fps (außer in schnellen Spielen)? Dann investiere ich lieber in BQ. I.E. 16xS und 16xAF und 1680x1050.
QuadSLI könnte besser performen, wenn man es intelligenter anginge.

Gast
2006-10-26, 12:49:29
Du siehst ja wie "toll" QuadSLI performt. Nämlich grottig. Das liegt vor Allem daran, dass die CPU zur gleichen Zeit vier frames vorberechnen muss statt nur einem.
Gerade bei Spielen, die am CPU limit knabbern (Gothic2, Oblivion und noch einige andere) bist du schnell mal auf 20-30fps. Das ist spielbar, aber der Lag suckt dann.


Bei CPU-Limitierung macht Quad-SLI ohnehin keinen Sinn, weil man das CPU Limit nicht durch mehr Grafikchips aufheben kann. Die 20-30fps hat man dann auch mit einem einzelnen Chip.

cl55amg
2006-10-26, 12:50:26
Du siehst ja wie "toll" QuadSLI performt. Nämlich grottig. Das liegt vor Allem daran, dass die CPU zur gleichen Zeit vier frames vorberechnen muss statt nur einem.
Gerade bei Spielen, die am CPU limit knabbern (Gothic2, Oblivion und noch einige andere) bist du schnell mal auf 20-30fps. Das ist spielbar, aber der Lag suckt dann.

Und selbst wenn keine CPU Limitierung dabei ist, stelle ich die BQ Features so ein, dass ich minFPS von 30 habe. Was soll ich mit >60fps (außer in schnellen Spielen)? Dann investiere ich lieber in BQ. I.E. 16xS und 16xAF und 1680x1050.
QuadSLI könnte besser performen, wenn man es intelligenter anginge.

Und wenn durch DX10 vier CPU Cores optimal nutzen könnte?
Wie siehts dann aus?

Blacksoul
2006-10-26, 12:56:48
PS : Von Hand verpackt, sicha ;) Und von Hand gelötet ...

Nur so als Beispiel:
3dfx Rampage Prototype mit Sockel ;)
http://people.freenet.de/blacksoul/Rampage.jpg

Könnte also durchaus etwas dran sein, wobei mir das PCB doch recht Final aussieht. (Warum sollte man ein Prototype-PCB färben?)


t.b.d

robbitop@work
2006-10-26, 13:05:56
Bei CPU-Limitierung macht Quad-SLI ohnehin keinen Sinn, weil man das CPU Limit nicht durch mehr Grafikchips aufheben kann. Die 20-30fps hat man dann auch mit einem einzelnen Chip.
Ja aber da auch der QuadSLI User viele Spiele im Regal hat, kann ihm CPU Limitierung mitnichten egal sein. Und selbst ohne normalige CPU limitierung ist QuadSLI aufgrund 4xAFR auch so oft CPU Limitiert, da die CPU ja mehrere Bilder gleichzeitig berechnen darf.


Und wenn durch DX10 vier CPU Cores optimal nutzen könnte?
Wie siehts dann aus?
So wie ich es beschrieben habe. Es ist suboptimal gleichzeitig an mehreren Frames zu arbeiten (bei zweien mag das ja noch ok sein).
Besser wäre es für die Skallierung wenn man eine Art 3DLabs/3dfx Konzept nutzen würde.
Also eine Aufteilung nach Zeilen und zusätzlich (für die Kompatibilität und die Skallierung von VRAM) eine Verbindung der Memorycontroller miteinander. Diese Verbindung müßte allerdings sehr breit sein, um nicht zu limitieren.
Vorteil: man hat keine Texturredundanz mehr.

|MatMan|
2006-10-26, 13:07:25
Und wenn durch DX10 vier CPU Cores optimal nutzen könnte?
Wie siehts dann aus?
DX 10 hilft nicht Quad Core CPUs besser zu nutzen, das ist Sache der Game Engine

Edit:
Wie wollte man denn die Memorycontroller mehrerer Karten verbinden? Was soll man denn da als Interface nehmen für die riesige Bandbreite und niedrige Latenz? Selbst Hypertransport wäre viel zu langsam

Gast
2006-10-26, 13:10:17
-> Mit so einem untersatz können die Absoluten Speedjunkies ein Quad aufsetzen ohne eine GX2 zu benutzen ... mit den Doppelten SLI Brücken sollt auc die effizienz besser sein wenn alle Karten in Reihe verbunden sind, bei den bisherigen waren es ja immer nur zwei mit einer Direkten verbindung ...

nicht wirklich, die einzelnen GX2-platinen kommunizieren untereinander über eine "PCIe48x"-verbindung, das ist noch um einiges schneller als die SLI-brücke.

Godmode
2006-10-26, 13:10:38
Wenn man die Speichercontroller jeder GPU noch verbinden würde, dann würde sogar die VRAM Größe mitskallieren, da die Redundanz bzgl der Texturen dann abgeschafft wäre. Dann könnte man (wenn der FB Zugriff auf allen GPUs unified ist) sogar wieder Zeilen verteilen. Dann hätte man gar keinen Lag mehr und eine bessere Effizienz (weder muss das Bild vom Treiber aufgeteilt werden, noch muss die CPU mehrere Bilder vorausberechnen...alle arbeiten an einem einzigen Bild).

Hat die Brücke dazu nicht eine viel zu geringe Bandbreite? Das sind doch nur ein paar Gbit/s was da drüber gehen, IIRC. Und wenn ich mir vorstelle, dass hier 3 GPUs auf den Speicher von einer zugreifen, dann wird dass sicher ziemlich langsam, IMO.

SavageX
2006-10-26, 13:14:29
Nur so als Beispiel:
3dfx Rampage Prototype mit Sockel ;)
http://people.freenet.de/blacksoul/Rampage.jpg

Könnte also durchaus etwas dran sein, wobei mir das PCB doch recht Final aussieht. (Warum sollte man ein Prototype-PCB färben?)


t.b.d

Ja, genau so ein Ding hatte ich im Sinn (sieht ja recht ähnlich aus zu dem Nvidia Chip - mit lustigen Schraublöchern (?) für den Deckel etc.)

Aber doch, das PCB sieht dann doch schon ziemlich geschniegelt aus.

Gast
2006-10-26, 13:15:14
Ja aber da auch der QuadSLI User viele Spiele im Regal hat, kann ihm CPU Limitierung mitnichten egal sein. Und selbst ohne normalige CPU limitierung ist QuadSLI aufgrund 4xAFR auch so oft CPU Limitiert, da die CPU ja mehrere Bilder gleichzeitig berechnen darf.


die cpu berechnet keine bilder gleichzeitig, sie schickt höchstens renderbefehle für 4 frames im voraus an die grafikkarte.

Also eine Aufteilung nach Zeilen und zusätzlich (für die Kompatibilität und die Skallierung von VRAM) eine Verbindung der Memorycontroller miteinander. Diese Verbindung müßte allerdings sehr breit sein, um nicht zu limitieren.
Vorteil: man hat keine Texturredundanz mehr.

wie willst du die memorycontroller mit vernünftiger bandbreite verbinden? bei der 8800GTX sind es fast 90GB/s die von einer karte zur anderen müssten, das bräuchte schon sowas wie eine PCIe-384x-verbindung.

Gast
2006-10-26, 13:16:06
Gibt es eigentlich Infos über den Launch eines G81 ?? Wann könnte das etwa sein, wenn man sich die anderen Veröffentlichungen in der Vergangenheit so anschaut ??

Für mich persönlich besser, eine erste -neue- Arichtektur auszusetzen, gerade wenn ein neues DirectX ansteht. Später bekommt man weniger Aussetzer, bessere Optimierungen, kleineres PCB, DDR4, weniger Strombedarf und höhere Taktraten.

-Ghosty

ShadowXX
2006-10-26, 13:17:53
So wie ich es beschrieben habe. Es ist suboptimal gleichzeitig an mehreren Frames zu arbeiten (bei zweien mag das ja noch ok sein).
Besser wäre es für die Skallierung wenn man eine Art 3DLabs/3dfx Konzept nutzen würde.
Also eine Aufteilung nach Zeilen und zusätzlich (für die Kompatibilität und die Skallierung von VRAM) eine Verbindung der Memorycontroller miteinander. Diese Verbindung müßte allerdings sehr breit sein, um nicht zu limitieren.
Vorteil: man hat keine Texturredundanz mehr.
Das Zeilenbasierte Prinzip funktioniert nicht mehr. Schuld sind die Shader und Fullscreeneffekte, die sich damit irgendwie beissen (einer unserer Gurus, afair Demi, erwähnte bzw. erklärte dies mal).

ShadowXX
2006-10-26, 13:19:03
Gibt es eigentlich Infos über den Launch eines G81 ?? Wann könnte das etwa sein, wenn man sich die anderen Veröffentlichungen in der Vergangenheit so anschaut ??

Für mich persönlich besser, eine erste -neue- Arichtektur auszusetzen, gerade wenn ein neues DirectX ansteht. Später bekommt man weniger Aussetzer, bessere Optimierungen, kleineres PCB, DDR4, weniger Strombedarf und höhere Taktraten.

-Ghosty
Normalerweise ca. 6-8 Monate später. Es kommt aber wohl auch darauf an, wie stark der r600 ist und wann dieser denn nun erscheint.

Gast
2006-10-26, 13:19:43
nicht wirklich, die einzelnen GX2-platinen kommunizieren untereinander über eine "PCIe48x"-verbindung, das ist noch um einiges schneller als die SLI-brücke.

Quelle? Das wäre mir neu.

robbitop@work
2006-10-26, 13:26:18
Das Zeilenbasierte Prinzip funktioniert nicht mehr. Schuld sind die Shader und Fullscreeneffekte, die sich damit irgendwie beissen (einer unserer Gurus, afair Demi, erwähnte bzw. erklärte dies mal).
Ja es geht nichtmehr, weil die Chips gegenseitig nicht auf den VRAM der anderen GPUs zugreifen kann. Ginge das, wäre das kein Problem.

Die Verbindung ist eben der Flaschenhals (habe ich ja erwähnt...ich weiß nicht warum das noch 3x wiederholt werden muss?). Ist eben die Frage ob man einen ~100GB/sek starken Bus über eine solche Distanz realisieren kann. Vermutich ist das von der Verdrahtung und der Signallaufzeit nicht so einfach, sonst hätte man es wohl schon gemacht.

3DLabs verbindet beide P20 über eine solche Verbindung, allerdings sind beide Chips auf einem Board und wer weiß ob dort der Bus nicht der Flaschenhals ist.

robbitop@work
2006-10-26, 13:28:07
die cpu berechnet keine bilder gleichzeitig, sie schickt höchstens renderbefehle für 4 frames im voraus an die grafikkarte.

Khorinten. Die Physik, ein Teil der Transformation, I/O ectpp also alles was für einen Frame als Renderbefehl notwendig ist muss mehrfach durchgeführt werden.

up¦²
2006-10-26, 13:55:29
8800 GTX ab 8. november likeferbar! :whisper:

Gast
2006-10-26, 14:15:46
Ja es geht nichtmehr, weil die Chips gegenseitig nicht auf den VRAM der anderen GPUs zugreifen kann. Ginge das, wäre das kein Problem.


Hilft aber nicht weiter, weil damit die jeweils andere GPU blockiert wäre (sie kann nicht mehr auf den eigenen Speicher zugreifen).

robbitop@work
2006-10-26, 14:24:18
Hilft aber nicht weiter, weil damit die jeweils andere GPU blockiert wäre (sie kann nicht mehr auf den eigenen Speicher zugreifen).
Das läßt sich alles shedulen, außerdem ist das Interface doch unterteilt. ;)
Und da jeder über jeden Memorycontroler zugreifen darf, sollte sich das ganz gut verteilen.

Gast
2006-10-26, 14:40:06
Quelle? Das wäre mir neu.

nvidias folien zum launch der GX2-karten, um einen link zu suchen bin ich jetzt zu faul.

Gast
2006-10-26, 16:14:48
nicht wirklich, die einzelnen GX2-platinen kommunizieren untereinander über eine "PCIe48x"-verbindung, das ist noch um einiges schneller als die SLI-brücke.
Das Problem ist, dass diese "Brücke schöngerechnet ist. Sie hat einen Anschluss an den PCIe-Slot (16), einen an die erste GPU (32) und einen an die zweite GPU (48). Insgesamt nur ein PCIe-16x-Switch.


Q

Gast
2006-10-26, 16:16:56
Dann könnte man (wenn der FB Zugriff auf allen GPUs unified ist) sogar wieder Zeilen verteilen. Dann hätte man gar keinen Lag mehr und eine bessere Effizienz (weder muss das Bild vom Treiber aufgeteilt werden, noch muss die CPU mehrere Bilder vorausberechnen...alle arbeiten an einem einzigen Bild).

Das wird dann aber wieder schwierig, weil sämtliche VS und GS auf beiden Karten/Chips parallel laufen müssten. Ganz so einfach und so gut skalieren wie weiland das Scanline Interleave wird es also nicht - ganz besonders nicht dort, wo es am nötigsten gebraucht wird: "D3D10-heavy stuff".


Q

mapel110
2006-10-26, 16:22:42
ganz besonders nicht dort, wo es am nötigsten gebraucht wird: "D3D10-heavy stuff".


Q
Was macht dich da so sicher? Ich denke, nvidia hat die Entwickler schon stark auf Multi-GPU eingeschworen, auf das diese Rücksicht darauf nehmen.

AnarchX
2006-10-26, 16:24:41
OC Results: (die vorher geposteten 05er und 06er kommen auch daher)

http://vic.expreview.com/index.php


Also doch kein neuer Treiber sondern nur OCing...:(

Gast
2006-10-26, 16:25:50
Was macht dich da so sicher? Ich denke, nvidia hat die Entwickler schon stark auf Multi-GPU eingeschworen, auf das diese Rücksicht darauf nehmen.

naja, vertex/geometry-shader können eben nicht skalieren, wenn die aufteilung erst im framebuffer gemacht wird.

Gil-galad
2006-10-26, 16:41:38
Liegt daran das es die GTS ist ... die GTX hat zwei SLI verbinder und zwei Stromstecker ...
Die GTS hat aber nur 10 Speicherchips und nicht 12.

AnarchX
2006-10-26, 16:48:59
Die GTS hat aber nur 10 Speicherchips und nicht 12.

Vielleicht hat die 8800GTS auch ein 384bit-PCB und zwei von den Speicherchips di e wir hier sehen sind ohne Funktion bzw. sind keine.

Gast
2006-10-26, 16:55:28
Was macht dich da so sicher? Ich denke, nvidia hat die Entwickler schon stark auf Multi-GPU eingeschworen, auf das diese Rücksicht darauf nehmen.

Weil ich unter "D3D10-heavy stuff" auch massiven Einsatz von Geometry-Shadern verstehe, die wiederum auf beiden Karten nahezu denselben Workload haben müssten, gerade wenn zeilenweise interleaved wird. Damit skaliert weiterhin nur die Pixelleistung, die aber bsw. bei GS nicht immer der limitierende Faktor sein könnte.


Q

Vielleicht hat die 8800GTS auch ein 384bit-PCB und zwei von den Speicherchips di e wir hier sehen sind ohne Funktion bzw. sind keine.

Nein, eher ist das Bild vielleicht von keiner Serienkarte oder sowas.


Q

AnarchX
2006-10-26, 17:00:13
Nein, eher ist das Bild vielleicht von keiner Serienkarte oder sowas.

Hmm... die Karte hat ein schwarzes PCB, die Prototypen ein grünes.
Zudem nur ein Stromanschluss -> also keine GTX.
Naja am 8. wissen wir mehr dazu.

crux2005
2006-10-26, 20:39:51
blöd ist nur ... daß wer etwas weiß, nicht reden darf :(

Hvoralek
2006-10-26, 20:49:03
Es sind doch keine zwei Wochen mehr. Das schaffst Du schon noch :comfort:

AnarchX
2006-10-26, 22:57:09
Noch ein paar 3DMark06-Werte, diesmal SM3.0 Score in verschiedenen Auflösungen und AA 3.8GHz Conroe:
8800GTX 3DM06 SM3/HDR 3.8GHz Conroe

1280x1024 no AA/AF 4927
1280x1024 4/8 AA/AF 4793
1280x1024 8/16 AA/AF 4771
1600x1200 no AA/AF 4102
1600x1200 8/16 AA/AF 3940

http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh-CN%7Cen&u=http://we.pcinlife.com/thread-642980-1-1.html&prev=/language_tools

Wenn das stimmt... :eek:

ShadowXX
2006-10-26, 23:01:46
Noch ein paar 3DMark06-Werte, diesmal SM3.0 Score in verschiedenen Auflösungen und AA 3.8GHz Conroe:

1280x1024 no AA/AF 4927
1280x1024 4/8 AA/AF 4793
1280x1024 8/16 AA/AF 4771
1600x1200 no AA/AF 4102
1600x1200 8/16 AA/AF 3940

http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh-CN%7Cen&u=http://we.pcinlife.com/thread-642980-1-1.html&prev=/language_tools

Wenn das stimmt... :eek:
Hmmm....die Zahlen sehen etwas merkwürdig aus. Das ist IMHO etwas zu wenig Speedverlust mit AA, selbst für einen G80.

Gouvernator
2006-10-26, 23:02:07
1280x1024 4/8 AA/AF 4793
1280x1024 8/16 AA/AF 4771
Das geht nicht... ein fake.

AnarchX
2006-10-26, 23:12:42
Wer weiss...
Immerhin hat ja die GTX 86GB/s Bandbreite und wir wissen noch nicht wie effizient sie mit dieser umgeht.;)

Gast
2006-10-26, 23:12:55
Noch ein paar 3DMark06-Werte, diesmal SM3.0 Score in verschiedenen Auflösungen und AA 3.8GHz Conroe:
8800GTX 3DM06 SM3/HDR 3.8GHz Conroe

1280x1024 no AA/AF 4927
1280x1024 4/8 AA/AF 4793
1280x1024 8/16 AA/AF 4771
1600x1200 no AA/AF 4102
1600x1200 8/16 AA/AF 3940

http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh-CN%7Cen&u=http://we.pcinlife.com/thread-642980-1-1.html&prev=/language_tools

Wenn das stimmt... :eek:

sieht ziemlich nach cpu-limit unter 1600x1200 aus.

Gast
2006-10-26, 23:14:53
Das geht nicht... ein fake.

wenn es sich um multisampling, oder gar etwas noch effizienterem handelt wäre das gerade bei einer shaderlastigen applikation durchaus möglich.

gguru
2006-10-26, 23:15:01
Das geht nicht...

Ich hoffe mal das geht. Wär super, so ein geringer Performanceeinbruch. ^^

Gouvernator
2006-10-26, 23:20:31
1/3 mehr Bandbreite kann doch unter keinen Umständen solche Wunder vollbringen.

Die gelbe Eule
2006-10-26, 23:22:28
Wobei bestimmt nicht nur die Bandbreite die Leistung bestimmt, sondern irgendetwas anderes die Leistung effizienter ausnutzt.

dargo
2006-10-26, 23:27:27
Noch ein paar 3DMark06-Werte, diesmal SM3.0 Score in verschiedenen Auflösungen und AA 3.8GHz Conroe:
8800GTX 3DM06 SM3/HDR 3.8GHz Conroe

1280x1024 no AA/AF 4927
1280x1024 4/8 AA/AF 4793
1280x1024 8/16 AA/AF 4771
1600x1200 no AA/AF 4102
1600x1200 8/16 AA/AF 3940

http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh-CN%7Cen&u=http://we.pcinlife.com/thread-642980-1-1.html&prev=/language_tools

Wenn das stimmt... :eek:
Boah, wenn das stimmt dann :conf:.

Die 8xAA Werte kann ich gar nicht glauben. Zum Vergleich:

1280x1024 4xAA/8xAF

E6400@3,3Ghz
Gigabyte GA-965P-S3
2x 1GB DDR2-667@412Mhz
X1900XT 512MB

1786 Punkte

AnarchX
2006-10-26, 23:35:44
Vielleicht doch etwas an diesem älteren Wert dran:
1680*1050 06(8 AA/ 16 Anis) 7XXX
=)

Gast
2006-10-26, 23:37:16
also ich glaube schon das g80 effizienter mit den vorhandener leistung umgeht als der vorgänger. dazu der leitungsplus selbst bringt eben hohe werte. trotzdem sehen die werte schon sehr optimistisch.

LovesuckZ
2006-10-26, 23:37:34
Das geht nicht... ein fake.

Ohne etwas über die Karte zu wissen, gleich Fake zu rufen, ist ein bisschen verfrüht. :wink:

Gouvernator
2006-10-26, 23:44:05
Seit wann frisst 8x AA bei 1280x1024 weniger Leistung als einfach nur 1600x1200 ohne AA/AF ? Also das stimmt schon mal nicht weil 1280x1024 mit 8xAA nie im Leben performanter sein kann als 1600x1200 noAA,noAF.

dargo
2006-10-26, 23:44:40
Ohne etwas über die Karte zu wissen, gleich Fake zu rufen, ist ein bisschen verfrüht. :wink:
So langsam glaube ich aber auch, dass es ein Fake ist.
Wieso verliert der G80 bei 1280x1024 mit 8xAA zu 4xAA weniger als 4xAA und 0xAA? :|
Sowas ist doch gar nicht möglich.

Seit wann frisst 8x AA bei 1280x1024 weniger Leistung als einfach nur 1600x1200 ohne AA/AF ? Also das stimmt schon mal nicht weil 1280x1024 mit 8xAA nie im Leben performanter sein kann als 1600x1200 noAA,noAF.
Sehr gut beobachtet!

Gast
2006-10-26, 23:45:00
aber man kann ihn schon verstehen. höhere anforderungen an die graka bei mehr speed oO das wäre wie n pepeto mobile argo unmöglich
sonst würde jeder mit 16aa/16af fahren udn dabei mehr fps haben als ohne.

AnarchX
2006-10-26, 23:49:20
Solang man nicht genau weiß was nun hinter "8xAA" steht, kann/sollte man es nicht mit normalen MSAA in Verbindung bringen.

Seit wann frisst 8x AA bei 1280x1024 weniger Leistung als einfach nur 1600x1200 ohne AA/AF ? Also das stimmt schon mal nicht weil 1280x1024 mit 8xAA nie im Leben performanter sein kann als 1600x1200 noAA,noAF.
Shaderlimitierung...;)
Wie schon gesagt wurde, nicht unbedingt von aktuellen GraKas auf G80 versuchen zu übertragen.

dargo
2006-10-26, 23:50:36
Shaderlimitierung...;)
:confused:

AnarchX
2006-10-27, 00:01:43
:confused:
Nunja, die Shaderleistung limitiert in diesem Fall, sodass eben der Einsatz von MSAA weniger kostet als die Erhöhung der Auflösung, was ja auch einen erhöhten Aufwand für die Shadereinheiten bedeutet.

Noch eine Idee:
Könnte vielleicht der kleine Chip auf dem PCB, etwas mit dem 8xAA zu tun haben... :uponder:

SKYNET
2006-10-27, 00:46:04
Mit D3D10 wird Quad-SLI nun auch wirklich interessant, nur glaube ich wird wohl eine GX2 mit einem stromsparenderen Refresh des G80 erst erscheinen.

muss ja nichtmal... einfach nur nen board mit 4x PCIe 8x ;)

SKYNET
2006-10-27, 00:51:04
Hmmm....die Zahlen sehen etwas merkwürdig aus. Das ist IMHO etwas zu wenig Speedverlust mit AA, selbst für einen G80.

CPU limit!

SKYNET
2006-10-27, 00:52:48
So langsam glaube ich aber auch, dass es ein Fake ist.
Wieso verliert der G80 bei 1280x1024 mit 8xAA zu 4xAA weniger als 4xAA und 0xAA? :|
Sowas ist doch gar nicht möglich.


Sehr gut beobachtet!

evtl. rechnert er intern schon alles mit AA?!

Gast
2006-10-27, 01:31:15
Vieleicht ist auch der Memory Controller sehr gut programmierbar und da muss noch getuned werden. Sowas hat man bei ATI ja auch schon gehabt.

Hauptsache 8xAA is performant, müsst man nur noch wissen was es für eins ist, ob TSAA aktiv ist und bissl AF mit Winkelunabhängigkeit garniert das ganze.

Gast
2006-10-27, 07:03:25
evtl. rechnert er intern schon alles mit AA?!

Das geht bei einem IMR nicht.

Ailuros
2006-10-27, 07:04:55
Nochmal wartet erstmal ab bis die verschiedenen AA modi genau erklaert werden. Es gibt zwei modi fuer alles ueber 4xAA. Ihr habt gerade nur eben mal die "schnellen" Zahlen gesehen ;)

Das Ganze hat nichts mit Speichercontroller oder andere Thesen zu tun; wer aufgepasst hat und nachdenken kann auf welcher Idee der Algorithmus basiert, ist es nicht schwer sich auszudenken was genau vorgeht.

MadManniMan
2006-10-27, 07:12:22
Nochmal wartet erstmal ab bis die verschiedenen AA modi genau erklaert werden. Es gibt zwei modi fuer alles ueber 4xAA. Ihr habt gerade nur eben mal die "schnellen" Zahlen gesehen ;)

Das Ganze hat nichts mit Speichercontroller oder andere Thesen zu tun; wer aufgepasst hat und nachdenken kann auf welcher Idee der Algorithmus basiert, ist es nicht schwer sich auszudenken was genau vorgeht.

Ganz gleich, wie das nun im Detail gelöst ist: die Leistung mit AA/AF übehaupt ist beeindruckend!

Spasstiger
2006-10-27, 07:43:10
Seit wann frisst 8x AA bei 1280x1024 weniger Leistung als einfach nur 1600x1200 ohne AA/AF ? Also das stimmt schon mal nicht weil 1280x1024 mit 8xAA nie im Leben performanter sein kann als 1600x1200 noAA,noAF.
Ist das überhaupt 8xS-AA oder vielleicht schon echtes 8xMSAA?
Und btw. auf meiner Radeon 9700 hab ich auch schon einige Fälle erlebt, wo 1024x768 mit 4xAA schneller lief und deutlich besser aussah als 1280x960 noAF.

seahawk
2006-10-27, 07:47:22
Intelligentes AA.

ScottManDeath
2006-10-27, 08:55:10
Das Ganze hat nichts mit Speichercontroller oder andere Thesen zu tun; wer aufgepasst hat und nachdenken kann auf welcher Idee der Algorithmus basiert, ist es nicht schwer sich auszudenken was genau vorgeht.

Durch den Speichercontroller gehts aber trotzdem durch. ;)

DrumDub
2006-10-27, 09:23:51
Das Ganze hat nichts mit Speichercontroller oder andere Thesen zu tun; wer aufgepasst hat und nachdenken kann auf welcher Idee der Algorithmus basiert, ist es nicht schwer sich auszudenken was genau vorgeht. temp aa?

Godmode
2006-10-27, 09:27:10
Intelligentes AA.

In diese Richtung denke ich. Vielleicht eine Art adaptiver AA Algorithmus (AAAA ;D ), der die Anzahl der Samples wechseln kann.

robbitop@work
2006-10-27, 09:40:17
Hmmm....die Zahlen sehen etwas merkwürdig aus. Das ist IMHO etwas zu wenig Speedverlust mit AA, selbst für einen G80.
Wart' mal ab ;-)

Ailuros
2006-10-27, 09:47:06
Durch den Speichercontroller gehts aber trotzdem durch. ;)

Beim einen modus um 1/4 weniger :P

robbitop@work
2006-10-27, 09:48:49
Beim einen modus um 1/4 weniger :P
MS/SS Hybrid ahoi?