PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV50 / G80?


Seiten : 1 2 3 4 5 [6]

dildo4u
2006-10-05, 17:43:19
Ich halte die 38,4 gTexel fürs Topmodell durchaus für möglich weil eine normale GX2 kommt ja schon auf 24 gTexel.Das heißt die 8800GTX wäre ca 65% schneller als eine GX2.

Moralelastix
2006-10-05, 17:44:01
http://uk.theinquirer.net/?article=34879


Nvidia to host G80 editors day on the 18th

Sunrise
2006-10-05, 17:46:51
Ähhmmm....im DailyTech-Artikel werden überhaupt keine technischen Specs genannt (mach mal den spoiler auf).

Dieser Link ( http://www.dailytech.com/article.aspx?newsid=4441 ) kam erst später....wohl nachdem bei Daily jemanden aufgefallen war, das bei Vr was ähnliches steht und Sie dann die VR-Specs einfach kopiert haben.
Du hast mich missverstanden. Ich rede nicht exklusiv von irgendeinem Link, den du gepostet hattest / oder den du kommentiert hattest, sondern von allen gesammelten Informationen, die bereits zu dieser Zeit auf der Seite (von Dailytech) gepostet waren, als ihr euch darüber unterhalten habt. Die verlinkte VR-Zone-Seite war genau davon auch abgeschrieben, was ja in deren Text auch steht.

Bei B3D (http://www.beyond3d.com/forum/showpost.php?p=845779&postcount=802) waren diese Informationen (von deinem genannten Link) auch schon seit heute Morgen um etwa 7 Uhr bekannt.

Botcruscher
2006-10-05, 17:49:36
Bei B3D (http://www.beyond3d.com/forum/showpost.php?p=845779&postcount=802) waren diese Informationen (von deinem genannten Link) auch schon seit heute Morgen um etwa 7 Uhr bekannt.

Das mit dem Speicherinterface geisterte da sogar schon vor 2 Wochen durchs Forum.

Gast
2006-10-05, 17:50:03
http://www.dailytech.com/article.aspx?newsid=4441

:uponder:

Realistisch ist es ja erst die 5. Generation an GeForces ;)

dildo4u
2006-10-05, 17:55:42
More G80 features abound

"As if we mere mortals needed more reasons to be excited about G80, here are a couple more tidbits: 128-bit high dynamic-range and antialiasing with 16X sampling..."


http://dailytech.com/article.aspx?newsid=4450

NVIDIA's Quantum Physics Engine

"With the release of the G80, NVIDIA will also release a new engine dubbed Quantum physics engine. Quantum Effects Technology is similar (at least in spirit) to NVIDIA's PureVideo Technology -- a dedicated layer on the GPU for physics calculations. A few documents alluding to this new engine appeared on public FTP mirrors late last week.

Quantum utilizes some of the shaders from NVIDIA's G80 processor specifically for physics calculations..."


http://dailytech.com/article.aspx?newsid=4444

Superheld
2006-10-05, 17:55:48
geil

Sunrise
2006-10-05, 17:56:34
Das mit dem Speicherinterface geisterte da sogar schon vor 2 Wochen durchs Forum.
Liegt sogar noch weiter zurück, aufgrund der sagenumwobenen "12". :)

Moralelastix
2006-10-05, 17:56:47
http://www.dailytech.com/article.aspx?newsid=4450


"G80" To Feature 128-bit HDR, 16X AA

Gast
2006-10-05, 17:58:56
Auf die Taktrate würd ich mal nix geben, 575MHz für den Chip kann ja hinkommen. Die 1350 sind sicher aus der heißen Luft gegriffen, oder NV hat sowas wie Intel mit den internen Rechenheinheiten des P4 gemacht.

Aber Käse beiseite, 32TMUs mit jeweils 4 Shadereinheiten sind realistisch. Man brauch die Leistung der TMUs fürs AA (neu?) und weils vieleicht 16xAF auf allen Stages gibbet. Spekulatius eben.

Aber, man hatte ja mal nen G70 mit 32TMUs gebastelt in den Studios, der allerdings horrend Strom verbraucht hat, Hitzepipe halt. Ob es was gebracht hat, gewisse Einheiten von einander zu entkoppeln mag sein.

Gast
2006-10-05, 18:01:14
http://www.dailytech.com/article.aspx?newsid=4450


"G80" To Feature 128-bit HDR, 16X AA

Das sagt doch gar nichts, kann der NV40/G70 auch.
Wenn da stehen würde 128-Bit HDR + 16xMSAA wäre das ne andere Liga.
Was ist 128Bit HDR? Nix auser Marketinggeblubber, FP16 mit AA wäre genauer.

Moralelastix
2006-10-05, 18:04:39
Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels!

Anarchy-HWLUXX
2006-10-05, 18:11:03
Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels!

@meckergast - Wer lesen kann ist klar im vorteil :P

Und am 18. gibbet spätestens die Finalen Specs wenn sie nicht schon vorher durchsickern ...

dildo4u
2006-10-05, 18:13:48
Ebend sinnloser Flame war doch klar das die Beschränkung im G80 nicht mher vorhanden ist.

Gast
2006-10-05, 18:17:53
Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels!
Sie wollen ja schliesslich D3D10 draufschreiben können...

Gast
2006-10-05, 18:57:02
wer sagt das ati es besser macht?

mfg

Was hat hier Ati in diesen Thread zutun.:rolleyes:Du hämmerst woll gerne auf sachen rum die du nicht besitzt.:rolleyes:

Gast
2006-10-05, 18:58:34
http://www.dailytech.com/article.aspx?newsid=4450


"G80" To Feature 128-bit HDR, 16X AA

Eine Nvidia bricht traditionel bei AA ein,wie soll so ne Karte 16 AA schaffen..

The_Invisible
2006-10-05, 19:01:50
kann sich mal wer um die flame-gäste kümmern? danke.

mfg

Anarchy-HWLUXX
2006-10-05, 19:21:56
[X] Gäste abschalten :D

Gast
2006-10-05, 19:23:09
der gast hat doch recht
ist kleinkind niveau
ist wie: du hast ne frau vergewaltigt und musst ins gefängnis
du ganz erschrocken:" warum der mann da drüben hats doch auch gemacht!"

der hohe stromverbrauch ist halt scheisse
egal ob es ein hersteller macht oder beide
selbst wenn ati noch höher liegt ist der von nvidia immer noch nicht in ordnung

Moralelastix
2006-10-05, 19:25:40
Die "Gastritis" wird hier so langsam chronisch!:biggrin:

deekey777
2006-10-05, 19:28:58
Und jetzt ist Schluss. Erst gestern ist der Thread schoneinmal (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4841498&postcount=1205) aus dem Ruder gelaufen:
Schluss mit dem OT. Hier geht es nur um den G80 und relevante Themen. Geht von mir aus ins Nostalgiehardrware-Forum.
Wer das nicht ernst nahm, wird jetzt die Konsequenzen tragen.

wer sagt das ati es besser macht?

mfg
OT Nr.1
kann sich mal wer um die flame-gäste kümmern? danke.

mfg
OT Nr. 2

[X] Gäste abschalten :D
OT Nr. 3/Flame
Die "Gastritis" wird hier so langsam chronisch!:biggrin:
OT Nr. 4/Flame
An sich wären zT längere Ausflüge ins RL möglich, aber ich belasse es bei Verwarnung, die ihr sehr ans Herz nehmen sollt.
Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "Diskussionen zu moderativen Entscheidungen - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation

Und an alle: Wie man sieht, gibt es in diesem Thread mehrere Leute, die es schaffen, vernünfitg und sachlich zu diskutieren. Man muss weder auf ein Trollposting antworten noch selbst so schreiben, dass die Antwort darauf einem Flame gleicht (gilt besonders für The_Invisible (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4845758&postcount=1250)). Schaltet doch einfach die innere Ignore-List ein und überseht das eine oder andere unwillkommene Posting.

Gouvernator
2006-10-05, 21:16:04
http://www.dailytech.com/article.aspx?newsid=4441
Weiter gehts...

Gast
2006-10-05, 21:21:37
http://www.dailytech.com/article.aspx?newsid=4441
Weiter gehts...

Bitte schaut doch zumindest die letzten Seiten des Threads an. Das wurde bereits gepostet.


Q

robbitop
2006-10-05, 23:39:05
Das 16x(MS)AA dürfte kein Problem sein. IIRC hat NV vor ner ganzen Weile mal ein Patent für ein extrem frei programmierbares MSAA Muster eingereicht. Das ganze solle über die Pixelshader laufen. Da sollte in gewissen Grenzen soziemlich alles mit machbar sein.
Irgendwie glaube ich denen das mit den >1000 MHz für die Shader ALUs nicht ganz. Dazu bräuchte man custom Schaltungen, so wie sie AMD und Intel für ihre CPUs nutzen (Intrinsics Fast14 wäre ein Äquivalent). Wenn es stimmen sollte (habe was von "hybrid wafers" gelesen), dann bräuchte man jedoch keine 128 Vec4/5 ALUs bei dem brachialen Takt. Dann würde ein Pool von 128 skalaren MIMD Kanälen (welche Anordnung auch immer) locker genügen.

Ergo: 128x Vec4/5 @1350MHz würden mich echt umhauen. Aber gern würde ich umgehauen werden X-D

deekey777
2006-10-06, 00:36:52
Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels!

Das bezieht sich auf das OpenEXR-Format (http://openexr.com/). Irgendwie hat Dailytech die OpenEXR-Spezifikationen in den Text reingebracht (warum auch immer). nVidia unterstützt das OpenEXR-Format seit dem NV40.

Wenn die Schreiberlinge den Support des "128-bit-HDR" des G80 aus den OpenEXR-Spezifikationen hergeleitet haben, ist das nicht besonders seriös. Der Einwand des Gastes war nicht uneingebracht.

Gast
2006-10-06, 04:36:49
Finde 128 Shader auch nicht unrealistisch. Wie weiter oben schon geschrieben wurde, 32 Pipes a 4 Shader bei der GTX bzw. 3 Shader bei der GTS und schon sind wir da. Die Taktraten der Shader finde ich aber auch unrealistisch. 384 bzw 320 bit SI dürften auch hinkommen. So langsam nimmt die Sache Konturen an.

tombman
2006-10-06, 05:48:31
Also was ich da lese über den G80 rechtfertigt meinen "Wie sehr wollt ihr G80" Poll immer mehr ;D
Schon ein geiles Teil, falls alles stimmen sollte ;)

Ailuros
2006-10-06, 06:40:13
Nochmal anstatt dass wir unsere Zeit mit sinnlosen Marketing-nummern verplempern waere es weiser nachzudenken wie die Effizienz und wo genau in G80 gesteigert wurde.

Im relevanten B3D Thread gibt es schon ein paar sehr gute Gedanken darueber.

Eine Nvidia bricht traditionel bei AA ein,wie soll so ne Karte 16 AA schaffen..

Jede heutige GPU bricht mit allem >2xMSAA um ein gesundes Prozentual ein, ueberhaupt wenn mit stencil shadows z.B. kombiniert.

Von dem abgesehen und da einige von uns mehr als nur einmal an "fettere" ROPs und generelle Effizienz-steigerungen deuteten (siehe auch oben in diesem Post), faellt wohl eher die Frage was genau geaendert wurde warum man ploetzlich so viel Bandbreite braucht auch im mainstream spaeter.

Und bevor jemand jetzt wahnwitzig wird und glaubt dass >4xMSAA in zukuenftigen Spielen spielbar sein wird, denkt erstmal daran was man machen koennte um den Einbruch fuer MSAA generell zu vermindern, wozu man mehr als 4xAA in SLi Systemen und Profi-Maerkten genau brauchen koennte.

Ich erinnere nochmal dass mit multi-GPU configs auf Quantum3D's Independence Maschinen durch ihren eigenen Algorithmus bis zu 64x MSAA moeglich ist mit G7x Quadros. Es wuerde mich kein bisschen wundern wenn sich diese Zahl in der Zukunft 4x oder sogar 8x so hoch sein wuerde.

Der theoretische maximale grid ist afaik etwas groesser als hier angegeben wird oder eine meiner Quellen hat sich verzettelt.

seahawk
2006-10-06, 07:43:52
Da hast Du sicher Recht Ailuros. Und es ist ja auch denkbar, dass nicht nur grafikbezogene Rechnungen in der GPU ablaufen werden. Also Teile der GPU für andere Dinge genutzt werden können.

seahawk
2006-10-06, 07:45:19
Also was ich da lese über den G80 rechtfertigt meinen "Wie sehr wollt ihr G80" Poll immer mehr ;D
Schon ein geiles Teil, falls alles stimmen sollte ;)

Leistung muß man immmer realtiv zum Konkurrenzprodukt sehen und da bin ich keineswegs überzeugt, dass der G80 ein Durchbruch sein wird.

Anarchy-HWLUXX
2006-10-06, 09:32:20
A bissi was vom Inq ( kein repost ) :

http://uk.theinquirer.net/?article=34885

Gast
2006-10-06, 09:35:10
Was ein Stuss... Jede G7x kann auch Turbocache.

Gast
2006-10-06, 09:36:29
Der Inq. spekuliert aber ma lwieder so lwild, dass man es kaum versteht.

Aber ich bin sowieso skeptsich, je größer die Erwartungen bei NV, desto größer die Enttäuschung.

robbitop@work
2006-10-06, 09:50:14
Jede heutige GPU bricht mit allem >2xMSAA um ein gesundes Prozentual ein, ueberhaupt wenn mit stencil shadows z.B. kombiniert.
Wie sicher bist du dir in dieser Angelegenheit? NV43 hat nur 4 ROPs und zeigte in Stencilshaderspielen wie Doom3 und FEAR (aber auch im GT2?? von 3DM03) keine signifikanten Nachteile ggü der Konkurrenz (RV410) aber auch ggü der 6800 Vanilla. Auch bei Nutzung von MSAA.
den NV43 mal als Bsp:
Eine StencilOp als auch einen Z Wert zu testen/schreiben (viel mehr machen ROPs ja AFAIK nicht) kostet nur einen Takt. Ok, Blending muss auch gemacht werden, aber das kostet ja nicht nur ROP Leistung, das kostet überall. Das sind bei einem Bild von 2 MPix immer noch 1000 fps wenn es nur um Z und Stencil geht. Mit 4xMSAA sind es dann 250 FPS. Selbst bei hohem overdraw sind das noch gut 80-100 fps. Und die bei 4xAA und >16x12 zu erreichen schafft das Teil sowieso nicht. Ich lasse mich aber auch sehr gern eines Besseren belehren. :)

Godmode
2006-10-06, 09:53:23
Der Inq. spekuliert aber ma lwieder so lwild, dass man es kaum versteht.

Aber ich bin sowieso skeptsich, je größer die Erwartungen bei NV, desto größer die Enttäuschung.

Also ich warte auch lieber auf die ersten Benchmarks, aber ich denke schon dass der G80 ein sehr schneller Chip sein wird, IMHO.

Von den ganzen Zahlen lasse ich mich nicht mehr beeindrucken, da ich seit NV3x - seit dort verfolge ich den GPU Markt sehr intensiv - jedesmal entäuscht wurde.

robbitop@work
2006-10-06, 10:23:32
Also ich warte auch lieber auf die ersten Benchmarks, aber ich denke schon dass der G80 ein sehr schneller Chip sein wird, IMHO.

Von den ganzen Zahlen lasse ich mich nicht mehr beeindrucken, da ich seit NV3x - seit dort verfolge ich den GPU Markt sehr intensiv - jedesmal entäuscht wurde.
Naja der NV30 hatte doch bloß einen vierfach ausgelegten Vec4 Shadercore, der nichtmal splittingfähig war. Ich fand das war nicht so beeindruckend, von der reinen Zahl her. Und was Int12 betrifft blieben da auch nur die "normalen" NV2x Combiner.

Armaq
2006-10-06, 10:26:05
Also ich warte auch lieber auf die ersten Benchmarks, aber ich denke schon dass der G80 ein sehr schneller Chip sein wird, IMHO.

Von den ganzen Zahlen lasse ich mich nicht mehr beeindrucken, da ich seit NV3x - seit dort verfolge ich den GPU Markt sehr intensiv - jedesmal entäuscht wurde.

Der Nv40 hat dich enttäuscht? Ich finde es ist ein toller Chip.
Generell denke ich, das bis auf den Verbrauch, auch der g80 ein gutes Stück Silizium wird. Einzig die 7800er Generation hat mich vergleichsweise enttäuscht. (pre NV40 mal ausgenommen)

Godmode
2006-10-06, 10:46:12
Naja der NV30 hatte doch bloß einen vierfach ausgelegten Vec4 Shadercore, der nichtmal splittingfähig war. Ich fand das war nicht so beeindruckend, von der reinen Zahl her. Und was Int12 betrifft blieben da auch nur die "normalen" NV2x Combiner.

Der Nv40 hat dich enttäuscht? Ich finde es ist ein toller Chip.
Generell denke ich, das bis auf den Verbrauch, auch der g80 ein gutes Stück Silizium wird. Einzig die 7800er Generation hat mich vergleichsweise enttäuscht. (pre NV40 mal ausgenommen)

Also NV4x war ein super Chip, keine Frage. Ich habe das in meinem Post eher so gemeint: Es wird vorher im viel zu hoch spekuliert und am Ende sind dann doch alle entäuscht. Zb die 750 MHz beim G71 und dann wurden es doch nur 650.

Ailuros
2006-10-06, 10:50:41
Wie sicher bist du dir in dieser Angelegenheit? NV43 hat nur 4 ROPs und zeigte in Stencilshaderspielen wie Doom3 und FEAR (aber auch im GT2?? von 3DM03) keine signifikanten Nachteile ggü der Konkurrenz (RV410) aber auch ggü der 6800 Vanilla. Auch bei Nutzung von MSAA.
den NV43 mal als Bsp:
Eine StencilOp als auch einen Z Wert zu testen/schreiben (viel mehr machen ROPs ja AFAIK nicht) kostet nur einen Takt. Ok, Blending muss auch gemacht werden, aber das kostet ja nicht nur ROP Leistung, das kostet überall. Das sind bei einem Bild von 2 MPix immer noch 1000 fps wenn es nur um Z und Stencil geht. Mit 4xMSAA sind es dann 250 FPS. Selbst bei hohem overdraw sind das noch gut 80-100 fps. Und die bei 4xAA und >16x12 zu erreichen schafft das Teil sowieso nicht. Ich lasse mich aber auch sehr gern eines Besseren belehren. :)

Sagte ich nicht "jegliche heutige GPU"?

Stencil Fuellrate limitierter synthetischer Test:

http://www.mitrax.de/artikel/gf6800/shots/fable.gif

http://www.mitrax.de/?cont=artikel&aid=24&page=4

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=25

Sagte ich nicht auch mit allem >2x MSAA samples?

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_17.html

Sieht auch nach ca. -30% auf R580 aus oder?

Ich hab lediglich auf den Kommentar des Gasts reagiert der wohl sagen wollte dass GeForces mit eingeschaltetem MSAA mehr einbrechen als Radeons, was eigentlich BS ist.

robbitop@work
2006-10-06, 11:00:09
Naja im Fablemark kommt wirklich aber auch alles zusammen, was einem TBDR einen großen Vorteil verschafft. Extrem übertrieben viele Stencilshaddows und extrem übertrieben viel overdraw (auch künstlicher Stenciloverdraw!) und weiß der Geier noch was PVR da eingebaut hat. Vergleichsweise nutzt der Benchmark natürlich noch kein Shading und sehr wenig Textursampling. Ein solches Verhältnis tritt in keinem Spiel auf.

Der NV43 unterscheidet sich bis auf die Skallierung kaum von heutigen GPUs. Ich wollte nur darauf hinweisen, dass ich glaube dass die ROPs nicht so arg limitieren, wie man vieleicht denkt. Die Filterung und die aritmetischen Berechnungen dauern nunmal um ein vielfaches länger als "banales" Z Write/test oder Blending oder Stencilops.

Daß in Spielen mit >2xMSAA die Performance einbricht, ist völlig natürlich. Es kostet ja auch sehr viel Speicherbandbreite. In 4xMS only Tests (16xAF verunstalltet diese Untersuchung der ROP Flaschenhälse sehr) skalliert "R580+" ggü R580 mit seiner höheren Bandbreite bsw fast linear.
Das sollte doch bis heute der Hauptflaschenhals für MSAA sein, oder nicht?

Jetzt wäre es toll, wenn es eine GPU geben würde, bei der man die ROP-Leistung mal einzeln skallieren könnte. Mich interessiert dieses thema nämlich auch. :)

Ailuros
2006-10-06, 11:02:59
Also NV4x war ein super Chip, keine Frage. Ich habe das in meinem Post eher so gemeint: Es wird vorher im viel zu hoch spekuliert und am Ende sind dann doch alle entäuscht. Zb die 750 MHz beim G71 und dann wurden es doch nur 650.

Es gab auch einen Testchip mit 8 quads der nie zur Vollendung kam ja und? Liefert Dir vielleicht eine G71 oder R580 nicht genug Leistung fuer heutige Verhaeltnisse? Wenn nicht gibt es immer noch SLi/CF Alternativen, noch besser gleich eine GX2 die vergleichsmaessig zu SLi noch relativ billig ist.

Mit Aussnahme von der NV3x Reihe, hat NVIDIA seither wie genau mit NV4x/G7x generell enttaeuscht? Die Filterung koennte besser sein auf den beiden letzteren das muss man wohl zugeben, aber dafuer droehnen die Dinger auch nicht jedermans Kopf ab mit extravaganten Kuehlungsloesungen.

Es wird so manche gerechtfertigte positive Aufregung ueber G80 geben, und das nicht nur was sterile und sinnlose FPS Nummern betrifft.

Ailuros
2006-10-06, 11:11:39
Naja im Fablemark kommt wirklich aber auch alles zusammen, was einem TBDR einen großen Vorteil verschafft. Extrem übertrieben viele Stencilshaddows und extrem übertrieben viel overdraw (auch künstlicher Stenciloverdraw!) und weiß der Geier noch was PVR da eingebaut hat. Vergleichsweise nutzt der Benchmark natürlich noch kein Shading und sehr wenig Textursampling. Ein solches Verhältnis tritt in keinem Spiel auf.

Merkwuerdige Schlussfolgerung; FableMark war ein Versuch eine Nachbildung der Doom3 engine zu schaffen die auch auf einer KYRO laufen wuerde. Dabei ist der Einbruch eben rein zufaellig zu verdammt aehnlich als auch in Doom3.

Du kannst es ja selber mit MSAA sowohl FableMark als auch Doom3 auf jeglicher GPU nachtesten und dann kannst Du mir sagen ob FableMark ein unrealistischer synthetischer Benchmark ist. Es gibt dann natuerlich noch das Deferred Shading demo, dieses ist dann auch wirklich total auf einen TBDR zugeschnitten aber auch nicht zu weit entfernt von (vaporware?) STALKER.

Liefert Futuremark bessere Schaetzungen fuer die Zukunft?


Daß in Spielen mit >2xMSAA die Performance einbricht, ist völlig natürlich. Es kostet ja auch sehr viel Speicherbandbreite. In 4xMS only Tests (16xAF verunstalltet diese Untersuchung der ROP Flaschenhälse sehr) skalliert "R580+" ggü R580 mit seiner höheren Bandbreite bsw fast linear.
Das sollte doch bis heute der Hauptflaschenhals für MSAA sein, oder nicht?


Sag das dem geehrten Gast; nach ihm brechen ja nur GFs total dabei ein LOL ;)

robbitop@work
2006-10-06, 11:22:37
Merkwuerdige Schlussfolgerung; FableMark war ein Versuch eine Nachbildung der Doom3 engine zu schaffen die auch auf einer KYRO laufen wuerde. Dabei ist der Einbruch eben rein zufaellig zu verdammt aehnlich als auch in Doom3.
komisch nur, dass sich NV43 nicht so verhällt gegenüber stärker bestückten GPUs (ROP-wise).

Ansonsten empfinde ich Quake4 und FEAR als sehr gute Benches, um dies nachzutesten. Eine IHV- und Renderspezifische Techdemo/Benchmark...da wäre ich als Redakteur skeptisch.




Sag das dem geehrten Gast; nach ihm brechen ja nur GFs total dabei ein LOL ;)
Zu diesem Zweck habe ich mir eben bei Onkel Anand ein paar 2048x1536 Benches Pure vs 4xAA/NoAF angesehen. In FEAR als auch in HL2 verliert R580 ein kleines bisschen weniger Performance ggü G71 (delta~3-5% Unterschied). Das ist aber nicht die Welt.
Ich meine mich aber auch errinnern zu können, dass die MSAA Situation vor einem Jahr (hast du nicht sogar selbst einen solchen FEAR Test gemacht?) noch anders war und die G7x deutlich mehr verloren hat als R5xx (scheint ja ein inzwischen gefixter bug gewesen zu sein).
Ich denke ein bisschen wird die bessere Granularität des Memcontrollers von R5xx dazu beisteuern. Aber das bringt natürlich nicht die Welt (Gesetz des abnehmenden Grenzertrags).
Long story short: ich stimme dir zu und widerspreche dem Gast ;)

paul.muad.dib
2006-10-06, 11:54:19
Update:

Mittlerweile hat DailyTech weitere technische Daten veröffentlicht. Hier eine kurze Übersicht:

Geforce 8800 GTX:

Chiptakt: 575 MHz
Speichertakt: 900 MHz
Speichermenge: 768 MByte
Speicherinterface: 384 Bit
Theoret. Speicherbandbreite: 86 GByte/s
Shaderzahl: 128 Unified-Shader mit 1.350 MHz

Geforce 8800 GTS:

Chiptakt: 500 MHz
Speichertakt: 900 MHz
Speichermenge: 640 MByte
Speicherinterface: 320 Bit
Theoret. Speicherbandbreite: 64 GByte/s Shaderzahl: 96 Unified-Shader mit 1.200 MHz


WTF:eek:

Zwar passt die große Zahl an Einheiten zum realtiv geringen Chiptakt. Aber 128 US? Das wären 32 Pipes mit 4 Shadern pro Pipe oder 64 Pipes mit jeweils zwei Shadern.
Erscheint mir doch sehr viel. Außerdem hieß es doch, es gäbe noch keine US.

Ailuros
2006-10-06, 12:22:24
Erscheint mir doch sehr viel. Außerdem hieß es doch, es gäbe noch keine US.

Ich bin zu faul meinen eigenen Mist in diesem Thread nachzuschlagen, aber ich kann mich erinnern gefragt zu haben ob das Dilemma zwischen G80/R600 ist ob es um USC vs. nonUSC geht, oder eher dem Prozentual von vereinten Einheiten.

Gaestle
2006-10-06, 12:32:48
komisch nur, dass sich NV43 nicht so verhällt gegenüber stärker bestückten GPUs (ROP-wise).

Warum spielt die Taktrate in deinem Argument keine Rolle? Speziell im Vergleich 6600GT vs. 6800nU ?

robbitop@work
2006-10-06, 12:40:01
Warum spielt die Taktrate in deinem Argument keine Rolle? Speziell im Vergleich 6600GT vs. 6800nU ?
Weil der geringere Kerntakt der 6800 Vanilla durch die erhöte Anzahl an Quads wieder fast exakt ausgeglichen wird.
Allerdings hat die 6800 Vanilla 50% mehr Bandbreite als die 6600GT. Aber auch das könnte man durch heruntertakten des RAMs wieder ausgleichen.

Gaestle
2006-10-06, 12:43:59
Weil der geringere Kerntakt der 6800 Vanilla durch die erhöte Anzahl an Quads wieder fast exakt ausgeglichen wird.


Eben das meinte ich.
Deswegen sollten doch ROP-seitig keine großen Unterschiede zwischen beiden auftauchen, besonders, wenn Bandbreite nicht so wichtig ist. Oder nicht?

robbitop@work
2006-10-06, 12:50:51
WTF:eek:

Zwar passt die große Zahl an Einheiten zum realtiv geringen Chiptakt. Aber 128 US? Das wären 32 Pipes mit 4 Shadern pro Pipe oder 64 Pipes mit jeweils zwei Shadern.
Erscheint mir doch sehr viel. Außerdem hieß es doch, es gäbe noch keine US.
Da das aller Wahrscheinlichkeit "nur" 1D ALUs sind, ist das Ganze nicht mehr sooo beeindruckend. 128 1D ALUs entspricht theoretisch 32 Vec4 ALUs. Da diese aber mit einem ca doppelt so hohem Takt arbeiten, sagen wir mal ein Äquivalent von 64 Vec4 ALUs. Da diese aber pro Kanal angesprochen werden (weniger Verschnitt!!) und mehr als doppelt so hoch getaktet sind, läuft das Ganze vermutlich auf ~2x G71 PS Leistung.
Ein Indikator dafür ist die Behauptung in den News von ~2x Shaderpower und ~12VS Power. Das käme damit auch hin. Die Konkurrenz soll ja auch mit 64xVec5 Alus kommen.

Was man eben nicht einschätzen kann, wie sich folgende Dinge auf die Performance auswirken:
-Granularität dank einzelnen Kanälen (mit den Shaderoptimizern konnte sicher an den bisherigen SIMD ALUs Effizienz herausgeholt werden aber natürlich liegt aufgrund der "groben" Granularität immer ein Teil brach)
-wieviel macht das vermutliche Wegfallen der Mini ALUs aus?
-wieviel bringt das Entkoppeln der TMUs und der TexOps von den ALUs?
-wieviel bringt ein vermutlich größerer Pool an Tempregistern
-welche Fähigkeiten hat jede ALU
-wieviel bringt eine verbesserte Auslastung im USC-Fall?
-wie gut ist das load balancing und wie ist dessen Granularität?

Es wird IMO eine ~2x Performance vom Vorgänger auftreten (je nach Situation), die sich aus einer Erhöhung der Recheneinheiten (also auch der TMUs) als auch einer Verbreiterung des Interfaces, als auch eine Verbesserung des Controllers, als auch einer Verbesserung der Caches, ergibt.

robbitop@work
2006-10-06, 12:54:29
Eben das meinte ich.
Deswegen sollten doch ROP-seitig keine großen Unterschiede zwischen beiden auftauchen, besonders, wenn Bandbreite nicht so wichtig ist. Oder nicht?
oh doch! Das ist der Knackpunkt zwischen beiden Architekturen. Die ROPs. NV43 verfügt über 4 ROPs und die 6800 Vanlilla über mindestens 12. Das gleicht sich mitnichten über den Takt wieder aus.

Ich habe leider vergessen, ob ein Teil der ROPs (ggü der 6800GT) auch deaktiviert worden sind, denn diese hängen ja seit NV4x am Crossbar. IIRC hatte das Teil sogar 16 ROPs. In dem Falle wäre pro Takt immerhin noch eine ~2,6 fache "ROP-Leistung" bei der 6800Vanilla vorhanden. Die wirkte sich jedoch weder in Stencil Spielen wie D3, Q4 oder FEAR signifikant aus. Unter anderem aus diesem Grunde zweifle ich auch an ROPs als Flaschenhals selbst bei >2xMS.

BS-Virus
2006-10-06, 13:01:49
Tschuldigung wenn ich mal eben einen nicht so qualitativ hochwertigen Post dazwischen schmeisse! :wink:
Aber wurde schonmal irgendwo etwas über die Bildqualität des neuen Chips gesagt? :redface:

robbitop@work
2006-10-06, 13:08:31
Tschuldigung wenn ich mal eben einen nicht so qualitativ hochwertigen Post dazwischen schmeisse! :wink:
Aber wurde schonmal irgendwo etwas über die Bildqualität des neuen Chips gesagt? :redface:
Es wurde 16xAA fallengelassen. Mit einem (theoretisch gut möglichen) 16x SG-MSAA Verfahren wäre die BQ sicher nett. Nur bleibt bei den wenigsten Kanten überhaupt genug "Pixel-Platz" um überhaupt 16 Farbabstufungen beherberen zu können. Allenfalls die Farbabstufungen per se könnten etwas genauer werden.
Ich vermute, dass G80 auch endlich wieder ein besseres AF (in Richtung winkelabhängigkeit) bietet. Somit sollte die BQ dieser VPU wirklich sehr gut sein (natürlich werden die old-school-SSAA-Verfechter jetzt aufschreien...aber für die gibts ja die OG-SSAA/SG-MSAA Hybridmodi. Vieleicht kann man sogar einen SG-SSAA/SG-MSAA Hybridmodus im G80 realisieren. Die Hardware des G7x könnte das IMO bereits (SLI-AA/SuperAA gehen ja bereits in eine solche ungefähre Richtung))

aths
2006-10-06, 13:12:46
-wieviel macht das vermutliche Wegfallen der Mini ALUs aus?Warum vermutest du, dass sie Mini-ALUs wegfallen lassen?
-wieviel bringt das Entkoppeln der TMUs und der TexOps von den ALUs?Ob Tex-Ops entkoppelt sind oder nicht ist für die Leistung wenig relevant.
Es wurde 16xAA fallengelassen. Mit einem (theoretisch gut möglichen) 16x SG-MSAA Verfahren wäre die BQ sicher nett. Nur bleibt bei den wenigsten Kanten überhaupt genug "Pixel-Platz" um überhaupt 16 Farbabstufungen beherberen zu können. Allenfalls die Farbabstufungen per se könnten etwas genauer werden.Inwiefern?
Ich vermute, dass G80 auch endlich wieder ein besseres AF (in Richtung winkelabhängigkeit) bietet. Somit sollte die BQ dieser VPU wirklich sehr gut sein (natürlich werden die old-school-SSAA-Verfechter jetzt aufschreien...aber für die gibts ja die OG-SSAA/SG-MSAA Hybridmodi. Vieleicht kann man sogar einen SG-SSAA/SG-MSAA Hybridmodus im G80 realisieren. Die Hardware des G7x könnte das IMO bereits (SLI-AA/SuperAA gehen ja bereits in eine solche ungefähre Richtung))Falls Nvidia AF-mäßig erst durch ATIs R5xx aufgeschreckt wurde, könnte es beim G80 schon zu spät sein, um einen besseren Modus zu implementieren.

Slipknot79
2006-10-06, 13:16:13
Es wurde 16xAA fallengelassen. Mit einem (theoretisch gut möglichen) 16x SG-MSAA Verfahren wäre die BQ sicher nett. Nur bleibt bei den wenigsten Kanten überhaupt genug "Pixel-Platz" um überhaupt 16 Farbabstufungen beherberen zu können. Allenfalls die Farbabstufungen per se könnten etwas genauer werden.
Ich vermute, dass G80 auch endlich wieder ein besseres AF (in Richtung winkelabhängigkeit) bietet. Somit sollte die BQ dieser VPU wirklich sehr gut sein (natürlich werden die old-school-SSAA-Verfechter jetzt aufschreien...aber für die gibts ja die OG-SSAA/SG-MSAA Hybridmodi. Vieleicht kann man sogar einen SG-SSAA/SG-MSAA Hybridmodus im G80 realisieren. Die Hardware des G7x könnte das IMO bereits (SLI-AA/SuperAA gehen ja bereits in eine solche ungefähre Richtung))


Naja, ich glaube dass selbst die G80 kein 16xSSAA richtig flott packen wird. Nicht mal in SLI. Bin irgendwie nicht ganz überzeugt, trotz der erwähnten Zahlen.

robbitop@work
2006-10-06, 13:28:01
Naja, ich glaube dass selbst die G80 kein 16xSSAA richtig flott packen wird. Nicht mal in SLI. Bin irgendwie nicht ganz überzeugt, trotz der erwähnten Zahlen.
Wie kommst du auf SSAA? MSAA wohl eher. Und nein ich glaube auch dann nicht, dass das immer flüssig läuft. Aber es ist doch eine gute Sache etwas mehr ls Option zu bieten oder nicht? Du kannst ja herunterregeln. Für etwas ältere Spiele sollte es locker reichen.


Warum vermutest du, dass sie Mini-ALUs wegfallen lassen?
Ist eine persönliche Vermutung meinerseits (bei den USCs wie Xenos und R600 soll das ja auch der Fall sein).

Ob Tex-Ops entkoppelt sind oder nicht ist für die Leistung wenig relevant.
Das denke ich auch. Dadurch entsteht nur wenig Verschnitt, aber Kleinvieh macht Mist. ;)
Aber insbesondere die Umwandlung des Phasenkonzepts ins "Threading-konzept" sollte schon etwas bringen.


Inwiefern?
Weil mehr Samples pro Pixel einfließen?


Falls Nvidia AF-mäßig erst durch ATIs R5xx aufgeschreckt wurde, könnte es beim G80 schon zu spät sein, um einen besseren Modus zu implementieren.
In dem Falle stimme ich dir zu. Aber du weißt ja, dass IHVs gewisse Dinge weit vorher wissen oder wenigstens vermuten.
Allein die Aufklärung über das AF, (welche du ja maßgeblich beeinflußt hast) als auch die darausentstehende Hetz-Kaskade in den "Medien", sollte hier Wirkung gezeigt haben (hoffe ich).
Viele "Experten" behaupten anhand der AF-Blume vom NV4x, dass der Algoritmus vermutlich nicht transistorsparend sondern künstlich implementiert wurde. Insofern sollte ein guter Modus doch recht schnell einsatzfähig sein. NV40 ist immerhin ~2,5 Jahre alt und seit dem hatte man schon etwas Zeit daran zu arbeiten.

Ailuros
2006-10-06, 13:39:47
Dailytech gibt hypothetische 38.4 GPixels/s an; will irgend jemand mal versuchen das Zeug zu entziffern?

Slipknot79
2006-10-06, 13:39:53
>>Wie kommst du auf SSAA? MSAA wohl eher. Und nein ich glaube auch dann nicht, dass das immer flüssig läuft. Aber es ist doch eine gute Sache etwas mehr ls Option zu bieten oder nicht? Du kannst ja herunterregeln. Für etwas ältere Spiele sollte es locker reichen.



SSAA weils extrem leistungshungrig ist. Schon mit meiner 7800GTX könnte ich es über ein Tool einstellen (4x4SSAA), aber keine Chance das das flüssig rennt, schaut aber 1A aus. Klar kann man runterregeln

Ailuros
2006-10-06, 13:45:12
SSAA weils extrem leistungshungrig ist. Schon mit meiner 7800GTX könnte ich es über ein Tool einstellen (4x4SSAA), aber keine Chance das das flüssig rennt, schaut aber 1A aus. Klar kann man runterregeln

Ausgezeichnet sehen nur Texturen aus, ueberhaupt wenn man 16xOGSS mit 16xAF kombiniert. Das Problemchen ist dann eben dass in dem Fall der G70 der Speicher begrenzt und das Ding nur 1024*768 schaffen kann mit 16x. Das insgesamte Resultat sieht aber keinsfalls besser als 2048*1536 mit 4xRGMS insgesamt aus (sowohl auf EER als auch auf polygon interior Ebene) und das letztere kann sogar noch schneller sein.

Gast
2006-10-06, 13:53:55
und das letztere kann sogar noch schneller sein.

Mit Sicherheit sogar...

Gast
2006-10-06, 14:05:06
Dailytech gibt hypothetische 38.4 GPixels/s an; will irgend jemand mal versuchen das Zeug zu entziffern?
Diese Zahl läßt sich weder durch den genannten Chiptakt noch durch den "ALU Takt" ganzzahlig teilen. Vieleicht kann das Ding dank der "fetten" ROPs ja 2x soviele Pixel in den FB schreiben wie bilinear gefilterte Texel.

Ailuros
2006-10-06, 14:30:36
Diese Zahl läßt sich weder durch den genannten Chiptakt noch durch den "ALU Takt" ganzzahlig teilen. Vieleicht kann das Ding dank der "fetten" ROPs ja 2x soviele Pixel in den FB schreiben wie bilinear gefilterte Texel.

Nicht schlecht. Ich wuerde beim Multiplikator etwas mehr raten, aber es ist rein aus der Luft gegriffen ;)

robbitop@work
2006-10-06, 14:43:31
Nicht schlecht. Ich wuerde beim Multiplikator etwas mehr raten, aber es ist rein aus der Luft gegriffen ;)
Der Gast war ich. Wieviel würdest du denn schätzen? Bliebe noch der Faktor 3, falls das Teil 24 "TMUs" besitzt.

BS-Virus
2006-10-06, 15:28:26
Danke robbitop@work für die sehr ausführliche Erklärung! :smile:
Eigentlich wollte ich ja nur wissen ob die BQ dann endlich der ATi-BQ wieder gleich ist und das bei gleicher Leistung. :wink: :biggrin:

Gast
2006-10-06, 16:27:11
Ist eine persönliche Vermutung meinerseits (bei den USCs wie Xenos und R600 soll das ja auch der Fall sein).

Die sollen dafür aber wiederum Vec5-ALUs haben. Wäre natürlich praktisch, weil damit auch ein sicherlich gut nutzbarer 3:2 Split drin ist.


Q

Gast
2006-10-06, 16:28:47
Ausgezeichnet sehen nur Texturen aus, ueberhaupt wenn man 16xOGSS mit 16xAF kombiniert. Das Problemchen ist dann eben dass in dem Fall der G70 der Speicher begrenzt und das Ding nur 1024*768 schaffen kann mit 16x. Das insgesamte Resultat sieht aber keinsfalls besser als 2048*1536 mit 4xRGMS insgesamt aus (sowohl auf EER als auch auf polygon interior Ebene) und das letztere kann sogar noch schneller sein.

Du kannst aber 4xOGSSAA mit 2.048x1.536 kombinieren und 2:1-HQ-AF. Das sieht ziemlich gut aus - zwar nicht mit höchster Anisotropie auf 90°-Ebenen, aber dafür sehr homogen und nahezu flimmerfrei.


Q

Gast
2006-10-06, 16:30:38
Dailytech gibt hypothetische 38.4 GPixels/s an; will irgend jemand mal versuchen das Zeug zu entziffern?

38.400:128=300. :) Das würde aber Sample-Shader voraussetzen und ich will nicht zu hoffen wagen, dass die schon im G80 sind.


Q

robbitop
2006-10-06, 16:38:21
Die sollen dafür aber wiederum Vec5-ALUs haben. Wäre natürlich praktisch, weil damit auch ein sicherlich gut nutzbarer 3:2 Split drin ist.


Q
Das Teil hat AFAIK MIMD Units, da kann man splitten wie man mag ;-)

Gast
2006-10-06, 16:40:08
Das Teil hat AFAIK MIMD Units, da kann man splitten wie man mag ;-)
Das hör ich zum ersten Mal - aber auch bei 4D-MIMD könntest du keinen 3:2-Split machen, dazu braucht es eine fünfte Kolonne... äh... Kanal.


Q

robbitop
2006-10-06, 16:40:28
38.400:128=300. :) Das würde aber Sample-Shader voraussetzen und ich will nicht zu hoffen wagen, dass die schon im G80 sind.


Q
300Mpix pro Einheit pro Sekunde? Das macht IMO wenig Sinn. (die 300 laßen sich auch durch keinen der genannten Taktraten erreichen (also als n-faches))
dann meinen die sicher nur Texturoperationen, die die Teile fetchen können.
Sampleshader wären ja furchtbar vom P/L Verhältnis.

robbitop
2006-10-06, 16:43:34
Das hör ich zum ersten Mal - aber auch bei 4D-MIMD könntest du keinen 3:2-Split machen, dazu braucht es eine fünfte Kolonne... äh... Kanal.


Q
Ich denke die sind 5D, ja. Ja aber wen interessieren bei MIMD dann noch splits? Du kannst Kanal für Kanal ansteuern.

Gast
2006-10-06, 16:50:48
Ich denke die sind 5D, ja. Ja aber wen interessieren bei MIMD dann noch splits? Du kannst Kanal für Kanal ansteuern.

Du kannst aber nicht fünf Kanäle single-cycle auf 4D-ALUs verteilen. Und erst recht kannst du keine 3:2 Verteilung der Kanäle (da dir "Split" ja offensichtlich schwer im Magen liegt) auf eine 4D+Skalar-ALU legen (wiederum: Single-Cycle).

Und das ist es, was aus meinen Postings folgt. Der Split war nur zur Verdeutlichung der einfachen Tatsache 5>(4+1). ;)

robbitop
2006-10-06, 17:09:17
Das habe ich schon verstanden.
Wieso? hast du etwa nur eine einzige ALU in deiner GPU? Dank MIMD kannst du die Befehle einzeln (1D) überall hinlegen.

Gast
2006-10-06, 17:09:27
300Mpix pro Einheit pro Sekunde? Das macht IMO wenig Sinn. (die 300 laßen sich auch durch keinen der genannten Taktraten erreichen (also als n-faches))
dann meinen die sicher nur Texturoperationen, die die Teile fetchen können.
Sampleshader wären ja furchtbar vom P/L Verhältnis.
Rechne mal mit den Werten der GTS ;)

Gast
2006-10-06, 19:33:52
Ich bin schon mal auf die neuen nVidia Grafikdemos gespannt die mit dem G80 möglich werden!

Gast
2006-10-07, 06:18:36
Soviel ich mitbekommen habe hat Nvidia Unified Shader nicht dementiert. Man hat lediglich gesagt, wenn die Zeit dafür da wäre, würde man sie bringen. Und dann wurde auch noch gesagt, daß mit dem G80 im Vergleich zum G71 ein Performancesprung vergleichbar mit dem vom G3x zum G4x zu erwarten sei.

Noch ein Hinweis auf US beim G80 ist der Wortlaut vom PR-Chef Nvidias: "Michael Hara erklärte weiter, dass nVidia darüber nachdenke, die neue „Unified Shader“-Architektur, in der Pixel- und Vertex-Shader zusammengefasst werden, auch für Physikberechnungen zu nutzen. Durch die Zusammenführung dieser beiden Berechnungseinheiten sei es sehr einfach, auch Physik innerhalb der GPU zu berechnen. Bei nVidia glaube man fest an dieses Konzept und sieht auch gegenüber Prozessoren, die über vier Kerne verfügen werden, einen Leistungsvorteil."

Gast
2006-10-07, 06:20:40
Meinte natürlich NV3x und NV4x - sorry

Gast
2006-10-07, 10:55:43
Ausgezeichnet sehen nur Texturen aus, ueberhaupt wenn man 16xOGSS mit 16xAF kombiniert. Das Problemchen ist dann eben dass in dem Fall der G70 der Speicher begrenzt und das Ding nur 1024*768 schaffen kann mit 16x. Das insgesamte Resultat sieht aber keinsfalls besser als 2048*1536 mit 4xRGMS insgesamt aus (sowohl auf EER als auch auf polygon interior Ebene) und das letztere kann sogar noch schneller sein.Wenn ich da nix in den falschen Hals bekommen habe ist ein Minimum der maximalen Rendertargetgröße (:usweet:) von 8kx8k Teil der D3D10-Spezifikation, auch 4x4OGSSAA sollte also auf G80 eigentlich bis 2kx2k funzen. Und was die Bildqualität angeht wäre natürlich SGSSAA aus Kosten-Leistungssicht weit überlegen, wenn mans denn umsetzen würde, wobei ich schon aus Gründen der Kompatibilität keinesfalls eines dem anderen absolut vorziehe, sondern beides gerne hätte. Wirklich allerallerspätestens ab 16xSGMSAA (IMHO schon ab 8xSG) bringen noch mehr MSAA-Samples für die Bildqualität doch gar nix mehr, da helfen nur noch bessere Samples (eben SSAA statt MSAA) und bessere Downfilter als der simple Boxfilter.

aths
2006-10-07, 11:06:51
Ist eine persönliche Vermutung meinerseits (bei den USCs wie Xenos und R600 soll das ja auch der Fall sein).Mit solchen Analogieschlüssen kommen wir nicht weiter.

Das denke ich auch. Dadurch entsteht nur wenig Verschnitt, aber Kleinvieh macht Mist. ;)
Aber insbesondere die Umwandlung des Phasenkonzepts ins "Threading-konzept" sollte schon etwas bringen.Die GeForce hat kein Phasen-Konzept.

Weil mehr Samples pro Pixel einfließen?Wenn eh nicht genügend Platz pro Treppenstufe da ist, macht das nicht viel.

In dem Falle stimme ich dir zu. Aber du weißt ja, dass IHVs gewisse Dinge weit vorher wissen oder wenigstens vermuten.
Allein die Aufklärung über das AF, (welche du ja maßgeblich beeinflußt hast) als auch die darausentstehende Hetz-Kaskade in den "Medien", sollte hier Wirkung gezeigt haben (hoffe ich).
Viele "Experten" behaupten anhand der AF-Blume vom NV4x, dass der Algoritmus vermutlich nicht transistorsparend sondern künstlich implementiert wurde. Insofern sollte ein guter Modus doch recht schnell einsatzfähig sein. NV40 ist immerhin ~2,5 Jahre alt und seit dem hatte man schon etwas Zeit daran zu arbeiten.Dass das AF im NV40 und G70 jede Menge Transistoren kostet, lässt sich begründet vermuten. Dass Nvidia schon im G80 ein vernünftiges AF anbietet, lässt sich nur spekulieren. Ich spekuliere darauf nicht.



Ich bin schon mal auf die neuen nVidia Grafikdemos gespannt die mit dem G80 möglich werden!Grafikdemos geben leider keinen Aufschluss darüber, was wir dann tatsächlich in Spielen sehen werden. Was mit dem G80 in selbstablaufenden Grafikdemos möglich sein wird, mag interessant aussehen – mich interessiert eher, ob er seine Rohleistung effizienter umsetzen kann als zum Beispiel der G71.



Dailytech gibt hypothetische 38.4 GPixels/s an; will irgend jemand mal versuchen das Zeug zu entziffern?Wie wäre es mit Gigasamples/s? Aber ich gebe nix auf "Gerüchte", die derzeit die Runde machen. Bisher gibt es nur Spekulationen, noch keine echten durchgesickerten Fakten.

Ailuros
2006-10-07, 11:11:43
Wenn ich da nix in den falschen Hals bekommen habe ist ein Minimum der maximalen Rendertargetgröße (:usweet:) von 8kx8k Teil der D3D10-Spezifikation, auch 4x4OGSSAA sollte also auf G80 eigentlich bis 2kx2k funzen.

Mit dem was ich an Speicher und Bandbreite fuer G80 schaetze, kann ich mir schwer >1600*1200 mit 16xOGSS vorstellen und wenn dann nur in Spielen wie UT2k4, was aber auch nicht unbedingt spielbar sein muss.

Und was die Bildqualität angeht wäre natürlich SGSSAA aus Kosten-Leistungssicht weit überlegen, wenn mans denn umsetzen würde, wobei ich schon aus Gründen der Kompatibilität keinesfalls eines dem anderen absolut vorziehe, sondern beides gerne hätte. Wirklich allerallerspätestens ab 16xSGMSAA (IMHO schon ab 8xSG) bringen noch mehr MSAA-Samples für die Bildqualität doch gar nix mehr, da helfen nur noch bessere Samples (eben SSAA statt MSAA) und bessere Downfilter als der simple Boxfilter.

Wenn >16x samples jeglicher Art erstmal spielbar werden, dann wird es auch so langsam Zeit fuer exotischere Algorithmen als einfaches Multisampling. Zwar ne ziemlich naive Frage aber wenn >8x-16x samples nichts mehr bringen, dann frage ich mich allen ernstes warum sich Pixar z.B. nicht mit nur 8x MSAA zufriedenstellt.

Wie dem auch sei sehr hohe Sample-anzahlen werden (wie ich schon mehr als einmal erwaehnt habe) hauptsaechlich in professionellen Maerkten gebraucht.

MadManniMan
2006-10-07, 11:17:12
... und bessere Downfilter als der simple Boxfilter.

Aye, was haben wir denn da? Nicht falsch verstehen: ich habe keinen blassen Dunst, auf was Du anspielst - könnte das vielleicht jemand erklären? Wie funzt ein Boxfilter, was ginge besser?

aths
2006-10-07, 11:18:51
Das hör ich zum ersten Mal - aber auch bei 4D-MIMD könntest du keinen 3:2-Split machen, dazu braucht es eine fünfte Kolonne... äh... Kanal.Wozu 5D-Vektoren? Weil im Moment einige Vertexshader so gebaut werden? Das ist ein reines Performance-Upgrade, es könnte bei US günstiger sein, nur 4D-Vektor-Units zu verbauen und dafür einige mehr als 5D-Units.



Aye, was haben wir denn da? Nicht falsch verstehen: ich habe keinen blassen Dunst, auf was Du anspielst - könnte das vielleicht jemand erklären? Wie funzt ein Boxfilter, was ginge besser?Da gibts bald einen Artikel von mir.

Gast
2006-10-07, 11:24:58
Hi Leute !

Also ich habe mir mal die Specs angesehen und einen Teil sah für mich sehr interessant aus.

- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB)

Warum diese Unterteilung des Speichers ???

Kann es sein, dass man versucht eine Grafikkarte mit einer Physikakarte zu kombinieren, und die Speicherbereiche sind für diese Aufgaben jeweils getrennt ??? Also sprich 512 MB für die zukünftigen Grafik-Engines und 256 dann für die Physik-Engines , genauso mit dem Speicherinterface.

Was meint ihr ?

Gruß

-Ghosty

aths
2006-10-07, 11:25:46
Hi Leute !

Also ich habe mir mal die Specs angesehen und einen Teil sah für mich sehr interessant aus.

- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB)

Warum diese Unterteilung des Speichers ???

Kann es sein, dass man versucht eine Grafikkarte mit einer Physikakarte zu kombinieren, Nein.

Schon GeForce 3 hat eigentlich 4x 16 MiB, zusammen 64 MiB in 4 32-Bit-DDR-Interfaces. NV40 hat (in der 256 MiB-Version) 4x 64 MiB dank vier 64-Bit-DDR-Interfaces.

Außerdem gibt es noch keine Specs, nur Vermutungen auf Grundlage zweifelhafter Fotos.

Gast
2006-10-07, 11:31:25
Was soll bitte an den Fotos "zweifelhaft" sein?

aths
2006-10-07, 11:36:21
Jeder kann kommen und sagen: "He, ich hab hier ein Foto von XYZ".

Gast
2006-10-07, 11:39:15
Und was soll das dann bitte sonst sein?

Es ist definitiv kein Fake und ich kann mir sonst keine Hardware vorstellen die einen SLI-Connector, 12 Speicherchips und so nen Monsterkühler hat.

Also mal bissel logisch denken.

AnarchX
2006-10-07, 11:40:46
Und was soll das dann bitte sonst sein?

Es ist definitiv kein Fake und ich kann mir sonst keine Hardware vorstellen die einen SLI-Connector, 12 Speicherchips und so nen Monsterkühler hat.


... und ein Nvidia-Logo auf dem PCB.;)

Ailuros
2006-10-07, 11:42:33
Hi Leute !

Also ich habe mir mal die Specs angesehen und einen Teil sah für mich sehr interessant aus.

- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB)

Warum diese Unterteilung des Speichers ???

Kann es sein, dass man versucht eine Grafikkarte mit einer Physikakarte zu kombinieren, und die Speicherbereiche sind für diese Aufgaben jeweils getrennt ??? Also sprich 512 MB für die zukünftigen Grafik-Engines und 256 dann für die Physik-Engines , genauso mit dem Speicherinterface.

Was meint ihr ?

Gruß

-Ghosty

Und wieso nicht 12*64MB und eine 12*32bit Aufteilung als Beispiel?

***edit: und um es noch klarer zu machen meine momentane "These" sieht folgend aus:

upper high end: 12*32
lower high end: 10*32
mainstream: 8*32
budget: 4*32

Gast
2006-10-07, 12:22:42
Mit dem was ich an Speicher und Bandbreite fuer G80 schaetze, kann ich mir schwer >1600*1200 mit 16xOGSS vorstellen und wenn dann nur in Spielen wie UT2k4, was aber auch nicht unbedingt spielbar sein muss.Eigentlich relevant ist ja hauptsächlich, daß es dann auch in 1280x1024 läuft, Skalierung ist auf TFTs halt nie sonderlich erquickend. Dennoch habe ich hier noch etliche Sachen rumliegen, bei denen einzig die benötigte Speichermenge limitieren könnte, aber gut, für einige davon bräuchte ich primär auch Win9x-Treiber, und ja, ich weiß, wie unwahrscheinlich die sind.
Wenn >16x samples jeglicher Art erstmal spielbar werden, dann wird es auch so langsam Zeit fuer exotischere Algorithmen als einfaches Multisampling. Zwar ne ziemlich naive Frage aber wenn >8x-16x samples nichts mehr bringen, dann frage ich mich allen ernstes warum sich Pixar z.B. nicht mit nur 8x MSAA zufriedenstellt.Weil sie eben nicht auf mehr MSAA für bessere Geometrieauflösung setzen, sondern auf die eierlegende Wollmilchsau SSAA, mit der man einem ganzen Rudel von Aliasingquellen den Kampf ansagt. So weit scheinen unsere Meinungen ja gar nicht auseinander zu sein.
Wie dem auch sei sehr hohe Sample-anzahlen werden (wie ich schon mehr als einmal erwaehnt habe) hauptsaechlich in professionellen Maerkten gebraucht.Hauptsächlich, aber nicht nur (wie auch ich schon mehr als einmal erwähnt habe).

@MadManniMan:
Das wird hier recht ausführlich diskutiert:
http://www.beyond3d.com/forum/showthread.php?t=29850

@aths:
G00d. Endlich wieder ein wenig Grundsatzartikelfutter, mir läuft schon das Wasser im Munde zusammen :)

Ailuros
2006-10-07, 12:41:37
Eigentlich relevant ist ja hauptsächlich, daß es dann auch in 1280x1024 läuft, Skalierung ist auf TFTs halt nie sonderlich erquickend. Dennoch habe ich hier noch etliche Sachen rumliegen, bei denen einzig die benötigte Speichermenge limitieren könnte, aber gut, für einige davon bräuchte ich primär auch Win9x-Treiber, und ja, ich weiß, wie unwahrscheinlich die sind.

Stures Vollbild SSAA und ueberhaupt mit sehr hohen Sample-anzahlen ist die ueberhaupt teuerste und ziemlich sinnlose Methode Schwaechen (ja selbst des Bildschirms) zu loesen.

Weil sie eben nicht auf mehr MSAA für bessere Geometrieauflösung setzen, sondern auf die eierlegende Wollmilchsau SSAA, mit der man einem ganzen Rudel von Aliasingquellen den Kampf ansagt. So weit scheinen unsere Meinungen ja gar nicht auseinander zu sein.

Mit dem klitzekleinen Unterschied dass es sich hier um stochastisches Supersampling handelt, was ganz einfach heisst dass nach Bedarf zwischen 1x und 64x samples angewendet werden. Dass heisst eben nicht dass man fuer N samples mit nur 1/N Fuellrate stehen bleibt. Einer 7900GTX mit theoretischer maximalen Fuellrate von 15.6 GTexels bleibt mit 16xOGSS mit nur noch 975 MTexels theoretischem Maximum stehen. Rechnet man noch echte trilineare Filterung und zumindest quad MT dazu, ist die Endsumme laecherlich klein fuer das was uebrig bleibt.

Der Idealfall ist fuer mich die hoechstmoegliche Aufloesung kombiniert mit der hoechstmoeglichen MSAA+AF Sample-anzahl. Wenn es um high end und sehr hohe Ansprueche geht, dann bildet eine =/>650€ GPU kombiniert mit einem mainstream Bildschirm wohl eher ein nettes Oxymoron.

aths
2006-10-07, 13:04:17
@MadManniMan:
Das wird hier recht ausführlich diskutiert:
http://www.beyond3d.com/forum/showthread.php?t=29850

@aths:
G00d. Endlich wieder ein wenig Grundsatzartikelfutter, mir läuft schon das Wasser im Munde zusammen :)Der erwähnte Thread hat mein Nachdenken angeregt, vor allem ein von SimonF verlinktes Paper. Mein Artikel sieht vor, die Problematik zu beschreiben ohne dabei allzusehr ins Detail zu gehen. Sowohl Texturfilterung, als auch Polygonkantenglättung, als auch eine unendlich kurze Kameraverschlusszeit bringen diverse Probleme die sich daraus ergeben, dass das Pixel – ein Punkt – als kleines farbiges Quadrat (oder Rechteck) angezeigt wird.

Zu allem Überfluss drücke ich mich noch um ein Statement à la "dieses oder jenes Verfahren ist gut", denn so einfach ist es nicht.

Gast
2006-10-07, 13:11:15
@Ailuros:
Unsere unterschiedlichen Meinungen haben wir ja schon ausführlich ausgetauscht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=306453
Ich bleibe dabei, daß Auflösungserhöhung erstens nicht immer möglich ist und zweitens auch keineswegs immer die beste Möglichkeit, die Bildqualität zu erhöhen. Und immer noch sehe ich die Leistungsforderung nicht als dermaßen kritischen Punkt, man bekommt ja auch eine Menge Bildqualität dafür und oftmals ist sie schon heute in irrwitzig "überflüssigen" Dimensionen vorhanden.

@aths:
Ich bin schon äußerst gespannt. Eine ungefähre Ahnung, wie lange man sich gedulden muss?

aths
2006-10-07, 13:54:33
@Ailuros:
Unsere unterschiedlichen Meinungen haben wir ja schon ausführlich ausgetauscht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=306453
Ich bleibe dabei, daß Auflösungserhöhung erstens nicht immer möglich ist und zweitens auch keineswegs immer die beste Möglichkeit, die Bildqualität zu erhöhen. Und immer noch sehe ich die Leistungsforderung nicht als dermaßen kritischen Punkt, man bekommt ja auch eine Menge Bildqualität dafür und oftmals ist sie schon heute in irrwitzig "überflüssigen" Dimensionen vorhanden.Generelles Supersampling bleibt trotzdem eine schlechte Idee. Man bekommt ein wenig zusätzliche Qualität für einen sehr hohen Geschwindigkeitsverlust. Besonders tragisch: Der Aufwand steigt quadratisch. Also ganz schlechte Idee, da es Verfahren gibt, bei denen der Aufwand nur linear steigt.

@aths:
Ich bin schon äußerst gespannt. Eine ungefähre Ahnung, wie lange man sich gedulden muss?Zuvor kommt ein Kurzartikel zum Thema TAA auf GeForce 6, dann müssten ein oder zwei größere Artikel anderer Redakteure aus dem Team erscheinen. Wenn die veröffentlicht wurden hoffe ich, für meinen Artikel "Was ist ein Pixel" bei den relevanten Stellen die richtigen Formulierungen gefunden zu haben. Mein Ziel ist wirklich nur, ein Problembewusstsein dafür zu schaffen, ich drücke mich vor großen filtertheoretischen Diskussionen und möchte auch nicht mein gesamten Wissen in dem Feld vor dem Leser ausbreiten – das würde eh keiner lesen.

Bis zu dem Thread im B3D-Forum war ich der Auffassung, dass man aus der Pixeldefinition "das Pixel ist ein kleines farbiges Quadrat" ja wunderbar den richtigen Textur- und Antialiasing-Downfilter herleiten könne. Aber ein Pixel ist kein Quadrat. Es wird nur als farbiges Quadrat (oder Rechteck) dargestellt. Das einzusehen hat mich einige Tage gekostet. Und damit gehen die Probleme los: Bedingt durch das diskrete Pixelraster braucht man gar nicht zu überlegen, welcher Rekonstruktionsfilter das richtige analoge Ausgangssignal liefern würde. Wir können in der Praxis mit der heutigen Technik kein Computer-Bild analog anzeigen. Und selbst das exakteste analytische Antialiasing mit voller FP32-Präzision liefe auf einen Boxfilter hinaus, der einige negative Eigenschaften hat. Mit vernünftigem Motion Blur würde man zwar einige Probleme mildern, aber vernünftiges Motion Blur kostet so viel Leistung, dass man es nicht weiter diskutieren braucht.

aths
2006-10-07, 14:19:18
Und was soll das dann bitte sonst sein?

Es ist definitiv kein Fake ... weil?

Gast
2006-10-07, 15:00:46
Weils völlig unmöglich ist so ein realistisches Bild mit CG-Software zu erzeugen, bzw. der Aufwand dafür völliger Irrsinn wäre für ein bisschen Beachtung im Internet.

Und das einer zum Spaß so ein PCB herstellt ist wohl auch ausgeschlossen.

Gast
2006-10-07, 15:00:47
Generelles Supersampling bleibt trotzdem eine schlechte Idee.Ansichtssache. In einer Welt mit vernünftigem Content, sicher, aber in der realen Welt? Die Verfahren, deren Leistungshunger nur linear steigt sind in der realen Welt einfach viel zu oft nicht ausreichend, und aus "ein wenig zusätzliche Qualität für einen sehr hohen Geschwindigkeitsverlust" wird der Unterschied zwischen einem ruhigen Bild und augenkrebsinduzierten epileptischen Anfällen. Ich bleibe dabei, daß der Pessimist meist mehr Realist ist denn der Optimist.
Zuvor kommt ein Kurzartikel zum Thema TAA auf GeForce 6, dann müssten ein oder zwei größere Artikel anderer Redakteure aus dem Team erscheinen.Aber nicht zu böse gegen stures SSAA schießen, sonst muss ich mir schon wieder die Finger wundtippen ;)
Mein Ziel ist wirklich nur, ein Problembewusstsein dafür zu schaffen, ich drücke mich vor großen filtertheoretischen Diskussionen und möchte auch nicht mein gesamten Wissen in dem Feld vor dem Leser ausbreiten – das würde eh keiner lesen.Was heißt hier "nur"? Es ist wesentlich schwieriger, Leuten klar zu machen, warum etwas sie interessieren sollte, als es den interessierten Leuten zu erklären. Qapla'!
Aber ein Pixel ist kein Quadrat. Es wird nur als farbiges Quadrat (oder Rechteck) dargestellt.Nicht mal das. Drei kleine Rechtecke sind es auf TFTs.

Ailuros
2006-10-07, 15:12:07
Da es einen eher langwierigen Thread zum Thema Supersampling-Nostalgie gab und auch zu diesem gelinkt wurde, wuerde ich vorschlagen dass wir zurueck zum eigentlichen Thema kommen.

Gast
2006-10-07, 15:28:35
Da es einen eher langwierigen Thread zum Thema Supersampling-Nostalgie gab und auch zu diesem gelinkt wurde, wuerde ich vorschlagen dass wir zurueck zum eigentlichen Thema kommen.Es ist keine Nostalgie, weil es im Shaderzeitalter immer öfter nötig ist und es steht immer noch im Raum, ob ich das mit 8kx8k maximaler Rendertargetgröße richtig verstanden habe, was dann wohl für D3D10-GPUs eine sehr passende Frage ist. Aber außer der 8kx8k-Frage gehörts wohl schon eigentlich in den anderen Thread.

Gast
2006-10-07, 15:31:34
weil es im Shaderzeitalter immer öfter nötig ist

Wenn die Devs nicht vollkommen verblödet sind: Nö.

Gast
2006-10-07, 15:51:20
Wenn die Devs nicht vollkommen verblödet sind: Nö.Sicher sind die wenigsten verblödet, meist dürfte das Problem Überarbeitung und/oder nicht genug Zeit/Geld sein. Aber das ist OT, Ontopic wäre eine Antwort auf die Frage, ob ich die D3D10-Spec richtig interpretiere.

Gast
2006-10-07, 15:56:53
Wo steht das mit 8192x8192 in der D3D10-Doku eigentlich?

Gast
2006-10-07, 16:04:23
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=303811

Winter[Raven]
2006-10-07, 18:59:33
Also in der neuen PCGH bestätigt ja Nv DDR4 Speicher beim G80...

Godmode
2006-10-07, 20:15:04
Ist der 18. Oktober für den Launch jetz fix, oder nicht?

gguru
2006-10-07, 20:41:54
Ist der 18. Oktober für den Launch jetz fix, oder nicht?

Am 18. ist nur die Konferenz. Drei Wochen später ist wieder eine in Europa und dann soll auch der Launch sein. Als Quelle hab ich aber nur den Inquirer. ;)

Katrin
2006-10-07, 21:10:05
http://dailytech.com/article.aspx?newsid=4441

AUA... ich denke.. ich überleg mit das X1950 CF nochmal ^^

NVIDIA’s GeForce 8800GTX will be the flagship product. The core clock will be factory clocked at 575 MHz. All GeForce 8800GTX cards will be equipped with 768MB of GDDR3 memory, to be clocked at 900 MHz. The GeForce 8800GTX will also have a 384-bit memory interface and deliver 86GB/second of memory bandwidth. GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz. The theoretical texture fill-rate is around 38.4 billion pixels per second.


Kati

Hvoralek
2006-10-07, 21:23:47
Am 18. ist nur die Konferenz. Drei Wochen später ist wieder eine in Europa und dann soll auch der Launch sein. Als Quelle hab ich aber nur den Inquirer. ;)Dafür spricht natürlich die Übereinstimmung mit den vorherigen Angaben (Anfang/ Mitte Nov.)

The_Invisible
2006-10-07, 21:42:40
http://dailytech.com/article.aspx?newsid=4441

AUA... ich denke.. ich überleg mit das X1950 CF nochmal ^^



Kati

naja, zumindest das mit "128 unified shaders" und "1350mhz" klingt schon ziemlich unglaubwürdig

ShadowXX
2006-10-07, 21:53:49
naja, zumindest das mit "128 unified shaders" und "1350mhz" klingt schon ziemlich unglaubwürdig
Und das nV in der PCGH gesagt hat, das die G80 DDR4 verwendet....und nicht wie in diesen "interessanten" Specs (die hier jetzt das ca. 150zigste mal gepostet wurden) DDR3.

Mir sehen diese "geleakten" Specs nach geziehlten Fehlinformationen aus....wahrscheinlich von nV selbst gestreut.

StefanV
2006-10-07, 22:11:01
Wieso??

GDDR-IV ist doch möglich, meine x1300 hat auch GDDR-III RAM, obwohls DDR-II SDRAM auch täte, bei 400MHz...

Der Knackpunkt ist doch, wie hoch der Takt ist, das habens natürlich nicht gesagt, DDR-IV klingt natürlich besser, ists auch, das man dennoch GDDR-IV einsetzt, ist dennoch möglich, da die Spannung davon geringer ist und damit auch die Abwärme.

Man kann ja auch 750MHz GDDR-IV RAM nehmen, nur mal so als Bleistift ;)

ShadowXX
2006-10-07, 22:23:27
Wieso??

GDDR-IV ist doch möglich, meine x1300 hat auch GDDR-III RAM, obwohls DDR-II SDRAM auch täte, bei 400MHz...

Der Knackpunkt ist doch, wie hoch der Takt ist, das habens natürlich nicht gesagt, DDR-IV klingt natürlich besser, ists auch, das man dennoch GDDR-IV einsetzt, ist dennoch möglich, da die Spannung davon geringer ist und damit auch die Abwärme.

Man kann ja auch 750MHz GDDR-IV RAM nehmen, nur mal so als Bleistift ;)
Es geht doch nur darum wie "glaubwürdig" diese "Specs" sind.

Wenn nV selbst schon sagt, das Sie GDDR4 nehmen und in den "geleakten Specs" was von GDDR3 steht, kann man sich durchaus was zum Rest dieser "Specs" denken.

Metatron1
2006-10-08, 00:01:41
tja, warum gddr3.
warum den nicht jetzt noch gddr3 verwenden der billiger ist und auch noch, vermutlich, verfügbarer ist als gddr4!

gddr4 kann ich mir dann gut beim refresh chip vorstellen.


also wozu jetzt unnötig resourcen verschwenden wenn man mit weniger ausgaben mehr geld machen kann....

gruß

AnarchX
2006-10-08, 00:03:51
8800GT - GDDR3
8800GTX - GDDR4

;)

Yups
2006-10-08, 00:14:48
8800GT - GDDR3
8800GTX - GDDR4

;)

Ich denke eher das die wieder eine weitere Karte bringen, die dann erst gddr4 bekommt....
8800GT - GDDR3
8800GTX - GDDR3
8900GT - GDDR4
8900GTX - GDDR4

...um den Markt optimal auszusaugen, son bisschen wie jetzt mit den 7800XX und 79XXXX

Was mir ja die meisten Fragen aufwirft, ist, ob noch eine AGP Version rauskommt, irgentwie glaube ich es schon, da der Markt noch da ist und der Bus auch ausreichend schnell ist.

Gast
2006-10-08, 00:31:29
sonn blödsin natürlich gddr4 ram.... ati schaft das ja auch, mit bisher für gddr3 ram unerreichten takt, und das zu humanen preisen....

Ailuros
2006-10-08, 00:39:08
Es ist keine Nostalgie, weil es im Shaderzeitalter immer öfter nötig ist und es steht immer noch im Raum, ob ich das mit 8kx8k maximaler Rendertargetgröße richtig verstanden habe, was dann wohl für D3D10-GPUs eine sehr passende Frage ist. Aber außer der 8kx8k-Frage gehörts wohl schon eigentlich in den anderen Thread.

Es ist eben gerade Nostalgie weil Shaders konstant zunehmen und sich dieses nicht aendern wird. Es gibt guten Grund warum IHVs hauptsaechlich auf Multisampling setzen und dabei unterstuetzt nur der eine von den zwein offiziell einen hybriden Modus im Treiber CP.

Das Thema wurde im anderen Thread bis zum geht nicht mehr ausgekaut und obwohl auf =/>G80 um einiges programmierbarer beim AA sein wird, aendert es kein bisschen etwas an der oberen Tatsache und nein ein Zufall ist es auch nicht.

Ailuros
2006-10-08, 00:53:10
Und das nV in der PCGH gesagt hat, das die G80 DDR4 verwendet....und nicht wie in diesen "interessanten" Specs (die hier jetzt das ca. 150zigste mal gepostet wurden) DDR3.

Mir sehen diese "geleakten" Specs nach geziehlten Fehlinformationen aus....wahrscheinlich von nV selbst gestreut.

Es ist verdammt leicht ein relevantes marketing whitepaper total falsch zu interpretieren wenn man keine Ahnung hat oder nicht vorsichtig genug durchliest. Es ist dann meistens so formuliert dass man es sowieso schwer hat zu verstehen wo es lang geht.

Ich bin mir sicher dass G80 so viele Aenderungen hat im Vergleich zur vorigen Generation dass es nicht mehr schoen ist. Und es wird mich z.B. als Laien auch einige Zeit kosten das Ganze erstmal zu verstehen nach der Veroeffentlichung.

Es gibt so viele Thesen momentan in diversen Foren und eine Unmenge sich widersprechenden und dazu sinnlosen Zahlen dass sich mir der Kopf dreht. Ich mach es mir einfacher und nehme den K.I.S.S. approach (der mir als Laie auch besser passt). Kurz gesagt ich kann mir schon vorstellen was das Ding in etwa koennen wird und nicht; die Analysen der technischen Einzelheiten ueberlasse ich dann eher den Profis. Ich brauchte in etwa ein Halbjahr um auf ein befriedigendes Verstaendnis zwischen den R5x0 und G7x0 zu erreichen; diesmal kann es mit so vielen Aenderungen auch laenger dauern.

Cliff notes: einiges stimmt schon in dem Zeug was durchgesickert ist; das Problem liegt eben IMO eher in der Interpretation der Einzelheiten.

Banshee18
2006-10-08, 02:54:03
...und möchte auch nicht mein gesamten Wissen in dem Feld vor dem Leser ausbreiten – das würde eh keiner lesen.
*heul* Doch.
Deine Artikel sind immer so leicht verständlich erklärt, man braucht höchstens mathematische Grundkenntnisse, um sie zu verstehen. Ich bin mir sicher, dass er deshalb gelesen werden würde. Also wenn du Zeit und Lust hast.....bitte...

Mit dem klitzekleinen Unterschied dass es sich hier um stochastisches Supersampling handelt, was ganz einfach heisst dass nach Bedarf zwischen 1x und 64x samples angewendet werden.
*wieder mal ganz frech hereinplatz*:biggrin:
Heißt das nicht, dass die Sampleverteilung zufällig ist, aber trotzdem immer 64 Samples verwendet werden? Stochastik hat ja auch immer was mit Zufall zu tun. Wenn dann zufällig mal nur ein Samplepunkt verwendet wird (und nicht je nach Bedarf, wie du meinst) wäre das sehr schlecht.
Außerdem wäre stochastisches SS, so wie ich es mir vorstelle, perfekt, um "Regelmäßigkeiten" aus dem Bild zu verbannen (falls ihr wisst, was ich meine;( ).

=Floi=
2006-10-08, 06:17:20
zitat albert einstein
...und möchte auch nicht mein gesamtes Wissen in dem Feld vor dem Leser ausbreiten – das würde eh keiner lesen.

aths
2006-10-08, 10:00:16
Weils völlig unmöglich ist so ein realistisches Bild mit CG-Software zu erzeugen, bzw. der Aufwand dafür völliger Irrsinn wäre für ein bisschen Beachtung im Internet.

Und das einer zum Spaß so ein PCB herstellt ist wohl auch ausgeschlossen.Ein paar Chips mit Photoshop zu montieren ist für Profis nicht das Problem.



Ansichtssache. [...]
Aber nicht zu böse gegen stures SSAA schießen, sonst muss ich mir schon wieder die Finger wundtippen ;).Brauchst du auch nicht. Es ist eben keine Ansichtssache, sondern objektiv eine sehr schlechte Methode, die man zudem nur in geringen Maßen sinnvoll anwenden kann.



Es ist verdammt leicht ein relevantes marketing whitepaper total falsch zu interpretieren wenn man keine Ahnung hat oder nicht vorsichtig genug durchliest. Es ist dann meistens so formuliert dass man es sowieso schwer hat zu verstehen wo es lang geht.So ist es. Selbst ich als Antialiasing-Hobbyforscher konnte z. B. mit Nvidias Erklärung zum 4xS-Modus kaum was anfangen, es dauerte Tage ehe ich das Paper entschlüsselt hatte und es gelang mir nur, weil ich vorher schon wusste, wie 4xS funktioniert. Die meisten "Erklärungen" die sich im Internet dazu fanden waren aus dem Paper abgeschrieben – und dabei entweder missverstanden oder gar nicht verstanden worden.

Ailuros
2006-10-08, 11:15:50
*wieder mal ganz frech hereinplatz*:biggrin:
Heißt das nicht, dass die Sampleverteilung zufällig ist, aber trotzdem immer 64 Samples verwendet werden? Stochastik hat ja auch immer was mit Zufall zu tun. Wenn dann zufällig mal nur ein Samplepunkt verwendet wird (und nicht je nach Bedarf, wie du meinst) wäre das sehr schlecht.
Außerdem wäre stochastisches SS, so wie ich es mir vorstelle, perfekt, um "Regelmäßigkeiten" aus dem Bild zu verbannen (falls ihr wisst, was ich meine;( ).

Es kann durchaus sein dass ich mich total verzettelt habe, aber ich will erstmal bezweifeln dass das Zeug zu 100% "zufaellig" ist und zweitens hab ich das Gefuehl dass es sich bei Pixar Filmen um adaptives stochastisches Supersampling handelt.

Gast
2006-10-08, 15:32:16
Die Specs waren für GTX und GTS, nun wurde es in eine Liste zusammen gepackt, da entstehen Fehler.

Gast
2006-10-08, 18:07:37
@aths & Ailuros:
In der Welt der Theorie habt ihr recht, in der Praxis sieht es oft genug anders aus. Zum Thema Pixar: Das ist mit Sicherheit nicht absolut zufällig (sonst würden regelmäßig beschissene Abtastmuster einfließen) und wenn es adaptiv ist, dann nur in beschränktem Maße, denn für Mensch sieht manches halt doch anders aus als für die Theorie. Denn wo kein absolutes Verständnis für die menschliche Wahrnehmung existiert kann auch keine absolute Theorie herrschen, die haarklein vorgibt, was für Mensch noch tolerabel ist. Bevor wir mit der 65.688sten Diskussion darüber, daß einige Leute hier verschiedener Ansicht sind, diesen Thread zumüllen, bitte ich um Unterlassung oder Wechsel des Diskussionsortes in den passenden Thread. Für diesen hier wäre aus diesem Fork nur die Frage interessant, was nun mit 8kx8k ist, worauf ich immer noch keine Antwort habe, weder positiv noch negativ.

Gast
2006-10-08, 18:17:44
Ein paar Chips mit Photoshop zu montieren ist für Profis nicht das Problem.

Das da schon. Ich weiß von was ich rede. Die Perspektive und den Kühler bekommst du so niemals hin.

Gast
2006-10-08, 18:18:28
Aths raffs einfach, das ist keine Montage. Nie im Leben.

Moralelastix
2006-10-08, 18:25:18
http://we.pcinlife.com/thread-630584-1-1.html


Conroe E6600 400*9
3D06 12xxx
3D05 19xxx

:biggrin:


Preise??: http://www.beyond3d.com/forum/showpost.php?p=848128&postcount=1129

8800GTX 599USD
8800GTS 499USD

deekey777
2006-10-08, 18:39:26
Die Ergebnisse in 3D2006 mit MSAA wären interessanter.

Super Grobi
2006-10-08, 18:42:56
Ich glaub, das ich mir die GTS selber unter den Weihnachtsbaum legen werde. Glaub das die gut rockt :biggrin:

SG

Gast
2006-10-08, 19:16:16
http://we.pcinlife.com/thread-630584-1-1.html


Conroe E6600 400*9
3D06 12xxx
3D05 19xxx

:biggrin:


Preise??: http://www.beyond3d.com/forum/showpost.php?p=848128&postcount=1129

8800GTX 599USD
8800GTS 499USD

die preise der top karten sind langsam sehr krank

Nightspider
2006-10-08, 19:26:00
Auch wenn es übel klingt aber 499$ sind nicht viel für eine Highend Karte...allerdings glaube ich kaum, dass die 499$ auch für die wassergekühlter Version gelten. Die wäre bestimmt nochmal 50$ teurer. Also 550$...

Iwan
2006-10-08, 19:30:12
Auch wenn es übel klingt aber 499$ sind nicht viel für eine Highend Karte...allerdings glaube ich kaum, dass die 499$ auch für die wassergekühlter Version gelten. Die wäre bestimmt nochmal 50$ teurer. Also 550$...

die händler rechnen schonmal nicht 1:1 um da kommt nochmal ein hübscher aufschlag drauf. also mindestens 550 für die GTS und mindestens 650 für die GTX, und das nur für die luftgekühlten.

dargo
2006-10-08, 19:43:00
Ich glaub, das ich mir die GTS selber unter den Weihnachtsbaum legen werde. Glaub das die gut rockt :biggrin:

Wieso? Ist dir deine X1900XT wieder zu langsam? Oder verspürst du leichten Drang was neues zu kaufen? :tongue:
Ich sehe das Geheule wieder. Erst sich die neue Graka für ~500€ kaufen und in 3-5 Monaten rumheulen weil diese auf 300€ gefallen ist. X-D

Gast
2006-10-08, 21:01:28
die preise der top karten sind langsam sehr krankWarum? Das sind doch halbwegs normal übliche Preise für High-End. Das sind ja auch nur die Listenpreise, in den Läden werden sie wohl ein ganzes Stück billiger sein. Richtig teuer waren Geforce 2 Ultra (1400DM beim Launch) und die 7800GTX/512, für die man auch 700€ hinlegen musste.

Anarchy-HWLUXX
2006-10-08, 22:01:59
und die 7800GTX/512, für die man auch 700€ hinlegen musste.

... und selbst da gab es einige leuts die direkt 2 geordert haben ;D

Metatron1
2006-10-08, 22:32:02
sacht mal..

braucht man eigentlich für ein QUAD-SLI G80 sys einen eigenen "KERNREAKTOR" ?

;D ;D

dildo4u
2006-10-08, 22:39:50
sacht mal..

braucht man eigentlich für ein QUAD-SLI G80 sys einen eigenen "KERNREAKTOR" ?

;D ;D
Enermax bringt ja nicht umsonst die Galaxy Serie mit 4 PCI-E Stromanschlüssen.Ich schätze mal das eine mögliche Dual G80 Karte auch "nur" zwei Anschlüssen hätte.


http://www.enermaxusa.com/catalog/product_info.php?cPath=21_49&products_id=103

Super Grobi
2006-10-08, 22:39:56
Wieso? Ist dir deine X1900XT wieder zu langsam? Oder verspürst du leichten Drang was neues zu kaufen? :tongue:
Ich sehe das Geheule wieder. Erst sich die neue Graka für ~500€ kaufen und in 3-5 Monaten rumheulen weil diese auf 300€ gefallen ist. X-D

SUCHT, pure Sucht ist das bei mir.

Aber du hast recht! Eigentlich sollte man warte, oder hier die 7950gx2 abzocken, die dann für kleines Geld auf dem Markplatz landen :|

Gruss
SG

The_Invisible
2006-10-08, 22:45:57
Ich glaub, das ich mir die GTS selber unter den Weihnachtsbaum legen werde. Glaub das die gut rockt :biggrin:

SG

nur die GTS? die 100€ mehr wären mir bei dem grundpreis auch schon egal...

mfg

Radeonfreak
2006-10-08, 22:49:05
SUCHT, pure Sucht ist das bei mir.

SG

Ist bei mir auch so.
Schätze ich werde mir die 8800 GTX holen, egal was sie kostet.

deekey777
2006-10-08, 23:32:41
Die Diskussion, wer sich die G80 holt, bringt diesen Thread weiter, höchstens diesen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=323496).

Ailuros
2006-10-09, 06:52:33
@aths & Ailuros:
In der Welt der Theorie habt ihr recht, in der Praxis sieht es oft genug anders aus.

Im anderen Thread wurde sowohl das Thema des Spiel-Contents, die jeweiligen Faelle wo SSAA hilft und doch nicht hilft, Relationen zwischen Aufloesung/LCD vs. CRT/Bildschirmgroesse etc etc. ausfuehrlich besprochen und sogar mit Beispielen und screenshots (wobei ich mich aber nicht an ein reales Beispiel sehen konnte dass beweisst dass SSAA ein effektives Allerheilmittel ist).

So viel zum Unterschied zwischen Praxis und Theorie. Was eigentlich uebrig bleibt ist shader antialiasing, wobei entweder die Entwickler etwas mehr Zeit opfern werden fuer adaptives SS oder es bleibt eben (leider) so wie es ist. Tonnenweise Fuellrate fuer Vollbild-SS zu verplempern fuer die paar Stellen wo man auch wirklich einen Schuss von stellenweisem SS brauchen wuerde, ist leider nicht nur auf die Theorie begrenzt. Wer im Zweifel liegt kann ja versuchen in heutigen Spielen SSAA zu benutzen und man wird wohl schnell sehen koennen dass es doch nicht nur Theorie ist und dass es wohl um etliche Male schlimmer in zukuenftigen Spielen sein wird.

Zum Thema Pixar: Das ist mit Sicherheit nicht absolut zufällig (sonst würden regelmäßig beschissene Abtastmuster einfließen) und wenn es adaptiv ist, dann nur in beschränktem Maße, denn für Mensch sieht manches halt doch anders aus als für die Theorie. Denn wo kein absolutes Verständnis für die menschliche Wahrnehmung existiert kann auch keine absolute Theorie herrschen, die haarklein vorgibt, was für Mensch noch tolerabel ist. Bevor wir mit der 65.688sten Diskussion darüber, daß einige Leute hier verschiedener Ansicht sind, diesen Thread zumüllen, bitte ich um Unterlassung oder Wechsel des Diskussionsortes in den passenden Thread. Für diesen hier wäre aus diesem Fork nur die Frage interessant, was nun mit 8kx8k ist, worauf ich immer noch keine Antwort habe, weder positiv noch negativ.

Filmstudios wie Pixar haben den Luxus dass sie nicht nur endlose Stunden an 3D rendering opfern koennen, sie koennen schmerzlos verrueckt hohe temporal AA samples anwenden und im Notfall sogar etliches durch den code anpassen. Ich hab Pixar's patentierte Algorithmen nur erwaehnt weil jemand behauptet hat dass mehr als 8x/16x samples nichts mehr bringen wuerden; nur machen analytische Algorithmen eben rein zufaellig nur mit mehr als 16x/32x samples eigentlich Sinn.

AFAIK ist die Antwort zu Deiner Frage positiv, was aber nichts unbedingt aussagen muss was zukuenftiges AA genau betrifft.

robbitop@work
2006-10-09, 10:16:52
Und wieso nicht 12*64MB und eine 12*32bit Aufteilung als Beispiel?

***edit: und um es noch klarer zu machen meine momentane "These" sieht folgend aus:

upper high end: 12*32
lower high end: 10*32
mainstream: 8*32
budget: 4*32

12 Kanäle a 32 Bit anstatt 6 Kanäle a 64 Bit wäre für den Memcontroller sehr transistorintensiv und für das PCB auch nochmal ein gewaltiger Sprung in punkto Komplexität/Preis. So sehr lohnt sich eine 32 Bit Granularität nun wieder auch nicht (die X1900XT hat bsw von NoAA zu 4xAA/NoAF einen marginal geringeren Performanceeinbruch ggü der 7900GTX). Immer mehr kann man durch gute Caches sammeln und bursten. 64 Bit Pakete kommen schon heute oftmals gefüllt zustande.
Allein beim Framebuffer: 1 Quad wird geschrieben: 4x32 Bit + 8 Bit (mit Kompr) Z ... mit MSAA steigt der Wert >128 Bit (64 Bit DDR). Texturzugriffe werden sogar noch besser geburstet.
Mich würde es nicht wundern, wenn es aufgrund des P/L Verhältnis bei 64 Bit Granularität bliebe...

robbitop@work
2006-10-09, 10:22:55
naja, zumindest das mit "128 unified shaders" und "1350mhz" klingt schon ziemlich unglaubwürdig
Nicht unbedingt. Wenn es sich um einen Pool skalarer Einheiten handeln würde, was einige für wahrscheinlich halten, wäre das vom Transistoraufwand zu machen und es wäre effektiv. Von der reinen Rohrechenleistung wäre das, trotz des hohen Taktes, zwar "nur" 2xG71 aber der deutlich geringere Verschnitt kann hier noch einiges reißen.
Für diese hohe Taktfrequenz der ALUs wären aber m.E. custom Transistors (ala AMD/Intel/Intrinsic) nötig.

Ailuros
2006-10-09, 11:04:25
12 Kanäle a 32 Bit anstatt 6 Kanäle a 64 Bit wäre für den Memcontroller sehr transistorintensiv und für das PCB auch nochmal ein gewaltiger Sprung in punkto Komplexität/Preis. So sehr lohnt sich eine 32 Bit Granularität nun wieder auch nicht (die X1900XT hat bsw von NoAA zu 4xAA/NoAF einen marginal geringeren Performanceeinbruch ggü der 7900GTX). Immer mehr kann man durch gute Caches sammeln und bursten. 64 Bit Pakete kommen schon heute oftmals gefüllt zustande.
Allein beim Framebuffer: 1 Quad wird geschrieben: 4x32 Bit + 8 Bit (mit Kompr) Z ... mit MSAA steigt der Wert >128 Bit (64 Bit DDR). Texturzugriffe werden sogar noch besser geburstet.
Mich würde es nicht wundern, wenn es aufgrund des P/L Verhältnis bei 64 Bit Granularität bliebe...

Mir ging es eher um die insgesamte Busbreite; die Aufteilung kann von mir aus entweder 6*64, 12*32 oder noch besser variabel sein ;)

Ich hab nichtmal ne Ahnung was sie genau mit AA angestellt haben; ein Fetzen der Geruechte spricht von einem sehenswert kleinerem Leistungsverlust mit AA und ich hab dieses bis jetzt nicht mit der obrigen Aufteilung verbunden.

robbitop@work
2006-10-09, 11:10:53
Mir ging es eher um die insgesamte Busbreite; die Aufteilung kann von mir aus entweder 6*64, 12*32 oder noch besser variabel sein ;)

Ich hab nichtmal ne Ahnung was sie genau mit AA angestellt haben; ein Fetzen der Geruechte spricht von einem sehenswert kleinerem Leistungsverlust mit AA und ich hab dieses bis jetzt nicht mit der obrigen Aufteilung verbunden.
Vieleicht ja durch das große Interface und die "fetten" ROPs. Ansonsten müßte man dirty Tricks anwenden (Z3/FAA/verlustbehaftete Z-Kompression), die ja nicht zu 100% reine Ergebnisse bringen IIRC. Das klingt schoneinmal spannend!

Ailuros
2006-10-09, 11:56:36
Es hoert sich eher nach Einheiten an die ebenso texture mapping als auch render outputs (u.a.) behandeln koennen.

Hmmm....

http://www.beyond3d.com/forum/showpost.php?p=829952&postcount=7

:wink:

robbitop@work
2006-10-09, 13:11:33
Ich hoffe, das können die Dinger simultan.

Ailuros
2006-10-09, 14:34:05
Nun ja das Bildchen im obrigen Link springt eben gleich von 1x auf 4x MSAA was mich auf eine aeltere These zurueckfuehrt ;)

gguru
2006-10-09, 14:44:57
Viele hier zweifeln ja an den Daten zum G80. Aber die Seiten, auf denen sie veröffentlicht wurden, sind ja auch jene, die den Release für Anfang November vorhersagen. Stimmt das wenigstens?

Ailuros
2006-10-09, 14:51:19
Eine Woche genau nach meinem Namenstag :biggrin:

Katrin
2006-10-09, 15:25:25
heißes Teil ^^

Kati

Gast
2006-10-09, 18:28:20
Sehr geehrte Damen und Herren,

der Computer Base Site, diese Abbildungen entsprechen in keinster Weise dem Referenzdesign einer g80 GPU. Die Karte was Sie hier darstellen entspricht einem Vorserien Testmuster der 6800 Ultra vom Jahre 2004. Infos zur G80 GPU in wenigen Wochen auf Nvidia.com

mfg

Jens Neuschäfer
Pres. Nvidia.Europe

cb-ler
2006-10-09, 18:37:09
jo genau
das hat so ein faker ins forum geschrieben
jens neuschäfer ist er zumindest nicht wenn man die anderen posts von ihm durchliest(kling nach kiddy)

frag mich auch wer der gast über mir ist der sowas ohne kommentar zitiert

Slipknot79
2006-10-09, 18:43:20
>Die Karte was Sie hier darstellen entspricht


Allein so ne Aussage würde kein Pressesprecher tätigen :-) "Die Karte was" ^^

Gast
2006-10-09, 18:45:02
Kann gar nicht sein. Eine 6800 hat keine 12 Speicherchips und braucht auch definitiv keine 2 Stromanschlüsse.

Gast
2006-10-09, 18:46:26
jo genau
...

frag mich auch wer der gast über mir ist der sowas ohne kommentar zitiert

Und ich frag mich wer du bist. Und wer bin ich überhaupt... .

Das mit den Gästen ist schon so eine Sache...

Super Grobi
2006-10-09, 18:46:47
Kann gar nicht sein. Eine 6800 hat keine 12 Speicherchips und braucht auch definitiv keine 2 Stromanschlüsse.

Die 6800 Ultra AGP hatte zwei Stromanschlüsse.

SG

Edit: Ihr seit euch ja mal wieder einig! Evt. lest hier nochmal das Posting auf das ich geschrieben habe. Ich habe nur geschrieben, das es eine 68U mit zwei Stromanschlüsse gab, was der Gast ja verneinte in seinem Posting. Also manchal.... es werden einem einfach mal wieder die Worte verdreht!

The_Invisible
2006-10-09, 18:46:50
Kann gar nicht sein. Eine 6800 hat keine 12 Speicherchips und braucht auch definitiv keine 2 Stromanschlüsse.

trotzdem hat es 6800u karten mit 2 gegeben, lieber gleich nen möglichen engpass vorbeugen :D

mfg

Botcruscher
2006-10-09, 18:49:31
Es heißt ja auch "Pressesprecher" und nicht Forumspammer. Würde der nette Mann von NV uns etwas mitteilen wollen, dann gäng das sicher subtieler.

Gast
2006-10-09, 18:53:45
Die 6800 Ultra AGP hatte zwei Stromanschlüsse.

Aber keine PCIe! Das sind effektiv 4 "normale".

Krustovsky
2006-10-09, 18:56:27
Die 6800 Ultra AGP hatte zwei Stromanschlüsse.

SG
Das waren aber keine PCIe-Stecker sondern normale 12V 4Pol. - und wie sieht der PCIe Adapter aus? Richtig! 2x 4pol. auf PCIe. Es gab nie eine 6800 Ultra mit 2 PCe Stromanschlüssen.

€: Zu langsam :)

Ailuros
2006-10-09, 20:38:24
Och lasst ihm doch den Spass. Frueher oder spaeter wird sich schon zeigen was echt und was gefaelscht war. Die Interpretationen sind bis jetzt zwar meistens fuer die Tonne, aber es liegt schon einiges wahres dran.

LovesuckZ
2006-10-09, 20:54:19
Würde der nette Mann von NV uns etwas mitteilen wollen, dann gäng das sicher subtieler.

Sie lassen sich auch nie öffentlichen in einem Forum aus.
Vorallem nicht bei dem Deutsch :ugly:

Ailuros
2006-10-09, 21:19:41
Ein Herr Ohenassian schon u.a. z.B. bei B3D (es wird ja auch nicht jeder wissen muessen wer wer genau ist).

Godmode
2006-10-09, 21:53:13
Ein Herr Ohenassian schon u.a. z.B. bei B3D (es wird ja auch nicht jeder wissen muessen wer wer genau ist).

Und wer soll das sein?

Anarchy-HWLUXX
2006-10-10, 11:18:58
http://uk.theinquirer.net/?article=34963

DATE: November 7-8 2006

- Witness the launch of NVIDIA's next generation Gaming PLATFORM (GPU and MCP together!)

Slipknot79
2006-10-10, 13:45:50
http://uk.theinquirer.net/?article=34963


Wasn MCP? Oo

dildo4u
2006-10-10, 13:48:24
Wasn MCP? Oo
Mainboardchipsatz. MCP(Media und Communications Prozessor)

Anarchy-HWLUXX
2006-10-10, 14:44:48
Wird wohl der nachfolger vom 590IE sein, der 680i (+ kleinere versionen) ...

Wobei mir das fett geschriebene "Plattform" auffällt, möglicherweise hat nVidia da noch was mehr zu bieten als endlich nen gescheites OC verhalten bei hohem FSB.

Gast
2006-10-11, 13:48:37
http://uk.theinquirer.net/?article=34993

Die Gerüchte verdichten sich immer weiter.

Anarchy-HWLUXX
2006-10-11, 14:03:51
http://uk.theinquirer.net/?article=34992

:ucatch: :ulove: :ujump2: :umassa: :usweet:

up¦²
2006-10-11, 14:23:00
Diese Seite hatte Info, die wegen NDA weg ist :wink:
http://www.clubic.com/actualite-39333-nvidia-g80-noms-officiels-prix.html
GF8800GTS »»» 599€
GF8800GTX »»» 650-700€!

BTW, da wird die P3 ja richtig preiswert ... LOL

Anarchy-HWLUXX
2006-10-11, 14:36:11
Also wenn die eine NDA unterschrieben hätten wär das garnet gepostet worden ;)

Ansonsten kann nVidia auch was gegen die Preise haben weil se zu hoch und abschreckend wirken;)

Moralelastix
2006-10-11, 16:15:07
http://uk.theinquirer.net/?article=34992

:ucatch: :ulove: :ujump2: :umassa: :usweet:


>> "Nvidia G80 renders a Playboy bunny"

Endlich schmeißen die mal die faltigen alten Demo Girls raus. Die dürfen jetzt anschaffen gehen beim "Dreamstripper /Pro".

"Frischfleisch für neue Hardware"

Mein eigenes "Häschen" für lächerliche 600+ ! :biggrin:

Ich kanns ja kaum noch halten! Wenn ATI nicht bis zum Launch der G80 genaue Infos rauslässt dann.... "Playboy"

Ich leg schon mal die "Wärmeleitpaste" zurecht für den "nude patch"!

Godmode
2006-10-11, 17:15:26
....product and re-intruduces the Giga Texture Sshader term, GTS .....

Das hieß doch Giga Texel Shader und nicht Texture :rolleyes:
und dann auch noch Rechtschreibfehler, typisch Fuad.

Gast
2006-10-11, 18:24:25
AFAIK ist die Antwort zu Deiner Frage positiv, was aber nichts unbedingt aussagen muss was zukuenftiges AA genau betrifft.Fein! Was zukünftiges AA angeht tappe ich natürlich noch im Dunkeln, hoffe aber mal schwer darauf, daß die alten Modi weiterhin zur Verfügung stehen, nur eben mit höheren Maximalauflösungen.
Was den Rest angeht kann auch ich nur auf den anderen Thread verweisen, in dem wohl alle relevanten Argumente jeweils mindestens dutzendmal aufgeführt wurden.

Gast
2006-10-11, 18:24:46
also fuad is symphatischer als manch andere....

Godmode
2006-10-12, 00:45:39
Was mich recht start wundert ist, dass man jetzt plötzlich nichts neues mehr erfährt. Letzte Woche bekamen wir doch jeden Tag irgendwelche neuen Informationen aber jetzt ist wieder alles ziemlich dicht. :confused:

Anarchy-HWLUXX
2006-10-12, 00:55:49
Wie wärs damit :ucatch:

http://www.guru3d.com/newsitem.php?id=4438


Ja, ja - ich weiss ... net gerade doll ;)



Bei B3D http://www.beyond3d.com/forum/showthread.php?t=33576&page=51 wird auch noch in den raum gestellt das die erste ladung 40k Karten sein "soll" <- gerücht

Moralelastix
2006-10-12, 08:46:10
Boing!:biggrin:

The way it's meant to be played!:
http://www.guru3d.com/newsitem.php?id=4438

Zefix! Anarchy-HOCP war schneller.


Is das am End so eine Tussi mit "silicon_e" Möpsen?
Na dann passts ja wenn sie jetzt für Silizium GPUs das Werbebunny is......


Silikon = silicone

Silizium = silicon

*GrööööL!!!!!!!!!*

DiGiTaL
2006-10-12, 10:15:24
Das ist sie:

http://www.adriannemcurry.com/blog/?p=83

und

http://www.bastardly.com/archives/2006/01/14/adrianne-curry-does-playboy-magazine-in-february-2005/


;D :eek: ;D

Godmode
2006-10-12, 10:30:12
Geforce 8800 Features:
-128 Porno Shader Piplines ;D

Na das wird ein heißer Winter, ich bin schon echt auf diese Techdemo gespannt. Nalu war ja doch noch ziemlich Comikhaft, bin echt erstaunt darüber was mit dem G80 anscheinend möglich sein wird.

paul.muad.dib
2006-10-12, 16:48:41
Geforce 8800 Features:
-128 Porno Shader Piplines ;D


Und in der Verpackung der Graka liegt dann eine aufblasbare Gummipuppe?

Botcruscher
2006-10-12, 17:01:45
Und in der Verpackung der Graka liegt dann eine aufblasbare Gummipuppe?

Nur wenn der passende Joystick bereits vorhanden ist.;)

Ailuros
2006-10-12, 23:19:04
Mal was zu stream processing:

http://www.ece.cmu.edu/~babak/papers/isca05.pdf

Gast
2006-10-13, 10:26:09
Mal was zu stream processing:

http://www.ece.cmu.edu/~babak/papers/isca05.pdf

Einfach so, weil es bei B3D erwähnt wurde oder weil du es (aus welchen Gründen genau?) für relevant hältst? ;-)

Ailuros
2006-10-13, 10:37:06
Ich hab das Ding nur mal schnell durchgekaemmt; die eigentliche Andeutung hier sollte sein dass es sich nicht unbedingt um stream processing per se handeln muss und natuerlich dass es auch hier potentielle Fallen geben kann wenn man nicht aufpasst.

Ich hab das Gefuehl dass sie mit G80 versucht haben den Datenfluss noch mehr "on chip" zu halten, was wohl auch eine logische Erklaerung geben wuerde fuer die Leistungssteigerung mit AA u.a.

Gast
2006-10-13, 12:48:55
Geforce 8800 Features:
-128 Porno Shader Piplines ;D

Na das wird ein heißer Winter, ich bin schon echt auf diese Techdemo gespannt. Nalu war ja doch noch ziemlich Comikhaft, bin echt erstaunt darüber was mit dem G80 anscheinend möglich sein wird.

Das wäre doch mal ein Featue, ne Treiberoption in bestimmten Spielprofilen einen Nudemode zu aktiveren. :D

Katrin
2006-10-13, 12:56:37
http://uk.theinquirer.net/?article=35062

512Bit GDDR4 ^^

Kati

DrumDub
2006-10-13, 13:06:21
http://uk.theinquirer.net/?article=35062

512Bit GDDR4 ^^

Kati falscher thread... steht im richtigen thread auch schon: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4873141#post4873141

Katrin
2006-10-13, 13:10:29
falscher thread... steht im richtigen thread auch schon: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4873141#post4873141

achja sorry.. versehen

kati

[](-__-)[]
2006-10-13, 13:48:00
Son Mist, überall Sex Sex, jetzt sogar bei Grakas. Halt das net mehr aus. :frown: ;(

Anarchy-HWLUXX
2006-10-13, 14:06:34
(-__-)[]']Son Mist, überall Sex Sex, jetzt sogar bei Grakas. Halt das net mehr aus. :frown: ;(

Hassu die letzten Jahre unter einem Stein verbracht ?

Dusk
Dawn
Nalu
Ruby

Jetzt wird die Grafik eben nochmals realistischer das ein Menschliches vorbild gebraucht wird damit man die Rendering Quali auch einschätzen kann.

AnarchX
2006-10-14, 10:27:29
NVs D3D10 Mainstream/LowEnd im Frühling 07 auf der Cebit:
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f159%2f159218.shtml
(Babelfish)

AnarchX
2006-10-14, 10:37:37
G80 in action!!! (erste Bilder der Launch-Demo(?))
http://i53.photobucket.com/albums/g56/adrireznor2/KELSUN.jpg
http://i53.photobucket.com/albums/g56/adrireznor2/Adri3D-1.jpg

http://www.beyond3d.com/forum/showthread.php?p=852434#post852434

Gast
2006-10-14, 10:41:52
G80 in action!!! (erste Bilder der Launch-Demo(?))
Das erste ist so eindeutig ein Fake, dass es schon wehtut, dass das jemand nicht auf den ersten Blick erkennt.

AnarchX
2006-10-14, 10:43:43
Das erste ist so eindeutig ein Fake, dass es schon wehtut, dass das jemand nicht auf den ersten Blick erkennt.

Ja, die Haare sollten selbst für D3D10 doch noch etwas zu weit sein...;)

The_Invisible
2006-10-14, 11:04:35
was sindn das für flecken? hat man das eingescannt oder was?

mfg

Superheld
2006-10-14, 11:12:11
so sieht das Playboy-Bunny in echt aus:eek:

http://img244.imageshack.us/img244/772/41064066adriannecurry2ai8.jpg (http://imageshack.us)

http://theinquirer.net/default.aspx?article=35075

Gast
2006-10-14, 11:14:11
Die hübscheste is se nicht...

Winter[Raven]
2006-10-14, 11:14:38
Ich danke NVidia hätte da etwas besseren Geschmack...:down: :crazy2:

chrisihamm
2006-10-14, 11:30:59
Hi,


über Geschmack lässt es sich wahrlich streiten,aber wer sich hier hinstellt und meint sie ist nicht die hübscheste ,sollte sich selbst mal im Spiegel betrachten und darüber nachdenken,ob er sich nicht selbst mal als Renderbunny bereitstellt.!:biggrin:



mfg

Superheld
2006-10-14, 11:37:09
mit Schminke geht alles

Gast
2006-10-14, 11:39:42
http://www.adriannemcurry.com/blog/?p=81

Das gibt es aber noch etwas hübschere Bilder von ihr... und erzählt mir nicht, ihr würdet sie von der Bettkante schubsen. *g*

G!ZMo
2006-10-14, 13:18:38
http://blog.myspace.com/index.cfm?fuseaction=blog.view&friendID=42771364&blogID=170277897&Mytoken=DD8BFE5D-2FD4-4083-9C3DABFDCC2CC52B48395911

hmmm :usweet:

(+44)
2006-10-14, 14:25:48
Sieht....realistisch aus :D

Nur n bisschen viele Bloom/HDR-Effekte, aber daran krankt aktuell ne ganze Generation von Spielen...

[](-__-)[]
2006-10-14, 20:47:04
Günstige DirectX10-fähige Grafikkarten im Frühjahr?
von nim für WinFuture.de
Microsoft will mit Windows Vista im Januar 2007 auch die nächste Ausgabe der Grafikplattform DirectX10 einführen. Bisher hat Nvidia als einziger Grafikkartenhersteller konkrete Pläne für die Einführung eines DirectX10-kompatiblen Grafikchips.

Mit den Modellen GeForce 8800GTX und 8800GTS wird Nvidia am 7. November 2006 die ersten Grafikchips präsentieren, die DirectX10-fähig sind. Diese sind allerdings im High-End-Segment positioniert, sodass vorerst nur Hardcore-Gamer und andere Hardware-Enthusiasten auf die neuen Chips umsteigen werden.

Wie die Kollegen vom Inquirer nun berichten, arbeitet man bei Nvidia jedoch bereits an Varianten der neuen Grafikprozessoren, die im Mainstream-Markt angesiedelt sein werden. Diese sollen angeblich bereits im Frühjahr auf den Markt kommen, laut Inquirer in der Zeit rund um die CeBIT, die größte IT-Messe der Welt.

...

The_Invisible
2006-10-14, 20:55:21
http://blog.myspace.com/index.cfm?fuseaction=blog.view&friendID=42771364&blogID=170277897&Mytoken=DD8BFE5D-2FD4-4083-9C3DABFDCC2CC52B48395911

hmmm

also doch wahr :ugly:

mfg

Gast
2006-10-14, 21:26:16
Jo, sieht so aus. Vielleicht hat man der guten Dame ja ein paar Ausdrucke zugeschickt. Schließlich bekommen die Mädels ja immer Abzüge ihrer Fotosessions und sind das so gewohnt. Und fürs Blog hat sie die Ausdrucke dann eingescannt. Aber es ist ja auch nicht mehr lang hin, dann wissen wir, was der G80 leistet.

Slipknot79
2006-10-14, 22:41:52
(-__-)[]']...


Sehe da kein Problem. Oo

Wer "high end" haben möchte, also nur Leistung, soll sich nen G80 im Nov kaufen. Wer D3D10 nutzen möchte, kann ruhig warten bis Crysis rauskommt. Erst dann macht es Sinn auf DX10 umzusteigen.
Crysis kommt so und so erst FRÜHESTENS Anfang 2007 raus, bis dahin sind die Preise gefallen (vllt sogar dank R600) und vllt gibt es da schon Mainstream G80er.

tombman
2006-10-14, 22:56:37
http://blog.myspace.com/index.cfm?fuseaction=blog.view&friendID=42771364&blogID=170277897&Mytoken=DD8BFE5D-2FD4-4083-9C3DABFDCC2CC52B48395911

hmmm

OH MY FUCKING GOD :eek:

Der G80 wird so weggehen wie warme Semmeln unter freaks ;)

Gast
2006-10-14, 23:03:09
Das sieht noch schlecht aus - waren wohl nur die ersten Versuche

Nightspider
2006-10-14, 23:59:20
Denke ich auch. Selbst das letzte NVidia Vorzeige-Objekt, Nalu (?), sah irgentwie besser aus. ^^ Bis auf die Haare.

Gast
2006-10-15, 01:19:43
Denke ich auch. Selbst das letzte NVidia Vorzeige-Objekt, Nalu (?), sah irgentwie besser aus. ^^ Bis auf die Haare.Die Haare sind aller Wahrscheinlichkeit nach ja auch Teil des Photos, auf welches das Rendergesicht draufgephotoshopt wurde. Bin jedenfalls schon sehr gespannt auf die tatsächliche Demo, die muss allerdings wesentlich beeindruckender werden als das bisher verfügbare Bildmaterial.

Ailuros
2006-10-15, 03:02:31
Sehe da kein Problem. Oo

Wer "high end" haben möchte, also nur Leistung, soll sich nen G80 im Nov kaufen. Wer D3D10 nutzen möchte, kann ruhig warten bis Crysis rauskommt. Erst dann macht es Sinn auf DX10 umzusteigen.
Crysis kommt so und so erst FRÜHESTENS Anfang 2007 raus, bis dahin sind die Preise gefallen (vllt sogar dank R600) und vllt gibt es da schon Mainstream G80er.

Ich bezweifle dass die paar Beschleunigungen im D3D10 path in Crysis einen so grossen Unterschied machen werden, dass der Umstieg zu Vista es wirklich wert sein sollte. Gleiches gilt auch fuer andere zukuenftige D3D9 Spiele die den D3D10 Marketing-stempel benutzen werden.

Gast
2006-10-15, 09:15:34
Ich bezweifle dass die paar Beschleunigungen im D3D10 path in Crysis einen so grossen Unterschied machen werden, dass der Umstieg zu Vista es wirklich wert sein sollte. Gleiches gilt auch fuer andere zukuenftige D3D9 Spiele die den D3D10 Marketing-stempel benutzen werden.

Ich denke da täuschst du dich.

So bewirbt Microsoft mit Hilfe des hauseigenen FS X Vista und stellt die Unterschiede zwischen der DX9 und der D3D10 Version heraus. Wohlgemerkt im Spiegel:

http://www.spiegel.de/fotostrecke/0,5538,PB64-SUQ9MTY3NDUmbnI9Mg_3_3,00.html

Und der Flightsimulator ist eine s.g. Killeraplikation.

Gast
2006-10-15, 09:16:15
Killeraplikation.

"p" vergessen

Kladderadatsch
2006-10-15, 09:17:53
Ich denke da täuschst du dich.

So bewirbt Microsoft mit Hilfe des hauseigenen FS X Vista und stellt die Unterschiede zwischen der DX9 und der D3D10 Version heraus. Wohlgemerkt im Spiegel:

http://www.spiegel.de/fotostrecke/0,5538,PB64-SUQ9MTY3NDUmbnI9Mg_3_3,00.html

Und der Flightsimulator ist eine s.g. Killeraplikation.
oh gott, ist das billige psychologie in den screenshots:usad:

Gast
2006-10-15, 09:27:44
oh gott, ist das billige psychologie in den screenshots:usad:

...die Ihre Wirkung nicht verfehlen wird.

Wäre dies ein Shooter würden sich 50% der Freaks hier sofort eine DX10 Karte kaufen.

Botcruscher
2006-10-15, 11:28:54
oh gott, ist das billige psychologie in den screenshots:usad:

Erinnerst du dich noch an die tollen Bilder mit 64Bit.:rolleyes:

Wohlgemerkt im Spiegel:

Weil den vermutlich unsere ach so kompetenten IT-Entscheider als Fachlektüre lesen.:ulol: Immerhin kann man die BWLer damit ganz doll beeindrucken.

Ailuros
2006-10-15, 12:29:48
Ich denke da täuschst du dich.

So bewirbt Microsoft mit Hilfe des hauseigenen FS X Vista und stellt die Unterschiede zwischen der DX9 und der D3D10 Version heraus. Wohlgemerkt im Spiegel:

http://www.spiegel.de/fotostrecke/0,5538,PB64-SUQ9MTY3NDUmbnI9Mg_3_3,00.html

Und der Flightsimulator ist eine s.g. Killeraplikation.

Mir doch schnuppe wenn ihr auf so billige Marketinggags reinfallen koennt. Zuerst sehen dann beurteilen ;)

Slipknot79
2006-10-15, 16:10:05
Ich bezweifle dass die paar Beschleunigungen im D3D10 path in Crysis einen so grossen Unterschied machen werden, dass der Umstieg zu Vista es wirklich wert sein sollte. Gleiches gilt auch fuer andere zukuenftige D3D9 Spiele die den D3D10 Marketing-stempel benutzen werden.


Ich weiß nicht ob du ein paar Videos von Crysis gesehen hast. Aber der bewegte Rauch, wenn der große Zwischengegner zum Brüllen beginnt, wäre ein "DX10-Effekt". Allein solche Effekte wären es mir wert mir im Frühjahr nen G80 zu kaufen bzw. eben auf Vista umzusteigen. Aber warten wir auch mal die Benchmarks ab und schauen wir uns an ob Vista wirklich 10-15% Leistung kostet wegen Aero.

The_Invisible
2006-10-15, 16:12:15
Ich weiß nicht ob du ein paar Videos von Crysis gesehen hast. Aber der bewegte Rauch, wenn der große Zwischengegner zum Brüllen beginnt, wäre ein "DX10-Effekt". Allein solche Effekte wären es mir wert mir im Frühjahr nen G80 zu kaufen bzw. eben auf Vista umzusteigen. Aber warten wir auch mal die Benchmarks ab und schauen wir uns an ob Vista wirklich 10-15% Leistung kostet wegen Aero.

areo wird bei fullscreen ja abgeschalten, der hund muss wo anders begraben liegen

mfg

Slipknot79
2006-10-15, 16:16:59
areo wird bei fullscreen ja abgeschalten, der hund muss wo anders begraben liegen

mfg


Vermute ich auch. Ich habe mal mit dem Wattmeter gemessen und der Stromverbrauch liegt unter Vista sogar 15W unter dem im XP-Destopbetrieb. Also keine Spur davon dass die Graka oder CPU unter Aero stark belastet sein würden.

Gast
2006-10-15, 22:09:24
http://www.megagames.com/news/html/hardware/nvidiagf8800gtxgtsspecs.shtml

Description
nVidia has officially named its G80 chip and announced the first two boards to carry its architecture, the GeForce 8800 GTX and GeForce 8800 GTS, revealing their hardware specifications.

The anticipated launch for these cards is November 8, 2006 although the company has not confirmed that date.
The GeForce 8800 GTX will serve as the flagship product for the company and will support DX10 and shader model 4.0 as we expected and will feature a stunning 128 pixel pipelines, a number which becomes even more impressive when considering that the current pipeline peak is the 48 found on ATI's X1950XTX and that the current nVidia peak is the 32 on GeForce 7900GTX.

The full GeForce 8800 GTX specs are:

GeForce 8800GTX
Core clock: 575MHz
Pixel pipelines: 128 @ 1350 MHz
Memory: 768MB DDR3 @ 900 MHz
Memory interface: 384-bit
Memory bandwidth: 86GB/s

The GeForce 8800 GTS will be a lower end model but only when compares to the GTX as it will still feature 96 pixel pipelines. The GeForce 8800 GTS full specs are:

Core clock: 500MHz
Pixel pipelines: 96 @ 1200 MHz
Memory: 640MB DDR3 @ 900 MHz
Memory interface: 320-bit
Memory bandwidth: 64GB/s

The company has also issued recommended power ratings for these new beasts as they will feature two PCI-Express slots in order to receive the juice they require to run; a 450W power supply will be the minimum requirement for a GF 8800 GTX and a 400W for a GF 8800 GTS. If you have more money than sense and decide to run two of these babies in an SLI setup you will need a minimum 800W power supply.

DX10 games are unlikely to surface before 2007 and around Q1 of the same year ATI plans to introduce its own DX10 offering. The Canadians are running a little behind their rivals although this seems to be a repeat of the Shader Model 3.0 support saga. The question now is; how many people will be willing to buy DX10 cards before Vista (the only OS to support DX10) and games featuring the technology are available?

cR@b
2006-10-15, 22:26:22
Selten so ein Quatsch gelesen!

Master3
2006-10-15, 22:44:50
Diese inoffziellen Specs sind aber schon länger bekannt.
Wenn das Speicherinterface wirklich mal erweitert wird, wäre das mal wieder seit langen ein etwas größerer Schritt anstatt ständig nur die Taktraten zu erhöhen.

Kladderadatsch
2006-10-15, 22:54:47
außerdem haben wir einen thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=232542) dafür.

LovesuckZ
2006-10-15, 22:57:29
Wenn das Speicherinterface wirklich mal erweitert wird, wäre das mal wieder seit langen ein etwas größerer Schritt anstatt ständig nur die Taktraten zu erhöhen.

Warum?

Kladderadatsch
2006-10-15, 22:59:45
Warum?
ich las zwar auch, dass das nur in der theorie was bringen soll. aber hieß es nicht, hdrr (mitsamt aa) würde enorm davon profitieren?

Blackpitty
2006-10-15, 23:00:39
gab doch nun schon genug solche Fakten, warten wir doch bis zum 18. wo ja die Specs den Presseteilnehmern genannt werden sollen

LovesuckZ
2006-10-15, 23:01:39
ich las zwar auch, dass das nur in der theorie was bringen soll. aber hieß es nicht, hdrr (mitsamt aa) würde enorm davon profitieren?

Profitiert es von der erhöhten Speicherbandbreite oder vom erweiterten Interface? :wink:

Master3
2006-10-15, 23:02:21
Ich hätte gedacht das dadurch der Speicherdurchsatz stark nach oben geht.
800Mhz Speicher mit 256bit ist doch sicher langsamer als 384bit und 800Mhz Speicher?

Gast
2006-10-15, 23:14:46
wieso steht da dass die karten zwei PCIe slots benötigen? und direkt danach was zu SLI.. es gibt doch gar keine boards im mom mit 4 PCIe slots oder doch ?

T86
2006-10-15, 23:54:24
is eh blödsinn warumm sollte sone karte 2x pci-e 16x benötigen?
die bandbreite kann se doch eh nicht auslasten...

deekey777
2006-10-16, 00:01:36
Das ist der G80-Thread. In diesen gehört alles rein!

Gast
2006-10-16, 00:06:56
Herrlich lachhafte Meldung. r580 48 Pipes, G71 32 Pipes? Ja was ist für die Herren denn bitte ne Pipe? Pixelshader? Das wären dann je nach Zählweise 48 für r580 und 24 oder 48 für G71. Oder nehmen wir doch einfach mal an, was ihre Definition von Pipe wäre erkennt man an der 32 für G71, das wären dann MSAA-Samples pro Takt. Da hat eine r580 aber auch nur 32. Oder TMUs? Das wären 16 für r580 und 24 für G71. Mit einer einheitlichen Definition von Pipeline kommt man nie im Leben für r580 auf 48 und für G71 auf 32, das ist einfach nur :ulol:

Ailuros
2006-10-16, 06:28:34
Ich weiß nicht ob du ein paar Videos von Crysis gesehen hast. Aber der bewegte Rauch, wenn der große Zwischengegner zum Brüllen beginnt, wäre ein "DX10-Effekt". Allein solche Effekte wären es mir wert mir im Frühjahr nen G80 zu kaufen bzw. eben auf Vista umzusteigen. Aber warten wir auch mal die Benchmarks ab und schauen wir uns an ob Vista wirklich 10-15% Leistung kostet wegen Aero.

Es wurde (vergebens) mehr als oefter erwaehnt dass der D3D10 nur ein paar Beschleunigungen mit sich bringen wuerde, sonst duerfte Crysis durch und durch ein D3D9 Spiel sein. Mit was haetten sie denn ueberhaupt die angeblichen D3D10 Effekte implementiert? Mit dem refrast?

Ailuros
2006-10-16, 06:35:29
Ich hätte gedacht das dadurch der Speicherdurchsatz stark nach oben geht.
800Mhz Speicher mit 256bit ist doch sicher langsamer als 384bit und 800Mhz Speicher?

Nur dass man wenn man auf 256bit bleiben wuerde auch GDDR4 bei 1350MHz waehlen wuerde.

Dass die Bandbreite nach oben steigen wird ist zwar klar, aber es ist eine Notwendigkeit die dank der Erweiterung der jeweiligen Einheiten entsteht. Wie gross ist denn der Leistungsunterschied einer X1950XTX im Vergleich zu Vorgaengern mit HDR/MSAA?

Wie man jetzt zu mehr Bandbreite bei erweiterten Einheiten kommt, ist nebensaechlich. Man waehlt dann ganz einfach die Loesung die insgesamt billiger und einfacher ist.

***edit (und etwas OT):

ein Thread der wirklich lesenswert ist:

http://www.beyond3d.com/forum/showthread.php?t=31394

robbitop@work
2006-10-16, 08:48:58
Es wurde (vergebens) mehr als oefter erwaehnt dass der D3D10 nur ein paar Beschleunigungen mit sich bringen wuerde, sonst duerfte Crysis durch und durch ein D3D9 Spiel sein. Mit was haetten sie denn ueberhaupt die angeblichen D3D10 Effekte implementiert? Mit dem refrast?
gibt es nicht angeblich schon seit Feb2006 G80 Engineering Samples? (klingt für mich reichlich früh, aber bei B3D wurde das mal erwähnt)

Gast
2006-10-16, 10:04:07
gibt es nicht angeblich schon seit Feb2006 G80 Engineering Samples? (klingt für mich reichlich früh, aber bei B3D wurde das mal erwähnt)
allzuviel können die wirklich noch nicht machen. OS Beta, API Beta, Treiber Alpha ... die sollten wirklich noch warten, bis sie den ganzen schmodder supporten bei Crytek.

gruss mapel110@work

Ailuros
2006-10-16, 10:29:48
gibt es nicht angeblich schon seit Feb2006 G80 Engineering Samples? (klingt für mich reichlich früh, aber bei B3D wurde das mal erwähnt)

Ja und? CryTek hatte auch R520 enginnering samples im Fruehjahr 2005. Wieso haben sie denn da auch nicht "genug" Zeit gehabt fuer entweder Leistungsteigenderes DB oder sogar SM3.0 Effekte? Gleiches Frage waere auch in 2004 faellig gewesen mit der Erscheinung des NV40.

Gast
2006-10-16, 10:50:48
Ja und? CryTek hatte auch R520 enginnering samples im Fruehjahr 2005.

Das ist was anderes. R520 war bis auf den Takt-Bug ja praktisch schon ewig fertig. G80 hatte ja erst vor kurzem sein Tape-Out. Ich glaub da nicht so recht dran...

Ailuros
2006-10-16, 10:56:52
Das ist was anderes. R520 war bis auf den Takt-Bug ja praktisch schon ewig fertig. G80 hatte ja erst vor kurzem sein Tape-Out. Ich glaub da nicht so recht dran...

Welches tape-out denn genau? Weisst Du wann genau die ersten G70 samples in Entwickler-Haende kamen in der Vergangenheit? Ganz so nebenbei es waren damals quasi 7800GTs und nicht GTX.

edit: finales tape-out fuer G80 war Mitte Sommer.

Teil zwei: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326254