PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 2


Seiten : [1] 2 3 4 5

AnarchX
2007-09-06, 11:25:01
Letztes Posting: Teil 1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5819112#post5819112)

Meine Gedanken, basierend auf diversen Gerüchten, zur High-End-Lösung und dem Aufbau von G92 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5888050&postcount=359)

Bisherige Gerüchte zu G9x allgemein:
- 65nm Fertigung
- Veröffentlichung: H2 2007
- 64Bit fähige ALUs(Doppelte Genauigkeit) laut CUDA-FAQ(wahrscheinlich in mehreren Takten), limitiert auf NVs Tesla GPGPU-Line (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5602364&postcount=303)
- Die G9x-GPUs sollen als GeForce 9 Serie vermarktet werden/ andere Quellen sprechen weiterhin von einer Vermarktung als GF8
- DX10.1 soll laut einigen Gerüchten von G92 und G98 noch nicht unterstützt werden, wobei aber dies keinen großen Aufwand bedeuten würde
- PCIe 2.0
- Displayports

G92: - möglicher Aufbau: - Variante 1: 6 Cluster(=24 Doppel*-TMUs und 96SPs) und 4 ROP-Partitions(= 256Bit, 16 ROPs) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5626004#post5626004)
- Variante 2: 4 Cluster (32 (vollwertige) TMUs/oder 16-Doppel-TMUs und 64SPs), ROPs und SI wie bei V1
*Bi-AF bzw. trilinaere Filterung ohne Einbruch
- Taktraten: ~600MHz+ ROPs/TMUs, 1500MHz+ SPs, 900MHz+ Speicher
- Einsatz auf Performancekarten(<$300) und einer GX2-Karte(2xG92) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5604400#post5604400) wahrscheinlich
- G92 soll laut NV (http://www.beyond3d.com/content/news/230) nahe 1 TFLOP(GX2 ?) Rechenleistung besitzen und im Q4 2007 kommen
- eine Single-GPU-Variante des G92 soll knapp über 9k Punkte im 3DMark06 erreichen und liegt somit etwas hinter der 8800GTX
- der Stromverbrauch der Single-GPU-Variante soll unter einer 7900GTX(~80W) liegen
- andere Quellen sprechen von Gerüchte über ein Package mit zwei G92 (Verbindung auf tieferer Ebene gegenüber SLI)
- G92 basierende Karten sollen extrem leise sein (http://www.theinquirer.net/default.aspx?article=41740)
-Video-Processor 3
- Vorstellung im November (http://www.vr-zone.com/index.php?i=5127) bzw. 8800GT schon im Oktober

- 8800GT (ehem. 8700GTS):

http://www.chilehardware.com/foro/nvidia-vs-amd-t117534.html
http://img204.imageshack.us/img204/4781/specs8800gtcopycopyfo0.jpg

http://img178.imageshack.us/img178/9476/02py0.jpg (http://www.mobile01.com/topicdetail.php?f=298&t=413501&last=3742976)
Weitere Bilder:
http://www.directupload.com/showoriginal-11538.jpg
http://img178.imageshack.us/img178/9476/02py0.jpg (http://www.mobile01.com/topicdetail.php?f=298&t=413501&last=3742976)
http://www.mobile01.com/topicdetail.php?f=298&t=413501&p=2
http://img212.imageshack.us/img212/6949/8800gt2on0.jpg
http://img520.imageshack.us/img520/1694/8800gt3ci3.jpg
-> GT in schwarz + größerer Lüfter(öffnung) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5903895&postcount=765)

- VR-Zone berichtert von einer G92-SKU, die als 8700GTS (http://www.vr-zone.com/?i=5236)bezeichnet wurde (nun 8800GT) wird und 1.0ns GDDR3 @ 256Bit haben soll

- D8P ist der SKU-Codename

Leistungsdaten:
- Taktraten: ~600MHz ROPs/TMUs, ? SPs(sollen sehr hoch getaktet sein = 1.5GHz?), 900MHz Speicher (http://my.ocworkbench.com/bbs/showthread.php?p=421506#post421506)
- Aufbau: wahrscheinlich: 16 oder 32TA, 32TFs, 64SPs
- 10.800 Punkte im 3DMark06
Versionen/Preise:
- 512MB - $249 (http://www.vr-zone.com/?i=5250) oder $229 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5902571&postcount=715) (ab Oktober/November)
- 256MB - $199 (http://www.vr-zone.com/?i=5250) oder $179 (ab Dezember)
Kühlung und Verbrauch:
- 65W GPU und 110W gesamt TDP laut PCinlife
- Kühler mit 3 Heat-Pipes (http://vr-zone.com/articles/GeForce_8800_GT_Cooler_Has_3_Heat-Pipes/5320.html)

- Veröffentlichung: laut letzten Infos, 29.Oktober

- PCB ist 23cm lang und besitzt 8 Layer (http://www.vr-zone.com/?i=5242)





G98 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=285&Itemid=34): - absolute LowEnd-GPU, die Mitte 2007 den Markt erreichen sollte (nun wohl November)
- trägt intern wahrscheinlich auch die die Bezeichnung D8M (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hardspell.com%2Fdoc%2Fhardware%2F38073.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) und wird im September (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1417&Itemid=1) die aktuelle GF 8400 ersetzen und somit einen besseren Konkurrenten zu ATis RV610(Radeon HD 2400) darstellen und auch gegen dessen Nachfolger RV620 antretten (http://www.vr-zone.com/?i=5243)
- 64Bit + GDDR2/3
- Video-Processor 3: wahrscheinlich nun auch VC1 mit voller Beschleunigung
- HDMI über DVI, PCIe 2.0 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1420&Itemid=1)
- die G98-basierenden Karten sollen ~$45/59 (http://www.vr-zone.com/?i=5249) kosten
- 4 Layer PCB

-G9x-Ableger für Mainstream wahrscheinlich im Frühling 2008 (G96?)



Nvidia prepares to shrink G80 to make a G90 (http://www.theinquirer.net/default.aspx?article=37791)
http://developer.download.nvidia.com...in32_linux.zip

>Q: Does CUDA support Double Precision Floating Point arithmetic?

>A: CUDA supports the C "double" data type. However on G80
> (e.g. GeForce 8800) GPUs, these types will get demoted to 32-bit
> floats. NVIDIA GPUs supporting double precision in hardware will
> become available in late 2007.
NVIDIA_G98.DEV_06E0.1 = "NVIDIA G98"
NVIDIA_G98.DEV_06E1.1 = "NVIDIA G98 "
NVIDIA_G98.DEV_06E2.1 = "NVIDIA G98 "
...
Ingesamt sind es 32 Einträge (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350597&page=8) im Forceware 165.01.


"Neue" Infos: (von einem Moderator bei PCinlife, die ja bekanntlich gute Quellen haben ;))

- GeForce9 wird eine Produktfamilie sein (wer hätte das gedacht...)
- GF9 und GF8 Codenamensystem(Gx0 > Gx4 >... ) sind ähnlich aber nicht identisch

- G92 zielt mit seinem Codenamen auf HighEnd ab, wird aber unter der 8800GTX positioniert sein
- G92 und G80 werden gleichzeitig am Mark sein
- G92 wird weniger verbrauchen als eine 7900GTX =)
- G92 erzielt im 3DMark06 mehr als 9k Punkte
- G92 wurde noch nicht vollständig getestet, so könnten mit Pech noch Bugs gefunden werden
- G92 hat noch keinen konkreten Termin, aber gegen Weihnachten sollte er auf jeden Fall erhältlich sein

Anmerkungen:

- G90 soll existieren und sogar ein 512Bit SI besitzen, aber da NV die Risiken minimieren (einfachere, kleinere GPUs) will, wird er wohl nicht erscheinen bzw. als Notlösung in der Hinterhand gehalten werden

- Anfang 2008 bis Ende 2008 sollen weitere G9x GPUs erscheinen

- in der GF9-Serie soll es eine 1 TFLOP-SKU geben

http://we.pcinlife.com/thread-807684-1-1.html
http://img261.imageshack.us/img261/8684/nvspoctq4.jpg
8 Cluster mit einem VP2?
http://img261.imageshack.us/img261/9934/g8xdx101di8.jpg
Laut Folie sollen alle GeForce8 schon D3D10.1 unterstützen!

prophet
2007-09-06, 11:35:22
Naja, dualXXX heisst sehr selten 2x Leistung, siehe SLI, Dualcores etc.

...
- G90 im Frühjahr zusammen mit dem G96
...
Mist, ich habe den G90 noch diesen Herbst erwartet bzw. auf diesen gewartet.

Was soll ich denn jetzt tun? Die X1900XT ist mit meinem 30" Dell ziemlich überfordert.

Gast
2007-09-06, 11:43:26
rein marketingtechnisch, wäre ja zu UT3 und Crysis ein guter Moment für ne neue highend ne,denn solche titel kommen nicht so oft

Gast
2007-09-06, 11:55:40
Was soll ich denn jetzt tun? Die X1900XT ist mit meinem 30" Dell ziemlich überfordert.
Bis zum Umstieg auf was auch immer in 1280x800 spielen. Hast zumindest keine krude Interpolation drin.

mrt
2007-09-06, 13:33:17
Mist, ich habe den G90 noch diesen Herbst erwartet bzw. auf diesen gewartet.
Ob es G90 wirklich gibt/geben wird ist noch lange nicht gesichert.
Ich gehe immer noch von G92x2 aus.

Novox/Work
2007-09-06, 13:39:41
Bis zum Umstieg auf was auch immer in 1280x800 spielen. Hast zumindest keine krude Interpolation drin.

Ob das wirklich besser ist... bei 1280x800 und niedrigeren Auflösungen interpoliert der 30"-Dell per Nearest-Neighbour. Sieht entsprechend grauenhaft aus. :(

Henroldus
2007-09-06, 13:45:10
Naja, dualXXX heisst sehr selten 2x Leistung, siehe SLI, Dualcores etc.


Mist, ich habe den G90 noch diesen Herbst erwartet bzw. auf diesen gewartet.

Was soll ich denn jetzt tun? Die X1900XT ist mit meinem 30" Dell ziemlich überfordert.
ich kann dein leiden nachvollziehen.
spiele zwar "nur" auf 1680x1050 aber meine X1900XT ächzt auch schon.
ne 8800GTX ist mir zu teuer, lang und stromhungrig.
ne 8800GTS nicht schnell genug und leider seit Mai im Preis nahezu unverändert.
irgendwas stromsparendes dazwischen wäre ganz nett :rolleyes:

dargo
2007-09-06, 14:08:35
ich kann dein leiden nachvollziehen.
spiele zwar "nur" auf 1680x1050 aber meine X1900XT ächzt auch schon.
ne 8800GTX ist mir zu teuer, lang und stromhungrig.
ne 8800GTS nicht schnell genug und leider seit Mai im Preis nahezu unverändert.
irgendwas stromsparendes dazwischen wäre ganz nett :rolleyes:
Du redest vom Stromsparen und dann nutzst du eine X1900XT? OMG. :rolleyes:

Henroldus
2007-09-06, 14:12:48
Du redest vom Stromsparen und dann nutzst du eine X1900XT? OMG. :rolleyes:
jaja ich weiss, aber das System läuft ja.
ich meine eher ein Performance/Watt Knaller, zum echten sparen bräuchte es ja onboardgrafik ;)
es soll nur nicht mehr werden und das Netzteil soll noch lange leben.
den verbrauch einer HD2900XT find ich schon krank.
Deswegen mach ich mir Hoffnungen auf ne vernünftige 65nm Karte als weihnachtsgeschenk für mich selbst

dargo
2007-09-06, 14:23:47
Nur mal zur Info - eine G8800GTS verbraucht bei Last weniger als die X1900XT (selbst gemessen). Dass diese für dich zu langsam ist ist natürlich eine andere Geschichte. Aber ein G92 wäre wohl was für dich. Immerhin soll laut Gerüchten ein G92 weniger als eine G7900GTX verbrauchen. ~70W wären dann gar nicht mal so unrealistisch.

Adam D.
2007-09-06, 14:59:19
Das Problem für potentielle Käufer ist doch, dass es zu viele Spekulationen und Gerüchte bzgl. G92 gibt. Eine 8700GTS zu veröffentlichen, die über der Leistung einer 8800GTS steht, macht keinen Sinn. Die anderen Daten sprechen für eine gute Karte, aber was tatsächlich am 12. November vorgestellt wird, bleibt wohl lange Zeit noch unklar.
Mich persönlich ärgert das, denn ich brauch in spätestens einem Monat eine neue Grafikkarte. Wenn aber 8800GTS/2900XT im November schon einen einen würdigen Ersatz finden, macht es keinen Sinn, bis dorthin zuzugreifen. Kommt dann aber eine Karte, die die Leistung nicht toppt, hat man vergeblich gewartet. Ach, mich nervt das :uponder:

Henroldus
2007-09-06, 15:14:02
Nur mal zur Info - eine G8800GTS verbraucht bei Last weniger als die X1900XT (selbst gemessen).
ist mir bekannt, die Kritik geht Richtung GTX und 2900XT

Das Problem für potentielle Käufer ist doch, dass es zu viele Spekulationen und Gerüchte bzgl. G92 gibt. Eine 8700GTS zu veröffentlichen, die über der Leistung einer 8800GTS steht, macht keinen Sinn. Die anderen Daten sprechen für eine gute Karte, aber was tatsächlich am 12. November vorgestellt wird, bleibt wohl lange Zeit noch unklar.
Mich persönlich ärgert das, denn ich brauch in spätestens einem Monat eine neue Grafikkarte. Wenn aber 8800GTS/2900XT im November schon einen einen würdigen Ersatz finden, macht es keinen Sinn, bis dorthin zuzugreifen. Kommt dann aber eine Karte, die die Leistung nicht toppt, hat man vergeblich gewartet. Ach, mich nervt das :uponder:
dito.
die länger werdenden Refreshzyklen mit den einhergehenden stabilen Preisen sind die ersten Anzeichen des mangelnden Konkurrenzdruckes durch AMD.
Wenn uns im CPU Bereich demnächst das Gleiche blüht dann gute Nacht.

Hvoralek
2007-09-06, 15:51:43
Warum 12? Es gibt 64MB Packages und 12x64 sind 768MB, wie auf der GTX verbaut. 4 links 4 oben 4 rechts, also 12. Bei einem 256bit SI würde man nur unnötig Platz verschwenden, wären 2 GPUs direkt nebeneinander.
Und bisher hat man in der Anordnung entweder 8 vorne oder zusätzlich noch 8 hinten gesehen. 16x32MB wären dann 512MB, sehr wahrscheinlich zu mager für Highend, wenn man doch bereits 768MB anbietet.Ich glaube, wir reden aneinander vorbei. Inwiefern soll es für G92 eine Rolle spielen, dass man 12 Speicherchips auf einem PCB unterbringen kann? Wie kommst Du auf ein 320-bit- SI und was hat das damit zu tun? Die wahrscheinlichste Variante ist doch (wie auch beim später von Dir gebrachten Doppel- G70) 2 x 256- bit- SI mit 2 x 8 Speicherchips.

Ich denke schon, dass 512 MiB noch ausreichen. Zumindest würden 640 oder 768 wohl keine großen Vorteile bringen: VRAM wird ja hpts. für Texturen benötigt und ich glaube nicht, dass allzu viele Entwickler neben Texturpaketen für 128, 256, 512 und 1024 MiB auch noch welche für 320, 640, 768 und andere exotische VRAM- Größen erstellen werden.

AnarchX
2007-09-06, 15:54:24
Es gibt sogar Gerüchte, dass NV auf Grund des Dual-G92-Packages und der besseren Verbindung beider GPUs, wohlmöglich auch das bisher lästige Problem mit dem doppelten VRAM beseitigen konnte. :| ;)

dargo
2007-09-06, 15:56:50
Wie soll das denn funktionieren? :|

Die gelbe Eule
2007-09-06, 16:15:23
Ich glaube, wir reden aneinander vorbei. Inwiefern soll es für G92 eine Rolle spielen, dass man 12 Speicherchips auf einem PCB unterbringen kann? Wie kommst Du auf ein 320-bit- SI und was hat das damit zu tun? Die wahrscheinlichste Variante ist doch (wie auch beim später von Dir gebrachten Doppel- G70) 2 x 256- bit- SI mit 2 x 8 Speicherchips.

Ich denke schon, dass 512 MiB noch ausreichen. Zumindest würden 640 oder 768 wohl keine großen Vorteile bringen: VRAM wird ja hpts. für Texturen benötigt und ich glaube nicht, dass allzu viele Entwickler neben Texturpaketen für 128, 256, 512 und 1024 MiB auch noch welche für 320, 640, 768 und andere exotische VRAM- Größen erstellen werden.

Das man einfach Platz spart, deswegen. Was nicht vorne drauf passt, kann auch hinten drauf. Das 320bit SI passt dann zum BGA Package mit 12 Chips. Warum sollte man hier mit 256bit arbeiten bei neuen Chips, wenn doch schon 320bit bei aktuellen laufen? Sowas spart einfach Entwicklungskosten, gerade dann wenn man einen G90 zaubern möchte, der darauf aufbaut.
GDDR4 gibt es schon mit 1.4GHz, sollte man auch nicht vergessen.

AnarchX
2007-09-06, 16:19:09
@Die gelbe Eule

320 Bit ziehen (ein Vielfaches von) 10 32Bit GDDR-Chips nach sich, 12 sind 384Bit. ;)

@dargo:
Das ist eben die Frage, aber vielleicht hat es ja etwas mit diesem Performance-Mode zu tun bei Hybrid-SLI, wo eine schwächere eine stärkere GPU mitbeschleunigt.

Die gelbe Eule
2007-09-06, 16:23:35
Ok lassen wir es auf 10, hätten wir immernoch das 640MB Paket, was knapp unterhalb der GTX aber über der GTS 640 wäre mit den erwarteten Specs. Die 320er wollte man ja eh auslaufen lassen, es sei denn das wird die neue 200$ Karte.

Hab halt vergessen das auf der 320er einfach BGAs weggelassen worden sind.

AnarchX
2007-09-06, 16:30:32
Hab halt vergessen das auf der 320er einfach BGAs weggelassen worden sind.

Nein wurden sie nicht, es sind Chips mit halber Kapazität(32MB/256MBit). Ein 320Bit SI brauch nunmal 10 32 Bit Chips -> 10x32Bit = 320Bit, wie auch der R600 mit 512Bit 16 Chips braucht oder eine 8600 mit 128Bit 4 Chips. ;)

Einzig wo etwas weggelassen wurde, sind der 11 und 12 Chip auf dem PCB der 8800GTS je nach deaktiverter ROP-Partition und somit auch deaktiviertem Speicherkanal. Alle 12 Lötstellen auf dem GTS-PCB nutzt QuadroFX 4600, welche eine Art 8800GTS mit 384Bit SI ist.

Aber um auf G9x zurückzukommen, G92 wird wohl auf jeden Fall 256Bit werden, weil dies einfach ökonomischer ist und man somit direkt mit der Konkurrenz mit gleicher Speicherbestückung konkurrieren kann.

Die gelbe Eule
2007-09-06, 16:42:19
Aber muss man denn 256bit fahren? Vielleicht ist ja schon 320bit günstig genug, aktuell hat man doch nur 128bit und 320bit im Portfolio. Was ATi macht kann NV doch Schnurz sein, die hängen doch eh nach.

AnarchX
2007-09-06, 16:48:07
Ein Problem wird wohl auch die "ungerade" Speicherbestückung sein, die in einigen Programmen Probleme verursachen soll.

Im Endeffekt waren 320Bit und 384Bit meiner Meinung nach nur eine Überbrückungsmaßnahme, sodass man nicht gleich auf 1GB gehen muss, aber trotzdem mehr als 512MB im High-End bieten konnte und zum anderen keine Probleme hat, falls 2006 noch kein schneller GDDR4 verfügbar ist, wie es auch dann war.

mapel110
2007-09-06, 16:52:26
Die Speicherveraltung ist Treibersache, also hat nvidia da volle Kontrolle. Und der Bug soll ja demnächst behoben sein. Bin ja mal gespannt.

k0nan
2007-09-06, 19:05:12
grml, ich kann mich den beiden mit dem "graka-monitor" problem nur anschließen. ich hät' gern für 1680x1050 genügend leistung für UT3 & Crysis. da müssen wir dann wohl doch über 400€ für ne GTX ausgeben....

Gast
2007-09-06, 19:09:21
grml, ich kann mich den beiden mit dem "graka-monitor" problem nur anschließen. ich hät' gern für 1680x1050 genügend leistung für UT3 & Crysis. da müssen wir dann wohl doch über 400€ für ne GTX ausgeben....
Hallo k0nan :smile:
Kann nur zustimmen, langsam werden die üblichen Auflösungen mal größer und die Grakas kommen nicht hinterher.

Gast
2007-09-06, 19:35:13
? Ich weis ja net wie du spielst, aber wenn man die Auflösung erhöht kann man halt net erwarten immer noch 16xQ AA hinzuzuschalten...
Da muste noch 2 Gens warten einfach, und im Rückblick auf die letzten 10 Jahre haben wir definitv nen Schritt ins Pralle Grafikleben gemacht.

Bisher (seit erscheinen der GF4) habe ich jedes Jahr eine neue Generation Grakas gekauft, aber ich glaube das ist das erstemal wieder seit laanger Zeit, das ich einen Sprung auslassen kann. Crysis mag mich eines besseren belehren aber ich glaube die GTS langt für 1680*1050 4xAA, eher fliegt der C2D gegen einen Quadcore raus. Mag bei Shootern nicht so reißen (außer Lost Planet *g) aber wenn man 2x einen Spielclient rennen lässt, brauchs sowas.

Mit welchem Schmankerl will man eigentlich die GF89xx Serie verkaufen? Mehr CSAA Modi? Mehr Speed (was ich bezweifel)?
Beim G70-G71 Sprung war es klar aber jetzt... die GTX hat so derbe vorgelegt...

65nm / 384GDDR4 Interface / Mehr Taktrate halte ich für eine GF8900GTX für am Wahrscheinlichsten, evtl. mehr SPs und die geringer getaktet, sollten die zu HotSpots werden...

Und den Mainstream erwartet ne Karte leicht unter GTS Performance, die Karte ging gut und das wird man ausbauen.

Hvoralek
2007-09-06, 21:57:38
Mit welchem Schmankerl will man eigentlich die GF89xx Serie verkaufen? Mehr CSAA Modi? Mehr Speed (was ich bezweifel)?
Beim G70-G71 Sprung war es klar aber jetzt... die GTX hat so derbe vorgelegt...Karten mit einem G92 mit einem geringeren Preis (evtl $249 Listenpreis) und die mit 2x G92 mit mehr Leistung.

AnarchX
2007-09-07, 07:24:01
VR-Zone hat noch ein paar Details:
Nvidia G92 Card is 9-inch Long (http://www.vr-zone.com/?i=5242)

Nvidia G98 on 64-bit bus to counter RV620 (http://www.vr-zone.com/?i=5243)
Wie erwartet...

Gast
2007-09-07, 07:52:43
Immer noch GDDR3 Speicher, und dann auch noch 1ns? Dachte GDDR4 wäre günstiger mittlerweile...

AnarchX
2007-09-07, 07:54:30
Immer noch GDDR3 Speicher, und dann auch noch 1ns? Dachte GDDR4 wäre günstiger mittlerweile...

Aber wahrscheinlich nur für ATi, die ihn mit Samsung entwickelt hatten. ;)
Irgendwie glaub ich mittlerweile, dass NV GDDR4 komplett überspringt und in 2008 direkt auf GDDR5 geht.

Bei der G92x2 würde ja dank effektivem 512Bit SI auch 1-1.1GHz GDDR3 völlig ausreichen um eine angemessene Bandbreite zu erhalten.

Gast
2007-09-07, 08:21:40
Immer noch GDDR3 Speicher, und dann auch noch 1ns? Dachte GDDR4 wäre günstiger mittlerweile...
Wenn ich mir 8600 GTS und HD2600 XT so anschaue, sehe ich nicht unbedingt den Riesenvorteil von GDDR4.

Die gelbe Eule
2007-09-07, 08:39:05
Weil Du die Bandbreite durch mehr MHz dann nicht effektiv nutzen kannst, deswegen. Da limitiert einfach das SI.

freundlicher Gast
2007-09-07, 08:48:01
Weil Du die Bandbreite durch mehr MHz dann nicht effektiv nutzen kannst, deswegen. Da limitiert einfach das SI.

Ich meinte etwas völlig anderes: Die HD2600 XT kommt mit GDDR4 und was - 1100 MHz? Die 8600 GTS kommt mit GDDR3 und ebenfalls (?) 1100 MHz. Was nützt mir da also GDDR4? Zumal es auf Serienkarten noch keinen höher getakteten RAM bisher gab.

Die gelbe Eule
2007-09-07, 08:58:07
Marketing. Man benutzt GDDR4, damit es toller klingt. GDDR4 fängt auch erst bei 1.1GHz an und wenn man günstig drangekommen ist, damit man es als erstes vermarkten kann, warum nicht? Alles andere darüber ist sinnlos bei dem schmalen SI. 1,4GHz ist aber schon möglich, 1.6GHZ wohl das maximum.

freundlicher Gast
2007-09-07, 09:02:56
Marketing. Man benutzt GDDR4, damit es toller klingt. GDDR4 fängt auch erst bei 1.1GHz an und wenn man günstig drangekommen ist, damit man es als erstes vermarkten kann, warum nicht? Alles andere darüber ist sinnlos bei dem schmalen SI. 1,4GHz ist aber schon möglich, 1.6GHZ wohl das maximum.
Deswegen schrieb ich ja auch, dass ich da den Riesenvorteil von GDDR4 nicht sehe. Außerdem gibt es GDDR4 jetzt seit gut einem Jahr auf Consumerkarten - aber eben maximal mit 1,1 GHz. Langsam glaube ich nicht mehr an höhere Taktraten.

Was meinst du bitte: "Alles andere darüber ist sinnlos bei dem schmalen SI." Je schmaler das SI, desto eher braucht man hohen Takt für eine angemessene Bandbreite.

Die gelbe Eule
2007-09-07, 09:07:02
Ganz genau. Nur was bringt das schmale SI mit hohem Takt, wenn die Texturleistung fehlt? Nix ;)

Schau mal auf die Samsungpage http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=147

AnarchX
2007-09-07, 09:21:55
Ganz genau. Nur was bringt das schmale SI mit hohem Takt, wenn die Texturleistung fehlt? Nix ;)

Die Texturleistung ist nicht das Problem bei RV630, im Endeffekt hat man fast genausoviel Bandbreite pro Texel wie X1950GT/Pro bzw. sogar etwas weniger.
Das Problem ist, dass man nur 4 ROPs hat.

AnarchX
2007-09-07, 09:27:59
INQ meint auch etwas zu G92 zu äußern, hat sich diesmal der Masse angeschlossen:
November 3D War brings ATI and Nvidia siblings (http://www.theinquirer.net/default.aspx?article=42199)
with a die size of 33x33mm (33mm2)
X-D ... und der Rest is auch ziemlich amüsant.

Gast
2007-09-07, 09:54:09
INQ meint auch etwas zu G92 zu äußern, hat sich diesmal der Masse angeschlossen:
November 3D War brings ATI and Nvidia siblings (http://www.theinquirer.net/default.aspx?article=42199)

X-D ... und der Rest is auch ziemlich amüsant.
ROFL - wie geil ist das denn?

Gast
2007-09-07, 10:48:27
was denn,erzähls uns

sklave_gottes
2007-09-07, 11:43:29
Weil Du die Bandbreite durch mehr MHz dann nicht effektiv nutzen kannst, deswegen. Da limitiert einfach das SI.

Du wiedersprichs dir bei der Aussage sowas von selber!

Wie AnarchX schon sagte ist das grösste Problem der HDX2600XT das sie nur 4 von den "krankhaften" ROPs hat.

Und wenn du wissen willst bei welcher karte das SI "limitiert" :

HD2900XT, durch das grosse SI ist jeder mhz an mehr ram takt sinnlos. (schöne grüsse an die 16 TMUs)


Ich finde es gut und ausreichend wenn der G92 eine 256bit speicheranbindung bekommt, nur sollte dann auch GDDR4 verbaut sein mit 1,2GHZ wenn die Texel leistung an die der 8800GTS ran kommt!

mfg martin

Henroldus
2007-09-07, 11:49:39
INQ meint auch etwas zu G92 zu äußern, hat sich diesmal der Masse angeschlossen:
November 3D War brings ATI and Nvidia siblings (http://www.theinquirer.net/default.aspx?article=42199)

X-D ... und der Rest is auch ziemlich amüsant.
die 10K 3DMARKS06 widersprechen aber einer 8700GTS(wie zuletzt spekuliert)
das schafft ja nichtmal eine 8800GTX?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/8/#abschnitt_3dmark06

Die gelbe Eule
2007-09-07, 12:01:09
Kommt drauf an wie hoch das Teil taktet auf Core und Shader, vielleicht wurde auch ein 5GHz Quad genutzt, wer weiß das schon.

AnarchX
2007-09-07, 12:37:44
die 10K 3DMARKS06 widersprechen aber einer 8700GTS(wie zuletzt spekuliert)
das schafft ja nichtmal eine 8800GTX?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/8/#abschnitt_3dmark06

Mit einem lahmen FX-60 sicherlich nicht, aber mit der richtigen CPU:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/13/#abschnitt_3dmark06
-> Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)

Henroldus
2007-09-07, 15:29:57
Mit einem lahmen FX-60 sicherlich nicht, aber mit der richtigen CPU:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/13/#abschnitt_3dmark06
-> Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)
auch hier schafft die (vom Namen her vermeintlich schnellere 8800GTS keine 10K Punkte :redface:
somit bleibt mein "Problem" bestehen.
Sollte die 8700GTS (G92) zwischen 8800GTS und 8800GTX performen wäre eine Bezeichnung ala 9700GTS wohl sinnvoller.

Ailuros
2007-09-07, 15:34:18
Kommt drauf an wie hoch das Teil taktet auf Core und Shader, vielleicht wurde auch ein 5GHz Quad genutzt, wer weiß das schon.

ROPs/TMUs duerften auf 750/800MHz Niveau liegen, wobei ich eher auf 800MHz tendiere.

G80 =

24 ROPs * 575MHz * 4 = 55,2 GPixels

G92 =

16 ROPs * 800MHz * 4 = 51,2 GPixels

Die angeblichen Speicher-frequenzen die neuestens erwaehnt wurden, machen mir eher Eindruck. GDDR3@1.1GHz oder irgendwo in der Region, klingt viel zu konservativ im Vergleich zu dem was nach Geruechten NV quantitativ bei SAMSUNG eingekauft hat.

Ailuros
2007-09-07, 15:36:15
auch hier schafft die (vom Namen her vermeintlich schnellere 8800GTS keine 10K Punkte :redface:
somit bleibt mein "Problem" bestehen.
Sollte die 8700GTS (G92) zwischen 8800GTS und 8800GTX performen wäre eine Bezeichnung ala 9700GTS wohl sinnvoller.

8800GTS = 96 * 3 * 1.2 GHz = 346 GFLOPs

G92 = 96 * 3 * =/>1.6 GHz =/>461 GFLOPs

Faellt der Groschen jetzt? ;)

Die gelbe Eule
2007-09-07, 15:43:53
ROPs/TMUs duerften auf 750/800MHz Niveau liegen, wobei ich eher auf 800MHz tendiere.

G80 =

24 ROPs * 575MHz * 4 = 55,2 GPixels

G92 =

16 ROPs * 800MHz * 4 = 51,2 GPixels

Die angeblichen Speicher-frequenzen die neuestens erwaehnt wurden, machen mir eher Eindruck. GDDR3@1.1GHz oder irgendwo in der Region, klingt viel zu konservativ im Vergleich zu dem was nach Geruechten NV quantitativ bei SAMSUNG eingekauft hat.

Also doch 1.4GHz? Das wären ja 84GB/s, also wirklich knapp über GTX. Mit Deinem Shadertakt und 800+ Core könnte man sogar der GTX gefährlich werden, in frühen Reviews war dies ja mit einer OC 640er der Fall. Vielleicht bleibt dann nur die Ultra übrig und die GTX fällt weg. Schließlich hat man Ultra wieder eingeführt und die gab es unter G7X nicht.

AnarchX
2007-09-07, 15:43:59
auch hier schafft die (vom Namen her vermeintlich schnellere 8800GTS keine 10K Punkte :redface:
somit bleibt mein "Problem" bestehen.
Sollte die 8700GTS (G92) zwischen 8800GTS und 8800GTX performen wäre eine Bezeichnung ala 9700GTS wohl sinnvoller.

Vielleicht liegt es an der wohlmöglich etwas höher liegenden arithmetischen Leistung?
Eine GTS hätte man ja schon mit 64SPs@1.8GHz eingeholt und wer weiß ob hier NV bei G9x nicht noch bisschen optimiert hat.
Aber der Rest liegt wegen ~750MHz eher unter einer 8800GTS, wie auch die Bandbreite mit 900MHz GDDR3.

Vergleichbar etwas mit X1650XT vs X1800GTO. ;)


G92 = 96 * 3 * =/>1.6 GHz =/>461 GFLOPs

Faellt der Groschen jetzt? ;)

Doch wieder 6 Cluster? Würde aber bei einer 8700GTS nicht viel Sinn machen, ausser man nutzt hier eine auf 4 Cluster deakvierte Version, während der volle G92 als 89x0 antritt?

Die gelbe Eule
2007-09-07, 15:47:59
Sollten nicht 3 kommen? Dann hätte man 8700GTS, 8900GTS und 8900GX2.

Ailuros
2007-09-07, 15:56:24
Doch wieder 6 Cluster? Würde aber bei einer 8700GTS nicht viel Sinn machen, ausser man nutzt hier eine auf 4 Cluster deakvierte Version, während der volle G92 als 89x0 antritt?

Fuer ein theoretisches Mathebeispiel ist es wohl gleichgueltig ob man jetzt 6 cluster mit moderater Frequenz oder 4 cluster mit hoher Frequenz nimmt. Ich hab eben leider hier nur Marketing-Zahlen herumliegen und ich kann mir momentan auch nicht sicher sein.

Eine 89x0 duerfte eine GX2 sein IMHLO.

mike49
2007-09-07, 16:13:17
Zunächst mal Danke für die Infos hier! ;)

Ich hab eben leider hier nur Marketing-Zahlen herumliegen und ich kann mir momentan auch nicht sicher sein.

Und nach denen dürfte der G92 dann wohl näher an der GTX als an einer GTS liegen, richtig?

mapel110
2007-09-07, 16:14:40
Und nach denen dürfte der G92 dann wohl näher an der GTX als an einer GTS liegen, richtig?
Wenn die FLOP Zahl, die er da genannt hat, stimmt, dann ja.

mike49
2007-09-07, 16:18:37
Wenn die FLOP Zahl, die er da genannt hat, stimmt, dann ja.
Und die > 1.1GHz @256-bit Speicherinterface entsprechen ja auch locker den aktuellen 800MHz @320-bit.

Hvoralek
2007-09-07, 16:40:40
Und nach denen dürfte der G92 dann wohl näher an der GTX als an einer GTS liegen, richtig?Arithmetisch und in Sachen Pixelfüllrate wohl schon. Die Filterleistung wäre allerdings bei 4 Clustern@750-800MHz kaum höher als die einer 8800 GTS. Bei 1100- MHz- Speicher würde ich ohne Änderungen an der Architektur etwa auf die Mitte zwischen GTS und GTX tippen. Bei arithmetiklastigen Spielen höher, bei filterlastigen niedriger.

X-D ... und der Rest is auch ziemlich amüsant.Die Angaben zu G92 gehen allerdings in die Richtung, die auch Ailuros andeutet. Abgesehen von angeblich sechs ROP- Blöcken, was dann auch ein 384- bit- SI bedeuten müsste :|

Fuer ein theoretisches Mathebeispiel ist es wohl gleichgueltig ob man jetzt 6 cluster mit moderater Frequenz oder 4 cluster mit hoher Frequenz nimmt. Ich hab eben leider hier nur Marketing-Zahlen herumliegen und ich kann mir momentan auch nicht sicher sein.

Eine 89x0 duerfte eine GX2 sein IMHLO.Für die Arithmetikleistung ist es zwar gleich, aber sechs Cluster würden eben auch mehr TMUs und damit eine wesentlich höhere Filterleistung bedeuten. Legt man sechs Cluster@ 800/ 1600 MHz zu Grunde, dürfte das Teil wirklich kaum langsamer sein als eine GTX.

Gast
2007-09-08, 09:33:01
ROPs/TMUs duerften auf 750/800MHz Niveau liegen, wobei ich eher auf 800MHz tendiere.

G80 = 24 ROPs * 575MHz * 4 = 55,2 GPixels
G92 = 16 ROPs * 800MHz * 4 = 51,2 GPixels

Das ist aber Z-Fill, was du hier vorrechnest, richtig?

Gast
2007-09-08, 09:46:34
Das Problem für potentielle Käufer ist doch, dass es zu viele Spekulationen und Gerüchte bzgl. G92 gibt. Eine 8700GTS zu veröffentlichen, die über der Leistung einer 8800GTS steht, macht keinen Sinn. Die anderen Daten sprechen für eine gute Karte, aber was tatsächlich am 12. November vorgestellt wird, bleibt wohl lange Zeit noch unklar.
Mich persönlich ärgert das, denn ich brauch in spätestens einem Monat eine neue Grafikkarte. Wenn aber 8800GTS/2900XT im November schon einen einen würdigen Ersatz finden, macht es keinen Sinn, bis dorthin zuzugreifen. Kommt dann aber eine Karte, die die Leistung nicht toppt, hat man vergeblich gewartet. Ach, mich nervt das :uponder:

Ich stand vor 1 Woche noch vor genau der selben Frage.

Ich habe mir nämlich einen komplett neuen Rechner zusammengebaut inkl. Mainboard mit PCI Express.
Dummweise habe ich noch gar keine PCI Express Karte.


Ich stand also vor der Frage eine jetztige PCI Expresse Karte zu kaufen
oder ersatzweise für die Übergangszeit meine Voodoo 3 PCI Karte einzubauen,
PCI Slots hat das MB ja noch.

Nunja, ich habe mich dann letzten endes für eine Geforce 8800 GTS entschieden, 3 Monate und eventuell noch wollte ich auch nicht mehr warten.

Zwei weitere Gründe dagegen waren:
1. Neue Hardware ist meistens unausgereift und braucht ca. 3 Monate zum reifen.
Daher muß man ca. 3 Monate mit dem warten draufschlagen, damit man eine spätere Revision bekommt.
2. Neue Hareware ist am Anfang immer teuer.


Im großen und ganzen hätte ich mit einen würdigen 8800 GTS Nachfolger also wohl erst nächstes Jahr im Februar kaufen können.
Im Januar sind noch die Preise zu weit oben, wegen den Weihnachtsspäteinkäufern.


Naja und jetzt frißt mein Rechner 147,3 W im idle. :shock:

Aber es sind auch 2 HDs, 1 DVD-Laufwerk, eine Soundkarte und eine TV Karte drin, vielleicht liegt es daran.
Die CPU ist ein E6550.

AnarchX
2007-09-08, 09:59:00
Das ist aber Z-Fill, was du hier vorrechnest, richtig?

Nein, das sind Colorsamples bzw. AA-Samples, um die Z-Füllrate zu erhalten, muss man sogar mit dem Faktor 8 statt 4 rechnen:
http://www.beyond3d.com/resources/chip/117


Die angeblichen Speicher-frequenzen die neuestens erwaehnt wurden, machen mir eher Eindruck. GDDR3@1.1GHz oder irgendwo in der Region, klingt viel zu konservativ im Vergleich zu dem was nach Geruechten NV quantitativ bei SAMSUNG eingekauft hat.
Aber 1.4GHz+ GDDR4 wird man wohl kaum auf der 8700GTS finden.
Und selbst bei 4 Cluster @0.8(2.4GHz) ~ 8800GTS würden 1.6GHz, die du schon mal angedeutet hattest nicht viel Sinn machen, bei einer darauf auf diesem 4-Cluster-G92 basierenden herkömlichen Dual-GPU-Lösung würden die resultierenden effektiven ~200GB/s auch nicht wirklich Sinn machen, da so stark die Pixel/Texelfüllrate nicht gestiegen wäre und generell die Bandbreite pro Pixel/Texelleistung eine sinkende Tendenz hat (mal R600 ausgenommen).

Bei einer 6 Cluster-Lösung @0.8(1.6GHz) ~8800UGTX und deren SLI-Onboard-Lösung dann schon eher, wobei diese ja nicht mehr so wahrscheinlich ist.

Im Endeffekt ist vielleicht an dem Dual-Die-Package-Gerüchten mit neuer Kommunikation doch etwas dran? Und beide G92-GPUs nutzen vielleicht dann nur einen MC, der dann aber mit entsprechend hoch getakteten GDDR4 versorgt werden muss - 1.6GHz+. Womit die 1GB gesamt, die du vielleicht als 2x512MB gedeutet hattest, wieder Sinn machen.

Würde auch wohl auch gegen 2xRV670 mit <1GHz GDDR3 reichen. ;)

Gast
2007-09-08, 09:59:53
PS: Natürlich habe ich noch keine Stromsparfunktionen angeschaltet.
Das System ist darauf noch nicht optimiert.
Hatte bis jetzt dazu keine Zeit und gerademal Windows (in rohform) und Linux (im großen und ganzen fertig) installiert.

Ailuros
2007-09-08, 12:00:27
Für die Arithmetikleistung ist es zwar gleich, aber sechs Cluster würden eben auch mehr TMUs und damit eine wesentlich höhere Filterleistung bedeuten. Legt man sechs Cluster@ 800/ 1600 MHz zu Grunde, dürfte das Teil wirklich kaum langsamer sein als eine GTX.

Die Frage ist dann aber eher ob es sich um G80 oder G84 TMUs handelt.

Ailuros
2007-09-08, 12:02:29
Das ist aber Z-Fill, was du hier vorrechnest, richtig?

Aus gutem Grund. Falls die Bandbreite auf G92 keinen grossen Unterschied im Vergleich zu einer G80 haben wird, wird auch der Abstand fuer die 4xAA Leistung nicht besonders gross sein.

Ailuros
2007-09-08, 12:17:07
Aber 1.4GHz+ GDDR4 wird man wohl kaum auf der 8700GTS finden.
Und selbst bei 4 Cluster @0.8(2.4GHz) ~ 8800GTS würden 1.6GHz, die du schon mal angedeutet hattest nicht viel Sinn machen, bei einer darauf auf diesem 4-Cluster-G92 basierenden herkömlichen Dual-GPU-Lösung würden die resultierenden effektiven ~200GB/s auch nicht wirklich Sinn machen, da so stark die Pixel/Texelfüllrate nicht gestiegen wäre und generell die Bandbreite pro Pixel/Texelleistung eine sinkende Tendenz hat (mal R600 ausgenommen).

Eine Vorbestellung von bestimmtem Speicher in grossen Mengen ist keine Garantie fuer was es genau vorgesehen ist.

Bei einem hypothetischen GX2 Brett duerfte die Pixel/Texel-Fuellrate gegenueber einer 8800GTX um ~35% hoeher sein insgesamt. Pro chip sind es dann 512MB Speicher mit jeweils ~90-100GB/s Bandbreite (je nach finaler Frequenz ;) ).

Falls jetzt NV vorhaben sollte die Anzahl der coverage samples weiterhin zu steigern, wuerde ich schon denken dass man mehr Bandbreite braucht.



Im Endeffekt ist vielleicht an dem Dual-Die-Package-Gerüchten mit neuer Kommunikation doch etwas dran? Und beide G92-GPUs nutzen vielleicht dann nur einen MC, der dann aber mit entsprechend hoch getakteten GDDR4 versorgt werden muss - 1.6GHz+. Womit die 1GB gesamt, die du vielleicht als 2x512MB gedeutet hattest, wieder Sinn machen.

Würde auch wohl auch gegen 2xRV670 mit <1GHz GDDR3 reichen. ;)

Selbst wenn was an der angeblichen "neuen" Kommunikation liegen sollte, wuerde ich nicht allzu viel Wert darauf legen. Mit einem 256bit Bus bzw. 4 ROP partitions macht gar nichts anders als 512MB pro chip Sinn.

Hvoralek
2007-09-08, 12:56:08
Die Frage ist dann aber eher ob es sich um G80 oder G84 TMUs handelt.Und wieviel die G84- TMUs (auf die ich eher tippen würde) wirklich bringen.

Gast
2007-09-08, 13:40:27
Und wieviel die G84- TMUs (auf die ich eher tippen würde) wirklich bringen.


mit AF-einsatz so gut wie nichts.

AnarchX
2007-09-08, 13:47:19
Bei einem hypothetischen GX2 Brett duerfte die Pixel/Texel-Fuellrate gegenueber einer 8800GTX um ~35% hoeher sein insgesamt. Pro chip sind es dann 512MB Speicher mit jeweils ~90-100GB/s Bandbreite (je nach finaler Frequenz ;) ).

35% mehr Pixel/Texel-Füllrate und dazu aber 110% mehr Bandbreite(durch AFR addiert sich ja theoretisch die Bandbreite beider GPUs), muten doch etwas seltsam an oder? ;)

Aber mal sehen was nun draus wird, vielleicht hat man ja doch noch eine 8C/6RP-GPU verbergen können, bei welcher dieser Speicher wieder gar nicht so unpassend wäre.

Wenn man sich aber wieder den Performance-Modus bei H-SLI (http://img156.imageshack.us/img156/3563/hybridsliperformancea6efo0.jpg) anschaut, könnte es vielleicht durchaus auf ein System hinauslaufen, wo es eine Master-GPU gibt, die sich die TCPs der Slave-GPU zu nutze macht, aber eben nicht deren ROP-Partitionen.

Gast
2007-09-08, 13:59:28
Wenn man sich aber wieder den Performance-Modus bei H-SLI (http://img156.imageshack.us/img156/3563/hybridsliperformancea6efo0.jpg) anschaut, könnte es vielleicht durchaus auf ein System hinauslaufen, wo es eine Master-GPU gibt, die sich die TCPs der Slave-GPU zu nutze macht, aber eben nicht deren ROP-Partitionen.

ich denke eher, dass bei hybrid-SLI im performance-modus der IGP möglicherweise die vertexshader bearbeitet damit die ALUs der haupt-gpu fürs pixel-processing frei bleiben.

AnarchX
2007-09-08, 14:01:42
ich denke eher, dass bei hybrid-SLI im performance-modus der IGP möglicherweise die vertexshader bearbeitet damit die ALUs der haupt-gpu fürs pixel-processing frei bleiben.

Wäre natürlich auch möglich, fragt sich nur, wo dann die Performance auf einer 8400GS verdoppelt wird, aber beide IHVs sind ja Spezialisten im Finden solcher Sonderfälle. :D

Gast
2007-09-08, 14:20:23
Wäre natürlich auch möglich, fragt sich nur, wo dann die Performance auf einer 8400GS verdoppelt wird, aber beide IHVs sind ja Spezialisten im Finden solcher Sonderfälle. :D


ich könnte mir durchaus vorstellen dass ein zukünftiger IGP in etwa die performance einer 8400 erreicht. damit stünde effizientem AFR-rendering eigentlich nichts mehr im wege.

verdächtiger ist dagegen schon der immerhin noch beachtliche performancesprung bei der 8600.

+50% nur durch auslagern des vertex-processing erscheint mir schon etwas viel. für AFR ist die performance der einzelnen GPUs zu unterschiedlich, bliebe noch SFR mit entsprechendem load-balancing, was vielleicht sogar ganz gut funktionieren könnte, vorausgesetzt der IGP hat eine halbwegs akzeptable power.

wenn ich mir das diagramm so ansehe könnte es wirklich so laufen.

8400+IGP: AFR/SFR je nach bedarf
8600+IGP: SFR-rendering
8800+IGP: VS über den IGP, rest über die haupt-GPU
zumindest deutet auch der extrem geringe performancegewinn mit der 8800, im verhältnis zu den anderen GPUs auf etwas derartiges hin. (bei gleicher skalierung müsste der balken bei IGP+8800 ja auf 9 stehen)

AnarchX
2007-09-08, 14:37:31
(bei gleicher skalierung müsste der balken bei IGP+8800 ja auf 9 stehen)

Nicht ganz, da bei der GTX die Taktraten ja höher sind. Und bei der 8600 sind es auch nur 33% von 3 auf 4.

Aber deine Erklärung macht durchaus Sinn.

Die gelbe Eule
2007-09-08, 15:16:08
Wäre es nicht interessanter das Hybrid SLi mit kleineren Karten zu koppeln, als den IGP zu nutzen? Schließlich müsste man ja auch Boards bringen, die den IGP nur dafür haben, aber trotzdem alle OC Features. Auf der anderen Seite könnte man aber mit IGP endlich auch auf Intel Seite SLi nutzen, wenn auch anders.

Hvoralek
2007-09-08, 15:23:38
mit AF-einsatz so gut wie nichts.Das hatten wir doch schon einmal: Wenn es mit AF wirklich nie etwas bringt, G8x ohne AF aber immer voll trilinear filtert und diese zusätzlichen Addressierer folglich nie zu irgendetwas nützen können, warum hat man sie dann bei G84 reingefrickelt?

Gast
2007-09-08, 17:00:15
Auf der anderen Seite könnte man aber mit IGP endlich auch auf Intel Seite SLi nutzen, wenn auch anders.
wie das?
nvidia kann doch weiterhin in ihren treibern intel chipsets ausschließen

Choco
2007-09-08, 17:09:50
Ist denn der G92 dann der Nachfolger vom 8800 GTS?

Ist der G92 denn schneller?

Die gelbe Eule
2007-09-08, 18:04:17
Kannst Du im ersten Post nachlesen, sie wird effizienter, stromsparender, günstiger und schneller sein als die 8800GTS 640MB.

@Gast:

NV baut für Intel Chipsätze IGPs, dort gab es ein Joint Venture. Lässt man nun den IGP mit dem x16 PCI-E laufen, hat man das Hybrid SLi, ohne das man hier großartig was veranstalten muss.

AnarchX
2007-09-08, 18:12:56
Kannst Du im ersten Post nachlesen, sie wird effizienter, stromsparender, günstiger und schneller sein als die 8800GTS 640MB.
Schneller hängt aber ganz von der Taktung ab, die 8700GTS wird es wohl eher nicht sein (jedenfalls nicht schneller als die 640er).



NV baut für Intel Chipsätze IGPs, dort gab es ein Joint Venture.

Dass man in (naher) Zukunft in Intel-Chipsets NV-IGPs sehen wird, glaubst du doch selbst nicht?
Mit der VCG und SGX-Lizenzen ist man schon so gut eingedeckt.

Einzig möglich wären Intelboards mit NV-Chipsätzen, wie es auchmal mit ATi-Chipsätzen in der Vergangenheit geschehen war, weil die von Intel zu knapp waren.

Die gelbe Eule
2007-09-08, 18:16:15
Sollte das nicht passieren, würde ja dann Intel irgendwann selbst MulticoreIGPs anbieten und hätte dann ziemlich üble Performance am Start. NV könnte mit einer Lizenz dem entgegenwirken und es zumindest ausbremsen, weil anderweitig verdienen sie nichts mehr daran. Das was AMD mit den CPUs versucht bei Intel im Preisdumping, könnte für NV/ATi sehr gefährlich werden, wenn Intel einmal damit anfängt.

G92 ist ja eher Oberbegriff, GTS/GTX/Ultra teilen sich ja auch G80, nur mit anderen DevIDs.

AnarchX
2007-09-08, 18:26:36
Muticore-IGPs? NV die mit einer Lizenz dagegenwirken? :|

Mehr als einen Chipsatz wird NV sicherlich nicht an Intel verkaufen/lizenzieren, denn so könnten sie gleich weiter Ambitionen auf dem Intel-IGP-Chipsatzmarkt vergessen, die sie ja mit dem nForce630i mittlerweile zeigen.

Und Intel würde dies wohl auch nicht hindern, an ihren Plänen die Rasterizer durch Raytraycer, welcher eher zu ihrem Know-How passen, zu ersetzen.

G92 ist ja eher Oberbegriff, GTS/GTX/Ultra teilen sich ja auch G80, nur mit anderen DevIDs.

Nur stellt sich die Frage ob der G92 der schneller als die 8800GTS 640 ist auch günstiger als diese ist, wie du es behauptet hast.

Wohlmöglich kommt eben nur eine 8700GTS unter $300, die sich entsprechend ihres Namens postiert, während man oberhalb der 8800Ultra halt eine Dual-Chip-Version postiert, die wohl kaum günstiger als die GTS ist.

Gast
2007-09-08, 19:21:58
Wenn es mit AF wirklich nie etwas bringt, G8x ohne AF aber immer voll trilinear filtert und diese zusätzlichen Addressierer folglich nie zu irgendetwas nützen können, warum hat man sie dann bei G84 reingefrickelt?

weil der G84 für mainstream-karten (was bei der schwachen performance eigentlich schon stark übertrieben ist) gedacht ist und es dort eben auch auf die performance ohne AF ankommt?

Hvoralek
2007-09-08, 20:29:22
weil der G84 für mainstream-karten (was bei der schwachen performance eigentlich schon stark übertrieben ist) gedacht ist und es dort eben auch auf die performance ohne AF ankommt?Laut Dir filtert G8x ohne AF allerdings grds. voll trilinear. Dürfte dann ein weiterer Adressierer theoretisch etwas bringen?

/edit: Ich nehme mal an, Du bist der Gast, mit dem ich das Thema G84- TMUs schonmal hatte.

Gast
2007-09-08, 21:02:44
Laut Dir filtert G8x ohne AF allerdings grds. voll trilinear.


zumindest die 8800er, ich hab keine kleinere karte der 8er serie um das dort auch zu überprüfen. (und natürlich auch nur wenn die app trilinear anfordert)


Dürfte dann ein weiterer Adressierer theoretisch etwas bringen?


wenn das stimmt was über die G8x-TMUs bekannt ist nicht.

ein weiteres indiz dass eine weitere adressiereinheit ab trilinearer filterung brachliegt ist eben die tatsache dass aktuelle G80-treiber auf Q+TriOpt voll trilinear filtern, wenn kein AF verwendet wird. die ersten treiber haben auch in so einem fall nur brilinear gefiltert, anscheinend ist man irgendwann draufgekommen dass das eh nix bringt.

Die gelbe Eule
2007-09-09, 12:08:03
Was ist aus dem eDRAM on Die geworden? Damit sollte doch 4xAA null Peformance kosten. Genauso mit dem Audiochip, Soundstorm2?

Gast
2007-09-09, 12:16:07
Was ist aus dem eDRAM on Die geworden?

wie willst du das anstellen?

wenn wir von einer high-end-karte ausgehen, sollte das doch zumindest bis 1920x1200@64bit funktionieren.

dann bräuchten wir für 4xAA ~105MB eDRAM, macht also fast 900Mio transistoren nur für den eDRAM, wo willst du das unterbringen?

Die gelbe Eule
2007-09-09, 12:21:04
Ich will das nicht, das Gerücht hält sich halt schon länger.

reunion
2007-09-09, 13:51:37
Ich will das nicht, das Gerücht hält sich halt schon länger.

Ja, von Leuten die es nicht besser wissen, und noch immer aus GF/2-Zeiten glauben mehr Bandbreite sein ein Allheilmittel. Tatsächlich gibt es wesentlich sinnvollere Möglichkeiten als eDRAM die Leistung eines Chips zu steigern ohne das Transistorenbudget explodieren zu lassen.

Die gelbe Eule
2007-09-09, 13:54:05
Naja, deswegen habe ich schon extra einen Thread gemacht, der das Problem behandeln soll. Erklärungen gibt es aber bisher keine wieso und warum, ist sehr erstaunlich. Kenne Kaum Spiele die wirklich bandbreitenlimitiert sind. Als ob 80GB nicht reichen würden ...

AnarchX
2007-09-09, 14:04:56
Nvidia G92 is D8P, Priced $199-249 (http://www.vr-zone.com/?i=5250)

Nvidia G98 Card To Price Cheaply At $59 (http://www.vr-zone.com/?i=5249)

Bei XS (http://www.xtremesystems.org/forums/showpost.php?p=2418433&postcount=62) erzählt übrigens jemand Dinge die in einigen Details, den von Ailuros genannten Daten gleichen.
Aber er meint, dass sich diese auf eine 8C/6RP-GPU beziehen:
Let's just say ( for the occasion ) that the numbering scheme has changed, and it's:

G92: The Top Dawg ( nVIDIA's flagship GPU )
G90: Being a mainstream GPU
G94: low end
etc: etc

Well, tbh I don't give a flying f**k about the product number code

This November ( not in the movies ), new top dawg...single GPU ( no 7950GX2 look-alike )...768MB ( 1GB edition...highly unlikely for the first 3 months or so ) Samsung GDDR4-3200, 384bit BUS ( like G80 )...G80/G80+ SP's ( 128 or 128+ )...24xx MHz S.D. Frequency...

That's all I can say

Um das wieder in den aktuellen Gerüchtekontext zu bringen:

2x G92 auf einem Package, bei denen je nur 3 RPs(192Bit/12ROPs) aktiv sind, aber beide MCs können wie einer genutzt werden und somit kann man schliesslich ein leicht verändertes GTX/Ultra-PCB weiterverwenden?
Einzig die addierte Die-Size und das komplizierte Package machen nicht viel Sinn, da hätte man G80 gleich auf 65nm shrinken können. :uponder:

Die gelbe Eule
2007-09-09, 14:19:28
Also nichts mit GX2 ;)
Sollte es wirklich eine 8700GTS werden, so füllt man ja nur eine Lücke aus, womit die 320er GTS dann verschwinden dürfte.

k0nan
2007-09-09, 14:20:45
grr wieso machen die denn so nen behinderten scheiss? wer brauch denn noch eine karte zwischen der GTS 320mb & der 8800GTX ?! da is doch schon die GTS mit 640mb :mad:

Mr.Soapdown
2007-09-09, 14:25:00
Wird nicht die Lücke nicht zwischen gts640 und gtx geschlossen? Also ich blick da noch nicht durch.

AnarchX
2007-09-09, 14:25:31
grr wieso machen die denn so nen behinderten scheiss? wer brauch denn noch eine karte zwischen der GTS 320mb & der 8800GTX ?! da is doch schon die GTS mit 640mb :mad:

:|

Mit $249 (~200€) liegt man doch unter der 8800GTS 320MB und bringt zudem wohl einen deutlich niedrigeren Stromverbrauch und eben 512MB mit.

Und die 8700GTS ist imo die Karte, die gebraucht wird: gute D3D10-Performance zum angemessenen Preis, zu welchem viele zuschlagen könnten, dass alles in dem Monat wo Crysis und UT3 kommen. ;)

Aber High-End kommt sicherlich auch, immerhin wurde dies damals auf der Analystenkonferenz, wo man das auch von dem ~1 TFLOPs erzählt hat, bestätigt.

derwalde
2007-09-09, 14:52:18
ich will ne neue highend karte *grml*:mad:

nordic_pegasus
2007-09-09, 15:14:00
ich will ne neue highend karte *grml*:mad:

und ich will endlich ne gescheite Mainstream/Performance Karte ;)

Gast
2007-09-09, 15:57:15
grr wieso machen die denn so nen behinderten scheiss? wer brauch denn noch eine karte zwischen der GTS 320mb & der 8800GTX ?! da is doch schon die GTS mit 640mb :mad:


vielleicht weil die genannten karten viel zu teuer in der produktion sind um sie billiger anbieten zu können?

Gast
2007-09-09, 15:58:06
Nvidia G92 is D8P, Priced $199-249 (http://www.vr-zone.com/?i=5250)

Nvidia G98 Card To Price Cheaply At $59 (http://www.vr-zone.com/?i=5249)

Bei XS (http://www.xtremesystems.org/forums/showpost.php?p=2418433&postcount=62) erzählt übrigens jemand Dinge die in einigen Details, den von Ailuros genannten Daten gleichen.
Aber er meint, dass sich diese auf eine 8C/6RP-GPU beziehen:


ähm ja bestimmt G90=mainstream und G92=high-end, das kann doch nur schwachsinn sein.

Hvoralek
2007-09-09, 17:56:27
grr wieso machen die denn so nen behinderten scheiss? wer brauch denn noch eine karte zwischen der GTS 320mb & der 8800GTX ?! da is doch schon die GTS mit 640mb :mad:Das Teil dürfte sich ja ziemlich in der Mitte zwischen GTS 640 und GTX plazieren. Da passt aber auch noch gut etwas zwischen, die GTX ist ja fast um 1/2 schneller. Gut, sinnvoller wäre ein neues Modell zwischen 8600 GTS und 8800 GTS, da ist noch mehr Platz :biggrin:

AnarchX
2007-09-09, 18:04:35
Das Teil dürfte sich ja ziemlich in der Mitte zwischen GTS 640 und GTX plazieren.

Wie schon gesagt, die 0.8/2.4GHz müssen ja sich nicht auf eine Single-G92-SKU beziehen, denn diese scheint wohl vorerst nur die 8700GTS zu sein, die sicherlich keine 8800GTS durchgängig schlagen wird.

Die gelbe Eule
2007-09-09, 18:11:12
Wer kauft sich bitte dann die 8700GTS, wenn er schon 8600GTS oder 8800GTS hat? Viele haben doch nicht auf sowas gewartet und brauchen es auch nicht. 250$ für die 512MB Version ist happig, wo doch die 320er genauso teuer wäre, wenn auch mit anderem offiziellen Preis. Man wird doch wohl nicht dann das Preisgefüge nach oben hin weiter anziehen oder?

Hvoralek
2007-09-09, 18:12:55
Wie schon gesagt, die 0.8/2.4GHz müssen ja sich nicht auf eine Single-G92-SKU beziehen, denn diese scheint wohl vorerst nur die 8700GTS zu sein, die sicherlich keine 8800GTS durchgängig schlagen wird.Du meinst, die GX2 wird höher takten als die schnellste Einzelkarte?

Für etwas unter einer GTS 320 wären 200- 250$ Listenpreis aber entschieden zu viel. Ich würde eher auf mehrere Ein- Chip- Karten tippen, von denen eben die schnellste mit 800/2400 taktet und eine langsamere als 8700 vermarktet wird.

Spasstiger
2007-09-09, 18:21:30
Damit sollte doch 4xAA null Peformance kosten.
Wie sollen denn die bei vielen Pixeln vierfachen Pixelshader- und TMU-Zugriffe kostenlos erfolgen?
2-10% Performance dürfte 4xMSAA je nach Szene auch bei unbegrenzter Bandbreite kosten.

Die gelbe Eule
2007-09-09, 18:22:44
Das frag den, der das Gerücht in die Welt gesetzt hat. Ist zwar alt, aber mich wundert es was daraus geworden ist.

nordic_pegasus
2007-09-09, 18:23:22
Wer kauft sich bitte dann die 8700GTS, wenn er schon 8600GTS oder 8800GTS hat?

ich bin vor ein paar Monaten von einer 7600GT auf eine 8600GT gewechselt, da ich diese recht günstig bekommen habe. Eine 8800 kommt mir nicht in den Rechner dank dem hohen Stromverbrauch (somit auch keine X1950 oder 2900XT), die Preise für High-End bin ich auch nicht gewillt zu zahlen.

Dennoch bekomm ich das Heulen, wenn ich in Benchmarks sehe, welche Lücke zwischen den 8800er und dem Mainstream Bereich liegt (speziell Titel wie Oblivion, was ich sehr ausgiebig zocke).

Ich warte in der Tat auf eine Karte mit ordentlicher Performance, akzeptablen Preis (200 Euro plus/minus 50Euro) und einem Verbrauch deutlich unter 100Watt.

Die gelbe Eule
2007-09-09, 18:26:03
Deine 8600GT hat doch Potential:
http://forum.effizienzgurus.de/f37/userreview-palit-xpertvision-geforce-8600gt-sonic-256mb-t2218.html

Gib Ihr mal die Sporen, dann geht noch was.

Spasstiger
2007-09-09, 18:26:27
Das frag den, der das Gerücht in die Welt gesetzt hat. Ist zwar alt, aber mich wundert es was daraus geworden ist.
In 5 Jahren kann man sich das Thema vielleicht nochmal anschauen, aber zum jetzigen Zeitpunkt kostet es für vernünftige Auflösungen bei 4xMSAA (auch mit Kompression) und fp16-HDRR einfach zu viele Transistoren, die man wesentlich gewinnbringender unterbringen kann.

Die gelbe Eule
2007-09-09, 18:29:56
Der Soundchip sollte ja auch kommen, nur wohin damit?
Vernünftige Auflösungen sind aber nicht 1920x1600, sowas hat nicht jeder, dafür musst auch ne dicke CPU haben. Mainstream ist immernoch 1280x1024 oder 1650x1080, 1600x1200 kommt ja erst so langsam in Fahrt. Und da kommen wir in einen Bereich, wo man das AA in höherer Qualität kaum noch großartig unterscheiden kann.
Benchmarks sind eh fürn Anus, weil dort Maschinen werkeln, die kaum einer zum Vergleich hat.

Spasstiger
2007-09-09, 18:34:41
Vernünftige Auflösungen sind aber nicht 1920x1600, sowas hat nicht jeder, dafür musst auch ne dicke CPU haben. Mainstream ist immernoch 1280x1024 oder 1650x1080, 1600x1200 kommt ja erst so langsam in Fahrt. Und da kommen wir in einen Bereich, wo man das AA in höherer Qualität kaum noch großartig unterscheiden kann.
Gut, dann lass es eben 150 Millionen statt 300 Millionen oder gar 900 Millionen Transistoren für den eDRAM sein. Trotzdem noch viel zu viel, da bekommt man einiges an Logik unter, z.B. zusätzliche Shadereinheiten und TMUs. Dazu noch schnelleren Speicher einsetzen und man hat einen durchweg größeren Gewinn als mit eDRAM (unabhängig vom AA-Level und von der Auflösung).
In 5 Jahren könnte das freilich anders aussehen und vielleicht gehören dann 64-128 MB eDRAM schon zum guten Ton.

Beim Soundchip vermute ich eine Lösung wie bei ATI, also einfach nur ein Transmitter, der die Signale durchschleift.
Sowas wie Soundstorm 2 oder auch einfach nur ein Dolby-Digital-Encoder wäre natürlich nett, aber ich glaube nicht, dass sowas kommt.

AnarchX
2007-09-09, 19:44:58
Du meinst, die GX2 wird höher takten als die schnellste Einzelkarte?
Hängt ganz davon ab, was man für Leistungsziele für beide Karten hat. ;)


Für etwas unter einer GTS 320 wären 200- 250$ Listenpreis aber entschieden zu viel.
Die 320er GTS kostet doch $299 Liste und dazu bringt ja G92 auch noch einen VP3 und eben 512MB mit, also würde das schon in etwa passen. (Bei den Taktraten tippe ich bei der 8700GTS auf 0.7/1.5GHz+)

Wenn RV670 dann erscheint und es sich wirklich um einen R600@256Bit@825MHz handelt, könnt man ja noch die 8850GTS/8950GTS(~0.8/2.2GHz) nachschieben.

edit:
"Zur G8x filtert im Tri"-Sache, könnten auch damit die Ergebnisse bei digit-life zusammenhängen, die bei G84 nur 8 TAUs messen?
http://www.digit-life.com/articles2/video/g84-part2.html#p5
... seltsam aber, dass andere Reviews 16 TAUs messen. :| Vielleicht eine 3DMark-Optimierung, weil viele damit messen?

Gast
2007-09-09, 21:19:02
Wie sollen denn die bei vielen Pixeln vierfachen Pixelshader- und TMU-Zugriffe kostenlos erfolgen?
2-10% Performance dürfte 4xMSAA je nach Szene auch bei unbegrenzter Bandbreite kosten.

selbst bei 4x oder gar 8x MSAA wird für den größten teil der kantenpixel nur 2x das pixelprocessing durchlaufen, ganz selten 3x und so gut wie nie mehr als 4x.

Gast
2007-09-09, 21:23:27
Ist die G98 eine Grafikkarte mit genügend Ram
oder klaut die den Systemarbeitsspeicher und wann ist die wohl käuflich zu erwerben ?

Gast
2007-09-09, 21:26:31
Ist die G98 eine Grafikkarte mit genügend Ram
oder klaut die den Systemarbeitsspeicher und wann ist die wohl käuflich zu erwerben ?


ist wohl ziemlich egal mit einem 64bit-interface ist die karte sowieso viel zu lahm.

AnarchX
2007-09-09, 21:28:37
Ist die G98 eine Grafikkarte mit genügend Ram
oder klaut die den Systemarbeitsspeicher und wann ist die wohl käuflich zu erwerben ?

Die 8400GS gibt es ja auch minimum mit 128MB:
http://geizhals.at/deutschland/?fs=8400GS&x=0&y=0&in=
Die 2400Pro ebenso:
http://geizhals.at/deutschland/?fs=2400Pro&x=0&y=0&in=

Also wird man schon ihr genügend Speicher angemessen der Leistung verbauen, wobei eine 256MB GDDR3 Variante, wenn es sie geben sollte einer 512MB GDDR2 Variante, wegen des 64Bit SI definitiv vorzuziehen wäre.

Wann sie nun kommt ist noch ungewiss, wohlmöglich schon im September. G72(7300GS) kam ja auch vor G71(7900).

Aber große Leistung sollte man hier nicht erwarten, es ist numal eine Low-End-Lösung, die billig, stromsparend sein soll und nebenbei mit vielen Features aufwartet, die sich in Prospekten gut machen. Für einen HTPC imo eine gute Wahl.

Hvoralek
2007-09-09, 21:37:07
Wie sollen denn die bei vielen Pixeln vierfachen Pixelshader- und TMU-Zugriffe kostenlos erfolgen?
2-10% Performance dürfte 4xMSAA je nach Szene auch bei unbegrenzter Bandbreite kosten.Wieso braucht man bei MSAA weitere PS- und TMU- Zugriffe? :confused:


Vernünftige Auflösungen sind aber nicht 1920x1600, sowas hat nicht jeder, dafür musst auch ne dicke CPU haben. Mainstream ist immernoch 1280x1024 oder 1650x1080, 1600x1200 kommt ja erst so langsam in Fahrt. Und da kommen wir in einen Bereich, wo man das AA in höherer Qualität kaum noch großartig unterscheiden kann.Bei High- End- Maschinen wird sicher auch mal 1920x1600 genutzt, dann müsste natürlich eventueller eDRAM dafür reichen. Der CPU ist die verwendete Auflösung immer noch egal. Und zumindest als Flimmern an den Kanten wird man Aliasing auch in solchen Auflösungen wahrnehmen, wenn man nicht gerade 2m vom Bildschirm entfernt sitzt.

Benchmarks sind eh fürn Anus, weil dort Maschinen werkeln, die kaum einer zum Vergleich hat.Es gibt auch Benchmarks mit Mittelklasse- und Low- End- Hardware. Und was wäre die Alternative? Dir jede in Frage kommende Hardware kaufen, messen und dann wissen, welche Du hättest nehmen sollen?

Habe ich eigentlich nur den Eindruck oder nimmst Du in der letzten Zeit irgendetwas? :D



Hängt ganz davon ab, was man für Leistungsziele für beide Karten hat. ;)

Die 320er GTS kostet doch $299 Liste und dazu bringt ja G92 auch noch einen VP3 und eben 512MB mit, also würde das schon in etwa passen. (Bei den Taktraten tippe ich bei der 8700GTS auf 0.7/1.5GHz+)

Wenn RV670 dann erscheint und es sich wirklich um einen R600@256Bit@825MHz handelt, könnt man ja noch die 8850GTS/8950GTS(~0.8/2.2GHz) nachschieben.Ich wäre schon ennttäuscht, wenn sich 65- bzw. 55- nm- Fertigung nicht auch beim Preis- Leistungs- Verhältnis bemerkbar machen würde. Und wenn die Chips 800/ 2400 erreichen, warum sollte man nicht auch Einzelkarten mit diesen Frequenzen anbieten?

AnarchX
2007-09-09, 21:42:54
Ich wäre schon ennttäuscht, wenn sich 65- bzw. 55- nm- Fertigung nicht auch beim Preis- Leistungs- Verhältnis bemerkbar machen würde. Und wenn die Chips 800/ 2400 erreichen, warum sollte man nicht auch Einzelkarten mit diesen Frequenzen anbieten?

Weil NV vielleicht noch Luft für Werks-OC-SKUs lassen will? ;)

Ansonsten freut es auch den "Enthusiasten", wenn er noch etwas Taktpotential hat und nicht wie z.B. die X1950Pro, wo wirklich fast nichts mehr geht.

Und so extrem wäre der Unterschied zwischen vielleicht 700MHz(momentan geht man ja eher von 740MHz aus) und 800MHz auch nicht wieder...

Gast
2007-09-09, 21:45:08
Wieso braucht man bei MSAA weitere PS- und TMU- Zugriffe? :confused:


weil bei MSAA immer alle subpixel die vom aktuell gerenderten polygon in einem pixel abgedeckt werden die gleiche farbe bekommen.

sind noch nicht alle subpixel eines pixels abgedeckt müssen die restlichen natürlich auch noch irgendwoher eine farbe bekommen, und diese muss berechnet werden.

es braucht also bei MSAA genausoviele TMU/PS-schritte wie es polygone innerhalb eines pixels gibt (die natürlich auch von den subpixel abgedeckt werden müssen)

in den meisten fällen sind es aber maximal 2 polygone/pixel, hin und wieder 3 und praktisch nie mehr.

Spasstiger
2007-09-09, 21:45:27
selbst bei 4x oder gar 8x MSAA wird für den größten teil der kantenpixel nur 2x das pixelprocessing durchlaufen, ganz selten 3x und so gut wie nie mehr als 4x.
Hm, ok, stimmt natürlich.

Wieso braucht man bei MSAA weitere PS- und TMU- Zugriffe? :confused:
Weil man gegenüber noAA zusätzliche Bildinformationen braucht. Und jetzt rate mal, wo die herkommen.

Hvoralek
2007-09-09, 21:47:20
Und so extrem wäre der Unterschied zwischen vielleicht 700MHz(momentan geht man ja eher von 740MHz aus) und 800MHz auch nicht wieder...Ein G92 mit angenommenen 700/2000 dürfte aber immer noch etwas schneller sein als eine GTS 320 :wink:

AnarchX
2007-09-09, 21:59:09
Ein G92 mit angenommenen 700/2000 dürfte aber immer noch etwas schneller sein als eine GTS 320 :wink:

Wir reden doch vom 4 Cluster G92?
In VRAM-lastigen, arithmetiklastigen Szenarien sicherlich, ansonsten sieht sie auf dem Papier aber minimal schlechter aus.

Erinnert etwas an die 5700Ultra, die durch die verbesserten ALUs ja auch der 5800nU in Bezug auf die arithmetische Leistung recht nah kam, deshalb vielleicht auch der Name?

Hvoralek
2007-09-09, 22:31:59
Wir reden doch vom 4 Cluster G92?
In VRAM-lastigen, arithmetiklastigen Szenarien sicherlich, ansonsten sieht sie auf dem Papier aber minimal schlechter aus.Ich habe mal überschlagen: arithmetisch einen Tick stärker, Filerleistung einen ähnlichen Tick schwächer, soweit also etwa gleich (Kommt eben auf das jeweilige Spiel an, was gerade schwerer wiegt). Bandbreite hängt vom Speichertakt ab, der VRAM ist aber zumindest deutlich größer.

Ailuros
2007-09-10, 10:09:40
Wieso braucht man bei MSAA weitere PS- und TMU- Zugriffe? :confused:

Theoretisch braeuchte man eigentlich hoehere Geometrie-Raten, was aber logischerweise durch die hoehere arithmetische Leistung der ALUs in kommenden GPUs ueberbrueckt werden sollte. Es wuerde aber einer G92 auch nicht schaden wenn sie durchgehend 1 Tri/clock abgeben koennte.


Bei High- End- Maschinen wird sicher auch mal 1920x1600 genutzt, dann müsste natürlich eventueller eDRAM dafür reichen. Der CPU ist die verwendete Auflösung immer noch egal. Und zumindest als Flimmern an den Kanten wird man Aliasing auch in solchen Auflösungen wahrnehmen, wenn man nicht gerade 2m vom Bildschirm entfernt sitzt.

Die Geschichte mit dem angeblichem eDRAM auf PC-GPUs ist doch ziemlich einfach zu erklaeren:

1. Auf Xenos wird nur selten MSAA in Spielen benutzt, weil die Entwickler einfach keinen Bock aus X Gruenden fuer extra macro-tiling haben.

2. Wieviel eDRAM ist genau genug fuer eine PC GPU um irgendwelches umstaendliches macro-tiling ala Xenos zu vermeiden und alle bis jetzt verfuegbaren Aufloesungen mit bis zu 8xMSAA voll unterstuetzen zu koennen. Wieviel braeuchte man theoretisch fuer sagen wir mal bis zu 2560*1600 + 8x MSAA? Die benoetigten Transistoren sind nicht nur Verschwendung, aber man koennte diese dann eventuell auch fuer viel potentielleres MSAA am Ende investieren. So oder so bricht es dann doch irgendwo die ganze Balance eines chips, denn fuer ultra-Verrueckte gibt es stets SLi bzw. CF Systeme.


Ich wäre schon ennttäuscht, wenn sich 65- bzw. 55- nm- Fertigung nicht auch beim Preis- Leistungs- Verhältnis bemerkbar machen würde. Und wenn die Chips 800/ 2400 erreichen, warum sollte man nicht auch Einzelkarten mit diesen Frequenzen anbieten?

Man sollte im Hinterkopf behalten dass es nur entweder weniger Einheiten mit ~2.4 oder mehr Einheiten mit ~1.6 GHz sein kann. Nochmal ich kann momentan nur von den finalen Marketing-furz-zahlen rueckwaerts spekulieren.

Ailuros
2007-09-10, 10:15:04
Ich habe mal überschlagen: arithmetisch einen Tick stärker, Filerleistung einen ähnlichen Tick schwächer, soweit also etwa gleich (Kommt eben auf das jeweilige Spiel an, was gerade schwerer wiegt). Bandbreite hängt vom Speichertakt ab, der VRAM ist aber zumindest deutlich größer.

Irgend ein merkwuerdiges dual-core Dingsbums wuerde mir nicht den geringsten Eindruck machen, denn mal hoeren wir stets von GX2 Dingern und mal wieder von single chip GPUs. Das wichtigste ist aber dann doch am Ende was hinten herausschiesst. Hier will ich eine ca. 50% Leistungssteigerung glauben schenken und will hoffen dass sich diese Marketing-Ziffer nicht ausschliesslich auf 1xAA/1xAF mit (Gott Hilf) irgend einem 3dfart Schwachsinn bezieht.

Die angegebene Z-Fill Rate des high end Modells laesst mich aber nicht momentan ans letzte denken.

Die gelbe Eule
2007-09-10, 10:20:54
Also wird es eher dem 8600GTS Design (128bit außen vor) angelehnt sein mit mehr Core-/Shadertakt, damit man die 320er gerade so ausstechen kann. 64 Shader bei 16 ROPs und 24 Textureinheiten sollten dafür reichen. Wenn man nicht zu sehr an der Schraube dreht, hat man später noch Luft nach oben, könnte sich also locker über der 640er positionieren. Nur hätte man dann ein marketingtechnisches PRoblem, 512MB wären schneller als 640MB ;)

NickDiamond
2007-09-10, 10:30:18
die 8700gts könnte doch tatsächlich meine erste NV-Karte werden...
bin doch mal gespannt was sich da so entwickelt :D

Ailuros
2007-09-10, 13:58:40
Also wird es eher dem 8600GTS Design (128bit außen vor) angelehnt sein mit mehr Core-/Shadertakt, damit man die 320er gerade so ausstechen kann. 64 Shader bei 16 ROPs und 24 Textureinheiten sollten dafür reichen. Wenn man nicht zu sehr an der Schraube dreht, hat man später noch Luft nach oben, könnte sich also locker über der 640er positionieren. Nur hätte man dann ein marketingtechnisches PRoblem, 512MB wären schneller als 640MB ;)

4 clusters koennen wohl schwer mehr als 4 TMUs pro cluster haben. Bei =/<800MHz ist die Texel-Fuellrate aber trotz allem um 20-30% hoeher als auf einer 8800GTS.

AnarchX
2007-09-10, 14:03:56
Bei =/<800MHz ist die Texel-Fuellrate aber trotz allem um 20-30% hoeher als auf einer 8800GTS.

24*500 = 12GTex/s
16*800 = 12.8GTex/s (7% mehr)
:|

Oder beziehst du die 20-30% auf die möglichen 8 TAUs pro Cluster?

Die gelbe Eule
2007-09-10, 14:10:12
Hmm. Irgendeine Karte müsste ja verschwinden, entweder die 320er oder die 640er, wenn die 8700GTS so viel Power unter der Haube haben sollte, mit einem günstigeren Preis. Alleine die 256MB Version dürfte demnach kaum der 320er hinterherhängen, wenn nicht sogar überflügeln.

Ailuros
2007-09-10, 14:52:39
24*500 = 12GTex/s
16*800 = 12.8GTex/s (7% mehr)
:|

Oder beziehst du die 20-30% auf die möglichen 8 TAUs pro Cluster?

Noe ich Depp hab mit 20 TMUs gerechnet LOL

dargo
2007-09-10, 15:38:51
Gut, dann lass es eben 150 Millionen statt 300 Millionen oder gar 900 Millionen Transistoren für den eDRAM sein. Trotzdem noch viel zu viel, da bekommt man einiges an Logik unter, z.B. zusätzliche Shadereinheiten und TMUs. Dazu noch schnelleren Speicher einsetzen und man hat einen durchweg größeren Gewinn als mit eDRAM (unabhängig vom AA-Level und von der Auflösung).
In 5 Jahren könnte das freilich anders aussehen und vielleicht gehören dann 64-128 MB eDRAM schon zum guten Ton.

Glaube ich nicht. Schon 2008/2009 sind wir bei einem 512Bit SI und 2,5Ghz GDDR5 bei Speicherbandbreiten von denen der eDRAM eines Xenos nur träumen kann. Und das für den gesamten Vram. ;)

Gast
2007-09-10, 17:07:05
wieder ne meldung:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=2939&Itemid=1

das nvidia-management macht sich doch bestimmt schon über all die spekulationen lustig...zumal das auch noch gratis werbung darstellt :)

Hvoralek
2007-09-10, 17:36:58
Man sollte im Hinterkopf behalten dass es nur entweder weniger Einheiten mit ~2.4 oder mehr Einheiten mit ~1.6 GHz sein kann. Nochmal ich kann momentan nur von den finalen Marketing-furz-zahlen rueckwaerts spekulieren.Die arithmetische Leistung von knapp 500 GFLOPS ist ja schon länger absehbar und im Endeffekt egal, wie sie erreicht wird. Wenn aber der Rest des Chips mit 750-800 MHz taktet, macht es schon einen Unterschied, ob die 4xx GFLOPs mit 4 Clustern @ 2400 MHz erreicht werden oder mit 6 Clustern @ 1600 MHz. In letzterem Fall wäre die Texelfüllrate um die Hälfte höher (und der Chip damit insgesamt etwa auf GTX- Niveau, deswegen ist das wohl wenig wahrscheinlich :biggrin:).

Die gelbe Eule
2007-09-10, 17:46:31
4 Cluster mit 2.4GHz wären mir aber zuviel des Guten. Sowas kommt vielleicht mal, aber nicht so früh. Wir sind gerade bei 1.5GHz mit der Ultra, 900MHz wären echt sehr krass.

AnarchX
2007-09-10, 17:50:52
4 Cluster mit 2.4GHz wären mir aber zuviel des Guten. Sowas kommt vielleicht mal, aber nicht so früh. Wir sind gerade bei 1.5GHz mit der Ultra, 900MHz wären echt sehr krass.

Nunja, dafür ist aber G80 auch "doppelt so schwer" und wird noch in 90nm gefertigt.
60% mehr Takt von 90 auf 65nm mit reduzierter Komplexität finde ich nicht unbedingt viel. (Interessant wird was da noch an OCing möglich ist. 3GHz+? :D)

4 Cluster @2.4GHz sind wirtschaftlich einfach top...

Die gelbe Eule
2007-09-10, 17:53:59
Fuad meint ja immernoch der G92 wäre High End und da sollte uns dann doch schon eine Maschine erwarten. Ist auch immerhin 1 Jahr her das die GTX ankam, wäre also Zeit sie abzulösen.

AnarchX
2007-09-10, 17:57:53
Fuad meint ja immernoch der G92 wäre High End und da sollte uns dann doch schon eine Maschine erwarten. Ist auch immerhin 1 Jahr her das die GTX ankam, wäre also Zeit sie abzulösen.

Gab doch in der Zwischenzeit schon eine Ultra und bald noch 3-Wege-SLI, also genug Möglichkeiten um die Enthiusiasten zur Kasse zu bitten. ;)

Solang ATi nichts aufbietet, brauch NV sich auch nicht bemühen.

Wobei natürlich eine HighEnd-Lösung für Q4 versprochen wurde, aber die wird sicherlich nicht G92 heißen - eher G92x2 oder halt doch der G90.

Die gelbe Eule
2007-09-10, 18:03:17
NV kann aber weiter vorlegen, gerade die GTX auszutauschen würde viele Enthusiasten wieder anlocken und man hätte für Crysis und Konsorten die einzige performante Karte. Nicht vergessen das HG:London auch das NV Logo hat und hier eine Menge Kundschaft wartet.

dargo
2007-09-10, 18:20:56
NV kann aber weiter vorlegen, gerade die GTX auszutauschen würde viele Enthusiasten wieder anlocken und man hätte für Crysis und Konsorten die einzige performante Karte.
Gut, dass du nicht bei den IHVs arbeitest. Die wären schon lange pleite. X-D
Was willst du denn weiter ausbauen? Und vorallem wozu? NV hat nunmal momentan die schnellste Single-GPU Karte. Mehr braucht man nicht.

Nicht vergessen das HG:London auch das NV Logo hat und hier eine Menge Kundschaft wartet.
Ich glaube kaum, dass HG:L einen größeren GPU-Hunger als zb. Crysis hat.

Gast
2007-09-10, 18:45:42
4 Cluster mit 2.4GHz wären mir aber zuviel des Guten. Sowas kommt vielleicht mal, aber nicht so früh.

wie es aussieht haben die ALUs auch in 90/80nm durchaus potential bis 2GHz, mit der 65nm-fertigung sollte noch einiges mehr drinnen sein.

Die gelbe Eule
2007-09-10, 18:50:35
Die ALUs skalieren aber mit dem Coretakt, bisher konnte man sie noch nicht einzeln ansteuern. Bleibt man bei den alten ALUs, so wäre man mit 800MHz Core bei 1.8GHz. Bisher konnte man immer so rechnen: Coretakt x2 + 200MHz.

AnarchX
2007-09-10, 18:54:17
Die ALUs skalieren aber mit dem Coretakt, bisher konnte man sie noch nicht einzeln ansteuern.

Wenn du übertaktest!
Aber im BIOS kann man sie unabhängig voneinander einstellen, wie man auch bei den vielen OC-GF8 sieht, die teilweise einen erhöhten Shadertakt haben, während andere OC-Modelle beim Standardtakt geblieben sind.

Gast
2007-09-10, 18:57:37
Die ALUs skalieren aber mit dem Coretakt, bisher konnte man sie noch nicht einzeln ansteuern. Bleibt man bei den alten ALUs, so wäre man mit 800MHz Core bei 1.8GHz. Bisher konnte man immer so rechnen: Coretakt x2 + 200MHz.

natürlich kann man diese einzeln ansteuern, zwar (noch) nicht per software aber per bios.

dargo
2007-09-10, 19:15:47
Die ALUs skalieren aber mit dem Coretakt, bisher konnte man sie noch nicht einzeln ansteuern. Bleibt man bei den alten ALUs, so wäre man mit 800MHz Core bei 1.8GHz. Bisher konnte man immer so rechnen: Coretakt x2 + 200MHz.
Wer sagt denn, dass NV das G80 Verhältnis zwischen Coretakt und Shadertakt in den G92 1:1 übernehmen wird?

Die gelbe Eule
2007-09-10, 19:20:13
Ich denke schon das man eine gewisse Skalierbarkeit beibehalten möchte. Man weiß ja nicht was die Shader überhaupt vertragen können, dafür gibt es keine Specs. Also wäre es tödlich wenn man hier im BIOS rumspielt, aber die Grenze nicht kennt.

k0nan
2007-09-10, 19:24:37
:|
Aber High-End kommt sicherlich auch, immerhin wurde dies damals auf der Analystenkonferenz, wo man das auch von dem ~1 TFLOPs erzählt hat, bestätigt.

die frage is nur: wann endlich?

ich brauche graka-power für 1680x1050 und möchte nicht noch monate warten müssen. da bleibt mir aktuell leider nur die GTX für 450€ übrig.... und das find ich ganz schön happig :(

Hvoralek
2007-09-10, 19:57:55
Ich denke schon das man eine gewisse Skalierbarkeit beibehalten möchte. Man weiß ja nicht was die Shader überhaupt vertragen können, dafür gibt es keine Specs. Also wäre es tödlich wenn man hier im BIOS rumspielt, aber die Grenze nicht kennt.Dadurch, dass sich Taktverhältnis im BIOS verändern lässt, bekommt man ja gerade eine Möglichkeit, die relative Arithmetik-/ Texturleistung zu variieren (gerade weil bei G8x die einzelnen Cluster wohl nur als Ganzes verbaut werden können, anders als bei R6xx). Und IHVs können wohl besser ermitteln, was ihre Hardware schafft, als Otto Normalbastler.

die frage is nur: wann endlich?

ich brauche graka-power für 1680x1050 und möchte nicht noch monate warten müssen. da bleibt mir aktuell leider nur die GTX für 450€ übrig.... und das find ich ganz schön happig :(G92 soll afair im November kommen.

Adam D.
2007-09-10, 20:15:54
G92 soll afair im November kommen.
Ob das der Segen für die Leute ist, die einen Nachfolger des G80 erwartet haben, bleibt fraglich. Ich brauche noch diesen Herbst eine neue Grafikkarte und ich fände es enorm frustrierend, wenn ich noch auf R600/G80 zurückgreifen müsste, um Crysis/UT3 in angemessener Qualität spielen zu müssen.

Hvoralek
2007-09-10, 20:20:30
Die G92- GX2 sollte schon schneller sein als ein G80. Im Übrigen rechne ich eigentlich damit, dass etwas in der Mitte zwischen GTS 640 und GTX für Crysis und UT3 mit Maximaldetails in 1280x1024 4x/16x reicht. Andernfalls (oder wenn Deine Definition von "angemessener" Qualität wesentlich höher ist), bleibt wohl nur G80/R600- SLI/CF.

Adam D.
2007-09-10, 20:35:22
Ja, aber es ist ja wohl alles andere als gesichert, dass das High-End-Pendant dieses Jahr noch kommt. Momentan sieht alles danach aus, dass nur der G92 kommt - was auch immer das Ding jetzt sein mag.
Angemessene Qualität ist genau das, was du beschreibst ... Deine Prognose teile ich indes aber nicht, halte ich für etwas hochgegriffen. 1440x900 ohne AA und 8xAF würd mir schon dick ;)

Hvoralek
2007-09-10, 21:54:54
Ja, aber es ist ja wohl alles andere als gesichert, dass das High-End-Pendant dieses Jahr noch kommt. Momentan sieht alles danach aus, dass nur der G92 kommt - was auch immer das Ding jetzt sein mag.
Angemessene Qualität ist genau das, was du beschreibst ... Deine Prognose teile ich indes aber nicht, halte ich für etwas hochgegriffen. 1440x900 ohne AA und 8xAF würd mir schon dick ;)Schau mal in den ersten Beitrag: Eine Karte mit knapp 1 TFLOPS Arithmetikleistung noch dieses Jahr wurde sogar offiziell bestätigt (Mal eine schöne Abwechslung zur üblichen Kaffeesatzleserei hier :biggrin:).

Übrigens an dieser Stelle auch einmal meinen Respekt an AnarchX für die Pflege dieser Threads!

Die gelbe Eule
2007-09-10, 22:03:10
Wie man die 1TFlop erreichen kann, wäre interssant zu diskutieren. Ich denke mal da gibt es mehrere Ansätze wie z.B. 2-4 MULs.

Gast
2007-09-10, 22:10:51
Entweder G92x2 (was ich nach wie vor glaube) oder G90 mit 8 Cluster.

AnarchX
2007-09-10, 23:03:20
Wie man die 1TFlop erreichen kann, wäre interssant zu diskutieren. Ich denke mal da gibt es mehrere Ansätze wie z.B. 2-4 MULs.

Nein, das sicherlich nicht. X-D
Soviele SFUs/Interpolationen brauch man nun auch nicht wieder, dass man soviele MULs brauch, die für General Shading eher weniger brauchbar sind, deshalb auch die NV-Jung bei Crysis die hier etwas optimieren müssen.

Sinnvoller wäre da noch Dual-MADD(4 Flops pro ALU ohne SFUs).

Aber die "fast 1 TFLOPs" erreicht man eigentlich ganz einfach:

G92-4C-GX2: 2 x 4 x 16 x 3 Flops x 2.4GHz = 921 GFLOPs
G92-6C-GX2 2 x 6 x 16 x 3 Flops x 1.6GHz = 921 GFLOPs
G90 1 x 8 x 16 x 3 Flops x 2.4GHz = 921 GFLOPs

Wobei PHK vor kurzem auch etwas von Tripple-8700 = ~ 1TFLOPs schrieb.

Hvoralek
2007-09-10, 23:24:03
Wobei PHK vor kurzem auch etwas von Tripple-8700 = ~ 1TFLOPs schrieb.PHK?

Wenn das stimmen sollte, wäre ein einzelner G92 natürlich schwächer als angenommen. Würde sich dann wohl wirklich zwischen 8600 GTS und 8800 GTS einordnen. Dann wäre das doch nicht so ein P/L- Hammer :mad:

AnarchX
2007-09-10, 23:30:02
PHK?

Ein Asiate, von dem eigentlich in letzter Zeit so einige wichtige Dokumente/Bilder geleakt wurden, man trifft ihn im PCinlife-Forum desöfteren an.

Aber zur Leistung:
Die Karte soll nunmal 8700GTS heißen und eben nicht 8800GT, was sich durchaus auch auf die Leistung beziehen könnte.

VR-Zone, schrieb ja auch schon im Juni, bevor noch nichts über die 8700GTS bekannt war, dass die Leistung zwischen 8600 und 8800GTS läge:
http://www.vr-zone.com/?i=5092

Fragt sich nur worauf sich die Taktraten von Ailuros beziehen...

Hvoralek
2007-09-10, 23:50:32
Oder es gibt wirklich mehrere Einzelkarten: Ein 8700 GTS und eine 8850 GTS oder so (zwischen GTS und GTX gibt es ja kein Kürzel mehr).

MiamiNice
2007-09-11, 00:24:22
Bei all den "gestreuten" Info´s, kommt mir immer mehr der Gedanke das da was "dickes" auf uns zu kommt :)

Anarchy-HWLUXX
2007-09-11, 02:55:42
Jau, absichtlich geleakte und konfuse G92 infos fliegen umher und keine weiss was se nun ist ... und beim Launch kommt net nur die Midrange G92 sondern auch das High-End Monster : G90 :ucatch:

Na ja, schön wärs :usad:

MiamiNice
2007-09-11, 08:33:40
Jau, absichtlich geleakte und konfuse G92 infos fliegen umher und keine weiss was se nun ist ... und beim Launch kommt net nur die Midrange G92 sondern auch das High-End Monster : G90 :ucatch:

Na ja, schön wärs :usad:


Hoffnung stribt bekanntlich als letztes :)

Die gelbe Eule
2007-09-11, 10:58:22
Mit dem G80 war es nicht anders, es wurde gestreut und verwirrt. Macht man ja bekanntlich auch um herauszufinden wer was verrät. Man wird bestimmt 3 Chips vorstellen, Performance, High End und Enthusiast. Nicht alle bekommen den Hardlaunch, aber der Performance bestimmt.

Gast
2007-09-11, 12:10:19
G71 haben auch alle als killer-chip hingestellt, mit 32 tmus und was weiss ich

draus geworden ist ein einfacher shrink ^^

Neosix
2007-09-11, 12:12:18
na manche würden auch sich mit einem g80 shrink auf 65nm aka g90 zufriedengeben. was wäre dagegen zu sagen? das teil würde sich besser übertakten lassen udn weniger heizen. imo dasgleiche was alle von dem g90 auch so erwarten.

AnarchX
2007-09-11, 12:19:13
Natürlich auch möglich, imo sogar noch sinnvoller als G92-4C-GX2, welcher ja immernoch über 400mm² läge und wenn man hier weiterhin auf SLI 1.0 setzt den doppelte Speicher bräuchte.

Aber irgendetwas "High-End"iges wird schon kommen:
In a separate answer to an analyst's question, he also noted that they have no intention from diverging from the cycle they have adopted with the G80, which is to have the high-end part ready at the end of the year and release the lower-end derivatives in the spring.

http://www.beyond3d.com/content/news/230

;)

Sonyfreak
2007-09-11, 12:20:45
na manche würden auch sich mit einem g80 shrink auf 65nm aka g90 zufriedengeben. was wäre dagegen zu sagen? das teil würde sich besser übertakten lassen udn weniger heizen. imo dasgleiche was alle von dem g90 auch so erwarten.Nur wäre dann die Namenswahl wirklich absolut unpassend. Ein Shrink von 90 auf 65nm rechtfertigt noch keinen Sprung von G80 auf G90 denke ich.

mfg.

Sonyfreak

MiamiNice
2007-09-11, 12:27:19
Wen Sie den G80 shrinken, ist er gekauft. Wen Sie noch ein paar kleiner Verbesserungen vornehmen um so besser.
Kann mir nicht vorstellen, das NV zum Crysis und UT Lunch nix neues High-End mässiges auf den Markt wirft. Die aktuellen Karten sind nämlich zu langsam, und SLI ist nicht jedermanns Sache. Ausserdem würde es Ihnen viel Publicity bringen, wen man den ULTRA XXX Beschleuniger, pünklich mit den meisterwarteten Games rausbringt.

MfG

mapel110
2007-09-11, 12:29:31
Die aktuellen Karten sind nämlich zu langsam
In Bezug zu was zu langsam?
Auch der High-End-Nachfolger wird keine Bäume ausreißen gegenüber einer 8800 Ultra.

Ailuros
2007-09-11, 12:36:25
Die G92- GX2 sollte schon schneller sein als ein G80. Im Übrigen rechne ich eigentlich damit, dass etwas in der Mitte zwischen GTS 640 und GTX für Crysis und UT3 mit Maximaldetails in 1280x1024 4x/16x reicht. Andernfalls (oder wenn Deine Definition von "angemessener" Qualität wesentlich höher ist), bleibt wohl nur G80/R600- SLI/CF.

Ein hypothetisches G92/GX2 Dingsbums duerfte um einiges schneller sein als eine 8800GTX und sich zwischen dieser und einem 2*8800GTX@SLi System platzieren. Wo immer SLi nichts bringt hat natuerlich sowohl das erste als auch das letzte System dann einfach Pech.

Ailuros
2007-09-11, 12:37:09
Entweder G92x2 (was ich nach wie vor glaube) oder G90 mit 8 Cluster.

Nein zum zweiten :P

Ailuros
2007-09-11, 12:56:12
Die arithmetische Leistung von knapp 500 GFLOPS ist ja schon länger absehbar und im Endeffekt egal, wie sie erreicht wird. Wenn aber der Rest des Chips mit 750-800 MHz taktet, macht es schon einen Unterschied, ob die 4xx GFLOPs mit 4 Clustern @ 2400 MHz erreicht werden oder mit 6 Clustern @ 1600 MHz. In letzterem Fall wäre die Texelfüllrate um die Hälfte höher (und der Chip damit insgesamt etwa auf GTX- Niveau, deswegen ist das wohl wenig wahrscheinlich :biggrin:).

Uhmmm wenn man 6 cluster hat braucht man auch keine 800MHz ;) Obwohl es mit der Texelfuellrate (oder bi-AF Fuellrate) gar nichts zu tun hat, ist G84 ueber 8 TAs/clock (gegen 4 fuer G80) faehig.

Wenn ich mir diverse X1900PRO - 8600GTS Vergleiche ansehe, dann schreit die zweite wohl eher nach Bandbreite als nach Fuellrate.

MiamiNice
2007-09-11, 14:49:45
In Bezug zu was zu langsam?
Auch der High-End-Nachfolger wird keine Bäume ausreißen gegenüber einer 8800 Ultra.


Also ich denke nicht das eine 8800Ulta meinen TFT mit 1680*1050 Pixel in max. Details +8AF +4AA befeuern kann. Habs aber so leicht im Urin das ein G90 oder was auch ever das schaffen wird.

MfG

seahawk
2007-09-11, 15:27:43
Für solche Anforderungen gibt es heite Crossfire / SLI.

MiamiNice
2007-09-11, 16:33:54
Für solche Anforderungen gibt es heite Crossfire / SLI.

Aber keiner würd sich JETZT noch ein SLI/CF Sys mit "alten" Karten aufbauen, wen die neuen schon in den Startlöchern stehen. Ich persönlich würde mir eh nie eine 8800 der ersten Gen. holen. Dicke Leistung in DX9 Games keine Frage, dafür aber auch dicker Stromhunger und wie zu erwarten absulute Flaute in DX10 Games. Unter DX10 sollen ja sogar die erbärmlichen ATI Karten schneller sein im Schnitt.

Ich will EINE Karte mit viel Power, und wen das dann nicht reicht, denke ich vielleicht über ne 2te nach.

MfG

Hvoralek
2007-09-11, 16:49:15
Aber irgendetwas "High-End"iges wird schon kommen:

http://www.beyond3d.com/content/news/230Da ist nur die Rede von einem "high-end part" und das wird ja anscheinend eher eine G92- GX2 werden als ein Einzel- G90.

Uhmmm wenn man 6 cluster hat braucht man auch keine 800MHz ;) Obwohl es mit der Texelfuellrate (oder bi-AF Fuellrate) gar nichts zu tun hat, ist G84 ueber 8 TAs/clock (gegen 4 fuer G80) faehig.Du meinst hoffentlich, 8 pro Takt und Cluster :wink:

Also wohl doch G84- TMUs...

Wenn ich mir diverse X1900PRO - 8600GTS Vergleiche ansehe, dann schreit die zweite wohl eher nach Bandbreite als nach Fuellrate.Bei 1000-1100 MHz @ 256 bit läge die Bandbreite auf oder über 8800- GTS- Niveau. Bei einer gleichen oder knapp höheren Filterleistung geht das wohl in Ordnung.

Mr.Soapdown
2007-09-11, 18:41:33
Mal eine Frage zum passenden Prozessor.
Welche Größenordnung müsste es sein, um einen solchen "Bildbeschleuniger" alà GX92x2 ausreichend zu befeuern?
Muss da wieder noch mehr CPUleistung her?

dargo
2007-09-11, 18:51:33
Mal eine Frage zum passenden Prozessor.
Welche Größenordnung müsste es sein, um einen solchen "Bildbeschleuniger" alà GX92x2 ausreichend zu befeuern?
Muss da wieder noch mehr CPUleistung her?
Nö, nur das passende Spiel + Auflösung und BQ. Das Thema hatten wir aber schon oft genug durchgekaut. :cool:

Mr.Soapdown
2007-09-11, 19:24:19
Nö, nur das passende Spiel + Auflösung und BQ. Das Thema hatten wir aber schon oft genug durchgekaut. :cool:

Diese sehr allgemein gefasste Antwort hätte ich mir auch selbst geben können.

Dann Frage ich nach Ausgeworgenheit. Für einen 3000+ oder einen alten PentiumD mit 2,8ghz ist das doch sicher "zu fett"? Also wo gehts los C2D@2,0Ghz? Oder 4800x2?

AnarchX
2007-09-11, 19:27:58
Dann Frage ich nach Ausgeworgenheit. Für einen 3000+ oder einen alten PentiumD mit 2,8ghz ist das doch sicher "zu fett"?

Nicht wenn man in 2560x1600 spielt bzw. 16xS einschaltet. ;)

Wie dargo schon sagte, allgemein kann man das nicht sagen.
Aber wer eine High-End-GraKa sich kauft wird auch nicht die älteste CPU einsetzen...

dargo
2007-09-11, 19:37:56
Diese sehr allgemein gefasste Antwort hätte ich mir auch selbst geben können.

Dann Frage ich nach Ausgeworgenheit. Für einen 3000+ oder einen alten PentiumD mit 2,8ghz ist das doch sicher "zu fett"? Also wo gehts los C2D@2,0Ghz? Oder 4800x2?
Sorry, aber diese Frage taucht jedes mal auf sobald eine neue GPU die Welt erblickt. Langsam wirds wirklich langweilig. Wie schon AnarchX sagte, es gibt keine Pauschalaussagen dazu. Grob kann ich dir sagen, dass ein E6750@~3Ghz ein gutes Grundgerüst darstellt, auch preislich. Mehr kann natürlich niemals schaden.

Mr.Soapdown
2007-09-11, 19:53:01
....danke für die Antworten. Die angestrebte Auflösung sollte sich noch im Normalen halten 1600x1200. Also auch kein fullHD, wie es einige hier zocken.

Achso: Es gab ja auch einen Bericht hier zu diesem Thema, bzw. was muss ich Aufrüsten. CPU oder VGA.

danke nochmal

Hvoralek
2007-09-11, 21:12:35
....danke für die Antworten. Die angestrebte Auflösung sollte sich noch im Normalen halten 1600x1200. Also auch kein fullHD, wie es einige hier zocken.Das ist nur wenig niedriger aufgelöst als 1080p (schmaler, dafür aber höher).

Spätestens wenn da noch AA und AF hinzu kommen, sollte ein 3Ghz- Conroe i.d.R. wirklich problemlos ausreichen, um da nicht der große Flaschenhals zu sein.

Btw: Es gibt ein eigenes Unterforum für Kaufberatung :wink:

Henroldus
2007-09-11, 23:59:55
Das ist nur wenig niedriger aufgelöst als 1080p (schmaler, dafür aber höher).

Spätestens wenn da noch AA und AF hinzu kommen, sollte ein 3Ghz- Conroe i.d.R. wirklich problemlos ausreichen, um da nicht der große Flaschenhals zu sein.

:| die CPU wird ja wohl kaum schneller wenn man die Grafiksettings höher stellt!
wenn die cpu bei 800x600 limitiert, dann genauso bei 1920*1200 !?

Ailuros
2007-09-12, 06:11:28
Aber keiner würd sich JETZT noch ein SLI/CF Sys mit "alten" Karten aufbauen, wen die neuen schon in den Startlöchern stehen. Ich persönlich würde mir eh nie eine 8800 der ersten Gen. holen. Dicke Leistung in DX9 Games keine Frage, dafür aber auch dicker Stromhunger und wie zu erwarten absulute Flaute in DX10 Games.

Bei <8800GTX Leistung wird der Stromverbrauch fuer kommende GPUs zwar geringer sein, aber fuer high end wird der Unterschied nicht besonders gross sein.

Unter DX10 sollen ja sogar die erbärmlichen ATI Karten schneller sein im Schnitt.

Dokumentation?

Also ich denke nicht das eine 8800Ulta meinen TFT mit 1680*1050 Pixel in max. Details +8AF +4AA befeuern kann. Habs aber so leicht im Urin das ein G90 oder was auch ever das schaffen wird.

Was zum Henker ist denn so besonders an 1680*1050, dass es eine G80 mit 4xAA nicht schaffen sollte? Was fuer eine "G90" denn ueberhaupt? G92/high end duerfte schaetzungsweise um =/>30-40% schneller sein und es ist eben genau das was man von einem Refresh erwarten wuerde. Viel mehr zusaetzliche Features auf diesen wuerde ich an Deiner Stelle auch nicht erwarten.

Ailuros
2007-09-12, 06:17:59
Da ist nur die Rede von einem "high-end part" und das wird ja anscheinend eher eine G92- GX2 werden als ein Einzel- G90.

"G90" kommt dann wohl zeitgleich zum "R680" :P

Du meinst hoffentlich, 8 pro Takt und Cluster :wink:

Also wohl doch G84- TMUs...

Selbstverstaendlich. Wenn man NV's GPU Entwicklung der letzten Jahre verfolgt, sind mainstream GPUs einer neuen Generation stets quasi "Vorreiter" fuer den naechsten Refresh. Ergo VP3, aehnliche TMUs und ein paar z-cull Optimierungen duerften schon im Paket stecken.

Bei 1000-1100 MHz @ 256 bit läge die Bandbreite auf oder über 8800- GTS- Niveau. Bei einer gleichen oder knapp höheren Filterleistung geht das wohl in Ordnung.

Tja die angeblichen 900MHz klingen mir eben viel zu wenig. Aber es wird wohl hoffentlich mehr als eine G92 Variante geben.

Gast
2007-09-12, 09:41:12
"
Selbstverstaendlich. Wenn man NV's GPU Entwicklung der letzten Jahre verfolgt, sind mainstream GPUs einer neuen Generation stets quasi "Vorreiter" fuer den naechsten Refresh. Ergo VP3, aehnliche TMUs und ein paar z-cull Optimierungen duerften schon im Paket stecken.

Und G86-ALUs?

Ailuros
2007-09-12, 09:46:47
Nein afaik.

urbi
2007-09-12, 10:35:57
Ich könnte mir ehrlichgesagt gut vorstellen, dass der G92 nicht nur besser wird als die 8800gts, sondern auch eine "echte" Geforce 9 a la "Geforce 9600gts" wird und zusammen mit dem G90 kommt. Letztes Jahr gab es ja auch jede menge falsche Gerüchte über den G80, u.A. sogar dass der G80 kein richtiger DX10-Chip sei usw..

Gast
2007-09-12, 10:47:30
Frage!

Die DX10.1 PCI.2.0 Karten sollen ja DOCH NICHT abwärts kompatibel zu pci-express 1 sein sondern nur pci-express 1.1

frage

Asus P5W DH Deluxe pci-e 1.0 oder 1.1 konnte nirgends was zum thema finden

AnarchX
2007-09-12, 10:50:00
Der PEG(PCIe x16) jedes normalen Boards sollte eigentlich PCIe 1.1 sein.
1.0 sind dann solche Sonderlösungen wie z.B. beim ASUS Blitz, wo der 2. PEG über einen speziellen Chip angesteuert (http://www.beyond3d.com/content/news/421) wird.

Gast
2007-09-12, 10:55:19
laut der pci-sig ist pcie 2.0 zu 1.1. UND 1.0 kompatibel
vll macht da einfach die komische pcie bridge auf den asusboards probleme und nicht pcie 1.0 allgemein

2.L.4.Y.
2007-09-12, 11:35:55
das sieht doch ganz anders aus oder >http://www.theinquirer.de/2007/05/24/nvidia_g92_bringt_1_teraflop.html#comment-12011
ich sag nur 3 fache rechen leistung und alle reden von mittelklasse^^

Henroldus
2007-09-12, 11:50:40
das sieht doch ganz anders aus oder >http://www.theinquirer.de/2007/05/24/nvidia_g92_bringt_1_teraflop.html#comment-12011
ich sag nur 3 fache rechen leistung und alle reden von mittelklasse^^
du machst deinem nic alle ehre was?
To late!

die news ist vom 24. Mai! :|

Ailuros
2007-09-12, 12:16:40
Selbst wenn der newsblurb vom Mai ist, ist er genauso wertlos wie alle ihre Versuche. G92/high end wird auf Papier fast 1 TFLOP erreichen und demzufolge hat die 8800GTX (ebenso auf Papier) volle 512 GFLOPs und nicht 330 :|

Hvoralek
2007-09-12, 15:15:52
:| die CPU wird ja wohl kaum schneller wenn man die Grafiksettings höher stellt!
wenn die cpu bei 800x600 limitiert, dann genauso bei 1920*1200 !?Bei höherer Auflösung steigen die Anforderungen an die GraKa. Der Prozessor führt zwar seine Aufgaben nicht schneller aus, die GraKa braucht für ihre aber länger. Deshalb limitiert bei steigenden Auflösungen immer stärker die GraKa und immer weniger der Prozessor.

Henroldus
2007-09-12, 18:10:37
Bei höherer Auflösung steigen die Anforderungen an die GraKa. Der Prozessor führt zwar seine Aufgaben nicht schneller aus, die GraKa braucht für ihre aber länger. Deshalb limitiert bei steigenden Auflösungen immer stärker die GraKa und immer weniger der Prozessor.
das hab ich auch nirgendwo bestritten und ist vollkommen logisch.
wenn die CPU bei 640x480 ausreicht, dann limitiert sie auch nicht bei 1920x1200 mit 8AAA und 16AF
Du hast dich komisch ausgedrückt

Hvoralek
2007-09-12, 18:33:00
das hab ich auch nirgendwo bestritten und ist vollkommen logisch.
[...]
Du hast dich komisch ausgedrücktIch habe gesagt, in 1600x1200 + AA/AF "sollte ein 3Ghz- Conroe i.d.R. wirklich problemlos ausreichen, um da nicht der große Flaschenhals zu sein". Eben, weil da eine G92- GX2 meist eher der Flaschenhals sein würde. Ich weiß nicht, was daran komisch sein soll. Geschweige denn, wie man dem entnehmen sollte, dass eine CPU bei höherer Auflösung schneller wird. Na egal.

Gast
2007-09-12, 21:27:57
wenn die CPU bei 640x480 ausreicht, dann limitiert sie auch nicht bei 1920x1200 mit 8AAA und 16AF
Du hast dich komisch ausgedrückt

genauso wie eine cpu die für ein spiel mit grafikkarte X schnell genug ist, auch mit grafikkarte Y schnell genug ist, auch wenn diese doppelt so schnell ist.

Gast
2007-09-14, 18:31:46
der ball ist rund
ein spiel dauert 90min
das runde muss ins eckige

so jetzt gibt jeder 5€ ins phrasenschwein und weiter gehts mit den spekulationen
;)

Gast
2007-09-14, 18:45:15
fud scheint jetzt auch einzulenken:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3044&Itemid=1

hoffentlich meldet sich nvidia mal zu wort...zur IDF in san francisco zB

seahawk
2007-09-14, 19:30:33
Wer braucht die 8700, wenn ATI die 2900PRO launcht ?

dargo
2007-09-14, 19:33:07
Wer braucht die 8700, wenn ATI die 2900PRO launcht ?
Die Leute die nicht unnötig Geld in die Stromkonzerne pumpen möchten. ;)

Ailuros
2007-09-14, 21:12:28
Nun ja den Stromverbrauch werden sie wohl hoffentlich diesmal besser kontrollieren koennen; die Antwort ist wohl eher diejenigen die keinen Bock haben zu viel Leistung fuer AA zu verlieren.

AnarchX
2007-09-14, 21:13:54
Nun ja den Stromverbrauch werden sie wohl hoffentlich diesmal besser kontrollieren koennen;

Die 2900Pro, die in 2-3 Wochen wohl schon erhältlich sein wird, basiert aber immernoch auf dem R600 und wird mit einem maximalen Vebrauch von 150W gehandelt. ;)

Ailuros
2007-09-14, 21:23:10
Im Vergleich zum Stromverbrauch der R600 ist so ein Wert eine Kleinigkeit LOL. Selbst um 50% geringerer Stromverbrauch wird das Ding nicht retten, wenn es nicht ein gewisses Leistungs-Niveau vorzeigen kann.

Hvoralek
2007-09-14, 23:21:22
fud scheint jetzt auch einzulenken:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3044&Itemid=1"Our sources now believe that G92 is the 65 nanometre version that is set to replace 8600GTS [...]. This card should be [...] slower than 8800 GTS cards [...]."

Bleibt zu hoffen, dass diese Quellen auch nicht besser sind als die letzten. Eine neue Karte unterhalb der 8800 GTS für 250€ wäre nicht unbedingt so der Bringer.

mapel110
2007-09-14, 23:30:42
"Our sources now believe that G92 is the 65 nanometre version that is set to replace 8600GTS [...]. This card should be [...] slower than 8800 GTS cards [...]."

Bleibt zu hoffen, dass diese Quellen auch nicht besser sind als die letzten. Eine neue Karte unterhalb der 8800 GTS für 250€ wäre nicht unbedingt so der Bringer.
Wieso? Genau zwischen 8800 gts und 8600 gts ist die Performance-Lücke doch zu groß und da fehlt etwas.
Kann mir auch vorstellen, dass es von G92 mehrere Ableger geben wird und der Schnellste davon etwa auf 8800-gts-Niveau.

Hvoralek
2007-09-14, 23:36:23
Wieso? Genau zwischen 8800 gts und 8600 gts ist die Performance-Lücke doch zu groß und da fehlt etwas.Sicher fehlt dazwischen etwas. Aber nicht zu dem Preis.

Kann mir auch vorstellen, dass es von G92 mehrere Ableger geben wird und der Schnellste davon etwa auf 8800-gts-Niveau.Wäre wünschenswert. Wobei ich immer noch hoffe, dass der schnellste Ableger (auch nach den Andeutungen von Ailuros hier) eher etwa in der Mitte zwischen 8800 GTS und GTX liegen wird.

Ailuros
2007-09-15, 06:35:22
Wäre wünschenswert. Wobei ich immer noch hoffe, dass der schnellste Ableger (auch nach den Andeutungen von Ailuros hier) eher etwa in der Mitte zwischen 8800 GTS und GTX liegen wird.

Wenn Du die 320/GTS mitrechnest ist der Abstand zu einer GTX ziemlich gross insgesamt. Mit dem MSRP sollte man wohl auch wiederum kaum ca. 10-15% weniger Leistung als bei einer GTX erwarten.

AnarchX
2007-09-15, 11:22:53
Mal ein paar NV-Folien(leider auf Chinesisch):
http://img261.imageshack.us/img261/8684/nvspoctq4.jpg

8 Cluster und ein VP2, also doch ein G90? Oder G80 mit neuem NVIO? Zudem spricht man hier über das unabhängige Takten der Shader...

Und hier noch eine Folie, die davon spricht dass alle GF8 D3D10.1 unterstützen:
http://img261.imageshack.us/img261/9934/g8xdx101di8.jpg

Quelle (http://we.pcinlife.com/thread-820493-1-1.html)

Gast
2007-09-15, 12:24:46
richtig interessant finde ich auf der selben folie Geforce8 und DirectX10.1 zu lesen.

ist also was drann, dass aktuelle karten mit dem entsprechenden treiber DX10.1 unterstützen?

Nakai
2007-09-15, 12:27:55
8 Cluster und ein VP2, also doch ein G90? Oder G80 mit neuem NVIO? Zudem spricht man hier über das unabhängige Takten der Shader..

2 Cluster nach den Folien.

mfg Nakai

Hvoralek
2007-09-15, 12:51:35
Bin ich der einzige, der da vier Cluster sieht? Jedes dieser großen Dinger mit grünen Quadraten drin ist eine Vec8- Einheit. Davon gibt es zwei pro Cluster (sieht man ja auch bei der Vergrößerung links). Ich zähle jetzt acht dieser Vec8- Einheiten, also vier Cluster. Das passt doch :confused:

AnarchX
2007-09-15, 13:01:50
Da gehen aber 8 Pfeile weg und nicht vier und 384Bit passen auch eher weniger zu 4 Clustern. ;)

http://img256.imageshack.us/img256/8651/5mgq3.jpg

Imo sind das da oben schon 8 Cluster, der Verlauf links zeigt ja auch die Aggregation.

Nakai
2007-09-15, 13:02:14
Bin ich der einzige, der da vier Cluster sieht? Jedes dieser großen Dinger mit grünen Quadraten drin ist eine Vec8- Einheit. Davon gibt es zwei pro Cluster (sieht man ja auch bei der Vergrößerung links). Ich zähle jetzt acht dieser Vec8- Einheiten, also vier Cluster. Das passt doch :confused:

Ach, die Cluster sind ja noch geteilt. Kommt irgendwie nicht so raus, bei den Folien. :uidea:
Dann wären es 4 Cluster, jap.

mfg Nakai

€: Warten wirs ab, ich kann den Folien nichts abgewinnen.

Hvoralek
2007-09-15, 13:08:47
Imo sind das da oben schon 8 Cluster, der Verlauf links zeigt ja auch die Aggregation.Acht Cluster mit je acht SPs (Denn das *sind* nur acht pro Block)? Oder doch vier Cluster, nur mit einem anders gestalteten Schaltbild, damit es nach mehr aussieht? Diese Folie ist jedenfalls irgendwie seltsam :|

Nakai
2007-09-15, 13:09:08
Damit mans besser sieht.

http://img340.imageshack.us/img340/4127/g92zo5.jpg

Naja sind echt 8 Cluster, aber vll nur halbe Cluster im Vergleich zum G80.

mfg Nakai

AnarchX
2007-09-15, 13:15:46
Nein, man sieht doch "eindeutig", dass die grünen Teile noch eine Trennung aufweisen und in den obersten beiden linken SPs auch etwas drin steht, wie bei den 16SP-Cluster direkt daneben, wie schon gesagt wird dort doch die Aggretation(Zusammenfassung) dargestellt. ;)

Vielleicht jage ich später nochmal OCR über die Folien...

Gast
2007-09-15, 13:29:39
D.h. G80 ist eventuell DX10.1 compilant wenn der Treiber angepasst bzw. die DX10.1 Runtime kommt? Bei der Programmierbarkeit des Chips lässt sich das evtl. bewerkstelligen oder?

Aber allein an der Tatsache das jetzt erst die separate Taktanpassung der SPU Domain kommt, sieht man was alles neu programmiert werden muss. G80 als neue und viel fortgeschrittenere Hardware als bisherige Generationen und DX10 mit neuem Treibermodell.
Ich will jetzt nicht auf Leistungssteigerung durch neuere Treiber eingehen, aber das neue Funktionen nach und nach hinzukommen sollte einem nicht wundern. Wer weis was ein DX10 Chip in einem Jahr per Treiber/Software Upgrade alles berechnen kann.

Hvoralek
2007-09-15, 13:33:15
Stimmt, diese grünen Quadrate sind jeweils zwei SPs und nur bei der Vergrößerung nur einer. Okay, mein Fehler, sind acht Cluster. Wenn diese Folien echt sind, scheint das wirklich ein G90 oder sowas zu sein.

Ailuros
2007-09-15, 14:52:35
Kann jemand den Text auf den slides hier lesen?

Gast
2007-09-15, 17:04:49
Nicht wirklich, aber das sind doch Uralte Folien die bei der Einführung des G80 hochgekommen sind oder? Warum die jetzt irgend etwas mit G90 zu tun haben sollen weis nur jmd der Mandarin/Chinesisch/"Whatever die schriftzeichen sind", versteht.

AnarchX
2007-09-15, 17:07:43
Weil Shader-Ocing erst mit dem FW163.67 langsam Realität zu scheinen wird. ;)

Gast
2007-09-15, 17:35:03
Nvidia 9800 Series Coming Soon - In November


For some time now, there have been rumors all over the Web about the general technical specifications of the new generation of Nvidia graphics processing units. According to most hardware websites and related forums like Hyped Hardware, the next generation of Nvidia GPUs will hit the market during November which is not unusual as the graphics manufacturing company has a fall and spring product release
cycle.

The GeForce 9800 series of graphics processing units, GPUs for short, are based on the video processing chip codenamed G92 that is built by the Taiwanese contractor TSMC, using the 65 nanometer fabrication process. The complex architecture of the graphics chip and its capabilities are responsible for the fact that the G92 has over one billion transistors within. Going further than the 8800 series, Nvidia implemented in the G92 chips the second Generation Unified Shader Architecture as well as doubled precision support in the form of the FP64 technologies. As graphics processing units are now known for their parallel computing capabilities, the manufacturing company decided to make good use of them and integrate the GPGPU as a native technology.

Talking about parallel computing capabilities, well, the G92 GPU will hit the one teraflop mark with its shader processing units that comes in a MADD+ADD configuration which translates in 2+1 FLOPS=3 FLOPS per ALU (the shorthand for the arithmetic logic unit). The fully scalar design of the G92 series of GPUs is combined with a 512bit wide memory interface and an extended support for as much as 1GB of GDDR4 graphics memory. Graphics APIs supported are represented by the latest (in fact not yet released) DirectX 10.1 and its open source equivalent, OpenGL 3.0. Other new features of the G92 series are the support for "FREE 4xAA", an audio HDMI compliant chip, a tesselation unit built directly into the graphics core and improved performance and quality output of the AA and AF units.

While pricing for the GeForce 9800 series will vary wildly across the different manufacturers, two price ranges are being shuffled: 549-649 USD for the GeForce 9800 GTX and 399-449 USD for the GeForce 9800 GTS.
Quelle: http://news.softpedia.com/news/Nvidia-9800-Series-Coming-Soon-62786.shtml

es geht drunter und drüber...

AnarchX
2007-09-15, 17:36:31
15th of August 2007

Und wiederrum basierst es auf dem Unsinn mit dem eDRAM, der schon im Juni(?) im Xbit-Forum gepostet wurde... ;)

dargo
2007-09-15, 18:02:21
Und wiederrum basierst es auf dem Unsinn mit dem eDRAM, der schon im Juni(?) im Xbit-Forum gepostet wurde... ;)
Ja, von dem eDram Quatsch sollte man sich wirklich im PC-Sektor verabschieden. ;)

Hvoralek
2007-09-15, 18:05:22
Nicht wirklich, aber das sind doch Uralte Folien die bei der Einführung des G80 hochgekommen sind oder? Warum die jetzt irgend etwas mit G90 zu tun haben sollen weis nur jmd der Mandarin/Chinesisch/"Whatever die schriftzeichen sind", versteht.Das sieht aus wie ein G80, bis auf den VP2. Oder bringe ich die Dinger jetzt durcheinander?

Die gelbe Eule
2007-09-15, 19:20:16
Aber den 9800er kann es trotzdem geben. Warum sollte auch NV hier was verraten? sicher ist, das 3 Chips kommen sollen. 8700GTS ist bisher wohl klar, danach kann nur was darüber kommen, welches GTS 640 oder 320 ersetzt, die GTX/Ultra vielleicht unter 400€ platziert und dann mit einer GX2 neues HighEnd hevorbringt. Das würde AMD deutlich durchrütteln und den Druck weiter erhöhen. AMD muss ja erstmal kontern können und das wird schon zum Problem, weil man nach oben hin noch keine Performance hat die aufschließen könnte.

Adam D.
2007-09-16, 11:54:25
Gehört nicht wirklich zum Thema, aber mir stellt sich die Frage schon: sich jetzt noch eine Karte der alten Generation zu kaufen, lohnt nicht mehr wirklich, wenn ab Mitte November bessere Alternativen zur Verfügung stehen, oder?

k0nan
2007-09-16, 13:16:21
Gehört nicht wirklich zum Thema, aber mir stellt sich die Frage schon: sich jetzt noch eine Karte der alten Generation zu kaufen, lohnt nicht mehr wirklich, wenn ab Mitte November bessere Alternativen zur Verfügung stehen, oder?

richtig. was meinste, warum ich mich hier als aufrege? ;)

Adam D.
2007-09-16, 13:17:29
richtig. was meinste, warum ich mich hier als aufrege? ;)
Ich reg mich ja mit auf, es ärgert mich einfach nur tierisch, dass ich Crysis wohl noch auf meiner 7900GT spielen muss :frown:

Bond2k
2007-09-16, 14:06:00
Gehört nicht wirklich zum Thema, aber mir stellt sich die Frage schon: sich jetzt noch eine Karte der alten Generation zu kaufen, lohnt nicht mehr wirklich, wenn ab Mitte November bessere Alternativen zur Verfügung stehen, oder?

Kommt halt darauf an, was du möchtest. Wenn du eine GTX möchtest, brauchst du wohl nichts zu warten. Da auch die G90 keine Nachfolger bietet und die Karte somit wohl nicht wirklich billiger werden wird.

Gast
2007-09-16, 14:20:46
Quelle: http://news.softpedia.com/news/Nvidia-9800-Series-Coming-Soon-62786.shtml

es geht drunter und drüber...

wow, jetzt ändern wir von MADD+MUL auf MADD+ADD und "free-AA", alles sehr glaubwürdig.

Adam D.
2007-09-16, 14:25:00
Kommt halt darauf an, was du möchtest. Wenn du eine GTX möchtest, brauchst du wohl nichts zu warten. Da auch die G90 keine Nachfolger bietet und die Karte somit wohl nicht wirklich billiger werden wird.
G92x2 (sollte er existieren), dürfte in vielen Fällen die GTX in die Schranken weisen. Frage ist nur: kommt er auch Mitte November und ist er gleich verfügbar? ;)

k0nan
2007-09-17, 18:19:29
wieso gibt nvidia eigentlich nicht offiziell bekannt, was sie da im nov rausbringen wollen? wollen die gar keine werbung für ihre neuen grafikkarten machen?

Signz
2007-09-17, 18:20:32
wieso gibt nvidia eigentlich nicht offiziell bekannt, was sie da im nov rausbringen wollen? wollen die gar keine werbung für ihre neuen grafikkarten machen?
vielleicht weil es keine g90 karten dieses jahr geben wird?

k0nan
2007-09-17, 18:26:59
das ist keine antwort auf meine frage(n) ;) fakt ist: nvidia bringt im nov grafikkarten raus - warum machen sie dafür keine werbung à la die neuen graka's können dies&jenes und wir müssen sie unbedingt kaufen, weil sie x prozent mehr leistung bringen?

w0mbat
2007-09-17, 18:42:04
Weil sie ihre aktuellen GPUs auch verkaufen wollen?

Gast
2007-09-17, 18:44:11
Und das tun sie ja auch prächtig, also warum sich selbst die Verkäufe schlecht machen?

AnarchX
2007-09-17, 18:47:11
warum machen sie dafür keine werbung à la die neuen graka's können dies&jenes und wir müssen sie unbedingt kaufen, weil sie x prozent mehr leistung bringen?

Die Leute, die Kunden die dies wissen müssen, haben das schon längst erfahren, aber das sind nunmal nicht die Privatkunden. ;)

Neosix
2007-09-18, 00:35:11
vielleicht weil es keine g90 karten dieses jahr geben wird?

ketzer steinigt ihn, wie kannst du blos an sowas auch nur denken. es wird einen g90 geben, es wird einen g90 geben!! *weiter ganz fest hoff* (mit dem g90schnulli ins bett geht)

Gast
2007-09-19, 22:12:35
immer noch keine gerüchte über die nächste top karte ?
ich meine nicht den refresh mist mit kleiner fertigung und mehr takt

Hvoralek
2007-09-19, 22:30:33
immer noch keine gerüchte über die nächste top karte ?
ich meine nicht den refresh mist mit kleiner fertigung und mehr taktG9x wird keine großen architektonischen Änderungen bringen. Da solltest Du besser Richtung G200, G100 oder auch immer danach kommt gucken.

Die gelbe Eule
2007-09-19, 22:31:02
Warum soll die Karte Mist sein? Der G80 ist das schnellste was es gibt, seit einem Jahr.

Hvoralek
2007-09-19, 22:35:46
Warum soll die Karte Mist sein? Der G80 ist das schnellste was es gibt, seit einem Jahr.Wenn er sich für einen Refreshchip von vornherein nicht interessiert, lass ihn doch. Es gibt ja auch Leute, die keine "kastrierten" GPUs kaufen, sondern nur niedriger getaktete, wenn es eine günstigere sein soll :crazy:

Wieder andere kaufen nur AMD, nur Intel, nur Nvidia oder was auch immer. Jeder nach seiner Façon...

Die gelbe Eule
2007-09-19, 23:22:49
Es als Mist zu bezeichnen obwohl es das schnellste auf dem Markt ist, naja ...

Gast
2007-09-20, 17:27:45
sagen wir mal so,ich gebe keine 400-500 eier aus, um dann nur 10%-20% mehrleistung zu bekommen.
wie sie dass schaffen is mir auch wurscht,solang die mindestens 50% schneller ist

Die gelbe Eule
2007-09-20, 17:30:14
Mehrleistung zur vorhandenen Karte oder zur fiktiven schnellsten auf dem Markt? Wer jetzt eine GTX hat, für den wird es kaum Sinn machen, trotz allem würde er nur 100€ drauflegen müssen, nicht 400-500€.

Gast
2007-09-20, 17:40:42
kann man den G100 2008 erwarten ?

mike49
2007-09-20, 17:50:12
kann man den G100 2008 erwarten ?
Falls ATI/AMD es bis dahin schaffen, wieder einen echten Knaller auf den Markt zu bringen: Ja!

Ansonsten sieht man ja gerade was passiert, wenn der Konkurrenzdruck ausbleibt: Das High-End von 2006 bleibt auch in 2007 die schnellste Karte auf dem Markt...

Adam D.
2007-09-20, 19:07:55
Die Refreshs haben sich IMO nie wirklich für die Leute gelohnt, die vorher schon das Top-Produkt besessen haben. Hat sich nur in Einzelfällen rentiert und wenn man halt unbedingt das neuste vom neusten haben wollte.
Ich hoffe weiterhin, dass man mit dem G92 gleichzeitig auch ein neues Produkt vorstellt, was den gehobeneren Ansprüchen genügt. Die Situation zum Neukauf einer Grafikkarte ist einfach total dämlich zur Zeit.

Neosix
2007-09-20, 19:12:37
gibts denn schon einen termin wo vorerst was vorgestellt werden soll? also november ist das zauberwort nehm ich an?

Adam D.
2007-09-20, 19:30:14
12. November heißt der Zaubertag. Zumindest der G92 soll an dem Tag an die Kundschaft losgelassen werden ;)

Gast
2007-09-20, 20:26:12
sagen wir mal so,ich gebe keine 400-500 eier aus, um dann nur 10%-20% mehrleistung zu bekommen.
wie sie dass schaffen is mir auch wurscht,solang die mindestens 50% schneller ist

? Schonmal was von Ebay gehört ^^ Meinste wir behalten die Grafikkarten und sammeln die? Die werden gut verkauft damit die neu Anschaffung nich so Löcher reinreißt. Beim Sprung von 7800GTX auf 7900GT512 habe ich grademal 50€ drauflegen müssen.
Aber dieses Jahr denke ich, langt die 8800GTS, da muss erst G100 (oder G210?) kommen damit die Karte abgelöst wird.

AnarchX
2007-09-20, 21:09:32
G92? - NV Displayport-Karte @ IDF (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3180&Itemid=51)
http://img512.imageshack.us/img512/835/g92kg8.jpg

mike49
2007-09-20, 21:13:08
Das schaut ja nicht gerade nach neuem High-End aus... :|

AnarchX
2007-09-20, 21:16:29
Das schaut ja nicht gerade nach neuem High-End aus... :|

Ja, viel zu kurz und kein SLI-Connector. Also wohl eher G98 oder unterstützen die anderen G8x schon den Display-Port?