Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: weitere D3D10-Produkte in Arbeit, Teil 2
reunion
2007-03-18, 12:30:42
Ein späterer Launch würde die Preise für GTS und GTX länger stabil halten.
Nicht, wenn man die Ultra wie damals die GTX512 einfach noch um 100$ über der GTX ansetzt.
James Ryan
2007-03-18, 14:10:49
Nicht, wenn man die Ultra wie damals die GTX512 einfach noch um 100$ über der GTX ansetzt.
Wenn der R600 stark wird, wäre das aber nicht so clever. ;)
MfG :cool:
seahawk
2007-03-18, 14:46:51
Ein späterer Launch würde die Preise für GTS und GTX länger stabil halten.
Dafür müßte man aber wissen wann der reguläre Refresh kommt. Eine Ultra müßte man min. 3 Monate vorher in den Markt bringen. Und plötzlich paßt der 17te April doch ganz prima - oder ?
reunion
2007-03-18, 15:55:18
Dafür müßte man aber wissen wann der reguläre Refresh kommt. Eine Ultra müßte man min. 3 Monate vorher in den Markt bringen. Und plötzlich paßt der 17te April doch ganz prima - oder ?
Du glaubst ja wohl selber nicht an einen G90 im Juli. Vor gar nicht allzu langer Zeit wurde darüber spekuliert, ob G90 noch Ende 2007 oder Anfang 2008 kommt. Man steigt sicher nicht zuerst mit dem High-End auf 65nm um, schon gar nicht bei nV, wo man doch in letzter Zeit in dieser Hinsicht äußerst vorsichtig war. Es gibt bis auf einen G78 noch keinerlei Hinweise auf ein Tapeout irgendeines nV-Cores in 65nm. Und da kommen vorher irgendwann im H2 noch die Low- und Midrageprodukte auf 65nm.
Wenn der R600 stark wird, wäre das aber nicht so clever. ;)
MfG :cool:
Es könnte ja zB wieder ähnlich ablaufen wie bei R520. R600 schneller als G80GTX, aber langsamer als G80U. Im Endeffekt ist die Frage entscheidend, wie größe Stückzahlen nV von der Ultra liefern kann. Wenn es hier ähnlich wie bei der GTX512 kaum Chips gibt, dann wird der Preis von ganz alleine in die Höhe schießen.
seahawk
2007-03-18, 17:29:42
80nm ist ein Halfnode. Und G78 läuft auf 65nm. July glaube ich auch nicht. Ein Refresh des G80 im 3Q07 ist allerdings wahrscheinlich.
Nicht, wenn man die Ultra wie damals die GTX512 einfach noch um 100$ über der GTX ansetzt.
Hat man das getan? Ich glaube weiterhin nicht, dass es der Weg ist, den Preispunkt von 599 Dollar zu sprengen mit einer Single-Chip-Karte.
Dafür müßte man aber wissen wann der reguläre Refresh kommt. Eine Ultra müßte man min. 3 Monate vorher in den Markt bringen. Und plötzlich paßt der 17te April doch ganz prima - oder ?
Nvidia hält die Ultra bis zum R600 zurück. Vorteil: Je länger die Zeit, desto besser die Verfügbarkeit der Ultra, da man Chips selektiert.
AnarchX
2007-03-18, 20:16:17
BFG 8600GTS(710/1000MHz): (http://www.fx57.net/?p=509)
http://666kb.com/i/amqjv11dy6korwvdt.jpg
Scheint das Niveau der Vorgängerversionen zu erreichen.
reunion
2007-03-18, 20:39:44
Ohne AA und hohe Auflösungen war das auch zu erwarten. Speziell im 3dmark dürfte die hohe Shaderleitung das Ergebnis ziemlich pushen. Wobei der Standardtakt der GTS AFAIK unter 700Mhz liegt.
Hier mal von mir nen vergleich mit einer 7900GS und SC 4000+
Treiber 100.64
3DMark Score 3721 3DMarks
SM 2.0 Score 1652 Marks
SM 3.0 Score 1650 Marks
CPU Score 954 Marks
Ich glaub für mich is der sprung zuklein. Aber mal abwarten was richtige Game benchs so bringen.
pS. OS ist Vista 64 bit
Ohne AA und hohe Auflösungen war das auch zu erwarten. Speziell im 3dmark dürfte die hohe Shaderleitung das Ergebnis ziemlich pushen. Wobei der Standardtakt der GTS AFAIK unter 700Mhz liegt.
675MHz GPU wird gemunkelt, damit ist sie auf jedenfall die Ablösung für die 7950GT und X1950Pro, für 1280x1024 mit 4xAA/16AF ideales Mainstream. Die X2600XT(X) sollte sich da auch dran orientieren.
AnarchX
2007-03-18, 20:53:00
Ohne AA und hohe Auflösungen war das auch zu erwarten. Speziell im 3dmark dürfte die hohe Shaderleitung das Ergebnis ziemlich pushen. Wobei der Standardtakt der GTS AFAIK unter 700Mhz liegt.
Wird wohl eine OC Edition von BFG sein, Standardtakt von 675MHz ist imo schon ziemlich gesichert.
Stellt sich nur die Frage auf welchem Takt die Shaderdomain läuft, da der IO-Teil wieder integriert wurde gehen ja viel von <1GHz aus, wobei mir der SM2.0-Score nicht unbedingt danach aussieht.
Superheld
2007-03-18, 21:03:23
wieviel Punkte kann man dazu rechnen wenn ein Dualcore drinne ist
reunion
2007-03-18, 21:04:17
675MHz GPU wird gemunkelt, damit ist sie auf jedenfall die Ablösung für die 7950GT und X1950Pro, für 1280x1024 mit 4xAA/16AF ideales Mainstream. Die X2600XT(X) sollte sich da auch dran orientieren.
Nur bekommt man eine X1950pro schon ab ~150€, eine nur unwesentlich langsamere X1950GT selbst mit 512Mb VRAM ab ~125€. Dazu noch die höhere Bandbreite, die bei hohem AA-Grad/Auflösung Vorteile bringen sollte. Eine 8600GTS mit 512MB VRAM um >200€ wäre da nicht gerade das Megaschnäppchen, allerdings hat mit mit D3D10 und der guten IQ natürlich auch Vorteile, die man sich natürlich bezahlen lassen will.
Nur bekommt man eine X1950pro schon ab ~150€, eine nur unwesentlich langsamere X1950GT selbst mit 512Mb VRAM ab ~125€. Dazu noch die höhere Bandbreite, die bei hohem AA-Grad/Auflösung Vorteile bringen sollte.
Da muss ja AMD verdammt dumm sein, ebenfalls neue Mainstramprodukte zu bringen, bei diesen Karten...
Diese Karte gibt es nur noch temporär. Spätesten mit dem Erscheinen von AMD's Mainstreamkarten werden sie verschwinden. Und so prächtig scheinen sie sich auch nicht zu verkaufen. Siehe dazu auch: http://www.steampowered.com/status/survey.html
wieviel Punkte kann man dazu rechnen wenn ein Dualcore drinne ist
3DMark Score 4318 3DMarks
SM 2.0 Score 1630 Marks
SM 3.0 Score 1640 Marks
CPU Score 2537 Marks
is mit der selben 7900GS gemacht aber mit nem Dualcore E4300@3ghz
OS is auch Vista 64.
crux2005
2007-03-18, 21:10:58
wieviel Punkte kann man dazu rechnen wenn ein Dualcore drinne ist
mit einem C2D@3.6GHz cca 6853 murks ... (im 3Dmark06)
AnarchX
2007-03-18, 21:11:38
wieviel Punkte kann man dazu rechnen wenn ein Dualcore drinne ist
Mit einem 3GHz C2D wären es etwa 6.6k gesamt.
Nur bekommt man eine X1950pro schon ab ~150€, eine nur unwesentlich langsamere X1950GT selbst mit 512Mb VRAM ab ~125€. Dazu noch die höhere Bandbreite, die bei hohem AA-Grad/Auflösung Vorteile bringen sollte.
Nur sehe ich hier einen SM2.0-Score der gut 30% höher liegt als bei einer X19x0XT(X), also wird die 8600GTS auch in diesem Bereich performen, da es eben wohl 16TAs/64ALUs sein werden. ;)
Und soviel höher ist die Bandbreite einer X1950Pro/GT auch nicht wieder, nicht zu vergessen das günstigere AA bei der GF8.
reunion
2007-03-18, 21:19:34
[...] da es eben wohl 16TAs/64ALUs sein werden. ;)
Das lässt sich aus diesen Scores nur schwer ableiten. Zudem scheint die SM3-Score diesem Trend ja nicht in gleichem Maß zu folgen, möglich, dass bei SM2 die auf jeden Fall höhere Texelfüllrate im Vergleich zu R580 einiges bringt. Wenn man die hohen Taktraten von immerhin 710Mhz berücksichtigt, wäre die Score durchaus auch mit 1/3 G80 zu erreichen IMO. 1/2 erscheint mir aufgrund der Die-Size weiterhin fragwürdig.
Spasstiger
2007-03-18, 21:22:45
1000 MHz Speichertakt klingen für mich auch nicht nach default, das müsste ja dann schon GDDR4-Speicher sein, der sicherlich nicht gerade günstig ist.
Warum liegt die SM3.0-Punktzahl der 8600 GTS soweit hinter der SM2.0-Punktzahl? Das ist schon recht auffällig.
1000 MHz Speichertakt klingen für mich auch nicht nach default, das müsste ja dann schon GDDR4-Speicher sein, der sicherlich nicht gerade günstig ist.
GDDR3 Speicher geht bis 1000MHz (siehe Samsung: 1A)
reunion
2007-03-18, 21:26:05
1000 MHz Speichertakt klingen für mich auch nicht nach default, das müsste ja dann schon GDDR4-Speicher sein, der sicherlich nicht gerade günstig ist.
Doch, das ist wohl default, und es ist noch GDDR3. Samsung hat hier vor kurzem nachgelegt.
Warum liegt die SM3.0-Punktzahl der 8600 GTS soweit hinter der SM2.0-Punktzahl? Das ist schon recht auffällig.
Das ist mir auch sofort ins Auge gesprungen. Hier scheint irgendetwas im Busch zu sein.
AnarchX
2007-03-18, 21:27:54
1000 MHz Speichertakt klingen für mich auch nicht nach default, das müsste ja dann schon GDDR4-Speicher sein, der sicherlich nicht gerade günstig ist.
Dann lies bitte hier im Thread, es wurde von mehren ziemlich sicheren Quellen mittlerweile berichtet, dass man bei der 8600GTS 1GHz GDDR3 einsetzen wird.
Warum liegt die SM3.0-Punktzahl der 8600 GTS soweit hinter der SM2.0-Punktzahl? Das ist schon recht auffällig.
Weil dieser Test deutlich shaderlastiger sein wird und mit 128GFLOPs bzw. 192GFLOPs, falls das mit dem Shadertakt <1GHz wegen des IO-Teil stimmen sollte, hat die 8600GTS eben nicht unbedingt arihmetische Leistung im Übermaß?
Spasstiger
2007-03-18, 21:34:34
Ok, das mit dem 1 GHz GDDR3 war mir neu und ich hab den Thread auch nicht komplett mitverfolgt.
Wenn die SM3-Tests wirklich soviel shaderlastiger als die SM2-Tests wären, müsste man doch schon früher Unterschiede festgestellt haben. Demnach ist der Unterschied wohl eher aufs HDR-Rendering zurückzuführen. Das würde aber bedeuten, dass die 8600 GTS sehr wenig Bandbreite und ROP-Leistung im Verhältnis zur Shaderleistung hat, was ja ein unausgewogenes Design bedeuten würde (z.B. 128 Bit SI und zwei ROP-Cluster bei mind. 64 Shaderunits mit > 1 GHz Takt).
Wahrscheinlich ist es nur ein Treiberbug.
Der G86 hat bezüglich Cluster 1/2 des G80, jedoch nur 1/3 der ROP-Partionen.
Spasstiger
2007-03-18, 21:42:39
Der G86 hat bezüglich Cluster 1/2 des G80, jedoch nur 1/3 der ROP-Partionen.
Jo, auf jeden Fall verhältnismäßig viel Shaderpower, wenn der Shadertakt über 1 GHz liegen würde.
Bisher hatte man ja immer den Fall, dass die Bandbreite und die Shaderpower gegenüber dem High-End-Chip halbiert wurde.
Wenn die Bandbreite nun gedrittelt wird und das Design ausgewogen bleibt bei halbierter Zahl an Shadereinheiten, dann wird der Shadertakt wohl auf 2/3 gesenkt (= 900 MHz).
Jo, auf jeden Fall verhältnismäßig viel Shaderpower, wenn der Shadertakt über 1 GHz liegen sollte.
Das wird er nicht. Er wird wohl irgendwo zwischen 675MHz und <1000MHz sein.
Von der Shaderleistung ist der G86 daher auch nicht 1/2 des G80, sonder irgendwo zwischen 1/3 und 1/4.
AnarchX
2007-03-18, 21:49:30
G84 ist die GPU der 8600-Serie. ;)
Spasstiger
2007-03-18, 21:52:15
Mich wundert ja , wieso dem G84 dann so viel TMU-Leistung mit auf den Weg gegeben wird. Höherer Chiptakt als beim G80, halbierte Anzahl an TMUs, ungefähr gedrittelte Bandbreite, wohl auch etwa gedrittelte Shaderpower.
Vielleicht kommt das gute SM2.0-Ergbniss im Verhältnis zum SM3.0-Ergebniss im 3DMark06 auch von der hohen TMU-Leistung. Kann mir aber nicht so recht vorstellen, dass die SM2.0-Tests TMU-limitiert sind bei der Shaderleistung des G84 (eine Radeon X1900 XT hat eine höhere theoretische Shaderpower und deutlich weniger TMU-Leistung und zeigt nicht dieses stark abweichende Verhältnis von SM2.0 zu SM3.0 in 3DMark06).
AnarchX
2007-03-18, 22:00:44
Vielleicht ist ja der MUL-Treiber im Einsatz und der SM2.0-Test sehr MUL-lastig. :biggrin:
Am besten warten wir andere Tests bzw. den Launch mit finalen Treibern ab.
Spasstiger
2007-03-18, 22:04:23
Zur Lautstärke der 8600 GTS ist nichts bekannt, oder? Der Kühler macht ja erstmal einen guten Eindruck. Und vom Stromverbrauch her wird die 8600 GTS sicherlich auch nicht über einer 7900 GTX liegen.
AnarchX
2007-03-18, 22:08:33
Hier noch ein paar Scores der 8600GT:
http://666kb.com/i/amqmoh9afk9nbzizl.jpg
http://666kb.com/i/amqmp2dufd3k2jnxd.jpg
Spasstiger
2007-03-18, 22:16:01
Die 8600 GT liegt offenbar auf Radeon-X1950-Pro-Niveau. Bin mal auf die Preisgestaltung gespannt.
Ich habe jetzt mal eben in der FM-Datenbank geschnüffelt. Die X1650, welche ein ähnliches Ungleichgewicht zwischen Shaderleistung und Bandbreite aufweisen sollte, hat keinen solchen Rückstand der SM3-Score.
Ist eigentlich auch nicht einzusehen, warum bei deutlich gesteigertem Rechenaufwand auf einmal die Bandbreite limitieren sollte. Hier wird im Shader ja ein 16er-Kernel für die Schattentexturefilterung genutzt.
Bleiben Treiber (unwahrscheinlich, da sicherlich zuerst auf 3DMark optimiert wird) oder aber das Problem liegt woanders...
Ailuros
2007-03-18, 22:57:13
BFG 8600GTS(710/1000MHz): (http://www.fx57.net/?p=509)
http://666kb.com/i/amqjv11dy6korwvdt.jpg
Kann mir jemand mal erklaeren warum auf dem gleichen Bild die Resultate so unterschiedlich sind? (schaut mal auf die Resultate rechts im Hintergrund....)
AnarchX
2007-03-18, 23:00:08
Kann mir jemand mal erklaeren warum auf dem gleichen Bild die Resultate so unterschiedlich sind? (schaut mal auf die Resultate rechts im Hintergrund....)
Weil dies im Hintergrund der vorherige Durchlauf ist und da kein SM3.0/HDR-Score da vorhanden ist, denke ich doch, dass es ein Durchlauf mit AA gewesen sein wird. ;)
Ailuros
2007-03-18, 23:04:56
Mich wundert ja , wieso dem G84 dann so viel TMU-Leistung mit auf den Weg gegeben wird. Höherer Chiptakt als beim G80, halbierte Anzahl an TMUs, ungefähr gedrittelte Bandbreite, wohl auch etwa gedrittelte Shaderpower.
Die GFLOP Rate duerfte schon bei ziemlich genau 1/3 liegen. Allein fuer die ROPs macht der Chiptakt erstmal Sinn:
24*575 = 13800
8*675 = 5400
Ich hab ja meine "12 TMU-These" schon erwaehnt, aber unbedingt Sinn macht sie nun auch wieder nicht.
Vielleicht kommt das gute SM2.0-Ergbniss im Verhältnis zum SM3.0-Ergebniss im 3DMark06 auch von der hohen TMU-Leistung. Kann mir aber nicht so recht vorstellen, dass die SM2.0-Tests TMU-limitiert sind bei der Shaderleistung des G84 (eine Radeon X1900 XT hat eine höhere theoretische Shaderpower und deutlich weniger TMU-Leistung und zeigt nicht dieses stark abweichende Verhältnis von SM2.0 zu SM3.0 in 3DMark06).
Wie gleichgueltig sind denn die ROPs wenn man HDR einsetzt? Oder anders gefragt wieviele ROPs (und natuerlich mit welchen Faehigkeiten) haben denn die anderen GPUs mit denen Ihr gerade vergleicht?
Vielleicht ist ja der MUL-Treiber im Einsatz und der SM2.0-Test sehr MUL-lastig. :biggrin:
Am besten warten wir andere Tests bzw. den Launch mit finalen Treibern ab.
Hmm, also bei den G80 Karten sind SM2 und HDR/SM3 Score 200-300 Punkte auseinander, denke das eher bei der 8600GTS das Speicherinterface für die niedrige Punktanzahl verantwortlich ist. Die FPS wäre halt Hilfreicher, ob Canyon Flight stark gegenüber Deep Freeze abstürzt.
Ailuros
2007-03-18, 23:08:01
Weil dies im Hintergrund der vorherige Durchlauf ist und da kein SM3.0/HDR-Score da vorhanden ist, denke ich doch, dass es ein Durchlauf mit AA gewesen sein wird. ;)
Ehrliche Frage: und 3dfart06 erlaubt keine MSAA/HDR Kombination auf G8x? (tut mir leid aber ich hab das Zeug schon seit einer Ewigkeit nicht mehr beruehrt).
Ailuros
2007-03-18, 23:09:23
Hmm, also bei den G80 Karten sind SM2 und HDR/SM3 Score 200-300 Punkte auseinander, denke das eher bei der 8600GTS das Speicherinterface für die niedrige Punktanzahl verantwortlich ist. Die FPS wäre halt Hilfreicher, ob Canyon Flight stark gegenüber Deep Freeze abstürzt.
Die ROPs lassen nochmals gruessen (siehe oben).
AnarchX
2007-03-18, 23:18:40
Entsprachen nicht eine G8x-ROP zwei R580-ROPs, AFAIR gabs mal bei B3D soetwas zu lesen?
Ailuros
2007-03-18, 23:28:56
Entsprachen nicht eine G8x-ROP zwei R580-ROPs, AFAIR gabs mal bei B3D soetwas zu lesen?
War das aber fuer colour/Z samples bezogen oder auch fuer HDR Faehigkeiten? (ebenso ehrliche Frage)
deekey777
2007-03-18, 23:32:23
Entsprachen nicht eine G8x-ROP zwei R580-ROPs, AFAIR gabs mal bei B3D soetwas zu lesen?
Nein. Aber sie brauchen für 4xMSAA nur einen Takt, die bisherigen Grafikchips 2 (pro Takt können bis zu vier Subpixel berechnet werden)
Nein. Aber sie brauchen für 4xMSAA nur einen Takt, die bisherigen Grafikchips 2 (pro Takt können bis zu vier Subpixel berechnet werden)
Das erklärt noch nicht die Differenz in den SM2-SM3 Scores.
Das Review bei Beyond3D haben sie ja etwas umgebaut aber der Link sollte auf das Schaltbild gehen: http://www.beyond3d.com/content/reviews/1/5
Möglich das bei den kleineren G8x Derivaten die ROPs abgespeckt sind und nur 4Z Samples bzw. 4 Takte für ein FP16 blend brauchen?
Bei der Modularen Bauweise die NV anstrebt würds einen ja nicht wundern wenn auch die hintereinander geschalteten TMUs wegfallen und das 4xMSAA "for 5%" rausfällt (beim G84 eher nicht, beim G86 vieleicht eher, die GF6200 Serie war ja auch in den ROPs abgespeckt).
deekey777
2007-03-18, 23:46:19
Mein Posting sollte auch keine Erklärung sein. :)
Ich glaube kaum, dass nVidia beim G84 was abspeckt.
Wie reagiert 3D Mark 2006 auf die Speicherbandbreite?
Ich hab ja meine "12 TMU-These" schon erwaehnt, aber unbedingt Sinn macht sie nun auch wieder nicht.
In den untiefen des Threads versunken...
Du meinst das ROPs und das SI fest miteinander verbunden sind, aber die TMU Anzahl "variabel" ist?
Vieleicht hat NV aber auch die ROPs weiter unterteilt und das 128Bit-SI ist ein 4x32Bit-SI, mit 4x2 ROP Partitionen. Wäre aber sehr untypisch, vieleicht im Refresh ^^
Ailuros
2007-03-18, 23:57:56
In den untiefen des Threads versunken...
Du meinst das ROPs und das SI fest miteinander verbunden sind, aber die TMU Anzahl "variabel" ist?
So in etwa ja; aber natuerlich nur wenn man auch die TMUs wirklich entkoppeln kann. Denn ich sehe nicht ein warum so ein Ding nicht mit 8+GTexels/s auskommen koennte.
Hoechstwahrscheinlich werden es aber wohl doch 16 und 10+GTexels/s sein, werden aber wohl nicht die Effizienz einer 8800GTS erreichen koennen.
Vieleicht hat NV aber auch die ROPs weiter unterteilt und das 128Bit-SI ist ein 4x32Bit-SI, mit 4x2 ROP Partitionen. Wäre aber sehr untypisch, vieleicht im Refresh ^^
Wohl doch 2*4.
deekey777
2007-03-18, 23:58:08
Wenn man nur drei Shader-Cluster verwendet, hätte man 3 TMU-Quads und 48 "Stream-Prozessoren".
SM 3.0 Scores: http://www.ixbt.com/video/itogi-video/0207/itogi-video-m62-wxp-1280-pcie.html
SM 2.0 Scores: http://www.ixbt.com/video/itogi-video/0207/itogi-video-m61-wxp-1280-pcie.html
(iXBT ist irgendwie langsam bei mir.)
Mein Posting sollte auch keine Erklärung sein. :)
Ich glaube kaum, dass nVidia beim G84 was abspeckt.
Wie reagiert 3D Mark 2006 auf die Speicherbandbreite?
Die beiden SM3/HDR Benches? Kommt drauf an, auf was müsste ich meine GTS denn takten um das SI der 8600GTS zu Simulieren?
8800GTS FW101.41 @ Vista 32Bit
Wenn ich per ATITool von Angezeigten 792MHz auf 200MHz reduziere gehts in den Keller ^^ (HDR1: 33FPS vs. 10FPS / HDR2: 40FPS vs. 15FPS)
Ailuros
2007-03-19, 00:02:09
Wieso die 7950GT so viele Punkte mit dem 3.4GHz Core 2 Duo im SM3.0 dazugewinnt weiss wohl nur ixbt heh....
Die beiden SM3/HDR Benches? Kommt drauf an, auf was müsste ich meine GTS denn takten um das SI der 8600GTS zu Simulieren?
400MHz, da die 88GTS die doppelte Bandbreite der 86GTS hat.
Aber deine 16GB/s-Scores sehen durchaus nach einen Bandbreitenlimitierun g aus.
AnarchX
2007-03-19, 00:05:33
400MHz, da die 88GTS die doppelte Bandbreite der 86GTS hat.
Aber deine 16GB/s-Scores sehen durchaus nach einen Bandbreitenlimitierung aus.
Login vergessen...
Wenn man nur drei Shader-Cluster verwendet, hätte man 3 TMU-Quads und 48 "Stream-Prozessoren".
SM 3.0 Scores: http://www.ixbt.com/video/itogi-video/0207/itogi-video-m62-wxp-1280-pcie.html
SM 2.0 Scores: http://www.ixbt.com/video/itogi-video/0207/itogi-video-m61-wxp-1280-pcie.html
(iXBT ist irgendwie langsam bei mir.)
Da ist ja die 86GTS dank neuer Treiber(?) schon fast auf dem Niveau der 88GTS hier im SM2.0-Test.
Ailuros
2007-03-19, 00:08:07
400MHz, da die 88GTS die doppelte Bandbreite der 86GTS hat.
Aber deine 16GB/s-Scores sehen durchaus nach einen Bandbreitenlimitierun g aus.
So grosse Speicheruntertaktungen sind sinnlos, weil man eben die Speicherlatenz nicht anpassen kann.
deekey777
2007-03-19, 00:10:39
Wieso die 7950GT so viele Punkte mit dem 3.4GHz Core 2 Duo im SM3.0 dazugewinnt weiss wohl nur ixbt heh....
Das habe ich mich gerade auch gefragt.
http://666kb.com/i/amqjv11dy6korwvdt.jpg
Irgendwas stimmt da nicht. iXBT nutzte nur DC-Prozessoren (auch der 4000+ ist ein X2 und somit ein DC). Der 2.0 Score ist einfach zu hoch, vielleicht hat sich der Schreiber vertan und wollte 2249 reinschreiben.
Auch die Werte der 8600GT sind irgendwie gaga.
AnarchX
2007-03-19, 00:17:47
Das habe ich mich gerade auch gefragt.
http://666kb.com/i/amqjv11dy6korwvdt.jpg
Irgendwas stimmt da nicht. iXBT nutzte nur DC-Prozessoren (auch der 4000+ ist ein X2 und somit ein DC). Der 2.0 Score ist einfach zu hoch, vielleicht hat sich der Schreiber vertan und wollte 2249 reinschreiben.
Auch die Werte der 8600GT sind irgendwie gaga.
Seltsamerweise gibt mir der 3DMark06 Calculator einen Gesamt-Score von 5212 aus, wenn ich die Einzelscores eintippe....
Da haben wir wohl einen Fake.
(Wobei der Score im Hintergrund auch nicht stimmt laut Calculator :|)
Zudem frage ich mich warum, sollte er Scores faken, wenn er die Karte hat.
Meinst du das macht was aus?
Hier 8800GTS FW101.41@Vista 32Bit, Speichertakt per ATITool auf 400MHz (Anzeige des Tools) runtergetaktet: HDR1 20FPS / HDR2: 27FPS
SM3 Score 2357, also fast an der 8600GTS (2070 Score)
dran.
Allerdings bricht der SM2 Benchmark genauso ein, was mich jetzt vor ein Rätsel stellt. 2428 Punkte bei 400MHz SI, die 8600GTS macht da 3249?
Ok ich bin unter Vista das kostet ATM noch ein wenig, aber da habe ich im Standard Takt eine SM2 Score von ~3800
Ailuros
2007-03-19, 00:21:33
Das habe ich mich gerade auch gefragt.
http://666kb.com/i/amqjv11dy6korwvdt.jpg
Irgendwas stimmt da nicht. iXBT nutzte nur DC-Prozessoren (auch der 4000+ ist ein X2 und somit ein DC). Der 2.0 Score ist einfach zu hoch, vielleicht hat sich der Schreiber vertan und wollte 2249 reinschreiben.
Auch die Werte der 8600GT sind irgendwie gaga.
Da steht A64 4000+, muss nicht unbedingt ein DC sein (AM2); es koennte auch der aeltere S939 4000-er sein.
Seltsamerweise gibt mir der 3DMark06 Calculator einen Gesamt-Score von 5212 aus, wenn ich die Einzelscores eintippe....
Da haben wir wohl einen Fake.
(Wobei der Score im Hintergrund auch nicht stimmt laut Calculator :|)
Riecht wohl arg nach Fake, welche CPU erreicht 937 Punkte? Muss ja noch ein SingleCore A64 sein bei vieleicht 2GHz...
Ailuros
2007-03-19, 00:22:53
Meinst du das macht was aus?
Hier 8800GTS FW101.41@Vista 32Bit, Speichertakt per ATITool auf 400MHz (Anzeige des Tools) runtergetaktet: HDR1 20FPS / HDR2: 27FPS
SM3 Score 2357, also fast an der 8600GTS (2070 Score)
dran.
Allerdings bricht der SM2 Benchmark genauso ein, was mich jetzt vor ein Rätsel stellt. 2428 Punkte bei 400MHz SI, die 8600GTS macht da 3249?
Ok ich bin unter Vista das kostet ATM noch ein wenig, aber da habe ich im Standard Takt eine SM2 Score von ~3800
Nun muesste der 3dmark score auf dem Bildchen aber auch erstmal echt sein ;)
Ailuros
2007-03-19, 00:23:59
Riecht wohl arg nach Fake, welche CPU erreicht 937 Punkte? Muss ja noch ein SingleCore A64 sein bei vieleicht 2GHz...
Ein FX-53@2.4GHz bringt gerade so viel Punkte.
deekey777
2007-03-19, 00:24:20
Da steht A64 4000+, muss nicht unbedingt ein DC sein (AM2); es koennte auch der aeltere S939 4000-er sein.
Es ist ein X2. :smile:
http://www.ixbt.com/video3/itogi-video.shtml
AnarchX
2007-03-19, 00:25:28
Riecht wohl arg nach Fake, welche CPU erreicht 937 Punkte? Muss ja noch ein SingleCore A64 sein bei vieleicht 2GHz...
Das es ein A64 3000+ @??? ist sieht man im 3DM03 Bild, das ist imo nicht das Problem. ;)
Ailuros
2007-03-19, 00:26:07
Es ist ein X2. :smile:
http://www.ixbt.com/video3/itogi-video.shtml
Touche ;)
Das es ein A64 3000+ @??? ist sieht man im 3DM03 Bild, das ist imo nicht das Problem. ;)
Ja ok, habs gesehen ;)
War schon im 3DMark Thread am suchen und auch was ähnliches gefunden ^^: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5276245&postcount=172
Ein Opteron 144 auf 2,7GHz macht runde 1000 CPU Punkte.
Sprich die 8600GTS "Bilder" sind Fake, passt hinten und vorne net zusammen.
deekey777
2007-03-19, 00:48:06
Hm: http://www.hardware.fr/news/lire/17-03-2007/#8684
8600GTS: 7000
8600 GT: 5800
Und was stimmt diesmal nicht?
Sind das Ergebnisse mit 1024x768? :weg:
Hm: http://www.hardware.fr/news/lire/17-03-2007/#8684
8600GTS: 7000
8600 GT: 5800
Und was stimmt diesmal nicht?
Sind das Ergebnisse mit 1024x768? :weg:
Vieleicht haben die Franzosen echte Ergebnisse, zumindest die 8800GTX mit ihren 11900 PTS sind ganz normal auf nem E6600 erreichbar.
7000 3DMarks wäre dann eine nette Abstufung zur 8800GTS die ja ~ 9000 3DMarks erreicht ;)
So, letzte Speku auf die Punkte von Hardware.fr
Bezug nehmend auf die Punkte http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5220765&postcount=145, die quasi auch bei Hardware.fr für eine GTX angesprochen werden.
Unter Zuhilfenahme mit dem 3DMark Calculator dürften die SM2 und SM3 Scores im Bereich knapp unter 3000 liegen.
Sollten auch nicht all zu stark von einander (+/-300 PTS sind normal)abweichen, gibt kein Grund dafür.
Hm: http://www.hardware.fr/news/lire/17-03-2007/#8684
8600GTS: 7000
8600 GT: 5800
Und was stimmt diesmal nicht?
Sind das Ergebnisse mit 1024x768? :weg:
*Hust* hastemal darunter geschaut: http://www.hardware.fr/news/8683/cebit-watercooling-geforce-8950-gx2.html
Wie auch immer die GX2 heißen wird oder wann auch immer sie kommt, die Wasserkühlung scheints wohl schon dafür zu geben :D
Ailuros
2007-03-19, 06:10:44
Etwas OT, ein kleines preview auf die hybride modi Leistung unter einem verdammt CPU-limitierten Fall:
3DCenter Primeval, 1600*1200, 16xAF:
1xAA = 62.268
4xMSAA = 62.121
8xS = 58.605
16xS = 49.949
32xS = 25.242
Es wird eine kleine Aenderung geben was 16xSLi und 32xSLi betrifft im Vergleich zu G7x/SLi und ein zusaetzlicher 64xSLi modus.
Anarchy-HWLUXX
2007-03-19, 13:08:16
*Hust* hastemal darunter geschaut: http://www.hardware.fr/news/8683/cebit-watercooling-geforce-8950-gx2.html
Wie auch immer die GX2 heißen wird oder wann auch immer sie kommt, die Wasserkühlung scheints wohl schon dafür zu geben :D
Na ja, glaub nicht das die irgendwie mehr infos haben als der rest - so nen Verbindungsteil ist easy hergestellt ... die Kühler sind von der Form her standard 8800er.
Ne GX2 hätte sicher keine zwei NV I/O drauf bzw unterschiedliche Layouts der zwei Platinen wie die 7900er GX2 Karten auch.
AnarchX
2007-03-19, 13:08:52
8600GT 3DMark06: (http://itbbs.pconline.com.cn/topic.jsp?tid=6867769&pageNo=1)
http://666kb.com/i/amr9er1aupjdiigc0.jpg
Calculator gibt auch ein OK.
Mit einem E6600 läge man bei ~5600, also ähnlich wie die Ergebnisse von Hardware.fr. (http://www.hardware.fr/news/8684/cebit-performances-geforce-8600-8500.html)
Wenn man jetzt davon ausgeht, dass die 86GTS 42% mehr Bandbreite und 25% mehr GPU-Power hat, könnten die 7k mit einer ordentlichen CPU durchaus stimmen.
IS der Wert von 3dmark06? Wenn ja, is da nicht 1280 Standard?
AnarchX
2007-03-19, 13:20:56
IS der Wert von 3dmark06? Wenn ja, is da nicht 1280 Standard?
Je nachdem was man für einen Monitor hat, aber du hast recht es ist nur ein 1024er-Wert, stellt sich die Frage wieviel der Sprung auf 1280 kosten würde.
deekey777
2007-03-19, 13:24:35
Läuft 3D 2006 Standard überhaupt auf Monitoren mit kleinerer Auflösung als 1280?
AnarchX
2007-03-19, 13:26:16
Läuft 3D 2006 Standard überhaupt auf Monitoren mit kleinerer Auflösung als 1280?
AFAIK schon, aber dann eben nur in 1024x768.
reunion
2007-03-19, 18:41:39
Je nachdem was man für einen Monitor hat, aber du hast recht es ist nur ein 1024er-Wert, stellt sich die Frage wieviel der Sprung auf 1280 kosten würde.
Bei einer fast 70% höheren Pixelanzahl dürfte das nicht zu wenig sein. Riecht für mich immer mehr nach einem drittel des G80. Also 12TMus, 48ALUs, 2 ROP-Cluster. Das würde sich dann auch mit der Die-Size vereinbaren lassen.
Also 1/3 G80 kann ich mir nicht für den ganzen Chip vorstellen. Wenn die 3DMark Werte von hardware.fr mal zu angenommenen 90% stimmen. Müsste der G84 64Skalar Einheiten aufweisen um im 3DMark so hoch zu kommen, denke nicht das man 48Units bei +2GHz betreibt.
Leider ist ja vollkommen Unbekannt wieviel Strom die Skalar "Packages" ziehen und ob sie Hotspots auf der DIE sind, geschweige denn wie "groß" sie %tual an der GPU sind.
Das würde sich dann auch mit der Die-Size vereinbaren lassen.
Und was hat "der Die-Size" mit der Komplexität zu tun?
Der r580 hat eine fast doppelte so große Fläche, bei nur ca. 39% mehr Transistoren.
Ailuros
2007-03-19, 22:22:34
Bei einer fast 70% höheren Pixelanzahl dürfte das nicht zu wenig sein. Riecht für mich immer mehr nach einem drittel des G80. Also 12TMus, 48ALUs, 2 ROP-Cluster. Das würde sich dann auch mit der Die-Size vereinbaren lassen.
G84 = 3 cluster
G86 = 4 cluster
Und wenn Du jetzt das obrige zu den jeweiligen die-size Geruechten vergleichst, kommt es wohl doch zu einer anderen Realitaet.
deekey777
2007-03-19, 22:24:43
G84 = 3 cluster
G86 = 4 cluster
Und wenn Du jetzt das obrige zu den jeweiligen die-size Geruechten vergleichst, kommt es wohl doch zu einer anderen Realitaet.
Du meinst bestimmt 2 Cluster?:)
Siehe AnarchX. ;(
AnarchX
2007-03-19, 22:25:33
G84 = 3 cluster
G86 = 4 cluster
Wohl eher umgekehrt? ;)
Aber die 3 Cluster des G86 passen durchaus zu dem was auf der CeBIT gemunkelt wurde: "32 oder 48 Shaderunits".
horn 12
2007-03-19, 22:30:44
Das Ergebnis entspricht knapp 5% mehr als einer X1950 PRO256/512 und daher sicher angebracht. Mehr als 180-200 Euro kann mna dafür aber auch nicht verlangen.
AnarchX
2007-03-19, 22:31:51
Das Ergebnis entspricht knapp 5% mehr als einer X1950 PRO256/512 und daher sicher angebracht. Mehr als 180-200 Euro kann mna dafür aber auch nicht verlangen.
Wird man auch nicht, da in diesem Bereich die 8600GTS sich befinden wird.
Die 8600GT wird wohl um die 150€ kosten.
Ailuros
2007-03-19, 22:50:47
Wohl eher umgekehrt? ;)
Aber die 3 Cluster des G86 passen durchaus zu dem was auf der CeBIT gemunkelt wurde: "32 oder 48 Shaderunits".
Stimmt. Du wirst ja wohl schon mal bemerkt haben, dass ich die doofe Tendenz habe die beiden konstant zu verwechseln.
Noch ein Versuch:
G84 = 4 clusters (kleinste Ausgabe 3)
G86 = 3 clusters (kleinste Ausgabe 2)
AnarchX
2007-03-19, 22:54:35
Stimmt. Du wirst ja wohl schon mal bemerkt haben, dass ich die doofe Tendenz habe die beiden konstant zu verwechseln.
Noch ein Versuch:
G84 = 4 clusters (kleinste Ausgabe 3)
G86 = 3 clusters (kleinste Ausgabe 2)
Wobei mich dies aber etwas stutzig macht:
G86 -> 115mm²
G84 -> ~160mm²
Da muss es aber doch noch mehr Unterschiede geben, ausser dem einen Cluster, wenn dieser ca. 40mm² benötigt, wie sollen da 3 davon in den G86 passen? :|
Zudem sehen mir die Ergebnisse der 8500GT, die wohl den vollen G86 verwendet, von ca. 2,2 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5320616&postcount=148)- 2.8k (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5333586&highlight=8500GT#post5333586) im 3DMark06 nicht unbedingt nach 3 Cluster aus.
Ailuros
2007-03-19, 22:59:04
Wobei mich dies aber etwas stutzig macht:
G86 -> 115mm²
G84 -> ~160mm²
Da muss es aber doch noch mehr Unterschiede geben, ausser dem einen Cluster, wenn dieser ca. 40mm² benötigt, wie sollen da 3 davon in den G86 passen? :|
Zudem sehen mir die Ergebnisse der 8500GT, die wohl den vollen G86 verwendet, von ca. 2,5-2.8k im 3DMark06 nicht unbedingt nach 3 Cluster aus.
G84 = 153mm^2
Henroldus
2007-03-20, 10:48:09
ich finde es reichlich geizig von Nividia die kommenden Midrangemodelle 8600* nur mit nem 128Bit SI auszustatten.
die Highend Klasse mit 8800 GTS ist mindestens 320Bit breit, da wäre ein 256er besser angebracht.
ist eine hochgetakteter chip/speicher soviel billiger als ein etwas komplexeres pcb?
PCGH_Carsten
2007-03-20, 10:51:47
Wobei mich dies aber etwas stutzig macht:
G86 -> 115mm²
G84 -> ~160mm²
Da muss es aber doch noch mehr Unterschiede geben, ausser dem einen Cluster, wenn dieser ca. 40mm² benötigt, wie sollen da 3 davon in den G86 passen? :|
Mind. eine ROP-Partition mehr wird G84 wohl auch haben.
AnarchX
2007-03-20, 10:52:30
ist eine hochgetakteter chip/speicher soviel billiger als ein etwas komplexeres pcb?
Höchswahrscheinlich schon und du solltest auch nicht vergessen, dass sich ein 256Bit SI auch in der GPU niederschlägt. 4 ROP-Cluser würden den G84 wohl um einiges größer machen.
ATi wird mit ihrem Midrange-Chip(RV630) auch nicht anders vorgehen und auch nur ein 128Bit SI verbauen.
Mind. eine ROP-Partition mehr wird G84 wohl auch haben.
192 Bit SI? :| Oder eher aus Gründen der Redundanz(was es aber bisher bei GPUs dieser Klasse eher nicht gab:|)?
Da glaube ich eher daran, dass der G86 mit nur zwei Cluster kommt und für die 48ALU-GPUs ein kastrierter G84 verwendet wird.
deekey777
2007-03-20, 11:01:45
Der Unterschied zwischen dem G86 und den G84 wird mindestens eine zusätzliche ROP-Partition sein.
3 Cluster beim G86, 4 Cluster beim G84.
Eine ROP-Partition beim G86 gegen 2 beim G84?
Der RV610 hat ein 64-bit-SI.
AnarchX
2007-03-20, 11:06:44
Der Unterschied zwischen dem G86 und den G84 wird mindestens eine zusätzliche ROP-Partition sein.
3 Cluster beim G86, 4 Cluster beim G84.
Eine ROP-Partition beim G86 gegen 2 beim G84?
Der RV610 hat ein 64-bit-SI.
Aber 3 Cluser und eine ROP-Partition, ich will nichts sagen, das ist eher schon sehr unausgewogen.:|
Ich denke mal G86 wird auf 2 ROP-Part. und 2 Shader-Cluster setzen, danach sieht nämlich auch die Performance der 8500GT aus.
reunion
2007-03-20, 17:05:43
G84 = 3 cluster
G86 = 4 cluster
Und wenn Du jetzt das obrige zu den jeweiligen die-size Geruechten vergleichst, kommt es wohl doch zu einer anderen Realitaet.
Mir ging es um den Vergleich G80 vs. G84, wo es bei 484mm² des G80 für mich kaum vorstellbar ist, dass in einem G84 mit nur 160mm² die hälfte der Funktionseinheiten des G80 plus NVIO reinpassen.
Da muss es aber doch noch mehr Unterschiede geben, ausser dem einen Cluster, wenn dieser ca. 40mm² benötigt, wie sollen da 3 davon in den G86 passen? :|
Beim kleinsten Core hat nV höchstwahrscheinlich auch einige Features wie FP16-Blending eingespart. Vermutlich hat man auch die einzelnen Einheiten etwas beschnitten. Hat man doch in der Vergangenheit auch immer so gemacht.
Beim kleinsten Core hat nV höchstwahrscheinlich auch einige Features wie FP16-Blending eingespart.Ich glaube schon, dass die ROPs des G86 über FP16-Blending fähig sind. Schon der LowCost-G7x konnte das ja, nur NV44 war in dieser Hinsicht beschnitten.
reunion
2007-03-20, 17:21:02
Ich glaube schon, dass die ROPs des G86 über FP16-Blending fähig sind. Schon der LowCost-G7x konnte das ja, nur NV44 war in dieser Hinsicht beschnitten.
Das war auch nur ein Beispiel. Nichtsdestotrotz halte ich es für sehr wahrscheinlich, dass nV beim Lowend-Core wieder einige Dinge eingespart hat.
AnarchX
2007-03-20, 17:22:11
Beim kleinsten Core hat nV höchstwahrscheinlich auch einige Features wie FP16-Blending eingespart. Vermutlich hat man auch die einzelnen Einheiten etwas beschnitten. Hat man doch in der Vergangenheit auch immer so gemacht.
In der nahen Vergangenheit aber eigentlich nicht, so beherscht G72 hardwareseitig alle Features der G7x-Generation.
Und die Bezeichnung G86 deutet zudem auch nicht auf den kleinsten Core hin, das wäre G88 bzw. G98. ;)
reunion
2007-03-20, 17:32:08
In der nahen Vergangenheit aber eigentlich nicht, so beherscht G72 hardwareseitig alle Features der G7x-Generation.
Wenn das stimmt, ist das momentan aber auch die einzige Ausnahme. Bei ohnehin schon sehr kleinen G71 auch durchaus nachvollziehbar.
Und die Bezeichnung G86 deutet zudem auch nicht auf den kleinsten Core hin, das wäre G88 bzw. G98. ;)
Toll, der vielleicht irgendwann gegen Ende der G8-Serie eventuell kommt, oder auch nicht. :|
192 Bit SI? :| Oder eher aus Gründen der Redundanz(was es aber bisher bei GPUs dieser Klasse eher nicht gab:|)?
Warum nicht ;) wir leben ja auch sehr gut mit einem 320Bit-SI bei der 8800GTS.
2xROP (64Bit-SI) , 3/4x TMU-Cluster (12/16 TMUs, nix abgespeckt) , 3-4 Skalar Cluster (48-64 Skalar Einheiten).
WENN die Architektur so variabel ist, hat nV was feines aufgestellt.
Ailuros
2007-03-21, 05:59:13
Mir ging es um den Vergleich G80 vs. G84, wo es bei 484mm² des G80 für mich kaum vorstellbar ist, dass in einem G84 mit nur 160mm² die hälfte der Funktionseinheiten des G80 plus NVIO reinpassen.
Es sind genausowenig 1/2 Einheiten im Vergleich zu G80, wie auch RV630 nicht 1/2 Einheiten des R600 hat.
Ich bin mir momentan nur ueber die ALU clusters und ROP partitions (relativ) sicher beim G84; ergo 4 und 2. Vereinfacht 1/2 "vorne" und 1/3 "hinten".
Es sind uebrigens 153mm^2 afaik.
Ailuros
2007-03-21, 06:05:01
Toll, der vielleicht irgendwann gegen Ende der G8-Serie eventuell kommt, oder auch nicht. :|
Mit 65nm dann wohl schon. Glaubst Du es ist ein "Zufall" dass NV schon seit einiger Zeit weiss dass sie mit hoechster Wahrscheinlichkeit das Gefecht gegen RV610 verlieren koennten?
Der einzige Punkt wo sie sich keine besonderen Sorgen machen ist die Kleinigkeit dass die yields bei 65nm momentan immer noch viel zu besch***en sind. Mit etwas Druck wird man OEMs und Schlepptops schon damit bedienen koennen, aber von einer Markt-ueberschwemmung kann man da auch nicht reden.
PCGH_Carsten
2007-03-21, 10:01:54
Das war auch nur ein Beispiel. Nichtsdestotrotz halte ich es für sehr wahrscheinlich, dass nV beim Lowend-Core wieder einige Dinge eingespart hat.
Was willst du beim festgeschriebenen Feature-Set von D3D10 einsparen? So extrem weit geht G8x nicht über das vorgeschriebene hinaus...
Man könnte natürlich auf MSAA verzichten *SCNR* - das wird erst mit der nächsten DX-Revision Mandat.
mickii
2007-03-21, 10:12:20
Was willst du beim festgeschriebenen Feature-Set von D3D10 einsparen?
1.hardware implementationen durch software emulationen ersetzen, ist zwar langsammer, aber darf sich immer noch d3d10 schimpfen (gerade ein paar teure shaderbefehle sind so leicht eingespart)
2.qualitaetsmaessig kann gesparrt werden, z.b. koennte nv AA komplett weglassen
3. gibt es doch intern genug was gespart werden kann z.b. anzahl register, cache-groessen etc. was garkeinen einfluss auf d3d10-komformitaet hat.
AnarchX
2007-03-21, 10:22:41
1.hardware implementationen durch software emulationen ersetzen, ist zwar langsammer, aber darf sich immer noch d3d10 schimpfen (gerade ein paar teure shaderbefehle sind so leicht eingespart)
War nicht gerade soetwas bei D3D10 nicht mehr erlaubt(hatte AFAIR mal soetwas gelesen)?
2.qualitaetsmaessig kann gesparrt werden, z.b. koennte nv AA komplett weglassen
3. gibt es doch intern genug was gespart werden kann z.b. anzahl register, cache-groessen etc. was garkeinen einfluss auf d3d10-komformitaet hat.
Theoretisch könnte man sicherlich an diesen Stellen sparen, aber ob es praktisch Sinn macht ist eher fraglich. ;)
PCGH_Carsten
2007-03-21, 10:25:51
1.hardware implementationen durch software emulationen ersetzen, ist zwar langsammer, aber darf sich immer noch d3d10 schimpfen (gerade ein paar teure shaderbefehle sind so leicht eingespart)
2.qualitaetsmaessig kann gesparrt werden, z.b. koennte nv AA komplett weglassen
3. gibt es doch intern genug was gespart werden kann z.b. anzahl register, cache-groessen etc. was garkeinen einfluss auf d3d10-komformitaet hat.
1. Möglich, aber unwahrscheinlich. Da geht's doch eher um Größenordnungen als um einige Prozent.
2. Sagte ich ja. Aber nach NV34, NV44 und der 7100 noch einen Chip ohne AA zu bringen wäre der Tod für den Verkauf.
3. Auf jeden Fall - dafür musst du den stehenden Shader-Cluster aber überarbeiten und vermutlich dann auch die Compiler anpassen. IMO ist der Cluster aber gerade so designed, dass er in dieser Form das Grundgerüst für alle G8x-Produkte darstellt und eben nicht mehr überarbeitet werden muss, sondern Leistung nur noch über Anzahl und Takt reguliert wird.
Ich denke außerdem, dass der G80 angesichts seiner Größe über eine große Anzahl an Massetransistoren und Redundanz verfügt, damit man a) die hohe Taktrate, besonders im Shader-Bereich, erreicht und b) das Ding überhaupt noch einigermaßen wirtschaftlich zu fertigen ist.
Zwischen G70 und G71 hatten wir ja auch lockere 8,5 Prozent Unterschied - das dürfte beim G8x noch drastischer ausfallen - und zudem soll G71 ja sogar noch über zusätzliche Einheiten (mehr Alpha-Blender) verfügen.
mickii
2007-03-21, 11:11:42
1. Möglich, aber unwahrscheinlich. Da geht's doch eher um Größenordnungen als um einige Prozent.solche instruktionen sind hardwaretechnisch sehr teuer, die auszubauen erlaubt grosse einsparungen, liegt nicht nur daran das die instruktionen komplex sind, sondern daran dass fuer ihre optimierung viele transistoren draufgehen z.b. nrm_pp hat wohl ne ziemlich grosse table, cosin in hardware duerfte auch einiges schlucken damit es schneller ist also die 7instructions die man "emuliert" braucht. selbst wenn man die architektur nicht aendert sondern nur diesen bereich "ignoriert" kann das einiges an mehr ausbeute bringen bei den chips.
2. Sagte ich ja. Aber nach NV34, NV44 und der 7100 noch einen Chip ohne AA zu bringen wäre der Tod für den Verkauf.waere es nicht unbedingt, fuer alte spiele reicht FSAA(was rein softwaremaessig zu machen waere). fuer neue gibt es die option eventuell auch, nur ist es langsam und da muss man halt sehen ob die zielgruppe das akzeptieren wuerde.
3. Auf jeden Fall - dafür musst du den stehenden Shader-Cluster aber überarbeiten und vermutlich dann auch die Compiler anpassen. IMO ist der Cluster aber gerade so designed, dass er in dieser Form das Grundgerüst für alle G8x-Produkte darstellt und eben nicht mehr überarbeitet werden muss, sondern Leistung nur noch über Anzahl und Takt reguliert wird.und ich denke dass weder du noch ich wissen fuer welche flexibilitaet der cluster gedacht ist, falls NV das von anfang an bedacht hat, dann stuende dieser moeglichkeit nichts entgegen. einen compiler fuer eine andere anzahl von registern oder emulierte befehle herzustellen ist bei NV nur das umschalten von compileflags, zum einen haben sie genau das bei alten karten schon gehabt und zum anderen wollen sie nicht bei jeder generation neue compiler (bzw optimizer) schreiben, weswegen es wohl generisch ist, mittels flag.
mickii
2007-03-21, 11:15:56
War nicht gerade soetwas bei D3D10 nicht mehr erlaubt(hatte AFAIR mal soetwas gelesen)?wenn dem so waere, dann wuerd ich mich direkt fragen weshalb NV (laut cuda) z.b. die int befehle nicht alle mit einzelnen instructions kann, sondern mit mehreren anderen befehlen "emuliert"
Theoretisch könnte man sicherlich an diesen Stellen sparen, aber ob es praktisch Sinn macht ist eher fraglich. ;)
da NV sogar bei ihren "elite-chips" sehr sparsam ist was z.b. tmp-registercount angeht muss es triftige gruende geben, wieso sollte man bei den restlichen chips da den registercount nicht herabsetzen, vor allem da es "keine sau" merkt?
PCGH_Carsten
2007-03-21, 12:16:37
solche instruktionen sind hardwaretechnisch sehr teuer, die auszubauen erlaubt grosse einsparungen, liegt nicht nur daran das die instruktionen komplex sind, sondern daran dass fuer ihre optimierung viele transistoren draufgehen z.b. nrm_pp hat wohl ne ziemlich grosse table, cosin in hardware duerfte auch einiges schlucken damit es schneller ist also die 7instructions die man "emuliert" braucht. selbst wenn man die architektur nicht aendert sondern nur diesen bereich "ignoriert" kann das einiges an mehr ausbeute bringen bei den chips.
Mein Fehler, ich meinte die Performance-Verluste durch solche Einsparungen, nicht die Reduktion des Transistor-Counts. Darüber hinaus sind auch in den fetten Chips bereits etliche der intensiveren Instruktionen "nur" Makros.
waere es nicht unbedingt, fuer alte spiele reicht FSAA(was rein softwaremaessig zu machen waere). fuer neue gibt es die option eventuell auch, nur ist es langsam und da muss man halt sehen ob die zielgruppe das akzeptieren wuerde.
Wie gesagt, ich bin da anderer Ansicht.
und ich denke dass weder du noch ich wissen fuer welche flexibilitaet der cluster gedacht ist, ...
Daher schrieb ich auch in Großbuchstaben "IMO". :)
mickii
2007-03-21, 13:00:43
Mein Fehler, ich meinte die Performance-Verluste durch solche Einsparungen, nicht die Reduktion des Transistor-Counts. Darüber hinaus sind auch in den fetten Chips bereits etliche der intensiveren Instruktionen "nur" Makros.das wuerde auf GPUs keinen sinn machen. entweder ist eine instruktion per hardware vorhanden oder sie werden mit dem compiler (der im treiber ist) in den shadercode vorher eingepflegt und um genau dieses "weniger hardware, mehr treiber/compiler emulation" auf nicht highend hardware geht es mir.
Daher schrieb ich auch in Großbuchstaben "IMO". :)ich wollte nur explizit nochmal sagen dass das void ist. (nicht boes gemeint ;) )
deekey777
2007-03-21, 13:46:52
http://www.oc.com.tw/article/0703/readolarticle.asp?id=5772
GeForce 8600 GTS und GeForce 8600 GT + NVIDIA nForce 590 SLI MoBo, Athlon 64 FX-62 (2.8 GHz) und 2 GB RAM (DDR2-667).
8600GTS
3DMark'03 -> 16 933
3DMark'06 -> 5 392
8600 GT
3DMark'03 -> 14 089
3DMark'06 -> 4 505
Quelle: http://www.overclockers.ru/hardnews/25104.shtml
Die Ergebnisse scheinen vernünftig zu sein (iSd Echtheit).
reunion
2007-03-21, 15:40:49
Die Werte der GTS erreicht man mit einer X1950pro bei gleicher CPU auch ziemlich genau. Also das haut mich jetzt nicht vom Hocker, zumal es der Karte bei höheren Auflösungen plus AA an Bandbreite mangeln dürfte.
AnarchX
2007-03-21, 15:46:55
Die Werte der GTS erreicht man mit einer X1950pro bei gleicher CPU auch ziemlich genau. Also das haut mich jetzt nicht vom Hocker, zumal es der Karte bei höheren Auflösungen plus AA an Bandbreite mangeln dürfte.
Es ist und bleibt 3DMark, dessen Aussagekraft recht beschränkt ist, wie man auch am guten Abschneiden der GF7-Serie sieht.;)
In Spiele kann es durchaus noch ein anderes Bild geben.
Die Werte der GTS erreicht man mit einer X1950pro bei gleicher CPU auch ziemlich genau.
Mit einem 2600MHz FX60 erreicht eine X1950pro 4757 Punkte. Eine X1900XT 5740. Siehe dazu: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/8/#abschnitt_3dmark06
Aber schon komisch, dass für dich hier der 3DMark bedeutender wäre als beim r600.
reunion
2007-03-21, 15:57:45
Mit einem 2600MHz FX60 erreicht eine X1950pro 4757 Punkte. Eine X1900XT 5740. Siehe dazu: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/8/#abschnitt_3dmark06
Ich erreiche mit einem 4600+ auf Standardtakt und einen HIS X1950pro (welche standardmäßig mit 620/740 läuft) 5062 Punkte.
Aber schon komisch, dass für dich hier der 3DMark bedeutender wäre als beim r600.
Das habe ich nicht behauptet, nur sollte die 8600GTS im 3dmark eigentlich durch die hohe Shader- und Texelfüllrate und das fehlende AA besser liegen als in der Spielepraxis. Zumindest ging ich bis jetzt davon aus.
AnarchX
2007-03-21, 16:06:30
Imo wird aber die 8600GTS aber nicht so eine hohe Shaderleistung haben, ohne das MUL werden es wohl im besten Fall 128GFLOPs(64*2FLOPs*1GHz) sein, da die Re-Integrierung des IO-Teil wahrscheinlich auf Kosten des Shadertaktes ging.
PCGH_Carsten
2007-03-21, 16:10:01
...nur sollte die 8600GTS im 3dmark eigentlich durch die hohe Shader- und Texelfüllrate und das fehlende AA besser liegen als in der Spielepraxis. Zumindest ging ich bis jetzt davon aus.
Ich gehe eher davon aus, dass Benchmarks im Stile des 3DMark eher konventionelle GPUs verhältnismäßig besser dastehen lassen.
Grund: Die beiden neueren 3DMarks sind im Gegensatz zu vielen Spielen stark vertexshaderlastig. Dies geht bei einer USA zu Lasten der Pixel-Power, bei einer TSA dagegen wird die Pixel-Rechenkraft nicht davon beeinflusst, wieviel Vertexarbeit zuvor verrichtet werden muss.
mickii
2007-03-21, 16:35:29
Ich gehe eher davon aus, dass Benchmarks im Stile des 3DMark eher konventionelle GPUs verhältnismäßig besser dastehen lassen.
Grund: Die beiden neueren 3DMarks sind im Gegensatz zu vielen Spielen stark vertexshaderlastig. Dies geht bei einer USA zu Lasten der Pixel-Power, bei einer TSA dagegen wird die Pixel-Rechenkraft nicht davon beeinflusst, wieviel Vertexarbeit zuvor verrichtet werden muss.
ist das nicht eher von vorteil fuer die USA? waehrend die normalen GPUs einfach nur VS limitiert sind und eventuell PS brachliegt, sollte beim USA die Rechenpower so verteilt werden koennen das die auslastung gut verteilt ist.
LovesuckZ
2007-03-21, 17:21:29
Ich erreiche mit einem 4600+ auf Standardtakt und einen HIS X1950pro (welche standardmäßig mit 620/740 läuft) 5062 Punkte.
Deine Karte ist übertaktet. Es wird auch übertaktete 8600GTS Karten geben, welche dann deinen "Mehrgewinn" ausgleichen.
Das habe ich nicht behauptet, nur sollte die 8600GTS im 3dmark eigentlich durch die hohe Shader- und Texelfüllrate und das fehlende AA besser liegen als in der Spielepraxis. Zumindest ging ich bis jetzt davon aus.
Die Texellfüllrate spielt im 3DMark2006 kaum eine Rolle. Sonst müsste sich die 7900GTX deutlich von der X1950XTX absetzen können. Und von der Shaderleistung hat eine X1950pro auch deutlich mehr als eine 8600GTS mit einem Shaderclock von 1000Mhz.
Und vom DIE ist die X1950pro anscheinend größer, wenn die 155mm² für die GTS stimmen, da muss schon einiges abgespeckt wurden sein.
Die Texellfüllrate spielt im 3DMark2006 kaum eine Rolle. Sonst müsste sich die 7900GTX deutlich von der X1950XTX absetzen können.
Müsste sie nicht. ATI kann eben sehr viel Tex-Leistung dadurch gewinnen dass sie es hinter den massig vorhandenen ALU-Rechnungen der 3DMark-Shader vestecken.
deekey777
2007-03-21, 17:34:36
Deine Karte ist übertaktet. Es wird auch übertaktete 8600GTS Karten geben, welche dann deinen "Mehrgewinn" ausgleichen.
Der liebe :cop:Fudzilla:cop: meint, sie kommen Mitte Mai. Die 8600GTS wurde ja mit 700 MHz spekuliert, standardmäßig kommt sie mit 675 MHz,für OC-Versionen ist da genug Luft.
Früher war es :cop:Fuad:cop:, jetzt :cop:Fudzilla:cop:. :biggrin:
Ailuros
2007-03-21, 19:44:25
Die Werte der GTS erreicht man mit einer X1950pro bei gleicher CPU auch ziemlich genau. Also das haut mich jetzt nicht vom Hocker, zumal es der Karte bei höheren Auflösungen plus AA an Bandbreite mangeln dürfte.
Trotzdem ist eben genau der Punkt wo das Ding mehr als 2x mal schneller ist als eine G73. Wer bitteschoen erwartet dass eine <200$ GPU in >1280 mit =/>4xAA umgehen kann? Der direkte Konkurrent mit absoluter Sicherheit wohl auch nicht.
Du meinst das ROPs und das SI fest miteinander verbunden sind, aber die TMU Anzahl "variabel" ist?
ROPs und SI sind sicher nicht miteinander fix verbunden, man kann beim G80 im rivatuner die einzelnen speicherkanäle unabhängig von den ROPs deaktivieren.
Ailuros
2007-03-21, 22:01:45
ROPs und SI sind sicher nicht miteinander fix verbunden, man kann beim G80 im rivatuner die einzelnen speicherkanäle unabhängig von den ROPs deaktivieren.
Hmmm interessant. Welche bit Werte betreffen denn die Speicherkanaele?
Hmmm interessant. Welche bit Werte betreffen denn die Speicherkanaele?
bits 00-07 die stream-prozessoren, 16-21 die ROPs und 24-31 die speicherkanäle.
AnarchX
2007-03-22, 09:10:24
bits 00-07 die stream-prozessoren, 16-21 die ROPs und 24-31 die speicherkanäle.
Nur stellt sich die Frage ob man die ROPs und Speicherkanäle unabhängig voneinander deaktvieren kann, misterh hier im Forum, der mal einen Skalierungtest mit Abschalten der Stream-Prozessoren gemacht hatte, konnte sie jedenfalls nicht deaktivieren.
Oder geht das mittlerweile?(Ein Beweis wäre nicht schlecht.)
PCGH_Carsten
2007-03-22, 10:25:45
ist das nicht eher von vorteil fuer die USA? waehrend die normalen GPUs einfach nur VS limitiert sind und eventuell PS brachliegt, sollte beim USA die Rechenpower so verteilt werden koennen das die auslastung gut verteilt ist.
Jein. Vorteile haben die US-GPUs auf jeden Fall. Nur treten diese eben in "normalen" Spielen deutlicher auf, weil hier die Vertexlast wesentlich unter der im 3DMark liegt. Soll heißen: In normalen Spielen drehen die VS oft Däumchen, was im 3DMark nicht der Fall ist - dort sind VS und PS gleichermaßen gut beschäftigt. Das ist nur eben nicht repräsentativ für normale Games.
Da eine USA prinzipbedingt eher "load-balanced" arbeitet, ist der gesamte Leerlauf in Games geringer, sodass selbst bei einem 3DMark-Gleichstand die Spieleleistung deutlich besser ausfallen kann.
edit:
Mal mit fiktivem Beispiel für GPUs mit 13 Einheiten (bei trad. GPU 5 VS, 8 PS)
Lastverteilung 3DMark: 5 VS, 8 PS
Lastverteilung Spiel: 3 VS, 7 PS
Umsetzung konventioneller Renderer:
3DMark: kein Leerlauf
Spiel: 2 VS laufen leer und 1 PS läuft leer
Umsetzung USA:
3DMark: kein Leerlauf (Performance bei ansonsten gleicher Effizienz identisch zum trad. Renderer)
Spiel: kein Leerlauf, Performance um 3/10 (Whatever) höher als trad. Renderer
deekey777
2007-03-22, 11:27:14
Man könnte mit NVPerfHUD (http://developer.nvidia.com/object/nvperfhud_home.html) überprüfen, welche Anwendung wie stark die Grafikkarte bzw. ihre einzelnen Einheiten belastet.
Daraus könnte man dann Schlüsse auf die Vor- oder Nachteile des US-Architektur ziehen.
Spiel: 2 VS laufen leer und 1 PS läuft leer
Umsetzung USA:
Spiel: kein Leerlauf, Performance um 3/10 (Whatever) höher als trad. Renderer[/i]
Wenn VS und PS gleichzeitig leer laufen, dann liegt das Bottleneck woanders und ein USA kann dann auch nichts mehr retten.
mickii
2007-03-22, 11:40:48
Jein. Vorteile haben die US-GPUs auf jeden Fall. Nur treten diese eben in "normalen" Spielen deutlicher auf, weil hier die Vertexlast wesentlich unter der im 3DMark liegt. Soll heißen: In normalen Spielen drehen die VS oft Däumchen, was im 3DMark nicht der Fall ist - dort sind VS und PS gleichermaßen gut beschäftigt. Das ist nur eben nicht repräsentativ für normale Games. eigentilch passen die GPU hersteller ihre GPUs an die spiele an, die anzahl der VS ist also eigentlich so gewaehlt dass sie die PS gut fuettern, aber nicht grossartig brach liegen. Auf der anderen Seite versuchen Spielehersteller auch die last von den PS zu den VS zu verlagern wenn sie merken die VS liegen brach, das ist natuerlich nicht immer moeglich, aber wie gesagt, die anzahl der VS ist auch nicht grossartig ueberdimensioniert.
Um also auf ein fiktives beispiel zu kommen:
Lastverteilung 3DMark: 5 VS, 5 PS (oder 6.5 : 6.5 normalisiert)
Lastverteilung Spiel: 5 VS, 8 PS
Umsetzung konventioneller Renderer:
3DMark: 3PS leerlauf
Spiel: kein leerlauf
Umsetzung USA:
3DMark: kein Leerlauf (Performance besser da die leerlaufenden PS zu VS umgelagert werden (je nach granularitaet der einheitenbloecke)
Spiel: kein Leerlauf aber nicht von sonderlichem vorteil gegenueber einem gut optimiertem spiel fuer traditionelle GPUs.
mickii
2007-03-22, 11:47:18
Man könnte mit NVPerfHUD (http://developer.nvidia.com/object/nvperfhud_home.html) überprüfen, welche Anwendung wie stark die Grafikkarte bzw. ihre einzelnen Einheiten belastet. das machen die spielehersteller auch. genau wie es NV auch macht, so kann ein spielehersteller versuchen optimale auslastung zu finden und NV kann estimaten wieviele VS sie in 3jahren in GPUs haben muessen... jedenfalls war es bisher so.
Wir koennen das leider nicht machen, weil man das in spielen dazu einschalten muesste (im source), was in den releaseten spielen oft nicht der fall ist.
Daraus könnte man dann Schlüsse auf die Vor- oder Nachteile des US-Architektur ziehen.
du wirst zZ nicht viel vorteile sehen, da wie gesagt die hersteller auch darauf optimieren die hardware gut auszulasten. ist der VS blockierend, dann nutzt man weniger polys und kuerzere shader (indem man ding z.b. vorberechnet oder in pixelshader auslagert). sind PS limitierend, dann lagert man das in die VS aus wenn das moeglich ist oder nutzt vorberechnete tabellen aus texturen.
bestes beispiel ist z.b. particle. bisher war man immer VS und fillrate limitiert, pixelshader haben sich eher gelangweilt. nun versucht man mittels pixelshadern bessere particle zu machen die z.b. volumetrische daten enthalten (z.b. fuer wolken) und die sanft in den boden blenden statt immer der kanten, was eventuell weniger particle noetig macht.
deekey777
2007-03-22, 11:52:58
Jemand, der eine potente G71 hat, kann mit NVPerfHUD überprüfen, was (VS oder PS) am stärksten belastet wird.
Man braucht dafür keine fiktiven Beispiele.
Hier ist Call of Juarez: http://www.ixbt.com/video2/tech_coj.shtml
Die von den Testern gewählte Testsequenz lastet die VS und die PS sehr gut aus. Warum sehr gut? In dem Guide zu NVperfHUD steht: Ist vertex_shader_busy, % deutlich höher als pixel_shader_busy, %, dann bitte weniger Geometrie. Ist es andersherum (was der Nromalfall ist), dann sollten die Entwickler mehr Geometrie in das Spiel einbauen.
Hier ist NFSC: http://www.ixbt.com/video3/tech_nfsc.shtml. Die VS haben nichts zu tun.
Prey: http://www.ixbt.com/video2/tech_prey.shtml (nicht vergessen, dass es die Doom-3-Engine ist, zu viel Geometrie ist tödlich).
Serious Sam: http://www.ixbt.com/video2/tech_ss2.shtml (man achte auf gpu_idle!)
Edit: mickii, ich nahm mir bei meinem Posting sehr viel Zeit, dein Posting war noch nicht da, als ich mit meinem begonnen habe. :)
PCGH_Carsten
2007-03-22, 11:58:41
Wenn VS und PS gleichzeitig leer laufen, dann liegt das Bottleneck woanders und ein USA kann dann auch nichts mehr retten.
Der Bottelneck kann sich innerhalb eines Frames auch verschieben... erst kann ein PS leerlaufen, dann ein VS. Eine USA passt sich da an.
mickii
2007-03-22, 12:09:53
Jemand, der eine potente G71 hat, kann mit NVPerfHUD überprüfen, was (VS oder PS) am stärksten belastet wird.
Man braucht dafür keine fiktiven Beispiele.wie gesagt, geht das nicht automatisch sondern muss im code extra eingeschaltet sein, siehe: http://download.nvidia.com/developer/presentations/2004/6800_Leagues/6800_Leagues_NVPerfHUD.pdf
in der ersten version und irgend nem detonator 44.xx war das grundsaetzlich an und aufgrund viele beschwerden, weil man z.b. bei shootern im MP auf wireframe schalten konnte, wurde das geaendert.
wundert mich echt dass soviele spiele das trotzdem anlassen im release.
Demirug
2007-03-22, 12:29:36
wundert mich echt dass soviele spiele das trotzdem anlassen im release.
Man kann es auch nachträglich von aussen reinpatchen.
mickii
2007-03-22, 12:31:20
Man kann es auch nachträglich von aussen reinpatchen.
hacken kann man alles ;)
mapel110
2007-03-22, 12:39:07
Der Bottelneck kann sich innerhalb eines Frames auch verschieben... erst kann ein PS leerlaufen, dann ein VS. Eine USA passt sich da an.
Sicher passt sich ein USC an, aber da ists immer die Frage, wie effizient die Lastenverteilung ist (ist ja beim G80 und wohl auch allen anderen G8x-Produkten in Hardware gelöst d.h. wohl wenig optimierbar via Software). Da dürfte auch wiederrum etwas verloren gehen.
mickii
2007-03-22, 12:47:33
Sicher passt sich ein USC an, aber da ists immer die Frage, wie effizient die Lastenverteilung ist (ist ja beim G80 und wohl auch allen anderen G8x-Produkten in Hardware gelöst d.h. wohl wenig optimierbar via Software). Da dürfte auch wiederrum etwas verloren gehen.
das kommt drauf an, eigentlich kann das in hardware effizienter sein. wenn sowohl die VS, PS als auch GS "arbeitspackete" in einer queue stehen und die shader die packete abarbeiten ohne zu differenzieren, dann ist das wohl selbstbalanzierend, denn gibt es mehr PS-arbeit zu tun, stauen sich entsprechend mehr PS-packete an und mehr shader arbeiten diesen an. stehen wenig PS packete an, weil die last beim VS ist, stehen eben viele VS packete an und werden von den Shadern abgearbeitet.
in software haettest du hingegen nur eine abschaetzung treffen koennen z.b. anhand der shaderlaenge, du wuestest aber nicht ob z.b. ein PS 99% des codes ueberspringt oder ob es viele stalls gibt trozt kurzem PS, weil die Texturdaten so riesig sind. dir jede shader-texture-geometrie kombination zu merken fuer den naechsten durchgang (der aber auch komplett anders ausfallen koennte) waere ebenfalls keine gute loesung.
Gaestle
2007-03-22, 13:33:38
das kommt drauf an, eigentlich kann das in hardware effizienter sein. wenn sowohl die VS, PS als auch GS "arbeitspackete" in einer queue stehen und die shader die packete abarbeiten ohne zu differenzieren, dann ist das wohl selbstbalanzierend, denn gibt es mehr PS-arbeit zu tun, stauen sich entsprechend mehr PS-packete an und mehr shader arbeiten diesen an. stehen wenig PS packete an, weil die last beim VS ist, stehen eben viele VS packete an und werden von den Shadern abgearbeitet.
in software haettest du hingegen nur eine abschaetzung treffen koennen z.b. anhand der shaderlaenge, du wuestest aber nicht ob z.b. ein PS 99% des codes ueberspringt oder ob es viele stalls gibt trozt kurzem PS, weil die Texturdaten so riesig sind. dir jede shader-texture-geometrie kombination zu merken fuer den naechsten durchgang (der aber auch komplett anders ausfallen koennte) waere ebenfalls keine gute loesung.
Stellt sich somit die Frage der benötigten Takte für das Load-Balancing, oder hab' ich das falsch verstanden?
seahawk
2007-03-22, 13:39:24
Warum Load Balancing ? Man füllt die Shader Einheiten mit dem was ankommt und wenn eine "frei wird", dann nimmt sie sich die nächste anstehende Aufgabe.
Gaestle
2007-03-22, 13:51:51
Warum Load Balancing ? Man füllt die Shader Einheiten mit dem was ankommt und wenn eine "frei wird", dann nimmt sie sich die nächste anstehende Aufgabe.
Aber auch dieses muss ja irgendwie organisiert werden... (dachte ich zumindest)
mickii
2007-03-22, 14:01:46
Warum Load Balancing ? Man füllt die Shader Einheiten mit dem was ankommt und wenn eine "frei wird", dann nimmt sie sich die nächste anstehende Aufgabe.
ja, genau das hab ich gesagt, das ist automatisches loadbalancing
das braucht nicht mehr zeit als sonst pixelshader brauchen, da auch diese pixelpackete abarbeiten, nun werden generell packete abgearbeitet. man koennte also sagen das USA fast nur vorteile hat :)
Prey: http://www.ixbt.com/video2/tech_prey.shtml (nicht vergessen, dass es die Doom-3-Engine ist, zu viel Geometrie ist tödlich).
shader_waits_for_rop, % 28.8
Bedeutet das, dass die Shader 28% der Zeit auf die Rops warten, weil die limitieren?
Hallo zusammen,
ich möchte keinen neuen Thread dafür erstellen... weiß jemand etwas über die derzeititgen Lieferschwierigkeiten der GeForce 8800 GTX? Die würde ich (bzw. mein Bruder) gerade sehr stark brauchen. Am besten von ALTERNATE, aber nirgendswo gibt es die 8800 GTX derzeit wirklich gut lieferbar.
Anarchy-HWLUXX
2007-03-22, 17:35:22
Woah, des hatt ich so nicht gedacht das die GTX jetzt scho nur bei wenigen Shops auf lager ist :eek: Evtl. scho vorbereitung auf die Ultra/G81/G90/wasauchimmer ... na ja, eigentlich noch zu früh es sei denn der Release ist anfang Aprill *hmmm*
PS - Bei Winner gibt es ne Gigabyte, bei dem Shop hab ich erst letzte Woche bestellt und selbst bei Vorkasse waren die 4 Produkte am Samstag da (Mittwoch bestellt).
Woah, des hatt ich so nicht gedacht das die GTX jetzt scho nur bei wenigen Shops auf lager ist :eek: Evtl. scho vorbereitung auf die Ultra/G81/G90/wasauchimmer ... na ja, eigentlich noch zu früh es sei denn der Release ist anfang Aprill *hmmm*
PS - Bei Winner gibt es ne Gigabyte, bei dem Shop hab ich erst letzte Woche bestellt und selbst bei Vorkasse waren die 4 Produkte am Samstag da (Mittwoch bestellt).
Oder die Hersteller geben erst mal den neuen Mainstreammodellen vorrang bei der Produktion.
Anarchy-HWLUXX
2007-03-22, 18:08:45
Oder die Hersteller geben erst mal den neuen Mainstreammodellen vorrang bei der Produktion.
Öm ? Das macht garkein sinn ... 8800 und 8600 teilen sich keine Parts und werden wohl auf unterschiedlichen Produktionsstraßen gefertigt. Ausserdem macht man mit den 8800 um welten mehr gewinn bei überschaubaren Stückzahlen ... weiterhin müssen dann die Lager bei nV und den Distris komplett leer sein ...
micki
2007-03-22, 18:54:41
Öm ? Das macht garkein sinn ... 8800 und 8600 teilen sich keine Parts und werden wohl auf unterschiedlichen Produktionsstraßen gefertigt. Ausserdem macht man mit den 8800 um welten mehr gewinn bei überschaubaren Stückzahlen ... weiterhin müssen dann die Lager bei nV und den Distris komplett leer sein ...nein, den gewinn machen die hersteller mit mainstream und das schon immer, die margen sind zwar kleiner, der absatzmarkt ist aber sehr sehr viel groesser...
Anarchy-HWLUXX
2007-03-22, 19:10:09
nein, den gewinn machen die hersteller mit mainstream und das schon immer, die margen sind zwar kleiner, der absatzmarkt ist aber sehr sehr viel groesser...
Agrh, ich meinte Gewinn pro Karte nicht gesamt ... und der Teil vom High-End am Gesamtgewinn ist auch net gerade klein ...
AnarchX
2007-03-22, 19:40:06
[NVIDIA Upcoming Mobile G80 GPUs] (http://www.vr-zone.com/index.php?i=4851)
NVIDIA will be launching GeForce Go 8800 GS in May and GeForce Go 8800 GTX in July and will compete against ATi's mobile DX10 M76XT GPU. GeForce Go GS is pretty interesting as we don't see it on the desktop SKUs yet. Looking at the Device IDs for the desktop G80 SKUs, we saw 0x0191 "NVIDIA GeForce 8800 GTX" and 0x0193 "NVIDIA GeForce 8800 GTS" but 0x0190 and 0x0192 are missing. Usually 0x0190 is the most high end SKU so it could be 8800 Ultra and 0x192 could be 8800 GS.
Ein G80 im Notebook? :|
Das glaube ich erst, wenn ich es sehe.
Oder hat NV doch den G80 auf 80nm geshrinkt?
Das sollte glaub etwas so wie der Geforce 6800 GO, war ja eine 12 Pipeline Karte. Damit dürfte die 8800GTS als Mobiles Highend kommen, vieleicht in 80nm, weniger Taktrate und ein paar Stromspaar Goodies was dann den Idle Verbrauch deutlich senken sollte.
seahawk
2007-03-22, 19:55:01
[NVIDIA Upcoming Mobile G80 GPUs] (http://www.vr-zone.com/index.php?i=4851)
Ein G80 im Notebook? :|
Das glaube ich erst, wenn ich es sehe.
Oder hat NV doch den G80 auf 80nm geshrinkt?
Irgendetwas werden die seit November schon gemacht haben.
Aber auch dieses muss ja irgendwie organisiert werden... (dachte ich zumindest)
ALUs sehen nur zahlen mit denen sie rechnen, denen ist egal ob diese sich VS, GS, PS, CUDA oder was auch immer nennen.
vor den ALUs gibt es eine qeue die die anstehenden befehle aufnimmt und nacheinander in die ALUs schiebt, unabhängig zu welcher art shader diese befehle gehören.
AnarchX
2007-03-23, 12:01:09
Nvidia to start selling G78
The first 65 nanometre part (http://www.fudzilla.com/index.php?option=com_content&task=view&id=269&Itemid=34)
Ob man da wohl ATi noch zuvor kommen will? ;)
Ein G80 im Notebook? :|
Das glaube ich erst, wenn ich es sehe.
Oder hat NV doch den G80 auf 80nm geshrinkt?
Was ist daran besonders? Eine X1900 gibt es auch im Notebook!
Die werden mit Sicherheit die besten Chips selektiert, dem Chip eine niedrigere Spannung verpasst und Stromsparfunktionen integriert haben.
AnarchX
2007-03-23, 12:08:02
Was ist daran besonders? Eine X1900 gibt es auch im Notebook!
Die X1900 im Notebook ist aber kein R580 sondern der RV570 in 80nm. ;)
Die X1900 im Notebook ist aber kein R580 sondern der RV570 in 80nm. ;)
Ja und? 80nm allein macht sie nicht sparsamer, der war sogar ein Flop (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/26/#abschnitt_stromverbrauch).
Bis jetzt ist bei nvidia gar nicht klar, wie das Endprodukt aussehen wird. Weniger Takt, weniger Hardwareinheiten etc. kann alles zu einem deutlich verringerten Gebrauch führen.
Allein das reduzieren der Taktraten bringt einiges! Wenn man für 100 MHz weniger beispielweise 0,1V weniger anlegen muss, ist der Stromverbrauch schon deutlich geringer.
Anarchy-HWLUXX
2007-03-23, 12:37:43
Die G80 hat doch das Problem mit dem hohen verbrauch im Idle, egal was se da machen - ohne die gescheite implementierung der Mobile-Sparfunktionen wirds nix mit brauchbarer Akkulaufzeit selbst @ idle in 2D.
Die G80 hat doch das Problem mit dem hohen verbrauch im Idle, egal was se da machen - ohne die gescheite implementierung der Mobile-Sparfunktionen wirds nix mit brauchbarer Akkulaufzeit selbst @ idle in 2D.
Laut der Computerbasemeldung wird daran gerade gearbeitet (neuer Treiber).
Bei Notebook ist das etwas differenzierter zu sehen. Zum einen kann man die hohe Verlustleistung von 140W gar nicht abtragen, deshalb muss man auf jeden Fall reduzieren und zum anderen spielt oft der idle Verbrauch eine größere Rolle und der lässt sich durch reduzieren von Takt, Spannung und abschalten von Hardwareeinheiten deutlich senken. Wenn der Chip im idle nur noch 25-40W brauchen sollte, ist das OK. Die volle Leistung ruft man bei einem DTR Notebook dann einfach an der Steckdose ab...
Für den Mainstreammarkt gibts ja die mittelklasse Karten, mit reduzierter Leistung.
Ich habe zwar keine Ahnung mit wieviel Spannung der Chip befeuert wird, aber wenn wir mal ein fiktives Beispiel aufgreifen, wird schneller klar, das es deutlich was bringen kann:
120W Verbrauch, 575MHz, 1,4V.
Bei 500 Mhz und 1,25V wären es theoretisch nur noch 83,19W und bei 475, 1,2V dann 72,83W. Das Ziel ist also klar.
Entweder man lässt Hardwareinheiten weg, oder man reduziert die Spannung. Entweder durch geringeren Takt oder durch einen neuen Fertigungsprozess.
AnarchX
2007-03-23, 12:47:38
Ja und? 80nm allein macht sie nicht sparsamer, der war sogar ein Flop (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/26/#abschnitt_stromverbrauch).
Der hohe Idle-Verbrauch der X1950Pro liegt nur daran, dass man hier am PCB gespart hat und die Spannungsanpassung für 2D herausgelassen hat.
Ich bin jedenfalls gespannt wie NV den G80 notebooktauglich machen will, auf einiges an Leistung gegenüber den Desktopvarianten wird man definitiv verzichten müssen, wenn es der G80@90nm wird.
Aber vielleicht setzt man hier schon auf den G90 bzw. einen G80 in 65nm, wonach es imo etwas aussieht da man die 8800GS schon im Mai bringt, also eine Variante die wohl auch mit nicht so guten Chips auskommt, während die Go GTX erst im Juli kommt...
Anarchy-HWLUXX
2007-03-23, 13:38:12
Laut der Computerbasemeldung wird daran gerade gearbeitet (neuer Treiber).
Die meldung war das sie es versuchen - ob es klappt ist eine andere sache ...
Die meldung war das sie es versuchen - ob es klappt ist eine andere sache ...
Im Notebooksegment wird es "klappen", gar keine Frage.
Was die Betreiben ist Hinhaltepolitik. Technisch spricht nichts gegen solch eine Lösung, im Mobilesegment geht es gar nicht anders, es sei denn, nvidia will seine Kunden verärgern.
Anarchy-HWLUXX
2007-03-23, 14:09:27
Im Notebooksegment wird es "klappen", gar keine Frage.
Was die Betreiben ist Hinhaltepolitik. Technisch spricht nichts gegen solch eine Lösung, im Mobilesegment geht es gar nicht anders, es sei denn, nvidia will seine Kunden verärgern.
Hinhalten ? Wen den bittesehr ... sich selbst ?
Der größte negativpunkt der G80 ist der hohe Idle verbrauch - je schneller das gefixt wird desto besser -> Positive PR auf allen Hardware News Pages.
Wenn das zuspät kommt geht es während den Launches unter ...
Hinhalten ? Wen den bittesehr ... sich selbst ?
Die Kunden.
nvidia wollte rechtzeitig vor der Konkurrenz und den Vista Marktstart das Produkt auf den Markt werfen.
Deswegen hat man nicht alles geschafft, was man sich vorgenommen hat, was unter anderem am miesen Treiber erkennbar ist.
Jetzt versuchen sie die Arbeit nachzuholen, aber es würde mich nicht wundern, wenn das Mobilesegment noch vor dem Desktopsegment die gleiche Karte mit Stromsparfunktionen vorfindet.
Im Mobilesegment geht sowas in den Medien unter. Kein Durchschnittsuser wird es merken, wenn der gleiche Chip, den er sich für den Desktop geholt hat, im Mobilesegment "technisch" besser ist.
Im Desktopsegment sehe ich viele Gründe: nVidia wartet mit dem Treiber bis zum ATI Release und verkündet dann pampös: "Wir haben unseren Verbrauch um xx % senken können! Seht her!" oder man verkauft es beim 80/65nm Shrink als neues Features.
Technisch ist es diese Änderung ein ziemlicher Witz. Jeder halbwegs vernünftige Programmierer würde dir eine solche Lösung innerhalb von wenigen Wochen basteln, sofern er Zugang zu den Quellcodes hat.
PCGH_Carsten
2007-03-23, 14:35:52
Im Notebooksegment wird es "klappen", gar keine Frage.
Ich glaube nicht, dass es einen G80 in Notebooks geben wird.
Anarchy-HWLUXX
2007-03-23, 14:38:40
Das macht sowas von garkein sinn ... deine formulierung vonwegen "Hinhalten" war ja nen eindeutiger vorwurf das nV die Lösung schon hat und diese nicht öffentlich macht.
Das einzige was beim R600 launch zählen wird ist einzig und allein die Performance, nen fix des Idle verbrauchs interessiert da kaum.
Und ich glaub nicht das du oder deine kollegen schon mal an einem Treiber für nen 600m Transistoren Chip gearbeitet hast. Das muss schließlich nicht nur irgendwie funzen sondern immer und bei allen situationen.
Das macht sowas von garkein sinn ... deine formulierung vonwegen "Hinhalten" war ja nen eindeutiger vorwurf das nV die Lösung schon hat und diese nicht öffentlich macht.
Genau deshalb macht es Sinn. Schonmal in einer Marketingabteilung gearbeitet? :)
Würden sie eine entscheidende Verbesserung jetzt releasen und breittreten, so hätten sie offiziell zugegeben, das sie beim Launch versagt haben.
Das ist vorallem bei Investoren nicht gern gesehen.
Stattdessen wartet man einen günstigen Zeitpunkt ab, der sicherlich dann sein wird, wenn es darum geht, der Konkurrenz das Wasser abzugraben oder neue Produkte erscheinen. Da da fällt das nicht sonderlich auf. Ein stiller Launch.
Und ich glaub nicht das du oder deine kollegen schon mal an einem Treiber für nen 600m Transistoren Chip gearbeitet hast. Das muss schließlich nicht nur irgendwie funzen sondern immer und bei allen situationen.
Die Transistorenmenge hat damit nichts zu tun. Der könnte auch 2 Mrd haben, ändern würde es nichts. Die Schnittstelle bleibt die selbe.
Anarchy-HWLUXX
2007-03-23, 15:10:37
Genau deshalb macht es Sinn. Schonmal in einer Marketingabteilung gearbeitet? :)
Würden sie eine entscheidende Verbesserung jetzt releasen und breittreten, so hätten sie offiziell zugegeben, das sie beim Launch versagt haben.
Das ist vorallem bei Investoren nicht gern gesehen.
Die G80 verkauft sich hervorragend, die investoren wird es nen feuchten funz interessieren ... wenn sie es überhaupt mitbekommen. Je eher der fix kommt umso besser, wie das hinterher ausgelegt wird ist nen dreckiger PR kampf - die kunden sehen es zweifelsfrei als positive entwicklung. Nen fix pünktlich zum launch des Konkurrenz produktes liefern schaut hingegen mies aus für die Kunden da das Timing "zu gut" ist.
Stattdessen wartet man einen günstigen Zeitpunkt ab, der sicherlich dann sein wird, wenn es darum geht, der Konkurrenz das Wasser abzugraben oder neue Produkte erscheinen. Da da fällt das nicht sonderlich auf. Ein stiller Launch.
Mit einem stillen launch kann man niemanden nix abgraben - deswegen heisst es ja auch still ... weil es keiner merkt.
Die Transistorenmenge hat damit nichts zu tun. Der könnte auch 2 Mrd haben, ändern würde es nichts. Die Schnittstelle bleibt die selbe.
Es macht schon einen sehr großen unterschied ob man einfach mal 50m Transistoren runtertaktet oder 400m Transistoren in verschiedenen bereichen die mit verschiedenen Taktraten laufen runtertaktet. Ist ja nicht so als ob man einen Schalter umlegt und alles funzt ...
reunion
2007-03-23, 15:29:35
Nvidia to start selling G78
The first 65 nanometre part (http://www.fudzilla.com/index.php?option=com_content&task=view&id=269&Itemid=34)
Ob man da wohl ATi noch zuvor kommen will? ;)
Selbst wenn, das ist ein Zwerg im Vergleich zu RV630.
Die G80 verkauft sich hervorragend, die investoren wird es nen feuchten funz interessieren ...
Jeder Investor interessiert sich für jede positive und negative Schlagzeile. Was meinst du, wo das Geld herkommt?
wenn sie es überhaupt mitbekommen.
;D Dafür haben sie angestellte Marktexperten.
Mit einem stillen launch kann man niemanden nix abgraben - deswegen heisst es ja auch still ... weil es keiner merkt.
Nein, das heißt es nicht.
Wenn du bei einem neuem Produkt oder einem Shrink mit verbesserter Verlustleistung wirbst, bekommt es jeder mit, denkt aber kaum noch daran, das die bisherigen Produkte eigentlich schlecht und fehlerhaft waren. Das ist der feine Unterschied.
Das ist auch schon dutzende male vorgekommen, man erinnere sich nur an die zurückgezogenen Produkte bei Intel und den kaputten Stromsparmechanismen. Das ging durch die Medien, verschwand aber
schnell wieder, weil es nicht breitgetreten wurde.
Ein Normalo hat nie etwas davon mitbekommen.
Dieser Normalo hat dann aber positiv auf die Meldung reagiert, als die TDP abgesenkt wurde.
So einfach lassen sich Leute verarschen. :)
Es macht schon einen sehr großen unterschied ob man einfach mal 50m Transistoren runtertaktet oder 400m Transistoren in verschiedenen bereichen die mit verschiedenen Taktraten laufen runtertaktet.
Entweder es läuft oder es läuft nicht. Was anderes gibt es nicht.
Folglich ist die letzte Meldung schwachsinn, denn die Software ist das kleinste Problem. Die meiste Zeit nehmen die Stabilitätstest in Anspruch... und die können sie nunmal nicht durchführen, wenn sie keine Software dafür haben. :)
Anarchy-HWLUXX
2007-03-23, 16:21:57
Jeder Investor interessiert sich für jede positive und negative Schlagzeile. Was meinst du, wo das Geld herkommt?
;D Dafür haben sie angestellte Marktexperten.
So ne funzelige meldung macht nix her ... sonst hätten die Bösen investoren ATi ja scho lange fallengelassen aufgrund den ewigen verspätungen...
Nein, das heißt es nicht.
Wenn du bei einem neuem Produkt oder einem Shrink mit verbesserter Verlustleistung wirbst, bekommt es jeder mit, denkt aber kaum noch daran, das die bisherigen Produkte eigentlich schlecht und fehlerhaft waren. Das ist der feine Unterschied.
LoooooooooooooooL ;D Klar, wenn Mercedes die neue C-Klasse bringt heisst es die alte ist Schlecht und fehlerhaft -> sicha ;)
Das ist auch schon dutzende male vorgekommen, man erinnere sich nur an die zurückgezogenen Produkte bei Intel und den kaputten Stromsparmechanismen. Das ging durch die Medien, verschwand aber
schnell wieder, weil es nicht breitgetreten wurde.
Ein Normalo hat nie etwas davon mitbekommen.
Also ob die TDP meldung nicht auch nach kurzer zeit wieder aus dem gedächtniss verschwindet ...
Dieser Normalo hat dann aber positiv auf die Meldung reagiert, als die TDP abgesenkt wurde.
So einfach lassen sich Leute verarschen. :)
Die TDP gilt dann nur für bestimmte modelle und die muss man erstmal finden / kaufen und se kostenb mehr weil neu ... also net wirklich soll das beispiel.
Wenn ein Treiber das Produkt das man schon hat verbessert und man dafür nix zahlen braucht gibt das nen Instant Symphatie Bonus beim Kunden.
Entweder es läuft oder es läuft nicht. Was anderes gibt es nicht.
Folglich ist die letzte Meldung schwachsinn, denn die Software ist das kleinste Problem. Die meiste Zeit nehmen die Stabilitätstest in Anspruch... und die können sie nunmal nicht durchführen, wenn sie keine Software dafür haben. :)
Die Software ist sicherlich NICHT das kleinste Problem, gibt wohl kaum was komplizierteres als GraKa Treiber.
Und WTF sollen irgendwelche Stabi tests ?
So ne funzelige meldung macht nix her ... sonst hätten die Bösen investoren ATi ja scho lange fallengelassen aufgrund den ewigen verspätungen...
Das tun sie mit jedem weiteren Tag, sieh dir mal die Aktienkurse an.
LoooooooooooooooL ;D Klar, wenn Mercedes die neue C-Klasse bringt heisst es die alte ist Schlecht und fehlerhaft -> sicha ;)
Kindergartenniveau. Das stand dort niemals und das habe ich niemals gesagt. Zudem sind es zwei nicht vergleichbare Branchen.
Du hast scheinbar nicht verstanden, das ein Unterschied ist, ob man sich einen Fehler eingesteht und Kritik erntet oder ihn werbewirksam bereinigt.
Also ob die TDP meldung nicht auch nach kurzer zeit wieder aus dem gedächtniss verschwindet ...
Mit dem Unterschied das sie ausnahmslos positiv aufgenommen wurde.
Wenn ein Treiber das Produkt das man schon hat verbessert und man dafür nix zahlen braucht gibt das nen Instant Symphatie Bonus beim Kunden.
So ein Quark.
Du scheinst nicht zu wissen, das der Hersteller in der Pflicht steht, ein funktionierendes Produkt hierzulande zu liefern. Wenn nicht mal Treiber zur Verfügung stehen, die problemlos funktionieren - wie es anfangs der Fall war, dann ist dies nicht geschehen.
Und WTF sollen irgendwelche Stabi tests ?
;D Ich hoffe die Frage ist nicht ernst gemeint, oder glaubst du wirklich, das Soft und Hardware ohne langwierige Tests an den Massenmarkt ausgeliefert werden?
Wen interessiert denn "hierzulande" bitte? Deutschland ist ein futzel Markt vs. USA und die Asiatischen Technik Freak Staaten.
Gibt genug Notebooks die mit sehr guten GrafikChips ausgestattet sind, die den Akku in 2H leergesaugt haben. Gamenotebooks sind "In", weil man damit unterwegs sich eine DVD einfahren kann oder mal den Kindern im Urlaub auch ne Abwechslung geben kann. Auserdem brauchen sie nicht soviel Platz wie ein PC, aber sie bieten auch die Möglichkeit mal mit feiner Grafik zu Zocken.
In den Business Notebooks die eine weitaus höhere Auflage haben, sind meist die Intel onboard Grafics drin oder X1300/7200 Derivate, richtiges Lowend wo aber ein 256MB Ram Sticker drangemacht werden kann, mit DVI Ausgang ;)
Was sind eigentlich Stabilitätstests? Kenne nur Funktionstests und die werden am PC durchgeführt, das was an Funktionstest an einer GPU durchgeführt wird NACH der Fertigung ist reines selektieren, funst - bissl defekt, Müll.
Fetza
2007-03-23, 20:56:39
Wen interessiert denn "hierzulande" bitte? Deutschland ist ein futzel Markt vs. USA und die Asiatischen Technik Freak Staaten.
Gibt genug Notebooks die mit sehr guten GrafikChips ausgestattet sind, die den Akku in 2H leergesaugt haben. Gamenotebooks sind "In", weil man damit unterwegs sich eine DVD einfahren kann oder mal den Kindern im Urlaub auch ne Abwechslung geben kann. Auserdem brauchen sie nicht soviel Platz wie ein PC, aber sie bieten auch die Möglichkeit mal mit feiner Grafik zu Zocken.
In den Business Notebooks die eine weitaus höhere Auflage haben, sind meist die Intel onboard Grafics drin oder X1300/7200 Derivate, richtiges Lowend wo aber ein 256MB Ram Sticker drangemacht werden kann, mit DVI Ausgang ;)
Was sind eigentlich Stabilitätstests? Kenne nur Funktionstests und die werden am PC durchgeführt, das was an Funktionstest an einer GPU durchgeführt wird NACH der Fertigung ist reines selektieren, funst - bissl defekt, Müll.
das ist grütze, gerade in den usa liegt der anteil an älteren grakas noch vergleichsweise hoch. Die jährliche datenerhebung durch steam ist da ein griffiges indiz.
Was soll dein Posting bitte aussagen? Wieviele "Spiele-PC/Hardware" wird hierzulande umgesetzt und dann vergleich mal Asien/Usa
Fetza
2007-03-24, 16:56:17
Was soll dein Posting bitte aussagen? Wieviele "Spiele-PC/Hardware" wird hierzulande umgesetzt und dann vergleich mal Asien/Usa
ich wollte nur darauf hinweisen (zugegebenerweise etwas umgangsprachlich), das in den usa, längst nicht soviel high-end grafikkarten verkauft werden, wie in deutschland wenn man die einwohnerzahlen und verkäufe in relation zueinander setzt.
Praktisch zwei kontinente gegen ein land bezüglich hardwareverkäufe zu setzen ist doch etwas unglücklich, oder meinst du nicht?
Kurzum deutschland ist alles andere als ein "futzel Markt".
Du scheinst nicht zu wissen, das der Hersteller in der Pflicht steht, ein funktionierendes Produkt hierzulande zu liefern. Wenn nicht mal Treiber zur Verfügung stehen, die problemlos funktionieren - wie es anfangs der Fall war, dann ist dies nicht geschehen.
Darauf habe ich mich bezogen, das es so nach "in Deutschland muss da aba aba..." geklungen hat. Seit wann funktioniert in der IT Branche etwas auf anhieb... Vista is doch das beste Beispiel, im großen und ganzen funktioniert es, aber es hat einige Bugs die eben nicht zur "100% funktionieren Wertung" reichen.
Selbe gilt auch für die G80 Serie, funktioniert in der Masse der Spiele einwandfrei. Das es in einigen Spielen zu problemen kommt, heist nicht das das Produkt überhaupt nicht funktioniert.
Aber so is das halt, wenn z.b. es in nur einem Spiel einen Fehler geben würde, das Spiel aber millionenfach gespielt wird, ist das Produkt der letzte Scheiß, aber wenn es dann in den anderen 999 Spielen keine Probleme gibt interessiert das keinen ;)
Cubitus
2007-03-25, 13:32:21
der Lunchtermin für die 8800 Ultra soll eventuell am 17. April stattfinden
Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/2007/maerz/neue_grafikkarten_showdown_april/)
Prey: http://www.ixbt.com/video2/tech_prey.shtml (nicht vergessen, dass es die Doom-3-Engine ist, zu viel Geometrie ist tödlich).
shader_waits_for_rop, % 28.8
Bedeutet das, dass die Shader 28% der Zeit auf die Rops warten, weil die limitieren?
Kann mir denn keiner diese recht einfache Frage beantworten?
:(
der Lunchtermin für die 8800 Ultra soll eventuell am 17. April stattfinden
Mahlzeit =)
Demirug
2007-03-25, 23:33:32
Kann mir denn keiner diese recht einfache Frage beantworten?
Ja. Zur Vollständigkeit noch die Originalerklärung:
shader_waits_for_rop: This is the % of time that the pixel shader is stalled by the raster operations unit (ROP), waiting to blend a pixel and write it to the frame buffer. If the application is performing a lot of alpha blending, or even if the application has a lot of overdraw (the same pixel being written multiple times, unblended) this can be a performance bottleneck.
Fetza
2007-03-25, 23:46:50
Ja. Zur Vollständigkeit noch die Originalerklärung:
warum hat nv dann nicht einfach ein paar rops mehr eingesetzt? Das kommt mir irgendwie so nach verschwendung vor. 2 rops mehr oder so, die man bräuchte, hätten doch nicht soviel mehr an transistoren gekostet. Oder hätte man die rops nicht höher takten können?
Ja. Zur Vollständigkeit noch die Originalerklärung:
Danke.
Darf man davon ausgehen, dass die 28% aus dem Z-Pass resultieren?
Oder gibt es sonstwo noch ein Bottleneck?
deekey777
2007-03-26, 00:38:45
Danke.
Darf man davon ausgehen, dass die 28% aus dem Z-Pass resultieren?
Oder gibt es sonstwo noch ein Bottleneck?
Eigentlich wollte ich dir gleich antworten, aber irgendwie habe ich's vergessen.
Die 28 % beziehen sich zunächst auf Default, und die Default ist bei dem Tester 1024x768&4xMSAA. Wird das MSAA deaktivert, so senkt der Wert auf 7 %. Haben wiederum die Pixelshader wenig/weniger zu tun (zB AF off), so müssen sie länger auf die ROPs warten.
Zum Vergleich CoJ:
http://img337.imageshack.us/img337/1502/cojqq8.png
Default ist hier SM 3.0 samt FP16-Framebuffer.
warum hat nv dann nicht einfach ein paar rops mehr eingesetzt? Das kommt mir irgendwie so nach verschwendung vor. 2 rops mehr oder so, die man bräuchte, hätten doch nicht soviel mehr an transistoren gekostet. Oder hätte man die rops nicht höher takten können?
Dann bräuchte man auch mehr Speicherbandbreite, sonst nützt es nichts. G70 hat nicht von ungefähr "nur" 16 ROPs.
Eigentlich wollte ich dir gleich antworten, aber irgendwie habe ich's vergessen.
Die 28 % beziehen sich zunächst auf Default, und die Default ist bei dem Tester 1024x768&4xMSAA. Wird das MSAA deaktivert, so senkt der Wert auf 7 %. Haben wiederum die Pixelshader wenig/weniger zu tun (zB AF off), so müssen sie länger auf die ROPs warten.
Da man eigentlich nicht ohne AA und AF spielt schon etwas deprimierend.
Zum Vergleich CoJ:
http://img337.imageshack.us/img337/1502/cojqq8.png
Default ist hier SM 3.0 samt FP16-Framebuffer.
Auch ein schönes Beispiel zum diskutieren.
VS haben nur 30% der Zeit etwas zu tun, die PS 50% der Zeit.
Bei all den tollen Marketingzahlen mit x GFlops ist es doch etwas enttäuschend, dass die Shader sich tatsächlich die ganze Zeit nur langweilen.
mapel110
2007-03-26, 01:13:59
hm, sollte man da nicht die Auslastung addieren? VS und PS? Die Zahlen sind doch vom G80, oder?
Dann wäre die Auslastung recht gut.
deekey777
2007-03-26, 01:19:04
hm, sollte man da nicht die Auslastung addieren? VS und PS? Die Zahlen sind doch vom G80, oder?
Dann wäre die Auslastung recht gut.
Es ist eine 7800GTX. :smile:
mapel110
2007-03-26, 01:21:10
Es ist eine 7800GTX. :smile:
Okay, dann ists wirklich ... ehm ja. Gibts zum Vergleich die Werte von einem G80?
Okay, dann ists wirklich ... ehm ja. Gibts zum Vergleich die Werte von einem G80?
Rechnest du da ehrlich mit wesentlich mehr?
Vergleich mal die Effizenz zwischen G80 und G70. Und denk daran, dass bei den Werten hier ne 4D-ALU schon als busy gilt, wenn sie nur 1 Skalar berechnet.
Ailuros
2007-03-26, 06:07:20
Okay, dann ists wirklich ... ehm ja. Gibts zum Vergleich die Werte von einem G80?
Es ist zwar leicht zu uebersehen auf ersten Blick, aber man sieht es leicht von den "shader waits for texture %" dass es sich um G7x handelt.
deekey777
2007-03-26, 08:43:17
Okay, dann ists wirklich ... ehm ja. Gibts zum Vergleich die Werte von einem G80?
Funktioniert NVPerfHUD schon mit dem G80?
http://developer.nvidia.com/object/nvperfhud_home.html
Mir ist gerade dieses Bild aufgefallen: http://www.nvidia.com/dev_content/blast/img/2006/3/Performance_Dashboard.jpg
Schaut euch den Graphen in der rechten oberen Ecke an. :)
Anarchy-HWLUXX
2007-03-26, 13:00:40
G98 should be out by mid 2007
-> G78 ersatz mit DX10
http://www.fudzilla.com/index.php?option=com_content&task=view&id=285&Itemid=1
OK, also wenn nV die nächste Lowest-End Karet scho mit G9* betitelt ... ömmm, kann es sein das mer doch wie bei der NV40 keinen "kleinen" refresh bekommen sondern direkt den G90 mit deutlich mehr power -> des is zu spannend ;D
sulak
2007-03-26, 18:38:18
Sieht eher danach aus das alle "Refreshs" auf 65nm einfach als G9x Serie benannt werden.
Was aber allein nicht sein kann, bisher hat man immer bei einer neuen Serie Features eingebaut. Vieleicht ists ja der Videoprozessor und die erhöhte Rechengenauigkeit (was war das nochmal mit 64Bit?)
G80 und NVPerfHUD kommt bald für alle, momentan kann man sich das nur als Entwickler als Beta Version ziehen.
AnarchX
2007-03-26, 18:39:30
Nvidia G84 and G86 delayed
Time for a respin (http://www.theinquirer.net/default.aspx?article=38500)
Ob da vielleicht ein Zusammenhang zu diesem hier (http://www.fudzilla.com/index.php?option=com_content&task=view&id=298&Itemid=34) besteht? :|
(Nachdem ATi sich auch verspätet, nimmt man sich vielleicht nun nochmal die Zeit die ein oder anderen kleinen Problem nachzubessern?)
reunion
2007-03-26, 19:16:09
Einen Respin macht man nicht zum Spaß, und schon gar nicht weil sich die Konkurrenz verspätet, das kosten Millionen. Aber momentan genau wie die RV630 Verspätung wenig glaubwürdig IMHO.
Ailuros
2007-03-27, 07:48:09
Einen Respin macht man nicht zum Spaß, und schon gar nicht weil sich die Konkurrenz verspätet, das kosten Millionen. Aber momentan genau wie die RV630 Verspätung wenig glaubwürdig IMHO.
Die Moeglichkeit dass G84 (und ja ich hab nur von diesem gehoert) einen re-spin benoetigen koennte wurde schon vor einiger Zeit hier erwaehnt. Der Glaubwuerdigkeitsgrad ist IMHO ziemlich gross, denn 80nm ist alles andere als "optimal". 65nm ist da technisch gesehen nach dem was sich herumspricht besser, nur stinken eben da die yields momentan.
Ailuros
2007-03-27, 08:12:25
Say I didn't say so pffff.........
http://www.beyond3d.com/content/reviews/7/17
Langsam geht es los. Es handelt sich lediglich um ein erstes "Testrennen".
Gaestle
2007-03-27, 10:52:29
Say I didn't say so pffff.........
http://www.beyond3d.com/content/reviews/7/17
Langsam geht es los. Es handelt sich lediglich um ein erstes "Testrennen".
Wie ist das zu bewerten? Sind +15% viel / wenig / das Erwartbare?
Ailuros
2007-03-27, 12:05:28
Wie ist das zu bewerten? Sind +15% viel / wenig / das Erwartbare?
Es sind eigentlich mehr als 15% wenn man jetzt unbedingt Haare spalten will, denn zu 100% gibt keine Einheit aus (siehe ADD bei 97%).
That 1.15x happens with a short-ish shader, and falls off at very high resolutions and with long shader lengths, indicating bottlenecks elsewhere in the architecture (4MP is a lot of pixels to shade, even with a simple test) or resource allocation issues, or a choke condition somewhere in the hardware or driver.
IMHO laesst sich da noch einiges aus dem Compiler quetschen. Waeren es nur schaetzungsweise 18% (welches zu einem ziemlich kleinen Prozentual in Echtzeit fuehren wuerde), waere es eigentlich nicht besonders die ganze Muehe wert. Nimmt man das theoretische Maximum von den ADDs sind es 346GFLOPs + das theoretische Maximum des mickrigen MUL Anteils von ~31 GFLOPs = 377GFLOPs oder eine Steigerung des rein theoretischen Maximums von ~9%.
Gaestle
2007-03-27, 13:19:14
Es sind eigentlich mehr als 15% wenn man jetzt unbedingt Haare spalten will, denn zu 100% gibt keine Einheit aus (siehe ADD bei 97%).
IMHO laesst sich da noch einiges aus dem Compiler quetschen. Waeren es nur schaetzungsweise 18% (welches zu einem ziemlich kleinen Prozentual in Echtzeit fuehren wuerde), waere es eigentlich nicht besonders die ganze Muehe wert. Nimmt man das theoretische Maximum von den ADDs sind es 346GFLOPs + das theoretische Maximum des mickrigen MUL Anteils von ~31 GFLOPs = 377GFLOPs oder eine Steigerung des rein theoretischen Maximums von ~9%.
Dankeschön.
AnarchX
2007-03-27, 17:17:48
8800Ultra für $999? (http://forums.ocworkbench.com/bbs/showthread.php?%20threadid=61222)
INQ greift diese Meldung auch auf (http://www.theinquirer.net/default.aspx?article=38527)
Bei einem solchen Preis kommt der Verdacht nach einer Dual-G80-Karte doch wieder auf.
reunion
2007-03-27, 17:22:39
Wäre es eine Dual-Karten würde man sie GX2 nennen. Eher kommt der Verdacht nach kaum vorhandenen Stückzahlen auf.
AnarchX
2007-03-27, 17:28:40
Wäre es eine Dual-Karten würde man sie GX2 nennen.
Naja, NV kann auch das Bezeichnungsschema geändert haben, wie schon oft in der Vergangenheit.
Aber wenn diese $999 stimmen sollten, muss sie imo schon mehr als eine OC-8800GTX sein: Dual-Karte oder vielleicht 1.5GB GDDR3/4.
seahawk
2007-03-27, 17:37:18
Riecht nach ner Pressedition, die nur dazu dient die Niederlage gegen den R600 halbwegs abzumildern, die aber praktisch nie eine Rolle im Verkauf speilen wird.
Riecht extrem nach einer Verzweifelungstat von NV.
Riecht extrem nach einer Verzweifelungstat von NV.
nVidia soll an ein Produkt verzweifel, welches noch nichtmal released wurde?
Zu erst muss erstmal AMD auf den Markt kommen, dann werden wir sehen, wer welche Verzweiflungstat macht.
Nightspider
2007-03-27, 17:42:47
Ja Nvidia ist verzeifelt :rolleyes: ...daran genug 8800 ausliefern zu können, die sich wie warme Semmeln verkaufen. :biggrin:
Edit:
Wenn AMD auf den Markt kommt kauf ich mir dann gleich 2 mal AMD. :biggrin:
Armaq
2007-03-27, 17:45:04
Riecht nach ner Pressedition, die nur dazu dient die Niederlage gegen den R600 halbwegs abzumildern, die aber praktisch nie eine Rolle im Verkauf speilen wird.
Riecht extrem nach einer Verzweifelungstat von NV.
Das solltest du rot einfärben und mit grasgrün unterlegen.
Warum sollte nv an etwas zweifeln? Sie haben den Ball in ihrer Hälfte?!
AnarchX
2007-03-27, 17:47:55
[G84 & G86 Firmed For April Launch] (http://www.vr-zone.com/index.php?i=4864)
GeForce 8600 GTS, 8600 GT and 8500 GT are all firmed for April 17th launch and card makers have already received revision A2 GPUs from NVIDIA for mass production. We can expect cards to reach distributors and retailers in 2 weeks time ready for mass availability in the market.[...]
Da fragt man sich von wem wohl das Delay-Gerücht kam, welches INQ aufschnappte.
[GeForce 8800 Ultra To Counter R600 In May] (http://www.vr-zone.com/index.php?i=4865)
During the NVIDIA's Ngagement meeting today, they have briefed their partners on the upcoming GeForce 8800 Ultra cards to coincide with ATi R600 in May. NVIDIA is pretty confident that GeForce 8800 Ultra can beat Radeon X2900 XTX.[...]
sulak
2007-03-27, 18:57:36
999$ für eine Ultra sind sicher unrealistisch, es sei denn man nennt den GX2 Nachfolger "Ultra", was aber auch an den haaren herbeigezogen zu sein scheint.
In den News steht ja das MSI den G80 bei 700MHz fahren kann, wenn der Shaderclock gesenkt ist, bzw. das Verhältnis zwischen GPU/Scalarunit Taktrate. Da Shaderleistung ja genug vorhanden zu sein scheint, dürfte der mögliche Mehrtakt der TMUs/ROPs einiges an Performance freisetzen. Denn wir sind immer noch in sovielen Fällen Füllratenlimitiert. Schon allein weil wir ja jetzt gerne 2560*1536 in 8xAA hätten... Unter 1600*1200er Auflösung limitiert ja sehr oft die CPU bei Highend GPUs also muss man in der Aufllösung darüber noch glänzen können, und da nehme ich mal an wird die Shaderleistung eher Nebensache wenn Füllrate gefragt ist, vorallem wegen dazugeschalterter hoher AA Modi. 700MHz GPU bei +110GB/s Bandbreite dürfte bis zum erscheinen des G90 mehr Performance freisetzen als eine neue GX2, die an fehlender oder noch sehr Betamäßiger SLI Unterstützung in Vista krankt.
Obwohl es hieß ja das SLI unter Vista im April RDY ist oder? ^^
Anarchy-HWLUXX
2007-03-27, 18:58:42
8800Ultra für $999? (http://forums.ocworkbench.com/bbs/ocworkbench-aaaeac-aaae/t-nvidia-aa5aaa-8800-ultra-iusd999iae-ati-r600-61217.html)(Übersetzung) (http://translate.google.com/translate?u=http%3A%2F%2Fforums.ocworkbench.com%2Fbbs%2Focworkbench-aaaeac-aaae%2Ft-nvidia-aa5aaa-8800-ultra-iusd999iae-ati-r600-61217.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
INQ greift diese Meldung auch auf (http://www.theinquirer.net/default.aspx?article=38527)
Bei einem solchen Preis kommt der Verdacht nach einer Dual-G80-Karte doch wieder auf.
Das hört sich nach Schwachsinn zum Qaudrat an ... ist doch klar das ne 1k $ GraKa einfach zu teuer ist und ne G80 @ GX2 gleich mit WaKü daherkommen muss um nicht einen extrem lauten Lüfter benutzen zu müssen.
AnarchX
2007-03-27, 19:47:19
[...] und ne G80 @ GX2 gleich mit WaKü daherkommen muss um nicht einen extrem lauten Lüfter benutzen zu müssen.
Für $999 sollte so etwas durchaus machbar sein. ;)
Aber das wird sich bis zum Mai sicherlich noch zeigen.
coolaler konnte auch noch eine 8600GTS benchen (http://img6.picsplace.to/img6/27/5938.JPG) und hat sie dann noch auf 800/1166MHz übertaktet (http://img11.picsplace.to/img10/24/oc800.JPG).
Anarchy-HWLUXX
2007-03-27, 21:51:15
Für $999 sollte so etwas durchaus machbar sein. ;)
Aber das wird sich bis zum Mai sicherlich noch zeigen.
coolaler konnte auch noch eine 8600GTS benchen (http://img6.picsplace.to/img6/27/5938.JPG) und hat sie dann noch auf 800/1166MHz übertaktet (http://img11.picsplace.to/img10/24/oc800.JPG).
1. selbst eine extrem übertaktete G80, denn eine Karte die 8800 Ultra heisst wird sicher kein neuer core sein, wird den R600 kaum einstampfen
2. die R600 wird sicher keine 1k$ kosten
3. das teil müsste schneller sein als zwei 8800GTX oder R600 im gespann um den preis irgendwie zu rechtfertigen
Egal wie man das dreht, es macht kein sinn vor allem bei dem Preis -> FUD²
PS :
http://www.vr-zone.com/?i=4864
G84 & G86 Firmed For April Launch
Ailuros
2007-03-27, 23:08:41
Naja, NV kann auch das Bezeichnungsschema geändert haben, wie schon oft in der Vergangenheit.
Aber wenn diese $999 stimmen sollten, muss sie imo schon mehr als eine OC-8800GTX sein: Dual-Karte oder vielleicht 1.5GB GDDR3/4.
Das "oder" im letzten Satz haettest Du Dir sparen koennen; damit eine solche dual-chip Loesung als Ultra high end Dingsbums erstmal Sinn macht, muesste es auch 768MB pro chip haben.
Das Zeug klingt mir selber unwahrscheinlich, aber wenn es stimmen sollte gibt es sicher ein paar Spinner die sich mit 64xSLi AA (8xRGMS+4xOGSS * 2) in mittelmaessigen Aufloesungen ausreitzen wollen.
dargo
2007-03-27, 23:18:54
das teil müsste schneller sein als zwei 8800GTX oder R600 im gespann um den preis irgendwie zu rechtfertigen
Wie kommst du darauf? Eine einzelne GTX kostet immer noch 599$.
Ailuros
2007-03-27, 23:24:56
Wie kommst du darauf? Eine einzelne GTX kostet immer noch 599$.
$540 eigentlich momentan aber dass er falsch in seiner Logik liegt wuerde eher so etwas beweisen:
http://www.newegg.com/Product/Product.aspx?Item=N82E16814143085
AnarchX
2007-03-27, 23:28:32
Das "oder" im letzten Satz haettest Du Dir sparen koennen; damit eine solche dual-chip Loesung als Ultra high end Dingsbums erstmal Sinn macht, muesste es auch 768MB pro chip haben.
Da hast du recht, wobei ich mit dem "oder" mehr auf die $3k QuadroFX 5600 hindeuten wollte, die mit einem schnelleren Core und schnellerem Ram vielleicht als 8800Ultra verkauft werden könnte.
Das Zeug klingt mir selber unwahrscheinlich, aber wenn es stimmen sollte gibt es sicher ein paar Spinner die sich mit 64xSLi AA (8xRGMS+4xOGSS * 2) in mittelmaessigen Aufloesungen ausreitzen wollen.
Sinn machen würde, so eine Dual-G80-Karte durchaus:
-deutlich höhere Leistung möglich als mit einem OC-G80
-Physikfeatures von SLI 2.0 auch nutzbar für User die kein passendes Mainboard haben
-G80-SLI soll im April fertig sein
-$999 würden durchaus zu dem Aufwand passen, der nötig ist zu Realisierung dieser Lösung
Aber das wird sich zeigen müssen, wobei ich auch nicht ganz daran glaube.
Ailuros
2007-03-27, 23:35:29
Wenn dann muss das Treiberteam noch mehr Ueberstunden machen, denn SLi fuer G80 laesst ja auch allen Platformen momentan viel zu viel zu wuenschen uebrig.
Anarchy-HWLUXX
2007-03-27, 23:55:23
$540 eigentlich momentan aber dass er falsch in seiner Logik liegt wuerde eher so etwas beweisen:
http://www.newegg.com/Product/Product.aspx?Item=N82E16814143085
Das ist eine extrem teure sonderversion mit nem vergleichsweise schlechten Kühler und nicht das "von der stange, billiger gehts nicht" Modell von Palit, Sparkle oder Club3D.
Es gibt immer ein paar unfähige die sich nicht traun die WaKü selbst zu montieren oder einfach zuviel geld haben ...
Ailuros
2007-03-28, 00:16:37
Das ist eine extrem teure sonderversion mit nem vergleichsweise schlechten Kühler und nicht das "von der stange, billiger gehts nicht" Modell von Palit, Sparkle oder Club3D.
Es gibt immer ein paar unfähige die sich nicht traun die WaKü selbst zu montieren oder einfach zuviel geld haben ...
Falls dieses Ultra Dingsbums nichts weiteres als ein hoeher getaktetes G80@90nm Exemplar sein sollte, dann braucht man wohl auch unbedingt etwas in der Richtung von extravaganter Kuehlung.
Mir ist keine Club3D, Sparkle oder Palit G80 bewusst die mit 650MHz und der Garantie des Vendors verkauft wird, lass mich aber gerne eines besseren belehren.
dargo
2007-03-28, 00:22:01
$540 eigentlich momentan aber dass er falsch in seiner Logik liegt wuerde eher so etwas beweisen:
Wann wurde die UVP der GTX gesenkt? Habe ich was verpasst?
http://www.newegg.com/Product/Product.aspx?Item=N82E16814143085
Damit hast du wohl recht. Ein selektierter G80 mit 680-700Mhz GPU-Takt und Wasserkühlung für 999$ wäre durchaus denkbar.
Anarchy-HWLUXX
2007-03-28, 00:24:21
Falls dieses Ultra Dingsbums nichts weiteres als ein hoeher getaktetes G80@90nm Exemplar sein sollte, dann braucht man wohl auch unbedingt etwas in der Richtung von extravaganter Kuehlung.
Mir ist keine Club3D, Sparkle oder Palit G80 bewusst die mit 650MHz und der Garantie des Vendors verkauft wird, lass mich aber gerne eines besseren belehren.
Eine "Ultra" muss auch auf default die Leistung bringen ohne OC - das ist der Witz an der sache. Ich werde scherlich nicht Premium zahlen für OC das ich auch selbst hinbekomme ...
Und ich geh ATM davon aus das es ein "normaler" G80 Chip sein wird falls es eine "8800 Ultra" wird - wobei das auch net 100% sicher ist, könnte auch 8900 heissen oder wie bei den 7800GTX 512MB nen ganz anderer Name ...
Ailuros
2007-03-28, 00:27:45
Wann wurde die UVP der GTX gesenkt? Habe ich was verpasst?
Ich sagte lediglich dass die GTX schon mit 540$ in den Staaten erhaeltlich ist. Ich hab fuer die Gainward Bliss 640 Euronen auf den Ladentisch gelegt und momentan kostet sie hier nur noch 540 Euro.
dargo
2007-03-28, 00:28:43
Ich sagte lediglich dass die GTX schon mit 540$ in den Staaten erhaeltlich ist. Ich hab fuer die Gainward Bliss 640 Euronen auf den Ladentisch gelegt und momentan kostet sie hier nur noch 540 Euro.
Achso, ich meine nicht die Strassenpreise sondern die UVP.
Ailuros
2007-03-28, 00:31:39
Eine "Ultra" muss auch auf default die Leistung bringen ohne OC - das ist der Witz an der sache. Ich werde scherlich nicht Premium zahlen für OC das ich auch selbst hinbekomme ...
Ich versuche lediglich eine Erklaerung zu finden fuer das Geruecht von einem $999 Preis. Dual-chip, 1.5GB Speicher und eine hohe Taktrate + obszoene Kuehlungsloesung sind Thesen die durchaus Sinn machen.
Und ich geh ATM davon aus das es ein "normaler" G80 Chip sein wird falls es eine "8800 Ultra" wird - wobei das auch net 100% sicher ist, könnte auch 8900 heissen oder wie bei den 7800GTX 512MB nen ganz anderer Name ...
Ist die Namensgebung von irgend einem Wert? Die Bezeichnung tauchte in irgend einem Treiber INF auf deshalb wurde sie auch bis jetzt so adoptiert. Von mir aus koennte so ein Ding auch Borgo Sphinxter 666 heissen LOL.
Ailuros
2007-03-28, 00:36:05
Achso, ich meine nicht die Strassenpreise sondern die UVP.
Der MSRP bleibt auf gleichem Nivaeu bis die Konkurrenz eine Antwort fuer G80 vorstellt. Man waere schoen bloed wenn man die Kuh nicht weiterhin melkt.
dargo
2007-03-28, 00:36:47
Ich versuche lediglich eine Erklaerung zu finden fuer das Geruecht von einem $999 Preis. Dual-chip, 1.5GB Speicher und eine hohe Taktrate + obszoene Kuehlungsloesung sind Thesen die durchaus Sinn machen.
Ich glaube kaum, dass man so eine starke Karte "nur" als eine G8800Ultra verkaufen würde. Was ich mir vorstellen kann ist halt ein Wegfall der GX2 Bezeichnung und dafür eben ein Ultra. Dann aber mit zwei GTS Chips, 2x 640MB Vram und selbstverständlich einer Wasserkühlung.
Der MSRP bleibt auf gleichem Nivaeu bis die Konkurrenz eine Antwort fuer G80 vorstellt. Man waere schoen bloed wenn man die Kuh nicht weiterhin melkt.
Du hast die GTS 640MB vergessen. ;)
NV musste wohl selbst zugeben, dass die anfänglichen 449$ einfach zu hoch an der gebotenen Leistung im Vergleich zur GTX angesetzt waren.
Ailuros
2007-03-28, 00:40:34
Wenn eine 1.5GB mit der G80 Kuehlungsloesung auskommt dann sehe ich nicht ein warum man unbedingt eine Wasserkuehlung fuer ein hypothetisches dual chip Dingsbums braucht. Der Stromverbrauch auf solchen GPUs ist nichtmal in der Naehe von 2* single GPUs.
dargo
2007-03-28, 00:44:23
Wenn eine 1.5GB mit der G80 Kuehlungsloesung auskommt dann sehe ich nicht ein warum man unbedingt eine Wasserkuehlung fuer ein hypothetisches dual chip Dingsbums braucht. Der Stromverbrauch auf solchen GPUs ist nichtmal in der Naehe von 2* single GPUs.
Ich kann dir nicht ganz folgen. Du meinst schon 2x GTX GPU mit 2x 768MB Vram oder? Das mit Luft kühlen will ich sehen. :tongue:
Die RAM-Menge ist für die Kühlung ziemlich unerheblich...
Ailuros
2007-03-28, 00:52:09
Ich kann dir nicht ganz folgen. Du meinst schon 2x GTX GPU mit 2x 768MB Vram oder? Das mit Luft kühlen will ich sehen. :tongue:
Nein ich meinte nicht zwei GTX auf einem PCB sondern dass eine QuadroFX5600 mit 1.5GB Speicher so aussieht:
http://www.nvidia.com/object/quadro_fx_5600_4600.html
Du hast 2*640MB vorgeschlagen, wobei es 256MB weniger Speicher als auf einer QuadroFX5600 waeren.
dargo
2007-03-28, 00:54:07
Die RAM-Menge ist für die Kühlung ziemlich unerheblich...
Nicht ganz, in der Summe kommt das schon etwas zusammen. Auch wenn es im Verhältnis zur GPU recht wenig ist. Wenn ich den Ramtakt meiner GTS von 800 auf 200Mhz senke merkt man das schon an der Temp. Anzeige. Bei doppelter Auslegung *2. Eine Wasserkühlung wird das aber kaum jucken.
Nein ich meinte nicht zwei GTX auf einem PCB sondern dass eine QuadroFX5600 mit 1.5GB Speicher so aussieht:
http://www.nvidia.com/object/quadro_fx_5600_4600.html
Was hat aber diese Karte mit einer G8800Ultra zu tun :confused:
Stehe gerade irgendwie auf dem Schlauch. Wie schnell ist die GPU eigendlich getaktet? Der Speicher läuft schon mal mit 800Mhz.
Du hast 2*640MB vorgeschlagen, wobei es 256MB weniger Speicher als auf einer QuadroFX5600 waeren.
Nein!
Eine QuadroFX5600 kann die vollen 1,5GB ansprechen. Eine eventuelle G8800Ultra mit 2 GTS GPUs und 2x640MB Vram kann nur je 640MB ansprechen. Dh. würde zb. Call of Duty 2 sagen wir mal 700MB Vram benötigen würde es zu starken Einbrüchen bei der "G8800Ultra" kommen im Gegensatz zur QuadroFX5600.
Ailuros
2007-03-28, 01:04:27
Die RAM-Menge ist für die Kühlung ziemlich unerheblich...
Der Speicher auf der Quadro FX5600 ist auf 800MHz getaktet und NV gibt selber einen maximalen Stromverbrauch von 171W an:
http://www.nvidia.com/docs/IO/40049/quadro_fx_5600_datasheet.pdf
Hingegen auf der FX4600 taktet der Speicher zwar nur auf 600MHz, aber der Stromverbrauch liegt laut NV auf 134W:
http://www.nvidia.com/docs/IO/40049/quadro_fx_4600_datasheet.pdf
Eine 4500X2 (Quadro GX2 Bruder) mit 1024MB verbratet gute 145W laut NV.
dargo
2007-03-28, 01:08:21
War es nicht so, dass ein 64MB GDDR3 Chip 1,7W verbrät? Ich weiß aber die Taktrate nicht mehr. 700Mhz?
Ailuros
2007-03-28, 01:10:28
Nein!
Eine QuadroFX5600 kann die vollen 1,5GB ansprechen. Eine eventuelle G8800Ultra mit 2 GTS GPUs und 2x640MB Vram kann nur je 640MB ansprechen. Dh. würde zb. Call of Duty 2 sagen wir mal 700MB Vram benötigen würde es zu starken Einbrüchen bei der "G8800Ultra" kommen im Gegensatz zur QuadroFX5600.
Manchmal hab ich das Gefuehl dass Du es schwer hast den Zusammenhang zu finden was andere genau sagen wollen. Ich sagte lediglich dass eine hypothetische 2*640 GX2-wasauchimmer weniger Speicher auf dem oeden PCB haben wuerde als eine QuadroFX5600. So viel koennte man ja wohl noch schnallen koennen.
Das obrige ist sowieso fuer die Tonne; erstens sind Quadros nicht fuer 3D gaming ausgelegt und zweitens ist Dein CoD2 Beispiel ziemlich gut fuer AFR bzw. SLi optimiert. In diesem Fall sind es dann 640MB pro Frame und Du wirst sehr wohl doppelt so viel AA samples theoretisch anwenden koennen, denn sonst limitiert Dich wohl sowieso momentan jegliche verfuegbare CPU.
Ailuros
2007-03-28, 01:11:31
War es nicht so, dass ein 64MB GDDR3 Chip 1,7W verbrät? Ich weiß aber die Taktrate nicht mehr. 700Mhz?
Die vorigen Links von der NV Hauptseite haben auch PCB Groessen. Vergleich erstmal diese bevor Du erstmal zu einer solchen Rechnung greifst.
Blaire
2007-03-28, 01:14:14
, so eine Dual-G80-Karte durchaus:
-deutlich höhere Leistung möglich als mit einem OC-G80
-Physikfeatures von SLI 2.0 auch nutzbar für User die kein passendes Mainboard haben
-G80-SLI soll im April fertig sein
-$999 würden durchaus zu dem Aufwand passen, der nötig ist zu Realisierung dieser Lösung
Aber das wird sich zeigen müssen, wobei ich auch nicht ganz daran glaube.
An eine Dual-Lösung glaube ich vorerst nicht , wenn dann später. Die Treiber sind noch längst nicht so gut das eine G80 Dual-Lösung in Frage käme (man denke an QuadSLI 4WAY-AFR und DX10...da ist noch viel Land bis das sinnvoll einsatzbar ist.) Es wird wohl ein aufgebohrter G80 mit höheren Takt und schnelleren Speicher werden denk ich mal.
dargo
2007-03-28, 01:23:34
Manchmal hab ich das Gefuehl dass Du es schwer hast den Zusammenhang zu finden was andere genau sagen wollen. Ich sagte lediglich dass eine hypothetische 2*640 GX2-wasauchimmer weniger Speicher auf dem oeden PCB haben wuerde als eine QuadroFX5600. So viel koennte man ja wohl noch schnallen koennen.
Entschuldige mal bitte aber hier:
Ich versuche lediglich eine Erklaerung zu finden fuer das Geruecht von einem $999 Preis. Dual-chip, 1.5GB Speicher und eine hohe Taktrate + obszoene Kuehlungsloesung sind Thesen die durchaus Sinn machen.
sprichst du noch von einer Dual GPU Lösung und dann verweist du auf eine QuadroFX5600 nur weil sie 1,5GB Vram hat. Wie soll man da einen Zusammenhang finden?
Das obrige ist sowieso fuer die Tonne; erstens sind Quadros nicht fuer 3D gaming ausgelegt und zweitens ist Dein CoD2 Beispiel ziemlich gut fuer AFR bzw. SLi optimiert. In diesem Fall sind es dann 640MB pro Frame und Du wirst sehr wohl doppelt so viel AA samples theoretisch anwenden koennen, denn sonst limitiert Dich wohl sowieso momentan jegliche verfuegbare CPU.
Und was machst du wenn ich dir einen Texturepack für CoD2 liefere wo du schon in 1680x1050 ohne AA an 700-800MB Vram Bedarf kommst?
Ailuros
2007-03-28, 06:25:51
sprichst du noch von einer Dual GPU Lösung und dann verweist du auf eine QuadroFX5600 nur weil sie 1,5GB Vram hat. Wie soll man da einen Zusammenhang finden?
Dual chip [komma] (These Nr.1) 1.5GB Speicher + hohe Taktrate [These Nr.2] usw usw.
8800GTX = 10.5" / 140W
FX5600 = 12.28" / 171W
Und was machst du wenn ich dir einen Texturepack für CoD2 liefere wo du schon in 1680x1050 ohne AA an 700-800MB Vram Bedarf kommst?
CoD2 laeuft ausgezeichnet auch auf 512MB GPUs. Das dumme mit den Texturspeichermessungen ist halt dass manche es viel zu wortwoertlich genommen haben und damit seither konstant uebertreiben.
Ich hatte auf der 7800GTX/256MB drei extreme Stellen in CoD2 zur Hand genommen und der insgesamte Speicherverbrauch in 1600*1200 mit 4xAA war bei mir 401.19MB, wobei 159.50MB davon vom System Speicher kamen mit allen Textur-relativen settings auf "extra".
Auf "high" reduziert war der insgesamte Verbrauch auf 282.10MB.
Warum die Separation zwischen "high" und "extra"?
2048*1536 noAA=
"high" =
GPU memory 241.63
system memory 50.84
Total 292.47
"extra" =
GPU memory 241.63
system memory 152.17
Total 392.8
Leistung:
"high" = 20.2 fps
"extra" = 18.7 fps
Ich verlor also nur 7% an Leistung fuer einen 3-fachen Systemspeicher-Verbrauch. In 1600 mit 4xAA ist zwischen "high" und "extra" der Systemspeicherverbrauch auch in einer ~1:3 Relation und der Leistungsunterschied maximal bei ~20%. In 1280 ist der Leistungsunterschied dann eher mickrig, weil eben eine GPU wie die 7800GTX/256MB INSGESAMT nicht mehr als fuer 1280+AA in CoD2 taugte und daran haette sogar 1MB von onboard Speicher nichts retten koennen.
Um jetzt auf's Thema zurueck zu kommen, zuerst findet man die Aufloesung und AA settings wo GPU X erstmal spielbar ist und dann versucht man zu sehen was genau in jeglichem Fall darueber limitieren koennte.
http://www.beyond3d.com/content/reviews/7/4
8800GTS/640MB
CoD2
2048*1536
1xAA/16xAF = 46.7 fps
4xAA/16xAF = 38.5 fps
....natuerlich wird nach Dir auf einer 8800GTS der Speicher "ueberschwemmt" und deshalb verliert sie in diesem Fall 18% an Leistung. Wenn Du die Luecken in Deiner Frage erstmal entdeckst, kannst Du Dir dann auch selber antworten. Im Vergleich ist der Unterschied nach diesen Resultaten fuer eine 8800GTX bei 15%, wobei diese aber auch etwas mehr Fuellrate, ROPs und Bandbreite hat.
Es waere schoen wenn nur ein Wert bei GPU-Analysen eine globale Antwort geben koennte; ein klein bisschen komplizierter ist das Ganze schon.
dargo
2007-03-28, 10:05:12
CoD2 laeuft ausgezeichnet auch auf 512MB GPUs.
Ich weiß. Das liegt einfach daran, dass CoD2 höchswahrscheinlich erst in extremer Auflösung mit viel AA über 512MB Vram kommt (ich kann leider nicht sagen ab wann weil mich mein TFT auf 1280x1024 begrenzt). Ich habe aber von einem Texturepack gesprochen wo du diese Grenze viel schneller überschreitest. Übrigens, mit 1280x1024 16xQ-CSAA komme ich auf knapp 517MB Vram. Und damit meine ich Vram, knapp 42MB werden noch zusätzlich vom Arbeitsspeicher verwendet. Dies tut aber CoD2 immer und führt nicht zu Leistungseinbussen.
Das dumme mit den Texturspeichermessungen ist halt dass manche es viel zu wortwoertlich genommen haben und damit seither konstant uebertreiben.
Ich hatte auf der 7800GTX/256MB drei extreme Stellen in CoD2 zur Hand genommen und der insgesamte Speicherverbrauch in 1600*1200 mit 4xAA war bei mir 401.19MB, wobei 159.50MB davon vom System Speicher kamen mit allen Textur-relativen settings auf "extra".
Auf "high" reduziert war der insgesamte Verbrauch auf 282.10MB.
Warum die Separation zwischen "high" und "extra"?
2048*1536 noAA=
"high" =
GPU memory 241.63
system memory 50.84
Total 292.47
"extra" =
GPU memory 241.63
system memory 152.17
Total 392.8
Leistung:
"high" = 20.2 fps
"extra" = 18.7 fps
Ich verlor also nur 7% an Leistung fuer einen 3-fachen Systemspeicher-Verbrauch. In 1600 mit 4xAA ist zwischen "high" und "extra" der Systemspeicherverbrauch auch in einer ~1:3 Relation und der Leistungsunterschied maximal bei ~20%. In 1280 ist der Leistungsunterschied dann eher mickrig, weil eben eine GPU wie die 7800GTX/256MB INSGESAMT nicht mehr als fuer 1280+AA in CoD2 taugte und daran haette sogar 1MB von onboard Speicher nichts retten koennen.
Keine Sorge, ich habe lange genug CoD2 "anasyliert". Ich kann mit dir wetten du wirst diese Aussage noch mal überdenken. Stichwort --> avg. fps. Einen entsprechenden Thread werde ich bald eröffnen. Würde dir empfehlen sich diesen dann anzugucken.
http://www.beyond3d.com/content/reviews/7/4
8800GTS/640MB
CoD2
2048*1536
1xAA/16xAF = 46.7 fps
4xAA/16xAF = 38.5 fps
....natuerlich wird nach Dir auf einer 8800GTS der Speicher "ueberschwemmt" und deshalb verliert sie in diesem Fall 18% an Leistung. Wenn Du die Luecken in Deiner Frage erstmal entdeckst, kannst Du Dir dann auch selber antworten. Im Vergleich ist der Unterschied nach diesen Resultaten fuer eine 8800GTX bei 15%, wobei diese aber auch etwas mehr Fuellrate, ROPs und Bandbreite hat.
Es waere schoen wenn nur ein Wert bei GPU-Analysen eine globale Antwort geben koennte; ein klein bisschen komplizierter ist das Ganze schon.
Sie verliert viel mehr als nur 18% falls der Vram nicht mehr gereicht hat. Ich sag immer - glaube keinen Benchmarks die du nicht selbst gemacht hast. ;)
reunion
2007-03-28, 16:56:35
An eine Dual-Lösung glaube ich vorerst nicht , wenn dann später. Die Treiber sind noch längst nicht so gut das eine G80 Dual-Lösung in Frage käme (man denke an QuadSLI 4WAY-AFR und DX10...da ist noch viel Land bis das sinnvoll einsatzbar ist.) Es wird wohl ein aufgebohrter G80 mit höheren Takt und schnelleren Speicher werden denk ich mal.
Eben, so eine Dual-Karte würde sich aktuell und wohl auch in naher Zukunft derart blamieren, dass es wenig Sinn machen würde, soetwas zu verkaufen. Ich rechne auch mit einem höher getakteten G80, vermutlich mit Quadro-PCB und 1.5GB VRAM. Der Preis wäre mit 999$ allerdings mehr als happig, aber vermutlich wird man die Karte mangels Lieferbarkeit dort einordnen, sofern das überhaupt stimmt.
AnarchX
2007-03-28, 17:05:01
Eben, so eine Dual-Karte würde sich aktuell und wohl auch in naher Zukunft derart blamieren, dass es wenig Sinn machen würde, soetwas zu verkaufen.
Naja NV scheint momentan sehr intensiv am "SLI-Problem" zu arbeiten, bis Mai würde ich da kein Problem sehen für die Dualkarte performante Treiber bereitzustelllen.
Aber vielleicht ist das noch Hinweis auf die Ultra:
G80 has 160 steam processors? - Saarland university head claims (http://www.fudzilla.com/index.php?option=com_content&task=view&id=334&Itemid=1) :biggrin:
Aber vielleicht ist das noch Hinweis auf die Ultra:
G80 has 160 steam processors? - Saarland university head claims (http://www.fudzilla.com/index.php?option=com_content&task=view&id=334&Itemid=1) :biggrin:
Ähh ja... Philipp ist manchmal etwas verwirrt und realitätsfremd.
reunion
2007-03-28, 17:35:05
Naja NV scheint momentan sehr intensiv am "SLI-Problem" zu arbeiten, bis Mai würde ich da kein Problem sehen für die Dualkarte performante Treiber bereitzustelllen.
Woran glaubst du das zu erkennen? Die Karte gibt es bereits seit Anfang November, und ich denke momentan gibt es noch Dinge mit höherer Priorität, was die Treiber betrifft.
AnarchX
2007-03-28, 17:43:29
Woran glaubst du das zu erkennen? Die Karte gibt es bereits seit Anfang November, und ich denke momentan gibt es noch Dinge mit höherer Priorität, was die Treiber betrifft.
Wenn man SLI 2.0 zusammen mit den kleinen Karten launchen will, sollte man hier doch schon einiges tun und zudem gab es da AFAIK doch eine FW-Roadmap die einen G80-SLI-FW für April vorsah.
NV wird sicherlich die Zeit seit November entsprechend genutzt haben um dann wenn die Konkurrenz endlich kommt einen vernünftigen FW für alle Plattformen vorzuweisen.;)
Blaire
2007-03-28, 17:50:24
Naja NV scheint momentan sehr intensiv am "SLI-Problem" zu arbeiten, bis Mai würde ich da kein Problem sehen für die Dualkarte performante Treiber bereitzustelllen.
Nein Nvidia würde niemals ein halbes Produkt rausbringen hälst du die für so blöd? Nur QuadSLI würde Sinn machen und wenn man zurückblickt wie lange es dauerte bis QuadSLI 7900/7950 GX2 "marktreif" wurde, wieviel Anlaufzeit es brauchte... jetzt tut man sich schon schwer mit dem Treibersupport XP/Vista...von einer GX2 bzw. QuadSLI ist man noch weit entfernt. Vieleicht wenn Crysis kommt aber vorher nicht.
Nur eine 8800 Ultra würde derzeit Sinn machen.
robbitop
2007-03-28, 18:05:08
Ähh ja... Philipp ist manchmal etwas verwirrt und realitätsfremd.
Kennst du ihn persoenlich?
Kennst du ihn persoenlich?
Ja.
Ailuros
2007-03-29, 09:05:47
Keine Sorge, ich habe lange genug CoD2 "anasyliert". Ich kann mit dir wetten du wirst diese Aussage noch mal überdenken. Stichwort --> avg. fps. Einen entsprechenden Thread werde ich bald eröffnen. Würde dir empfehlen sich diesen dann anzugucken.
Was soll es da zu ueberdenken geben? GPUs sind meistens mit so viel Speicher ausgestattet dass erstens das Preis/Leistungs-Nivaeu fuer jeglichen bestimmten Zeitraum stimmt und zur gleichen Zeit der generellen Faehigkeiten dieser auch angepasst.
Waeren als Beispiel 640MB Framebuffer die wahre "Leistungsbremse" fuer aeltere Spiele wie CoD2, koennte man dann neuere Spiele wie Company of Heroes gleich ganz abschreiben.
Man kann fuer jegliche Analyse einen ziemlich optimistischen Benchmark benutzen oder einen oder DEN extremsten Fall ueberhaupt. Im Idealfall hat man so viel Grips und benutzt beide und entscheidet sich fuer eine quasi Schlussfolgerung die irgendwo in der Mitte liegt. Ganz nebenbei braucht man eigentlich keinen Benchmark/timedemo um zu sehen ob GPU X mit settings Y in Spiel A spielbar ist. Es reicht wenn man es auch wirklich spielt.
Eine Analyse hat nur einen Wert wenn die Resultate bzw. Schlussfolgerungen so realitaetsnahe wie moeglich sind. Ein Spiel wie CoD2 braucht >256MB onboard Speicher nur fuer extravagante Aufloesungen. Es ist zwar schoen und gut dass Du so und soviel Speicherverbrauch mit 16xQ in 1280 messen kannst, aber die brennende Frage ist dann eher ob Du irgendwo zwischendrin nachgedacht hast wieviel cycli Deine ROPs genau fuer das Zeug brauchen und ob demenstrechend ein anderer Faktor zuerst limitiert.
Sie verliert viel mehr als nur 18% falls der Vram nicht mehr gereicht hat. Ich sag immer - glaube keinen Benchmarks die du nicht selbst gemacht hast. ;)
Ach und Du hast Deine GPU wo genau in 2048*1536 ausprobiert um zu sehen ob sie am Ende in der Aufloesung spielbar ist oder nicht?
Von mir aus kannst Du glauben was Du willst; wenn es aber eine Seite gibt die Resultate und Analysen nicht "leichten Herzens" nimmt dann ist es B3D. Als Reviewer hat das Team mehr Kentnisse und Erfahrung als so manches 0815 Seitchen dass nur bunte Balken in einen Graph schmiert.
dargo
2007-03-29, 10:46:27
GPUs sind meistens mit so viel Speicher ausgestattet dass erstens das Preis/Leistungs-Nivaeu fuer jeglichen bestimmten Zeitraum stimmt und zur gleichen Zeit der generellen Faehigkeiten dieser auch angepasst.
Nicht ganz, ich denke da an 256MB Version einer X19x0Pro/GT/XT und G8800GTS 320MB.
Waeren als Beispiel 640MB Framebuffer die wahre "Leistungsbremse" fuer aeltere Spiele wie CoD2, koennte man dann neuere Spiele wie Company of Heroes gleich ganz abschreiben.
Ich habe nicht gesagt, dass 640MB Vram zu wenig für CoD2 wären. Höchstens in 2048*1536 mit viel AA. Das kann ich aber wie gesagt nicht nachweisen wegen meinem TFT. Wie sich das bei CoH verhält weiß ich nicht. Ich weiß nur, dass CoH ebenfalls sehr viel Vram verschlingt, ob sich das allerdings bei Karten mit weniger Vram negativ auf die Leistung auswirkt kann ich nicht sagen. Muss aber nicht sein, es gibt durchaus Spiele die den Vram "unnötig" vollschreiben.
Man kann fuer jegliche Analyse einen ziemlich optimistischen Benchmark benutzen oder einen oder DEN extremsten Fall ueberhaupt. Im Idealfall hat man so viel Grips und benutzt beide und entscheidet sich fuer eine quasi Schlussfolgerung die irgendwo in der Mitte liegt.
Ich werde 2-3 unterschiedliche Timedemos in Cod2 nutzen.
Ganz nebenbei braucht man eigentlich keinen Benchmark/timedemo um zu sehen ob GPU X mit settings Y in Spiel A spielbar ist. Es reicht wenn man es auch wirklich spielt.
Klar, kann man das. Anhand von Diagrammen kannst du es aber den Anderen besser zeigen wie sich die Frames über den gesamten Timedemo-Verlauf verhalten. Einfach nur zu sagen, es ist noch spielbar reicht den Meisten nicht.
Ein Spiel wie CoD2 braucht >256MB onboard Speicher nur fuer extravagante Aufloesungen.
Nein!
Dafür reicht schon 1280x1024 ohne AA aus um in unspielbare/sehr zähe Framebereiche zu kommen (zumindest mit extra Texturen, also max. Details). In 1280x1024 1xAA/Anisorop AF Ingame liegt der Speicherverbrauch der Dday Timedemo bei gesamt 390MB (die ~42-44MB vom Arbeitsspeicher muss man natürlich abziehen).
Es ist zwar schoen und gut dass Du so und soviel Speicherverbrauch mit 16xQ in 1280 messen kannst, aber die brennende Frage ist dann eher ob Du irgendwo zwischendrin nachgedacht hast wieviel cycli Deine ROPs genau fuer das Zeug brauchen und ob demenstrechend ein anderer Faktor zuerst limitiert.
Öhm, CoD2 ist mit einer 640MB GTS butterweich spielbar in 1280x1024 16xQ-CSAA/Anisotrop AF Ingame. Da limitiert weder der Vram (lag ja "nur" bei 517MB) noch die Rohleistung. Die Karte war bei mir zum Zocken mit 612/900Mhz getaktet. Das sollte man natürlich auch beachten. Die min. fps lagen hier bei 40. Natürlich kann es durchaus sein, dass man beim Zocken selbst etwas niedrigere Ergebnisse erreichen kann (abhängig ob CPU- oder Graka-Limit vorhanden). Stichwort - Timedemos --> keine Physik, KI. Wir vergleichen hier aber Grafikkarten, von daher ist es nicht so schlimm ohne Savegames.
Ach und Du hast Deine GPU wo genau in 2048*1536 ausprobiert um zu sehen ob sie am Ende in der Aufloesung spielbar ist oder nicht?
Sie verliert viel mehr als nur 18% falls der Vram nicht mehr gereicht hat.
Die Benchmarks von beyond3d sind leider unbrauchbar, denn diese sagen absolut nichts über die Spielbarkeit aus. Die Framerate bleibt nicht konstant bei den 38,5fps. ;)
Und wie gesagt, wenn der Vram der 640MB GTS in 2048x1536 4xAA/16xAF nicht gereicht haben sollte kannst du dich stellenweise auch auf Werte <20fps einstellen.
Von mir aus kannst Du glauben was Du willst; wenn es aber eine Seite gibt die Resultate und Analysen nicht "leichten Herzens" nimmt dann ist es B3D. Als Reviewer hat das Team mehr Kentnisse und Erfahrung als so manches 0815 Seitchen dass nur bunte Balken in einen Graph schmiert.
Ich möchte doch keineswegs beyond3d schlecht machen. Das Problem bei Benchmarks ist immer der Vram Bedarf. Sobald ein Spiel den max. Vram der Graka in bestimmten Settings überschreitet sollte man besser zeitbezogene Benchmarks liefern als nur die avg. fps. Denn diese verfälschen das Ergebnis erheblich!
Ailuros
2007-03-29, 13:13:39
Nicht ganz, ich denke da an 256MB Version einer X19x0Pro/GT/XT und G8800GTS 320MB.
Was soll das an einer Anpassung der Speichermenge mit dem Preis-/Leistungsverhaeltnis genau aendern? Eine 256MB X1950PRO ist auch billiger als eine 320/GTS.
Ich habe nicht gesagt, dass 640MB Vram zu wenig für CoD2 wären. Höchstens in 2048*1536 mit viel AA. Das kann ich aber wie gesagt nicht nachweisen wegen meinem TFT. Wie sich das bei CoH verhält weiß ich nicht. Ich weiß nur, dass CoH ebenfalls sehr viel Vram verschlingt, ob sich das allerdings bei Karten mit weniger Vram negativ auf die Leistung auswirkt kann ich nicht sagen. Muss aber nicht sein, es gibt durchaus Spiele die den Vram "unnötig" vollschreiben.
Erstens reichen 4xAA bei 2048*1536 erstmal vollkommen aus und zweitens ja fuer meinen Geschmack ist damit eine 640/GTS sehr wohl spielbar in CoD2.
Klar, kann man das. Anhand von Diagrammen kannst du es aber den Anderen besser zeigen wie sich die Frames über den gesamten Timedemo-Verlauf verhalten. Einfach nur zu sagen, es ist noch spielbar reicht den Meisten nicht.
Es war auf denjenigen der die Tests durchfuehrt bezogen.
Nein!
Dafür reicht schon 1280x1024 ohne AA aus um in unspielbare/sehr zähe Framebereiche zu kommen (zumindest mit extra Texturen, also max. Details). In 1280x1024 1xAA/Anisorop AF Ingame liegt der Speicherverbrauch der Dday Timedemo bei gesamt 390MB (die ~42-44MB vom Arbeitsspeicher muss man natürlich abziehen).
Ich hab im vorigen Fall etwas ueber extreme Faelle gepostet. Zusaetzlich hast Du nicht den geringsten Beweiss dass der Leistungseinbruch nur dank dem Speicherverbrauch vorkommt.
Das dumme ist eben dass diese Speicherverbrauch-Ableserei auf keinen Fall zuverlaessig ist. Jegliche Applikation die solche Resultate abgibt liesst normalerweise vom Treiber Daten ab. Wie schon so oft betont Du bekommst nur Indizien aber keine Beweise.
Öhm, CoD2 ist mit einer 640MB GTS butterweich spielbar in 1280x1024 16xQ-CSAA/Anisotrop AF Ingame. Da limitiert weder der Vram (lag ja "nur" bei 517MB) noch die Rohleistung. Die Karte war bei mir zum Zocken mit 612/900Mhz getaktet. Das sollte man natürlich auch beachten. Die min. fps lagen hier bei 40. Natürlich kann es durchaus sein, dass man beim Zocken selbst etwas niedrigere Ergebnisse erreichen kann (abhängig ob CPU- oder Graka-Limit vorhanden). Stichwort - Timedemos --> keine Physik, KI. Wir vergleichen hier aber Grafikkarten, von daher ist es nicht so schlimm ohne Savegames.
16xQ verbraucht auch mehr Speicher als 4xAA. Koenntest Du die Aufloesung steigern, wuerde Dich der Speicher oder etwas anderes limitieren?
Die Benchmarks von beyond3d sind leider unbrauchbar, denn diese sagen absolut nichts über die Spielbarkeit aus. Die Framerate bleibt nicht konstant bei den 38,5fps. ;)
Und wie gesagt, wenn der Vram der 640MB GTS in 2048x1536 4xAA/16xAF nicht gereicht haben sollte kannst du dich stellenweise auch auf Werte <20fps einstellen.
Spielbarkeit ist mehr als oefters subjektiv. Um es klar zu stellen, fuer meinen Geschmack war eine GTS durchaus spielbar mit diesen settings in CoD2 als ich mit einer herumgefunkelt habe. Nach Deiner Logik waere selbst eine GTX in CoD2 mit diesen settings unspielbar.
Ich möchte doch keineswegs beyond3d schlecht machen. Das Problem bei Benchmarks ist immer der Vram Bedarf. Sobald ein Spiel den max. Vram der Graka in bestimmten Settings überschreitet sollte man besser zeitbezogene Benchmarks liefern als nur die avg. fps. Denn diese verfälschen das Ergebnis erheblich!
Mehr als ein paar Indizien geben mir persoenlich die jeweiligen Resultate eigentlich nicht.
Wieso hast Du Dir eine 640/GTS und nicht eine 320/GTS am Ende gekauft? Weil Du den extra Speicher in zukuenftigen Spielen brauchen wirst. Fuer die existierenden Spiele wirst Du es ziemlich schwer haben durch den Speicherverbrauch die Leistung der GPU leiden zu lassen.
Ich schaffte es mit 16xQ und abgeschalteter Textur-Kompression in 2048*1536 in SS2 eine 8800GTX an den Rand zu bringen. Das dumme ist eben dass selbst mit mehr Speicher das Ding nicht besonders schneller waere, weil eben andere Faktoren limitieren.
Godmode
2007-03-29, 14:26:26
Naja NV scheint momentan sehr intensiv am "SLI-Problem" zu arbeiten, bis Mai würde ich da kein Problem sehen für die Dualkarte performante Treiber bereitzustelllen.
Aber vielleicht ist das noch Hinweis auf die Ultra:
G80 has 160 steam processors? - Saarland university head claims (http://www.fudzilla.com/index.php?option=com_content&task=view&id=334&Itemid=1) :biggrin:
Ich hätte jetzt ein Die Bild des G80 gesucht, aber leides keines gefunden. Man müsste doch die logischen Gruppen erkennen können? Also ob da jetzt 16 oder 20 Blöcke drauf sind, müsste man doch sehen?
AnarchX
2007-03-29, 14:29:45
Ich hätte jetzt ein Die Bild des G80 gesucht, aber leides keines gefunden. Man müsste doch die logischen Gruppen erkennen können? Also ob da jetzt 16 oder 20 Blöcke drauf sind, müsste man doch sehen?
Dass das Unsinn ist doch klar, der Mitarbeiter/Bekannte des verwirrten Professor hat sich ja auch schon zu Wort gemeldet. ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.