Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)
Dawn on Titan
2014-09-07, 16:24:56
Ein Shrink von 28HP auf 16FF ist so aufwendig, dass man gleich einen neuen Chip designen kann.
AnarchX
2014-09-07, 16:34:13
Das könnte wohl GM204 @ Sisoft sein:
16C (bei bekannten GPUs sind das die SMX/SMM, CUs) und 1,5MiB/2MiB L2:
NVIDIA Graphics Device (16SP 16C 1.23GHz/1.39GHz, 1.5MB L2, 3GB 7GHz 192-bit) (OpenCL)
NVIDIA Graphics Device (16SP 16C 1.08GHz/1.39GHz, 2MB L2, 4GB 7GHz 256-bit) (OpenCL)
Alle Ergebnisse:
http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e290f181e980e390b6d1ecc1f0d6a499a98fe6dbea cca499ac8af2cffed8bdd8e5d5f380bd85&l=en
Da hatte man wohl schon im Mai erste Testläufe mit damals noch 6,6Gbps GDDR5 gemacht.
Wie ermittelt Sisoft den L2-Cache? Über OpenCL?
Die Werte einer GTX 780 Ti zum Vergleich: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e287c1aedcbfdafabde9b191a69eae8edab395f2cf e2d3f587ba8aacc5f8c9ef87ba8fa9d1ecddfb9efbc6f6d0a39eae&l=en
Die Kryptographie-Bandbreite scheint stark gestiegen. DP-Verhältnis ist wohl beim Consumer GM204 bei 1:16 1:32 (GM107 1:32).
Ailuros
2014-09-07, 17:05:05
Ich meinte rein technologisch gesehen, nicht wirtschaftlich.
Wenn jemand dann fragt was man mit X genau gewinnen wuerde ist es wohl scheissegal wenn etwas technologisch moeglich aber sauteuer ist.
Interessiert mich einfach. Irgendwann wird 16 FF auch in erträgliche Regionen rutschen. Ob 2016, 2017, 2018...keine Ahnung :freak:
Mehr als ein Jahr wird es IMHO nicht dauern; was die These dass NV vorhat die Maxwell Familie auf 16FF zu schrumpfen umso daemlicher macht.
Das könnte wohl GM204 @ Sisoft sein:
16C (bei bekannten GPUs sind das die SMX/SMM, CUs) und 1,5MiB/2MiB L2:
Alle Ergebnisse:
http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e290f181e980e390b6d1ecc1f0d6a499a98fe6dbea cca499ac8af2cffed8bdd8e5d5f380bd85&l=en
Da hatte man wohl schon im Mai erste Testläufe mit damals noch 6,6Gbps GDDR5 gemacht.
Wie ermittelt Sisoft den L2-Cache? Über OpenCL?
Die Werte einer GTX 780 Ti zum Vergleich: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e287c1aedcbfdafabde9b191a69eae8edab395f2cf e2d3f587ba8aacc5f8c9ef87ba8fa9d1ecddfb9efbc6f6d0a39eae&l=en
Die Kryptographie-Bandbreite scheint stark gestiegen. DP-Verhältnis ist wohl beim Consumer GM204 bei 1:16 (GM107 1:32).
Liesst die Applikation Daten richtig aus, oder sind es nur random Zahlen? Das letzte ist auch nicht gesichert, ausser es gibt einen vergleichbaren GM107 score dafuer (ja ich sehe die 16SP schon....)
AnarchX
2014-09-07, 17:22:09
Liesst die Applikation Daten richtig aus, oder sind es nur random Zahlen? Das letzte ist auch nicht gesichert, ausser es gibt einen vergleichbaren GM107 score dafuer (ja ich sehe die 16SP schon....)
Bei GM107 wurden auch teilweise 4/5SPs 4/5C ausgelesen. Mehr liefert wohl auch die OpenCL API nicht. Die SPs pro Core muss wohl SiSoft händisch per Tabelle zuordnen.
Die Herkunft der L2-Cache-Daten ist mir etwas unklar. Wobei aber hier jeweils zwei Varianten abhängig vom Speicherinterface erkannt wurden - also kein Dummy-Wert.
Generell scheint SiSoft bei NV-Karten den L2 richtig auslesen zu können.
Unicous
2014-09-07, 17:23:26
Ich habe das dumpfe Gefühl, dass Sisoft es nicht immer korrekt ausliest. Bei der M295X wird zum Beispiel mal ein 256Bit Interface, mal ein 384Bit Interface ausgespuckt, mit jeweils 800MHz bzw. 1GHz. (Außer AMD verarscht uns und die M295X wird ein Tahiti/Tonga Mix:mad:...oder Tonga hat wirklich ein 384bit Interface:wink:)
Thunder99
2014-09-07, 17:27:26
Das könnte auch bedeuten das es einfach keine Meilensteine gibt, DX12 stand immerhin auch schon bei der TITAN Z :weg:
DAS ist genau die Befürchtung :(
AnarchX
2014-09-07, 17:27:58
Ich habe das dumpfe Gefühl, dass Sisoft es nicht immer korrekt ausliest. Bei der M295X wird zum Beispiel mal ein 256Bit Interface, mal ein 384Bit Interface ausgespuckt, mit jeweils 800MHz bzw. 1GHz. (Außer AMD verarscht uns und die M295X wird ein Tahiti/Tonga Mix:mad:...oder Tonga hat wirklich ein 384bit Interface:wink:)
Bei NV hat man mit CUDA/NVAPI vielleicht ein paar genauere Möglichkeiten? Im Gegensatz zu den AMD-Scores hat man ja hier immer eine L2 Angabe.
aufkrawall
2014-09-07, 17:30:38
Die Takt-Auslese vom 3Dmark kann man jedenfalls vergessen, die sagt nichts über den tatsächlich anliegenden Takt aus.
AnarchX
2014-09-07, 17:31:57
Die Takt-Auslese vom 3Dmark kann man jedenfalls vergessen, die sagt nichts über den tatsächlich anliegenden Takt aus.
Bei Sisoft hat die Karte wohl bis 1,4GHz geboostet, was bei der punktuelle Last wohl durchaus möglich ist. 3D fordert dann aber wohl mehr.
Ailuros
2014-09-07, 17:32:35
Bei GM107 wurden auch teilweise 4/5SPs 4/5C ausgelesen. Mehr liefert wohl auch die OpenCL API nicht. Die SPs pro Core muss wohl SiSoft händisch per Tabelle zuordnen.
Wieviel landet ein GM107 im gleichen test dass man es vergleichen kann? Sonst wenn die Applikation wirklich solche Daten auslesen kann, wieso liesst sie dann nicht auch die Anzahl der FP32 SPs aus wie beim GK110?
AnarchX
2014-09-07, 17:35:47
Wieviel landet ein GM107 im gleichen test dass man es vergleichen kann? Sonst wenn die Applikation wirklich solche Daten auslesen kann, wieso liesst sie dann nicht auch die Anzahl der FP32 SPs aus wie beim GK110?
Ist halt die Frage der Datenquelle.
OpenCL gibt nur die Compute Units (SMX, SMM, CUs) zurück.
Die NVAPI kann hingegen die SPs ausgeben, sofern dan NV eine konkrete Berechnungsgrundlage für GM204 eingegeben hat. Vielleicht sind es die 16SPs die der Treiber meldet. Bei GM107 hatte wir ja das Problem, dass selbst der Treiber 960SPs gemeldet hat.
Auf jeden Fall leistet diese Karte etwa im Bereich der GTX 780 Ti, ausgenommen von den oben genannten Werten.
Ailuros
2014-09-07, 17:45:20
Moment....
780Ti
Financial analysis single precision: 634.3 bei 1043MHz
Financial analysis double precision: 110.8 bei 1112MHz
GM204
Financial analysis single precision: 614.5 bei 1229MHz
Financial analysis double precision: 62.6 bei 1264MHz
Hier klingt mir die These von 16*16 FP64 SPs verdammt merkwuerdig. 960 gegen 256 bei relativ kleinem Taktabstand? :eek:
***edit; bei minimal 640SPs koennte ich die Resultate noch verstehen.
BlacKi
2014-09-07, 17:48:12
rein spekulativ ohne das jetzt allzu ernst zu nehmen:
wenn man der 980 ein 512bit SI geben würde, wie man es der 290 gegeben hat. dann wäre nvidia performance technisch von amd soweit entfernt wie in der CPU sparte amd vs intel oder?
Ailuros
2014-09-07, 17:50:42
rein spekulativ ohne das jetzt allzu ernst zu nehmen:
wenn man der 980 ein 512bit SI geben würde, wie man es der 290 gegeben hat. dann wäre nvidia performance technisch von amd soweit entfernt wie in der CPU sparte amd vs intel oder?
Ein GM204 wurde NICHT fuer 500GB Bandbreiten entwickelt sondern irgendwo im ~230GB Bereich wo es sich bewegt.
BlacKi
2014-09-07, 17:53:37
Ein GM204 wurde NICHT fuer 500GB Bandbreiten entwickelt sondern irgendwo im ~230GB Bereich wo es sich bewegt.
schon klar, aber was wäre wenn? ich meine, ich hatte früher mal eine 8600gt im laptop mit 512mb und halber speicherbandbreite und es gab auch eine mit 256mb und normaler bandbreite
AnarchX
2014-09-07, 17:58:20
Moment....
780Ti
Financial analysis single precision: 634.3 bei 1043MHz
Financial analysis double precision: 110.8 bei 1112MHz
GM204
Financial analysis single precision: 614.5 bei 1229MHz
Financial analysis double precision: 62.6 bei 1264MHz
Hier klingt mir die These von 16*16 FP64 SPs verdammt merkwuerdig. 960 gegen 256 bei relativ kleinem Taktabstand? :eek:
***edit; bei minimal 640SPs koennte ich die Resultate noch verstehen.
Du hast einen Denkfehler und ich ebenso.
Die 780 Ti hat nur 1:24 DP (ich dachte 1:8).
Da hat wohl auch dieser GM204 nur 1:32, wie GM107.
120 FP64 @ GK110B - 780 Ti
VS
64 FP64 @ GM204
Noch eine 750 Ti als Vergleich: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e287c1aedcbfdafabde9b191a693a383d7be98ffc2 efdef88ab787a1c8f5c4e28ab782a4dce1d0f693f6cbfbddae93a1&l=en
Da liegt man im Vergleich etwa wo man mit 16 SMM liegen sollte.
rein spekulativ ohne das jetzt allzu ernst zu nehmen:
wenn man der 980 ein 512bit SI geben würde, wie man es der 290 gegeben hat. dann wäre nvidia performance technisch von amd soweit entfernt wie in der CPU sparte amd vs intel oder?
GM204 wäre wohl etwas zu schmal für ein 512-Bit SI und es würde die Kosten zu stark steigern, im Lauf von 2015 wird die Karte wohl bei <300€ landen.
Höchstens bei GM200 könnte man in einem Bereich sein, wo es eventuell sinnvoll wäre. Aber es bleibt die Frage ob man 16 Datenleitungen mit ~6Gbps auf einen PCB ohne Probleme führen kann. Da sind vielleicht 12 Datenleitungen mit 7-8Gbps einfacher realisierbar.
aufkrawall
2014-09-07, 18:06:41
Bei Sisoft hat die Karte wohl bis 1,4GHz geboostet...
Hast du dafür einen konkreten Anhaltspunkt?
1,4Ghz kämen mir unglaubwürdig als standardmäßige Booststufe vor.
AnarchX
2014-09-07, 18:08:50
Hast du dafür einen konkreten Anhaltspunkt?
1,4Ghz kämen mir unglaubwürdig als standardmäßige Booststufe vor.
http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e290f181e980e390b6d1ecc1f0d6a499a98fe6dbea cca499ac8af2cffed8bdd8e5d5f380bd85&l=en
SiSoft Sandra sollte wohl in der Lage sein den Takt zu loggen. Und bei punktueller OpenCL-Last, die teilweise durch schlechte Treiber limitiert wird, kann da wohl durchaus 1,39GHz erreicht werden.
Aber im Endeffekt sind das wohl aber auch Testkarten die ein offenes Power Target haben könnten. ;)
Tesseract
2014-09-07, 18:21:28
schon klar, aber was wäre wenn?
dann würde die karte wohl ein paar mikrige prozent zulegen und der speicher einen großen teil der zeit "däumchen drehen", von ein paar seltenen spezialfällen mal abgesehen.
Ailuros
2014-09-07, 18:23:04
Du hast einen Denkfehler und ich ebenso.
Die 780 Ti hat nur 1:24 DP (ich dachte 1:8).
Da hat wohl auch dieser GM204 nur 1:32, wie GM107.
120 FP64 @ GK110B - 780 Ti
VS
64 FP64 @ GM204
Noch eine 750 Ti als Vergleich: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e287c1aedcbfdafabde9b191a693a383d7be98ffc2 efdef88ab787a1c8f5c4e28ab782a4dce1d0f693f6cbfbddae93a1&l=en
Da liegt man im Vergleich etwa wo man mit 16 SMM liegen sollte.
Na so stimmt es dann natuerlich dann schon :)
Cubitus
2014-09-07, 18:46:27
Vielleicht für den ein oder anderen hier interessant:
Im Detail
780TI@1300Mhz
http://abload.de/img/780tikingpin1300mhzrgjxr.png (http://abload.de/image.php?img=780tikingpin1300mhzrgjxr.png)
780TI~1125 Mhz
http://abload.de/img/2014-09-0719_28_26-nvb2kk5.png (http://abload.de/image.php?img=2014-09-0719_28_26-nvb2kk5.png)
980GTX~1125Mhz
http://abload.de/img/980randomy5jdu.png (http://abload.de/image.php?img=980randomy5jdu.png)
Schnoesel
2014-09-07, 19:33:04
Punktlandung ;-)
aufkrawall
2014-09-07, 19:35:54
Wenn da mal die Verbrauchsdifferenz nicht mehr als 30% beträgt.
Oder was ist aus den 170W geworden?
mironicus
2014-09-07, 19:39:04
Der Combined Test ist bei der GTX 980 schneller, genau so schnell wie bei der R290x (rund 22/Sekunde Bilder).
Meine R290(geflasht zur X) hat bei 1100 Mhz schon 10800 Punkte. Wenn ich dabei noch den hohen Speichertakt der NVidias bedenke, den die AMDs nicht haben kann das rote Team noch locker mithalten. :)
dildo4u
2014-09-07, 19:41:08
Der Combined Test ist bei der GTX 980 schneller, genau so schnell wie bei der R290x (rund 22/Sekunde Bilder).
Combined bezieht die CPU mit ein nicht brauchbar.
hasebaer
2014-09-07, 19:44:57
@Cubitus
Aus welcher Quelle ist der Screen für die GTX 980 @1125MHz?
dildo4u
2014-09-07, 19:48:01
@Cubitus
Aus welcher Quelle ist der Screen für die GTX 980 @1125MHz?
http://www.3dmark.com/fs/2701047
mironicus
2014-09-07, 19:49:06
Vielleicht ist der Screen ja nicht von einer Maxwell, sondern tatsächlich eine GTX 780-Ti (also ein Fake).
BlacKi
2014-09-07, 19:58:32
dann würde die karte wohl ein paar mikrige prozent zulegen und der speicher einen großen teil der zeit "däumchen drehen", von ein paar seltenen spezialfällen mal abgesehen.
ich habs mal bei meiner getestet. bei 100% mehr gb/s bandbreite käme ich auf 21 komma mehr performance, sicherlich nicht 1zu1 übertragbar, aber mehr als 10% sinds sicherlich.
ok schade das der vergleich nicht funzt. den fiji mit gm200 zu vergleichen wäre jetzt zuviel rumgestochere, nicht nur wegen gm200, auch von fiji gibts nichts an infos
Cubitus
2014-09-07, 20:04:24
@Cubitus
Aus welcher Quelle ist der Screen für die GTX 980 @1125MHz?
http://www.3dmark.com/fs/2701047
http://www.3dmark.com/fs/2701047
Warst schneller :)
Blaire
2014-09-07, 20:35:27
Vielleicht ist der Screen ja nicht von einer Maxwell, sondern tatsächlich eine GTX 780-Ti (also ein Fake).
Unwahrscheinlich, allerdings sind wohl wie bereits zum Kepler-Launch weder die Treiber, noch Taktraten final, so daß die Leaked-Scores nur mit einer Prise Salz zu genießen sind.
Hübie
2014-09-07, 20:41:47
Der Combined Test ist bei der GTX 980 schneller, genau so schnell wie bei der R290x (rund 22/Sekunde Bilder).
Meine R290(geflasht zur X) hat bei 1100 Mhz schon 10800 Punkte. Wenn ich dabei noch den hohen Speichertakt der NVidias bedenke, den die AMDs nicht haben kann das rote Team noch locker mithalten. :)
440 sqmm, Verbrauch dürfte dann schon gen 300 Watt gehen und du vergleichst das mit dem angeblichen GM204? Echt jetzt? ;)
Schnoesel
2014-09-07, 21:45:55
Warum nicht? Für Viele ist ja der Preis nicht uninteressant und es handelt sich um die gleiche Leistungsklasse. Und 300 Watt verbraucht selbst Hawaii nicht bei 1100MHZ kommt aber ganz auf die Kühlung an:
http://www.tomshardware.de/water-cooled-hawaii-r9-290x-arctic-accelero-hybrid,testberichte-241605-7.html
http://www.tomshardware.de/msi-r9-290x-lightning-gpu-grafikkarte-review,testberichte-241517-7.html
Und was hat die Die Größe damit zu tun?
Dural
2014-09-07, 22:29:00
Selbst in deinen verlinkten test benötigt die karte über 400watt peak.
Hawaii ist gegen gm204 ausser DP der letzte schrott, verstehe nicht wie man seine karte so verteitigen muss. Zudem dein vergleich mit der bandbreite ziemlich lächerlich ist: 256 vs 512bit.
Spasstiger
2014-09-07, 22:36:18
GM204 scheint bei gleichem Takt dieselbe Performance zu erreichen wie GK110. Passt angesichts der effizienteren Maxwell-Architektur - aus der Erfahrung mit der GTX 750 Ti - und unter Berücksichtigung der geringeren Speicherbandbreite gut zu 2304 SPs.
Selbst in deinen verlinkten test benötigt die karte über 400watt peak.
Hawaii ist gegen gm204 ausser DP der letzte schrott, verstehe nicht wie man seine karte so verteitigen muss.
Und ich vertsehe nicht wie man einen noch nicht veröffentlichten Chip so in den Himmel loben kann, von dem bisher nur Halbinformationen und Gerüchte bekannt sind.
Warum soll Hawaii Schrott sein? Lächerlich ist einzig Dein Gehabe.
Hübie
2014-09-07, 22:40:46
Warum nicht? Für Viele ist ja der Preis nicht uninteressant und es handelt sich um die gleiche Leistungsklasse. Und 300 Watt verbraucht selbst Hawaii nicht bei 1100MHZ kommt aber ganz auf die Kühlung an:
http://www.tomshardware.de/water-cooled-hawaii-r9-290x-arctic-accelero-hybrid,testberichte-241605-7.html
http://www.tomshardware.de/msi-r9-290x-lightning-gpu-grafikkarte-review,testberichte-241517-7.html
Und was hat die Die Größe damit zu tun?
Die Lightning kostet knapp 500 und ne Wakü is auch nicht gratis. Ich sagte nicht 300 sondern Richtung 300 ;) Ich will nur sagen dass der Vergleich hinkt. Kramt lieber die 770 und 780 raus.
hasebaer
2014-09-07, 22:42:23
GM204 scheint bei gleichem Takt dieselbe Performance zu erreichen wie GK110. Passt angesichts der effizienteren Maxwell-Architektur - aus der Erfahrung mit der GTX 750 Ti - und unter Berücksichtigung der geringeren Speicherbandbreite gut zu 2304 SPs.
Das wäre nur 25% besser pro Core, GM107 kommt aber schon auf 35% und GM204 sollte da noch eine Schippe drauflegen.
Schnoesel
2014-09-07, 22:43:22
Selbst in deinen verlinkten test benötigt die karte über 400watt peak.
Hawaii ist gegen gm204 ausser DP der letzte schrott, verstehe nicht wie man seine karte so verteitigen muss. Zudem dein vergleich mit der bandbreite ziemlich lächerlich ist: 256 vs 512bit.
1. Na das sind Peakwerte da kommt ne OC Ti auch locker über 400 Watt:
http://www.tomshardware.de/gigabyte-windforce-gtx-780-ti-ghz-edition,testberichte-241428-4.html
2. Bandbreite? wo?
Aber ich sehe schon das Niveau hat den Thread ofensichtlich schon wieder verlassen.:rolleyes: Meine Karte brauche ich nicht zu verteidigen die ist perfekt für meine Bedürfnise. (1440p)
@ Hübie
Ich habe lediglich aufgezeigt dass eine R9 290 X auf 1100MHZ keine 300 Watt verbraucht. Die Lightning und die HIS Wakü habe ich lediglich als Test genutzt da diese schon von Werk aus die Taktraten haben. Eine Tri-X kühlt nicht schlechter wie die Lightning und die bekommst auch locker auf 1100 und kostet sicher keine 500 eher Richtung 430/420.
Dural
2014-09-07, 22:50:24
Klar verbraucht so eine karte 300watt, man nimmt immer die peakwerte...
gm204 wird für die selbe leistung ca. 100watt weniger verbrauchen und hat nur 256bit zur verfügung.
Was muss man da noch diskutierten? Wie schon gesagt, schmeisst eure 290 und 780 weg, die will keiner mehr.
Schnoesel
2014-09-07, 22:53:30
GM 104 muss erstmal zeigen was er kann und ich bezweifle das die Karte meinen Bedürnissen gerecht wird mit nem 256 bit SI. Aber ich lasse mich postiv überraschen während bei dir schon die Korken knallen und du bereits deine Sparbüchse geplündert hast.
Ahja find ich super wenn du nicht diskutieren wilst.
Hübie
2014-09-07, 22:54:19
Warum nimmt man peak-werte. Das ergibt keinen Sinn :rolleyes:
@Schnoesel: Vergiss nicht dass es ein Performance-Modell zu Highend-preis wird. Zeiten ändern sich halt.
boxleitnerb
2014-09-07, 22:54:24
Das wäre nur 25% besser pro Core, GM107 kommt aber schon auf 35% und GM204 sollte da noch eine Schippe drauflegen.
Bandbreite. So ganz stimmt das mit den 35% nicht.
Dural
2014-09-07, 22:57:18
Gm204 nennt sich die gpu.
Schaut doch nur die 980m an, die ist bei sehr wahrscheinlich ähnlicher tdp deutlich schneller als die alte 880m.
aufkrawall
2014-09-07, 22:57:54
Warum nimmt man peak-werte. Das ergibt keinen Sinn :rolleyes:
Darum:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10342346&postcount=229
Weil man einen Scheiß weiß.
Ist mir völlig wumpe, wie viel irgendwas bei einer typischen BF4-Szene braucht, wenn Banished mit SGSSAA auf einmal 20% mehr Strom zieht...
Spasstiger
2014-09-07, 22:58:08
Das wäre nur 25% besser pro Core, GM107 kommt aber schon auf 35% und GM204 sollte da noch eine Schippe drauflegen.
Die Speicherbandbreite ist ggü. GK110 stark reduziert, da wird die Effizienzsteigerung pro Core nicht voll fruchten. Gegenüber GK104 passt die Rechnung ja, ca. doppelte Performance pro Takt bei nur 50% mehr SPs.
Schnoesel
2014-09-07, 22:59:25
@Schnoesel: Vergiss nicht dass es ein Performance-Modell zu Highend-preis wird. Zeiten ändern sich halt.
Keiner der ne gute GTX780/Ti/R9 290/X hat muss dafür Geld ausgeben ist doch super. Hauptsache High End gibts bei Nvidia dann nicht nur in Form einer Titan sondern auch in Form einer vergleichsweise günstigen TI, auch wenn dann eventuell später. AMD würde den Mist nämlich 100 pro mitmachen falls konkurrenzfähig.
fondness
2014-09-07, 23:04:19
440 sqmm, Verbrauch dürfte dann schon gen 300 Watt gehen und du vergleichst das mit dem angeblichen GM204? Echt jetzt? ;)
Der Vergleich ist ohnehin lächerlich, Hawaii hat >2,5 TFLOPs DP Leistung und ein 512-bit SI für 16GB VRAM, ist also der am stärksten auf Compute ausgerichtete Chip am Markt.
fondness
2014-09-07, 23:08:31
Darum:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10342346&postcount=229
Weil man einen Scheiß weiß.
Ist mir völlig wumpe, wie viel irgendwas bei einer typischen BF4-Szene braucht, wenn Banished mit SGSSAA auf einmal 20% mehr Strom zieht...
Bei Peak-Werten gewinnt die GPU die früher drosselt, da habe ich lieber eine Verbrauch bei typischen Spielen solange vergleichbar. Da ist es mir scheißegal wieviel man in Furmark oder ganz selten vorkommenden Extremszenen zieht. Zumindest will ich die fps und Taktraten dazu haben, ansonsten ist der Vergleich wertlos.
Hübie
2014-09-07, 23:14:04
Der Vergleich ist ohnehin lächerlich, Hawaii hat >2,5 TFLOPs DP Leistung und ein 512-bit SI für 16GB VRAM, ist also der am stärksten auf Compute ausgerichtete Chip am Markt.
Warum kommen alle mit DP? Nenne mir konkrete Beispiele wo das gefordert wird und wo man Geld abschöpfen kann. Klar ist das in der Nische XY eine tolle Sache aber ist wirklich bei den wenigsten Kunden gefragt.
Beim VRAM bin ich bei dir. Da gibt's nix zu rütteln.
@aufkrawall: Ich versteh dich nicht. Dural sagt beim Verbrauch gibt man immer peak-werte an. Ich sage das macht keinen Sinn und du postet mir ne Fragestellung an Peter. :confused:
Edit: Ein durchschnittlicher Verbrauch je Spiel und dann gern nochmal einen Gesamtdurchschnitt aller Spiele. Was interessiert mich eine Millisekunde 420 Watt wenn es sonst eher 270 sind? Was bezahl ich denn?
fondness
2014-09-07, 23:19:53
Warum kommen alle mit DP? Nenne mir konkrete Beispiele wo das gefordert wird und wo man Geld abschöpfen kann. Klar ist das in der Nische XY eine tolle Sache aber ist wirklich bei den wenigsten Kunden gefragt.
Beim VRAM bin ich bei dir. Da gibt's nix zu rütteln.
Wenn du mit Die-Size, etc. kommst sind das eben elementare Gründe warum dies so ist, völlig unabhängig davon wer wo warum DP benötigt. Es ist jedenfalls nicht gut vergleichbar IMO, da die Ausrichtung der Chips unterschiedlich ist.
Schnoesel
2014-09-07, 23:22:43
@fondness
Mag sein dass dies der Grund für die Chipgröße ist das interessiert mich als Gamer aber 0. Von mir aus kann der Chip auch rund und bunt gefleckt sein. Was hinten raus kommt zählt egal was dahinter steckt, also ist das sehr wohl zu vergleichen wenns um Gaming geht.
aufkrawall
2014-09-07, 23:23:02
@aufkrawall: Ich versteh dich nicht. Dural sagt beim Verbrauch gibt man immer peak-werte an. Ich sage das macht keinen Sinn und du postet mir ne Fragestellung an Peter. :confused:
Der Peakwert kann mit Powertune nicht höher sein als die TDP und mit Powertarget nur kaum.
Es gibt einfach Spiele, mit denen man das TDP-Limit erreicht. Deshalb ist es schwachsinnig, Spiele zu testen, die weniger verbrauchen, und das dann "Spiele-Verbrauch" zu nennen.
fondness
2014-09-07, 23:25:34
Der Peakwert kann mit Powertune nicht höher sein als die TDP und mit Powertarget nur kaum.
Es gibt einfach Spiele, mit denen man das TDP-Limit erreicht. Deshalb ist es schwachsinnig, Spiele zu testen, die weniger verbrauchen, und das dann "Spiele-Verbrauch" zu nennen.
Nur verzerrt das die Ergebnisse völlig je nach Karte und Hersteller, da das TDP-Limit bei AMD zB großzügiger bemessen ist und die Karten praktisch immer den Takt halten solange die Kühlung ausreicht. Während die NV-Karten praktisch immer am TDP-Limit kleben.
Zudem brauche ich die TDP nicht messen, denn die kennt man eh in der Regel.
Hübie
2014-09-07, 23:25:38
Wenn du mit Die-Size, etc. kommst sind das eben elementare Gründe warum dies so ist, völlig unabhängig davon wer wo warum DP benötigt. Es ist jedenfalls nicht gut vergleichbar IMO, da die Ausrichtung der Chips unterschiedlich ist.
Die Größe habe ich aus wirtschaftlichen Gründen genannt ;) Da haben wir aneinander vorbei geredet.
@aufkrawall: Ja, aber was Spiele ich denn überwiegend? Mars War Logs war ein Heizkandidat, aber sonst kam mir noch nie was unter. Wenn du jetzt mit Banished! einen Titel gefunden hast der ausreißt melde das und gut. Ist gut für die Energiekostenbilanz am Ende des Jahres ;)
Dural
2014-09-07, 23:26:42
der direkte vergleich chip dürfte auch tongo sein: etwa gleich grosse, etwa selber verbrauch und je 256bit si.
der eine wird einfach das doppelte kosten ;)
hasebaer
2014-09-07, 23:31:00
Die Speicherbandbreite ist ggü. GK110 stark reduziert, da wird die Effizienzsteigerung pro Core nicht voll fruchten.
Die GTX 750Ti hat 48% der Bandbreite einer GTX 480 und denoch in etwa die gleiche Leistung.
Die vermeindliche GTX 980 kommt in Sachen Bandbreite auf 66% der GTX 780Ti.
Unicous
2014-09-07, 23:31:26
@fondness
Mag sein dass dies der Grund für die Chipgröße ist das interessiert mich als Gamer aber 0. Von mir aus kann der Chip auch rund und bunt gefleckt sein. Was hinten raus kommt zählt egal was dahinter steckt, also ist das sehr wohl zu vergleichen wenns um Gaming geht.
Dann bist du hier im falschen Thread. Denn hier gehts um all das. Hier wird über Seiten über die die size philosphiert, über das SP zu DP Verhältnis,... .
Mach doch einfach einen Thread für dich auf, wo du nur über die Spieleleistung von Maxwell und Co. schwadronierst. Dann brauchst du dich auch nicht aufregen, dass hier darüber debattiert wird. Wenn die GM2xx SKUs released sind, gibt es die entsprechenden Threads. Einstweilen wird hier über ALLES was Maxwell betrifft debattiert. Und leider auch sehr viel was AMD Chips betrifft, wodurch der Thread dann ein paar Ehrenrunden dreht. Aber das passiert in den meisten Debatten.
aufkrawall
2014-09-07, 23:33:07
@aufkrawall: Ja, aber was Spiele ich denn überwiegend? Mars War Logs war ein Heizkandidat, aber sonst kam mir noch nie was unter. Wenn du jetzt mit Banished! einen Titel gefunden hast der ausreußt melde das und gut.
Was du überwiegend spielst, ist.. sagen wir mal von sekundärem Interesse. ;)
Nur verzerrt das die Ergebnisse völlig je nach Karte und Hersteller, da das TDP-Limit bei AMD zB großzügiger bemessen ist und die Karten praktisch immer den Takt halten solange die Kühlung ausreicht.
Nein, bei CB bewegt sich der Stromverbrauch mit Tonga bei Anno 2070 über dem der 760 (160W TDP). Da ist man mit 180W TDP sicher im Powertune-Limit.
Was auch mit die vergleichsweise schlechte Performance bei dem Spiel erklären dürfte.
Unicous
2014-09-07, 23:34:04
Was du überwiegend spielst, ist.. sagen wir mal von sekundärem Interesse. ;)
Gilt das nicht genauso für dich?
Schnoesel
2014-09-07, 23:34:15
Mein Fehler dachte es geht direkt um die Gaming Karten, dann spielt der Die/GPGPU etc. schon ein Rolle. Bist ziemlich empfindlich was? So mal ein normaler Ton ist schon schwer ;D
Dural
2014-09-07, 23:34:20
Die GTX 750Ti hat 48% der Bandbreite einer GTX 480 und denoch in etwa die gleiche Leistung.
Die vermeindliche GTX 980 kommt in Sachen Bandbreite auf 66% der GTX 780Ti.
wie so immer, bei normale auflösung wird man die 256bit wahrscheinlich nicht merken. aber wenn es ins extreme geht oder hohes oc betreibt, könnte ich mir vorstellen das die 780ti und 290x etwas besser dastehen. wahr bis jetzt jenden falls fast immer so
Unicous
2014-09-07, 23:36:44
Mein Fehler dachte es geht direkt um die Gaming Karten, dann spielt der Die/GPGPU etc. schon ein Rolle. Bist ziemlich empfindlich was? So mal ein normaler Ton ist schon schwer ;D
Beim Rugby gehts auch zur Sache, trotzdem kann man am Ende ein Bier zusammen trinken. Ich mag es bloß nicht wenn man einen Argument negiert wenn es einen selbst nicht "interressiert".:wink:
aufkrawall
2014-09-07, 23:39:36
Gilt das nicht genauso für dich?
Richtig.
Nur hatte ich schon 290s in den Händen und weiß, dass die mit Anno 2070 oder Trine 2 ebenfalls extrem braten können.
Leider hat CB zum Hawaii-Launch noch mit Crysis 3 als Spielelastszenario statt Anno 2070 getestet.
Bevor hier noch mehr Gehirnfürze rumkommen:
Ratet mal, was passiert, wenn ein Spiel Compute asynchron zum Rendering laufen lassen wird...
Dural
2014-09-07, 23:44:58
hawaii ist bei hohem takt ab ca. 1100mhz so wie so sehr ineffizients. habe mit meiner karte mit stock kühler bei 1250mhz (spannung weis ich gerade nicht mehr) 450watt in bf4 gemessen, und das war kein peak ;)
die karte ist jetzt leider hinüber, hatte bis jetzt 4 290x da keine lief mehr aber so gut :(
Duplex
2014-09-07, 23:52:11
Ich würde Hawaii nicht mit Maxwell vergleichen, Maxwell ist neu und natürlich bei der Effizienz besser, aber GCN ist schon älter geworden, da wurde zuletzt nur das Frontend aufgebohrt, wenn dann sollte man Maxwell später mit AMDs Pirate Islands vergleichen, richtig interessant wird es erst mit 16FF.
mironicus
2014-09-07, 23:54:45
hawaii ist bei hohem takt ab ca. 1100mhz so wie so sehr ineffizients. habe mit meiner karte mit stock kühler bei 1250mhz (spannung weis ich gerade nicht mehr) 450watt in bf4 gemessen, und das war kein peak ;)
die karte ist jetzt leider hinüber, hatte bis jetzt 4 290x da keine lief mehr aber so gut :(
Du sollst die nicht braten, du sollst damit spielen!!! :freak:;D:biggrin::wink:
Duplex
2014-09-07, 23:56:45
Gibt bestimmt genug Leute die von GK110 auf GM204 wechseln, auch wenn es nur 10-20% sein sollten ;)
Für GM204 600 € hinlegen damit man 5 FPS mehr hat und im Jahr 50 € Stromkosten spart? Nein Danke, ich kauf mir erst eine neue Karte wenn ich doppelte Performance erhalte, für die Karten bekommt man derzeit keine 300 € mehr, scheiss drauf und auf 16FF warten.
BlacKi
2014-09-08, 00:09:21
Gibt bestimmt genug Leute die von GK110 auf GM204 wechseln, auch wenn es nur 10-20% sein sollten ;)
Für GM204 600 € hinlegen damit man 5 FPS mehr hat und im Jahr 50 € Stromkosten spart? Nein Danke, ich kauf mir erst eine neue Karte wenn ich doppelte Performance erhalte, für die Karten bekommt man derzeit keine 300 € mehr, scheiss drauf und auf 16FF warten.
ich denke auch ich werde mit meiner 670 noch etwas haushalten bis pascal erscheint, auch wenn ich die ersten tests zu maxwell kaum noch erwarten kann.
-/\-CruNcher-/\-
2014-09-08, 02:05:05
Warum nimmt man peak-werte. Das ergibt keinen Sinn :rolleyes:
@Schnoesel: Vergiss nicht dass es ein Performance-Modell zu Highend-preis wird. Zeiten ändern sich halt.
Du verkennst da was
Ultra High End = 3xxx€? Quadro (Post Houses, Media, Film Production,Science,Architectural Visualization)
High End = Titan 1xxx€ (Crazy Gamer,Pro Gamer)
Enthusiast = x70/80 TI 4xx€ (Gamer, Pro Gamer ohne multimonitor setups)
Performance = x60 2xx€ (Avg Gamer)
Mainstream = x50 1xx€ (Gamer on Budget)
Low End = alles niedrigere
Der rest ist alles künstliches dazwischen frimeln von SKUs die niemand brauch
Richtig.
Nur hatte ich schon 290s in den Händen und weiß, dass die mit Anno 2070 oder Trine 2 ebenfalls extrem braten können.
Leider hat CB zum Hawaii-Launch noch mit Crysis 3 als Spielelastszenario statt Anno 2070 getestet.
Bevor hier noch mehr Gehirnfürze rumkommen:
Ratet mal, was passiert, wenn ein Spiel Compute asynchron zum Rendering laufen lassen wird...
Das beachten die wengisten bis niemand schon der Tesselation Win für Tonga war super wichtig :)
memoal
2014-09-08, 04:01:20
Eher doch:
Ultra High End (Gaming)
High End (Gaming)
Performance (Gaming)
Midrange
Low End
Wobei im Bereich Ultrahighend und Highend, Karten auch Enthusiast sein können.
-/\-CruNcher-/\-
2014-09-08, 04:17:31
Ultra High End ist Quadro ;)
Ailuros
2014-09-08, 09:12:02
Koennt Ihr beiden mit dem Unsinn aufhoeren und zurueck zum Thema kommen?
Dural
2014-09-08, 09:41:16
Habe gerade etwas gerechnet und wenn die 3DMark Werte (880m 6000 und 980m 9000) stimmen und man davon ausgehen kann das die TDP wider um die 100Watt ist, dann ist die 980m ca. 50% energieeffizienter als der GK104 / die 880m :eek:
Das wäre ja wirklich krass im selben Herstellungsprozess. Schon fast zu viel :rolleyes:
Knuddelbearli
2014-09-08, 09:46:14
10% Abzug wegen 3dmark Vorteil von maxwell und deutlich breiterer Chip wenn die bisherigen Spekulationen stimmen ( 880M ist doch GK204 oder? )
Cubitus
2014-09-08, 09:47:16
Habe gerade etwas gerechnet und wenn die 3DMark Werte (880m 6000 und 980m 9000) stimmen und man davon ausgehen kann das die TDP wider um die 100Watt ist, dann ist die 980m ca. 50% energieeffizienter als der GK104 / die 880m :eek:
Das wäre ja wirklich krass im selben Herstellungsprozess. Schon fast zu viel :rolleyes:
Man muss sich halt fragen woher die Effizienz kommt, weil 28nm und die äußerst hohen Taktraten, na ich weiß auch nicht so recht was ich davon halten soll.
Von der möglichen Wärme-Entwicklung bei dieser Chip Größe ganz zu schweigen...
Dawn on Titan
2014-09-08, 09:51:59
40-50% besser bei FPS/W war nicht GM104 doch zu erwarten.
Hübie
2014-09-08, 10:39:25
Richtig.
Nur hatte ich schon 290s in den Händen und weiß, dass die mit Anno 2070 oder Trine 2 ebenfalls extrem braten können.
Leider hat CB zum Hawaii-Launch noch mit Crysis 3 als Spielelastszenario statt Anno 2070 getestet.
Bevor hier noch mehr Gehirnfürze rumkommen:
Ratet mal, was passiert, wenn ein Spiel Compute asynchron zum Rendering laufen lassen wird...
Ich glaube dass ich jetzt verstehe was du meinst. Also mit peak-wert meinst du ein Spiel mit Spitzenauslastung, aber von diesem Spiel dennoch den Verbrauch über Zeit X. Nicht den Spitzenwert in Zeit X des jeweiligen Spiels. Denn dass wäre Bullshit zum Quadrat.
Okay afaik hat ht4u.net.net Hawx 2 als Lastszenario. Oder Crysis 3. Weiß nicht mehr genau.
Und mit "ich" meine ich mich stellvertretend für die Spielerschaft. AAA-Titel sind nun mal mehr im öffentlichen Interesse als ein Banished!, Anno 2070 oder Trine 2. Was nich heißt man soll das unter den Teppich kehren, sondern Verständnis für die redaktionelle Entscheidung zeigen.
Wie gesagt: melde Probleme immer (Hallo Blaire ;D) dann steigt die Chance auf Qualität.
@Dural: Könntest du mal bitte deine Kalkulation ausführen? Also auch die Grundlage.
Dural
2014-09-08, 11:01:00
steht ja schon weiter oben:
880m hat 6000 Punkte im 3D Mark, 50% mehr davon sind 9000 Punkte (Die 980m soll was mit 9300 Punkten erreichen)
Da man ziemlich sicher von einem ähnlichen Stromverbrauch (ca. 100Watt) bei den Notebook Versionen ausgehen kann, kann man das 1:1 in die Energiebilanz umrechnen.
Oder mit anderen Daten: die 980GTX müsste bei 780Ti (250Watt) Leistung ca. 170Watt verbrauch haben.
Klar sind keine genauen Angaben, aber in etwa müsste das schon hinkommen. Wie Knuddelbearli schon richtig gesagt hat ist Maxwell in 3DMark generell schon etwas besser.
Timbaloo
2014-09-08, 11:03:39
Oder mit anderen Daten: die 980GTX müsste bei 780Ti (250Watt) Leistung ca. 170Watt verbrauch haben.
Wenn NV das so hingebracht haben sollte, dann Chapeau!
Edith: Ich erwarte eher sowas wie 190W für 980.
Dural
2014-09-08, 11:07:49
Hoffe ich doch, dafür aber etwas mehr Power als die 780Ti ;)
Knuddelbearli
2014-09-08, 11:08:31
Ich sehe die 980 knapp über der 780 ca auf Höhe der Titan bei 180W, auch ordentlich aber bei weitem nichts weshalb man sich als 780(Ti) oder 290(X) Gedanken machen sollte.
Dafür gut OC Spielraum mit BIOS Mod. Ohne mod hängt sie NV typisch an am zu niedrigen PL
Falls NV aber bei den Preisen fair bleibt und 780 Preis, also 400€, anstrebt werde ich sie mir wohl kaufen und endlich meine 480 ablösen.
Dural
2014-09-08, 11:11:46
Ich weis nicht wo GM204 am ende landen wird, wenn er wirklich takt gleich mit GK110 ist wäre ich schon sehr zufrieden!
Aber ehrlich gesagt glaube ich das nicht so recht, ich gehe davon aus das GK110 pro MHz etwas schneller ist. Dafür kann man GK204 aber sicher besser takten, wenn die 256Bit nicht im wege stehen.
M4xw0lf
2014-09-08, 11:21:26
Man muss sich halt fragen woher die Effizienz kommt, weil 28nm und die äußerst hohen Taktraten, na ich weiß auch nicht so recht was ich davon halten soll.
Von der möglichen Wärme-Entwicklung bei dieser Chip Größe ganz zu schweigen...
Darf ich vorstellen: Physik!
Was für eine Wärme soll der Chip denn entwickeln, wenn er eine maximale Leistungsaufnahme von unter 200W hat? Man sieht ja anhand von Hawaii, dass sich auch 300W auf 440mm² noch wegkühlen lassen; mit Kühlkonstruktionen der Boardpartner sogar bei erträglichen Lautstärken, bzw. mit Kühllösungen wie dem AC Xtreme oder Alpenföhn Peter sogar leise.
X.Perry_Mental
2014-09-08, 11:51:27
Falls NV aber bei den Preisen fair bleibt und 780 Preis, also 400€, anstrebt werde ich sie mir wohl kaufen und endlich meine 480 ablösen.
Wenn ich mich recht erinnere, ist die 780 bei ca. 650€ gestartet und hat sich dann im folgenden halben Jahr um die 450€ eingependelt. Ich erwarte bei der 980 ehrlich gesagt nichts anderes.
aufkrawall
2014-09-08, 11:52:17
AAA-Titel sind nun mal mehr im öffentlichen Interesse als ein Banished!, Anno 2070 oder Trine 2. Was nich heißt man soll das unter den Teppich kehren, sondern Verständnis für die redaktionelle Entscheidung zeigen.
Anno 2070 war ein AAA-Titel.
Fakt ist, dass die TDP in Spielen erreicht und auch gehalten werden kann.
Was für ein Spiel das ist, ist egal. Vielleicht grillen morgen Ryse oder AC: U genau so. Anhand des Beispiels mit asynchronem Compute sollte eigentlich deutlich geworden sein, dass es eher häufiger als seltener der Fall sein wird.
Cubitus
2014-09-08, 11:54:34
Darf ich vorstellen: Physik!
Was für eine Wärme soll der Chip denn entwickeln, wenn er eine maximale Leistungsaufnahme von unter 200W hat? Man sieht ja anhand von Hawaii, dass sich auch 300W auf 440mm² noch wegkühlen lassen; mit Kühlkonstruktionen der Boardpartner sogar bei erträglichen Lautstärken, bzw. mit Kühllösungen wie dem AC Xtreme oder Alpenföhn Peter sogar leise.
Ja es ist "schon" noch machbar, aber zu welchem Preis?
Die Kühlung muss wirklich gut sein, und der Boost 3.0 wird mit Sicherheit auch etwas schärfer tangieren müssen.
Und die Taktraten sind echt ziemlich hoch, also bei ner angenommenen Base Clock von 1125 Mhz, boostet der Chip mit Sicherheit auf 1200 Mhz.
Und wenn man ne gewisse Effizienz über den Takt ausbügeln muss, welcher im Gegensatz zum GK110 deutlich höher angesetzt wurde, dann frage ich mich eben warum?
Und wie wird sich das auf die Kühlung/Boost auswirken? Denn wir sind ja immer noch bei 28nm..
Dawn on Titan
2014-09-08, 11:57:37
170W ist 680 Niveau - da gab es null Probleme mit der Kühlung.
Cubitus
2014-09-08, 12:08:36
170W ist 680 Niveau - da gab es null Probleme mit der Kühlung.
Der Chip ist aber deutlich breiter als ein GK104 bei der gleichen Fertigungs-Größe. Wie gesagt ich stehe dem ganzen etwas skeptisch gegenüber.
M4xw0lf
2014-09-08, 12:20:57
Der Chip ist aber deutlich breiter als ein GK104 bei der gleichen Fertigungs-Größe. Wie gesagt ich stehe dem ganzen etwas skeptisch gegenüber.
Chip größer, Leistungsaufnahme gleich -> bessere Kühlung. Es ist wirklich so einfach.
fondness
2014-09-08, 12:28:27
Anno 2070 war ein AAA-Titel.
Fakt ist, dass die TDP in Spielen erreicht und auch gehalten werden kann.
Was für ein Spiel das ist, ist egal. Vielleicht grillen morgen Ryse oder AC: U genau so. Anhand des Beispiels mit asynchronem Compute sollte eigentlich deutlich geworden sein, dass es eher häufiger als seltener der Fall sein wird.
Eigentlich ist es relativ egal was man nimmt, nur ich will bitte auch die Performance dazu haben. Denn es kann nicht sein das zB wie bei manchen Seiten welche Furmark nehmen der Chip "gewinnt" der mehr drosselt.
memoal
2014-09-08, 12:52:18
Wenn ich mich recht erinnere, ist die 780 bei ca. 650€ gestartet und hat sich dann im folgenden halben Jahr um die 450€ eingependelt. Ich erwarte bei der 980 ehrlich gesagt nichts anderes.
Glaube ich nicht, zu dem Zeitpunkt des Erscheines der 780iger gab es nichts vergleichbares was die leistung betrifft da kann man nehmen was man denkt, jetzt schon. Eine 780 OC mit 6GB kostet deutlich weniger als 650 Euro/$. Die 30w die die 980 dann spart, darauf ist ehrlich gesagt "drauf geschissen", 1GB RAM und das bißchen Ersparnis bei 10-20% Furmarkmehrleistung die in Spielen dann in 2-3 fps resultiert, wer braucht das. Synthetische Benchmarkszenarien sind doch für die Katz, wer weiß wie da optimiert wurde?
Das sind eher GTX580 oder 480 Besitzer, die dieses Update tatsächlich brauchen.
170W ist 680 Niveau - da gab es null Probleme mit der Kühlung.
Da wäre ich sehr vorsichtig, die 200w der 980 könnten auch "Spieleleistungsaufnahme" eben unter Furmark sein, die TDP tatsächlich bei 225w liegen. Die 970 könnte wohl um 160-170w Spielleistungsaufnahme liegen, der GPU-Takt ist doch ganz schön hoch, da muss man schon ordentliche VCore Werte setzen, wenns stimmt. Hier wird wieder viel zu euphorisch gerechnet, nachher ist die Ernüchterung wieder groß. Siehe Tonga.
Dural
2014-09-08, 13:07:05
die nv karten haben noch nie eine hohe vcore benötigt ;)
Kennst du GM107? Die GTX750Ti Karte läuft innerhalb der TDP mit über 1300MHz ohne zu trosseln. Milchmädchenrechnung: GM107 / 65Watt mal drei ergibt 1920SP @ 195Watt @ 1300MHz :freak:
BlacKi
2014-09-08, 13:14:41
Kennst du GM107? Die GTX750Ti Karte läuft innerhalb der TDP mit über 1300MHz ohne zu trosseln. Milchmädchenrechnung: GM107 / 65Watt mal drei ergibt 1920SP @ 195Watt @ 1300MHz :freak:
ich erwarte das es auch so ähnlich zu sehen sein wird. ein deutlicher mehrverbrauch würde mich wundern.
Schaffe89
2014-09-08, 13:22:13
Um mal eine kurze Leistungseinschätzung abzugeben.
Fijii>GM200>Tonga>GM204>GK110>Hawai>Tahiti>GK104
So wirds am Ende aussehen würde ich mal meinen.
memoal
2014-09-08, 13:22:51
die nv karten haben noch nie eine hohe vcore benötigt ;)
Bitte? Dann kennst du wohl die GK110 (b) Karten nicht, deren OC Versionen haben eine VCore von bis zu 1,21v.
Kennst du GM107? Die GTX750Ti Karte läuft innerhalb der TDP mit über 1300MHz ohne zu trosseln. Milchmädchenrechnung: GM107 / 65Watt mal drei ergibt 1920SP @ 195Watt @ 1300MHz :freak:
Ja kenn ich, auch hier ist die TDP recht unterschiedlich gestreut, "Milchmädchenrechnung" trifft es dann recht gut, weil niemand weiß was der Chip so mitbringt. Wo nVidia ihn letztendlich sieht! Du gehst von 1,3 Ghz Takt aus, bei welcher VCore 0,9-1,1v? Never...unter 28nm.
Was Videocards zugetragen haben sind alle inoffiziellen Ergebnisse und haben daraus irgendwas zusammengeschustert, dass würde ich nicht mal im Ansatz als Diskussionsgrundlage betrachten.;D
-/\-CruNcher-/\-
2014-09-08, 13:23:48
Darf ich vorstellen: Physik!
Was für eine Wärme soll der Chip denn entwickeln, wenn er eine maximale Leistungsaufnahme von unter 200W hat? Man sieht ja anhand von Hawaii, dass sich auch 300W auf 440mm² noch wegkühlen lassen; mit Kühlkonstruktionen der Boardpartner sogar bei erträglichen Lautstärken, bzw. mit Kühllösungen wie dem AC Xtreme oder Alpenföhn Peter sogar leise.
Es gibt Passive heatpipes die schaffen heutzutage bis zu 500W also Kühlung sollte nicht mehr das problem sein :)
Timbaloo
2014-09-08, 13:25:46
Nur wenn es nachts kälter ist als draussen.
Dawn on Titan
2014-09-08, 13:26:30
Um mal eine kurze Leistungseinschätzung abzugeben.
Fijii>GM200>Tonga>GM204>GK110>Hawai>Tahiti>GK104
So wirds am Ende aussehen würde ich mal meinen.
Willst Du trollen oder was?
Tonga wird von einem GK104 in Form der 770 gehalten.
Leonidas
2014-09-08, 13:26:46
Um mal eine kurze Leistungseinschätzung abzugeben.
Fijii>GM200>Tonga>GM204>GK110>Hawai>Tahiti>GK104
Wieso schätzt Du Tonga höher als GM204 ein? Selbst wenn Tonga noch versteckte HW-Einheiten hat, so viel mehr kann man dann gar nicht herausholen. Das grundsätzliche Niveau wurde mit der 285 schon gesetzt - mehr als Niveau 290 wird es nicht werden. Das schlägt der GM204 locker weg. Ich spekuliere:
GM200>Fiji>GM204>GK110>Hawaii>Tonga>Tahiti>GK104>GM206
in dieser Form hier:
http://www.3dcenter.org/dateien/abbildungen/AMD-nVidia-Portfolio-Roadmap-8-September-2014.vorschau2.png (http://www.3dcenter.org/abbildung/amdnvidia-grafikchipgrafikkarten-portfolio-roadmap-8-september-2014)
Godmode
2014-09-08, 13:31:02
Um mal eine kurze Leistungseinschätzung abzugeben.
Fijii>GM200>Tonga>GM204>GK110>Hawai>Tahiti>GK104
So wirds am Ende aussehen würde ich mal meinen.
GK104 ist ca. 15-20% schneller als der aktuelle Tonga. Selbst wenn da noch ein paar Hardwareeinheiten dazu kommen, wird sich da nicht mehr viel ändern.
http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/5/#diagramm-rating-1920-1080-4xaa-16xaf
Edit: Wenn bei Nvidia nicht irgendwas total schief geht, dann sehe ich keinen Grund warum GM200 nicht vor Fiji liegen sollte, inkl. bessere Energieeffizienz.
memoal
2014-09-08, 13:31:36
Denke mal er hat den TongaXT mitgerechnet und ein 384si. Oder Mobile gemeint?
-/\-CruNcher-/\-
2014-09-08, 13:37:07
Bei Maxwell werden wir erstmals sehen das sich das Tegra R&D doch nicht als reines Geddverpulvern heraustellt sondern das die Erkentnisse im Desktop auch von großem nutzen sind ;)
AMDs einsetzende Expansion mit Hawai wird einen dämpfer erhalten wenn die Preise vernünftig sind,vielleicht werden sie sogar wieder user verlieren und Nvidia macht den Konsolen herstellern schonmal die Aussicht auf Pascal schmackhaft und vor allem den nächsten Tegra Soc mit Maxwell ;)
memoal
2014-09-08, 13:40:58
Das grundsätzliche Niveau wurde mit der 285 schon gesetzt - mehr als Niveau 290 wird es nicht werden. Das schlägt der GM204 locker weg.
Da wäre ich vorsichtig, was den GM204 ala 970 angeht. Wir haben weder finale Taktraten noch irgendwas dass von nVidia stammt. Die könnten glatt gleichauf liegen. Wer heute noch eine 780 default@Standardkarte mit einem Boostclock von unter 1000Mhz mit in eine Berechnung einbezieht und diese als 780 Grundlage sieht, macht was falsch. :freak:. Das hat Videocards was schön gerechnet. Liegen die (b) Versionen nicht alle so bei 1050-1070 Boostclock? Zudem weiss man nicht wieviele Spinner Ergebnisse dort eingeflossen sind.
Die 290 dürfte mit im Markt befindliche Angebote trotzdem schneller sein als eine default@780, wenns nach oben raus geht.
Der GM204 dürfte damit aber AMDs Angebote was die Leistungsaufnahme bei gleicher Spieleperformance angeht, deutlich deklassieren, da gehe ich voll mit. Alles andere würde ich persönlich abwarten.;)
Dural
2014-09-08, 13:53:47
Bitte? Dann kennst du wohl die GK110 (b) Karten nicht, deren OC Versionen haben eine VCore von bis zu 1,21v.
Ja kenn ich, auch hier ist die TDP recht unterschiedlich gestreut, "Milchmädchenrechnung" trifft es dann recht gut, weil niemand weiß was der Chip so mitbringt. Wo nVidia ihn letztendlich sieht! Du gehst von 1,3 Ghz Takt aus, bei welcher VCore 0,9-1,1v? Never...unter 28nm.
OC Versionen halt, und übrigens sind 1,21Volt immer noch recht wenig für den Takt. Habe zwar auch noch eine 580 da, weis aber gerade nicht was die Default drauf hatte, ich vermute mal 1,1Volt. Selbst GK110 kommt mit 1,1Volt bei 1100MHz locker aus.
Ich gehe nicht von 1300Mhz aus, es war nur ein Beispiel
GTX980 wird sicher um die 1100Mhz takten, würde ich jetzt einfach mal behaupten. wo bei das immer noch recht wenig ist im vergleich zur 980m die auch schon knapp über den 1000Mhz liegen soll.
Schaffe89
2014-09-08, 14:00:20
Willst Du trollen oder was?
Wieso trollen? Es ist doch offensichtlich dass Tonga der Hawai Ablöser ist und natürlich auch als Tahiti Ersatz denkbar ist.
Tonga dürfte schneller sein wie Hawai, wenn AMD die Katze aus dem Sack lässt.
2560 oder gar 3072 Shader dürften möglich sein.
Wieso schätzt Du Tonga höher als GM204 ein? Selbst wenn Tonga noch versteckte HW-Einheiten hat, so viel mehr kann man dann gar nicht herausholen. Das grundsätzliche Niveau wurde mit der 285 schon gesetzt - mehr als Niveau 290 wird es nicht werden. Das schlägt der GM204 locker weg.
Tonga dürfte 2560 Shader + haben. Maxwell hat nur 2048 + eine etwas bessere Auslastung der Shader.
Zusätzlich bekommt Tonga noch ein 384 Bit Interface spendiert.
Womöglich wird es wieder so aussehen wie damals zu HD 7970 Zeiten. AMD holt auf je höher die Auflösung ist und ist mit höherem Verbrauch einer GHZ 1100 Version vorne.
Der Mann ist offenkundig irre.
Aber so lange man ihn lässt und auch noch bestätigt...
Ich glaube eher, dir passt es lediglich nicht in den Kram, dass AMD diesmal etwas in der Hinterhand haben könnte.
Tonga ist der >350mm² Chip der angekündigt wurde, ergo gibt es nurnoch einen Chip der stärker ist, und zwar Fijii.
Will man dann Hawai weiterlaufen lassen? Glaube ich kaum. Wann hat man bitte jemals einen alten Chip zwischen High End und Performance weiterlaufen lassen?
Tonga ist quasi die HD 7870 im Vergleich zur HD 6970 10 bis 15% schneller, sparsamer.
Wenn bei Nvidia nicht irgendwas total schief geht, dann sehe ich keinen Grund warum GM200 nicht vor Fiji liegen sollte, inkl. bessere Energieeffizienz.
Das Problem ist wohl die Packdichte von AMD. Hawai bietet einen gleich hohe Rechenleistung wie GK110 mit 2816 zu 2880 Shadern, siehe 4K Benchmarks.
Von der Größe haben wir 438mm² vs 561mm² am Ende allerdings nahezu gleiche Performance bei gleichem Takt.
AMD wird Fijii sicherlich mit 4096 Shadern bringen.
Sollte AMD wirklich einen Chip produzieren, der >500mm² ist, was sie schon Ewigkeiten nicht mehr getan haben, wird der sicherlich schneller wie Nvidias GM200.
Dural
2014-09-08, 14:02:42
also ich glaube es sind 3072 :wink:
dildo4u
2014-09-08, 14:05:36
Wieso trollen? Es ist doch offensichtlich dass Tonga der Hawai Ablöser ist und natürlich auch als Tahiti Ersatz denkbar ist.
Tonga dürfte schneller sein wie Hawai, wenn AMD die Katze aus dem Sack lässt.
2560 oder gar 3072 Shader dürften möglich sein.
Der Chip ist kleiner als Hawai wie sollen dort mehr Shader untergebracht sein?
Dural
2014-09-08, 14:10:33
naja sagen wir es mal so, mehr ALUs sind deutlich realistischer als 1:2 DP oder ein 384Bit SI.
an die 2048 glaube ich aktuell auch nicht wirklich, sonst wäre der Chip wirklich eine Katastrophe :wink: aber sicher auch keine 3072...
dildo4u
2014-09-08, 14:14:41
2048 haut hin wenn man sieht das Tonga Hawei um 70% schlägt was Geometrie Leistung angeht,das wird einiges an Transistoren gekostet haben.
Dural
2014-09-08, 14:17:17
wenn das so ist müssen die AMD Jungs bei NV in den Nachhilfe Unterricht :wink:
Schaffe89
2014-09-08, 14:26:56
2048 haut hin wenn man sieht das Tonga Hawei um 70% schlägt was Geometrie Leistung angeht,das wird einiges an Transistoren gekostet haben.
Und so sähe dann der Chip aus, den AMD gegen Maxwell präsentiert?
1 Jahr nach Hawai und vor allem 3 Jahre nach Tahiti?
Glaubst doch selbst nicht. ;)
AMD hat doch schon anfang des Jahres gesehen, wie effizient Maxwell wird.
M4xw0lf
2014-09-08, 14:31:31
AMD hat doch schon anfang des Jahres gesehen, wie effizient Maxwell wird.
Und? Zu diesem Zeitpunkt war Tonga auch schon praktisch fertig, Änderungen am grundlegenden Chipdesign gab es da sicher nicht mehr.
Ailuros
2014-09-08, 14:42:51
AMD Fantasy Islands GPUs haben alle tonnenweise clusters versteckt :rolleyes:
Sonst koennen wir wohl wieder zu Maxwell zurueckkommen.
Leonidas
2014-09-08, 15:35:26
Da wäre ich vorsichtig, was den GM204 ala 970 angeht. Wir haben weder finale Taktraten noch irgendwas dass von nVidia stammt. Die könnten glatt gleichauf liegen. Wer heute noch eine 780 default@Standardkarte mit einem Boostclock von unter 1000Mhz mit in eine Berechnung einbezieht und diese als 780 Grundlage sieht, macht was falsch. :freak:. Das hat Videocards was schön gerechnet. Liegen die (b) Versionen nicht alle so bei 1050-1070 Boostclock? Zudem weiss man nicht wieviele Spinner Ergebnisse dort eingeflossen sind.
Korrekt. Deswegen benutzt die 3DC-Betrachtung zum Thema auch Vergleichswerte aus Reviews und nicht von HighScore-Benchmarkern.
Tonga dürfte 2560 Shader + haben. Maxwell hat nur 2048 + eine etwas bessere Auslastung der Shader.
Zusätzlich bekommt Tonga noch ein 384 Bit Interface spendiert.
NV hat AMD schon mit nur 1536 Kepler-SE gegen 2048 AMD-SE gut Paroli bieten können. Maxwell setzt da bei der Effizienz nochmal deutlich was oben drauf. Ergo wird der Vergleich 2048 Maxwell-SE gegen 2560 AMD-SE klar zugunsten von NV ausgehen.
An 3072 SE bei Tonga glaube ich hingegen nicht. Dafür ist der Chip wiederum etwas zu klein, das wäre eine höchst optimistische Annahme.
Und ja, gehört in den AMD-Thread. Aber wieso Müllhalde? Hat mehr Seiten als der aktuelle NV-Thread?! Ja, ich weiss, VI läuft viel länger als Maxwell
Avalance
2014-09-08, 16:15:33
Also mich ärgert das alles schon wieder, da muss ich jetzt schon leider von ATI weg weil´s nichts brauchbares in Verbindung mit einem i7 für den Mobilen Sektor gibt.
Und bei nVIDIA stehen die Maxwell 970M im Startloch, die sogar den 880M Kepler wegperformen, von den 980M mal ganz zu schweigen. Also nagel ich mir keinen 880M mehr an´s Bein.:freak:
Argh! Ob von ATI noch was brauchbares kommt? Oder haben die Mobilen Sektor aufgegeben?:redface:
Grüße
aVa
dildo4u
2014-09-08, 16:29:52
Also mich ärgert das alles schon wieder, da muss ich jetzt schon leider von ATI weg weil´s nichts brauchbares in Verbindung mit einem i7 für den Mobilen Sektor gibt.
Und bei nVIDIA stehen die Maxwell 970M im Startloch, die sogar den 880M Kepler wegperformen, von den 980M mal ganz zu schweigen. Also nagel ich mir keinen 880M mehr an´s Bein.:freak:
Argh! Ob von ATI noch was brauchbares kommt? Oder haben die Mobilen Sektor aufgegeben?:redface:
Grüße
aVa
Maxwell ist aktuell nicht schlagbar im Mobile Bereich,da sich dort die Effizienz noch stärker auswirkt.Wobei man dazu sagen muss das alle High-End Mobile Chip's drosseln so bald du den Akku nutzt.
Kriton
2014-09-08, 16:43:22
Glaube ich nicht, zu dem Zeitpunkt des Erscheines der 780iger gab es nichts vergleichbares was die leistung betrifft da kann man nehmen was man denkt, jetzt schon.
Titan war doch vor 780.
memoal
2014-09-08, 18:24:32
Korrekt. Deswegen benutzt die 3DC-Betrachtung zum Thema auch Vergleichswerte aus Reviews und nicht von HighScore-Benchmarkern.
Ja, aber diese Diskussion nicht, auf was wollt ihr euch denn berufen? Unbestätigte Infos Dritter?
Auch wenn @Ailuros schimpft, "OT", mir kommt es machmal so vor als wenn man eure Spekulationsinfos (Diskussionen hier im Forum) voll "Münze" genommen werden, kopiert und dann einmal um die Welt gehen, um zum Schluss wieder bei euch mit dem Teil persönlicher Eigeninterptretation eines jeden Autors, wieder anzukommen. Videocard nehmen irgendwelche spekualtiven Benchmarksszenarien von Firestrike etc. an, bei denen noch nicht mal ein GPU hinterlegt ist, dass kann ja alles und nichts sein. Vielleicht wars ja auch Maui oder Fiji oder Tonga XT, was weiss ich! Verkaufen den Mist dann als neue GTX980.
Hoffen wir mal es waren die neuen Maxwell, dann würden sie schon mal ganz gut effizient zu Werke gehen, wenns dann über der 780ti liegt. Die 200 Pionts 970 vs 780 können auch an einer CPU liegen und wie diese durch ein Design-Treiber ausgelastet wird, bei entsprechender Optimierung.
Der Typ ist nicht echt.
Nicht echt, was? Du meinst ein Bot antwortet so zielgerichtet?
Ailuros
2014-09-08, 18:47:53
Ja, aber diese Diskussion nicht, auf was wollt ihr euch denn berufen? Unbestätigte Infos Dritter?
Auch wenn @Ailuros schimpft, "OT", mir kommt es machmal so vor als wenn man eure Spekulationsinfos (Diskussionen hier im Forum) voll "Münze" genommen werden, kopiert und dann einmal um die Welt gehen, um zum Schluss wieder bei euch mit dem Teil persönlicher Eigeninterptretation eines jeden Autors, wieder anzukommen. Videocard nehmen irgendwelche spekualtiven Benchmarksszenarien von Firestrike etc. an, bei denen noch nicht mal ein GPU hinterlegt ist, dass kann ja alles und nichts sein. Vielleicht wars ja auch Maui oder Fiji oder Tonga XT, was weiss ich! Verkaufen den Mist dann als neue GTX980.
Ich schrei eben nicht OT, weil ich die Geschichte besser kenne als Du Dir vorstellen kannst. FYI pflanzen wir oefters auch kleine Einzelheiten mit rein damit wir wissen wer abschreibt.
Sonst werde ich von VC Authoren anderswo auch privat via PM angesprochen, weil sie etwas rausfischen wollen ;D Die Typen wuerden wohl auch gerne Ihre Muetter fuer ein paar extra hits auf ihrer Seite verkaufen.
Hoffen wir mal es waren die neuen Maxwell, dann würden sie schon mal ganz gut effizient zu Werke gehen, wenns dann über der 780ti liegt. Die 200 Pionts 970 vs 780 können auch an einer CPU liegen und wie diese durch ein Design-Treiber ausgelastet wird, bei entsprechender Optimierung.
Nicht echt, was? Du meinst ein Bot antwortet so zielgerichtet?
Ich mach es Dir einfacher was Maxwell betrifft: 3dfurz ist offensichtlich nicht die gesamte Geschichte ergo die echten unabhaengigen reviews nach dem launch abwarten wie immer.
memoal
2014-09-08, 19:24:53
Ich schrei eben nicht OT, weil ich die Geschichte besser kenne als Du Dir vorstellen kannst. FYI pflanzen wir oefters auch kleine Einzelheiten mit rein damit wir wissen wer abschreibt.
Ja aber so hatte ich das nicht gemeint, sondern meinen Beitrag eher als OT angesehen, weil nicht unbedingt beim Thema.;)
Die Typen wuerden wohl auch gerne Ihre Muetter fuer ein paar extra hits auf ihrer Seite verkaufen.
Genau, ja, es geht nur um Hits bestimmter Seiten. Von da kam aber auch schon viel Bullshit, naja.:P
ergo die echten unabhaengigen reviews nach dem launch abwarten wie immer.
Danke, natürlich. Das alles in Aufruhr ist verstehe ich aber auch. Was ich hier rein auf Basis technischer Kommentare lese finde ich voll o.k. und das interessiert mich auch. Das zeigt aber nicht auf wie schnell man ist und man muss (wie immer) einfach die offizielles (vor allem ubabhängigen) Benchmarks abwarten, klar. :D Alles andere ist wenig authentisch.
Dann wird sich zeigen ob der Job gut gemacht wurde oder nicht und was die Konkurrenz vielleicht dann macht oder so. So ist es ja immer.
Dich persönlich oder jemand anderes hatte ich mit OT nicht gemeint.
Avalance
2014-09-08, 20:03:24
Maxwell ist aktuell nicht schlagbar im Mobile Bereich,da sich dort die Effizienz noch stärker auswirkt.Wobei man dazu sagen muss das alle High-End Mobile Chip's drosseln so bald du den Akku nutzt.
Das ist verständlich, aber der Fokus liegt bei mir eher als DTR Gerät so wie der jetzige auch schon, mit einem Gaming Laptop auf Akku zu spielen ist ernüchternd :biggrin: (sicherlich auch mit den aktuellen Chipsets)
ich denk mal dass wenn der Maxwell irgendwie recht nett mit der Abwärme/Leistung umgehen kann, dass es sich dann doch lohnt darauf zu warten, wobei ich kein Wartefreund mehr bin (weil dann wartet man irgendwann immer auf das neueste ^^ ):D
Grüße
aVa
Unicous
2014-09-08, 20:12:13
Warten musst du trotzdem...bis die OEMs die Dinger einbauen und das geschieht flächendeckend erst wieder Anfang nächsten Jahres, also (meist) im Januar.
Undertaker
2014-09-08, 20:26:05
Im High-End-Bereich geht das dank MXM-Modulen nahezu verzögerungsfrei, die letzten Topmodelle waren praktisch sofort ab Launch bei den üblichen Barebone-Anbietern erhältlich.
AnarchX
2014-09-08, 20:29:13
MSI listet schon GM204 Notebook, die wohl laut Anfragen an MSI im Oktober ausgeliefert werden sollen.
Unicous
2014-09-08, 20:47:09
Was ist denn unter "flächendeckend" so zweideutig zu verstehen.
Ich wusste nicht, dass Avalance einen Barebone kaufen möchte oder den erstbesten MSI-Laptop der irgendwo gelistet wird.:rolleyes:
Undertaker
2014-09-08, 20:52:00
Der Markt mit Geschossen a'la GTX 880M besteht praktisch nur aus diversen Compal/Clevo/MSI-Resellern. :rolleyes: Und ansonsten, auch Alienware und andere waren in der Vergangenheit ohne nennenswerte Verzögerungen dabei. Von Anfang kommenden Jahres zu reden ist schlicht Unfug, Relativierungen hin oder her.
dildo4u
2014-09-08, 20:52:04
Wenn sie das Weichnachtgeschäft nutzen wollen muss bald was kommen.Erinnert an Intel die tun auch alles das man noch dieses Jahr 14nm CPU's kaufen kann auch wenn nur im Mobile Bereich.
Unicous
2014-09-08, 21:20:05
Der Markt mit Geschossen a'la GTX 880M besteht praktisch nur aus diversen Compal/Clevo/MSI-Resellern. :rolleyes: Und ansonsten, auch Alienware und andere waren in der Vergangenheit ohne nennenswerte Verzögerungen dabei. Von Anfang kommenden Jahres zu reden ist schlicht Unfug, Relativierungen hin oder her.
Willst du mir jetzt das Konzept von Whitebooks erklären?
Fakt ist: Januar ist traditionell Start der neuen "Saison".
Fakt ist: Back to School ist traditionell der stärkste Absatzzeitraum für PCs/Laptops in den USA. Zu Weihnachten werden nicht so viele PCs/Laptops verkauft. (Deswegen beeilt man sich entweder bis spätestens August neue Produkte rauszuhauen... oder man lässt es und wartet bis Januar).
Die Back to School Periode ist theoretisch schon vorbei, bei Apple dauert sie exakt bis morgen.
Wenn es 900M Produkte gibt, dann wird das nicht flächendeckend geschehen, wie ich bereits sagte. Ob da nun Schenker schon eine Lieferung bestellt hat, oder MSI schon eine SKU bereit hat, macht da den Kohl nicht fett. Anscheinend weißt du aber, was Avalance will... den erstbesten Laptop mit GM204.
memoal
2014-09-08, 21:41:05
Anscheinend weißt du aber, was Avalance will... den erstbesten Laptop mit GM204.
Nun beruhigt euch wieder. ;D Ich brauch auch einen Neuen, meiner hat jetzt auch schon 5 Jahre auf dem Buckel, Danke für die Infos. Drückt mehr (als die DesktopGPUs), ist noch DX10.
Denke so'n GM204 (m) macht sicht dann auch ganz gut, wenn er effizient wird. Daher rein vom Interesse, was kann man da erwarten und sollte man kaufen wenns um GM204 (m) geht.
Also @CB (http://www.computerbase.de/2014-09/benchmarks-von-nvidia-geforce-gtx-980-m-970-m/) reden wegen Videocards-Benchmarktabellen von 970m mit 192bitSI und 6GB VRAM? Scheint mir als wäre das dann unbezahlbar?
Undertaker
2014-09-08, 22:06:45
Willst du mir jetzt das Konzept von Whitebooks erklären?
Fakt ist: Januar ist traditionell Start der neuen "Saison".
Fakt ist: Back to School ist traditionell der stärkste Absatzzeitraum für PCs/Laptops in den USA. Zu Weihnachten werden nicht so viele PCs/Laptops verkauft. (Deswegen beeilt man sich entweder bis spätestens August neue Produkte rauszuhauen... oder man lässt es und wartet bis Januar).
Die Back to School Periode ist theoretisch schon vorbei, bei Apple dauert sie exakt bis morgen.
Wenn es 900M Produkte gibt, dann wird das nicht flächendeckend geschehen, wie ich bereits sagte. Ob da nun Schenker schon eine Lieferung bestellt hat, oder MSI schon eine SKU bereit hat, macht da den Kohl nicht fett. Anscheinend weißt du aber, was Avalance will... den erstbesten Laptop mit GM204.
Was du hier in diesem Thread bezwecken willst, ist mal wieder für jeden Leser mehr als offensichtlich. Deine 2015-Story ist eine Ente, so oft du sie auch noch wiederkäuen willst. Ja, auch mit dem Zusatz "Flächendeckend". Du wirst von der absoluten Mehrheit bedeutsamer High-End-Hersteller noch in diesem Jahr Modelle bekommen, viele davon sogar schon weit vor Jahresende.
Unicous
2014-09-08, 22:18:07
Was ist offensichtlich?
Und warum kannst DU mir versichern, dass es so ablaufen wird? Hast du einen heißen Draht zu Lars Weinand?
hasebaer
2014-09-09, 06:39:27
Ich weiß noch vor 2 Jahren hat es bei der GTX 660M ca. 4-5 Wochen dauert von der Vorstellung bis das man erste Notebooks damit kaufen konnte, gelistet waren die Modelle auch schon kurz nach der Vorstellung.
Also wenn es eine frühe Listung im Oktober gibt, kann man sie auch irgendwann im November kaufen.
AnarchX
2014-09-09, 07:45:44
Sieht wohl ganz danach aus. Am 11. August wurden wohl auch Teile des Kühlsystems für die Prototypen verschickt: https://www.zauba.com/import-fcbga35x35-hs-code.html
Auf jeden Fall gibt es wohl nun keine Codenamen mehr in den Frachbriefen.
Und noch einige JIYCG GPUs unterwegs: https://www.zauba.com/import-graphics-processor-integrated-hs-code.html (die GPU mit 35x35 Package wurde in den ersten Shippings als DEVICE:JIAQ1 bezeichnet)
Vielleicht schafft man es da mit GM206 noch gerade so zu Weihnachten.
Loeschzwerg
2014-09-09, 08:29:07
@AnarchX: Falls das der GM206 ist, dann sind hier schon ordentliche Stückzahlen geliefert worden.
26-Aug-2014 85423100 INTEGRATED CIRCUIT PI-FCBGA (ELF) (35*35) 1428 DEVICE:JIAQ1 LOT NO: T6B462.0021 S.PN : 3G3535B Taiwan Banglore Air Cargo NOS 50 345,162 6,903
26-Aug-2014 85423100 INTEGRATED CIRCUIT PI-FCBGA (ELF) (35*35) 1428 DEVICE:JIAQ1 LOT NO : T6B462.002 S.PN : 3G3535B Taiwan Banglore Air Cargo NOS 52 357,837 6,881
26-Aug-2014 85423100 INTEGRATED CIRCUIT PI-FCBGA (ELF) (35*35) 1428 DEVICE:JIAQ1 LOT NO : T6B462.002 S.PN : 3G3535B Taiwan Banglore Air Cargo NOS 50 344,074 6,881
23-Aug-2014 85423100 INTEGRATED CIRCUIT PI-FCBGA (ELF) (35*35) 1428 DEVICE : OMOYK LOT NO : T6B462.002 S.PN : 3G3535B Taiwan Banglore Air Cargo NOS 20 131,554 6,578
22-Aug-2014 85423100 INTEGRATED CIRCUIT PI-FCBGA (ELF) (35*35) 1428 DEVICE : OMOYK LOT NO : T6B462.001 S.PN : 3G3535B Taiwan Banglore Air Cargo NOS 45 271,514 6,034
Ailuros
2014-09-09, 08:37:40
Ist es nur mein Bauchgefuehl oder ist 206 der bisher einzige 20x Maxwell der womoeglich einen metal spin brauchte?
Dawn on Titan
2014-09-09, 09:46:36
Noch zu früh um es sagen zu können. Der kann durchaus pünktlich auftauchen. Es ist einfach so, dass die kleinen Chips in den einschlägigen Quellen weniger Aufmerksamkeit bekommen.
Timbaloo
2014-09-09, 10:47:36
Ist es nur mein Bauchgefuehl oder ist 206 der bisher einzige 20x Maxwell der womoeglich einen metal spin brauchte?
Keine Ahnung ob er ein Metal Spin brauchte, aber mich wundert der "verspätete" GM206 auch.
GM107 -> GM204 -> GM206+210?
Klingt erstmal nach einer komischen Reihenfolge.
AffenJack
2014-09-09, 10:49:46
Ist es nur mein Bauchgefuehl oder ist 206 der bisher einzige 20x Maxwell der womoeglich einen metal spin brauchte?
Glaube ich nicht unbedingt, die anderen sind ja vorher bei Zauba aufgetaucht. GM206 scheint erst jetzt aufzutauchen, ich denke da eher an nen späteres Tapeout. Vielleicht hat man kurzfristig noch Leute zu Gm200 rübergeschauffelt, damit dieser rechtzeitig fertig wird und GM206 musste darunter leiden.
Ailuros
2014-09-09, 11:46:03
Glaube ich nicht unbedingt, die anderen sind ja vorher bei Zauba aufgetaucht. GM206 scheint erst jetzt aufzutauchen, ich denke da eher an nen späteres Tapeout. Vielleicht hat man kurzfristig noch Leute zu Gm200 rübergeschauffelt, damit dieser rechtzeitig fertig wird und GM206 musste darunter leiden.
Naaaeein. Die background info spricht ziemlich genau von fruehen April tape outs fuer 204 und 206 mit nur Tagen Unterschied.
Das GM200 team bekam tatsaechlich etwas mehr Hilfe afaik, aber das kam eher vom SoC team.
Darf ich mir als außenstehender Mitleser ein paar Fragen und Anmerkungen erlauben, ohne abgebügelt zu werden?:redface:
Pascal, und hier bin ich mit Ailuros, kann doch niemals bevor H2/16 kommen.
(Obwohl ich das hoffe)
Eher später, solange AMD nicht richtig kontert. Früher macht das marktwirtschaftlich keinen Sinn. Man muß die teuer entwickelte Gen solange am Markt halten, wie möglich. Offensichtlich hat man sich mit GM@20nm verschätzt, was auch AMD betrifft. Wie kann man also eine teure R&D Generation kostengünstig reinholen: lange Laufzeit + gutes Marketing.
Kepler hat das (notgedrungen) vorgemacht.
P/Watt dürfte bei 780 (ti) Besitzern kaum zählen, sollten die kolportierenden Benches stimmen, es sei der Einstiegspreis stimmt. Und damit meine ich keine 600€.
Eine zukünftige Titan II, vmtl. 2/3 2015 mit einer Halbwertszeit von ca. einem Jahr (Pascal) dürfte doch keinen hervor locken.
Oder doch? Mich läßt das irgendwie kalt. MW mutiert zum Platzhalter für den richtigen Sprung.
Gruß Yamo
Hübie
2014-09-09, 14:17:48
Sehe ich nicht ganz so. Kepler war ein großer Wurf seit langem und musste nicht notgedrungen so lang am Markt bleiben sondern konnte es einfach (yieldrates, marktstabil, absatzstark, skalierbar, optimierbar etc).
nVidia richtet nur einen kleinen Teil seiner Strategie an AMD aus. Keine Ahnung wer da immer wieder sagt "weil AMD nix bringt" kommt von nVidia nix. Afaik hatte man GK104 etwas verzögert um den Boost auszuloten damit (Ur-) Tahiti geschlagen wird (Wahnsinns-Idee:freak:). AMD zahlte den Preis für zu kurze Evaluierungsphasen. Afair waren alle Tahitis mit zuviel Spannung bzw. zu wenig Takt unterwegs.
Wenn man ein R&D-Team hat (wird auch einiges ausgelagert), dann muss man es auch bezahlen. Es bringt also rein gar nichts die herumdümpeln zu lassen nur weil man nix auf den Markt werfen muss. Das ist also so gesehen auch Quatsch. Man bemüht sich stets fette Verträge ins Boot zu holen. Momentan ist man da ja mit ULP in der Industrie auf Fisch..äh Kundenfang.
Und wer sagt dass Pascal für Desktop H2 '16 kommt und wer sagt dass beide Architekturen keine Koexistenz führen können. Schau mal zu AMD. Da mischen sich die Generationen ebenso. Bei nVidia teilweise. GK1xx, GK2xx und GM1xx in einer Serie (700er). Mobil war da glaub ich sogar noch ein Fermi dabei :freak:
Und natürlich darfst du so viele Fragen stellen wie du möchtest ;) NIEMAND verbietet dir den Mund.
Dawn on Titan
2014-09-09, 14:27:37
Pascal im Profibereich ab Anfang 2016 halte ich von NV-Seite her für machbar, ob TSMC es ermöglichen wird, ist die andere Frage.
-/\-CruNcher-/\-
2014-09-09, 14:30:05
Darf ich mir als außenstehender Mitleser ein paar Fragen und Anmerkungen erlauben, ohne abgebügelt zu werden?:redface:
Pascal, und hier bin ich mit Ailuros, kann doch niemals bevor H2/16 kommen.
(Obwohl ich das hoffe)
Eher später, solange AMD nicht richtig kontert. Früher macht das marktwirtschaftlich keinen Sinn. Man muß die teuer entwickelte Gen solange am Markt halten, wie möglich. Offensichtlich hat man sich mit GM@20nm verschätzt, was auch AMD betrifft. Wie kann man also eine teure R&D Generation kostengünstig reinholen: lange Laufzeit + gutes Marketing.
Kepler hat das (notgedrungen) vorgemacht.
P/Watt dürfte bei 780 (ti) Besitzern kaum zählen, sollten die kolportierenden Benches stimmen, es sei der Einstiegspreis stimmt. Und damit meine ich keine 600€.
Eine zukünftige Titan II, vmtl. 2/3 2015 mit einer Halbwertszeit von ca. einem Jahr (Pascal) dürfte doch keinen hervor locken.
Oder doch? Mich läßt das irgendwie kalt. MW mutiert zum Platzhalter für den richtigen Sprung.
Gruß Yamo
Maxwell ist so gesehen ja auch nur ein TICK und kein TOCK aber schon ein beindruckender TICK (dank Tegra R&D) hin zum TOCK extreme viel zu investieren in den TICK macht wenig sinn dann lieber moderat hin zum TOCK gleiten und den nächsten TICK entspannt ausslassen ;)
Timbaloo
2014-09-09, 14:46:19
Ich würde da ja widersprechen wollen, aber nachdem du Tick und Tock eh schon verwechselt hast spare ich mir das mal :P
Hübie
2014-09-09, 14:53:58
X-D Pöhse.
Ist auch logisch. Ich hab eine Architektur und schrumpfe diese zuerst (Tick). Dann optimiere ich diese (Tock).
Wobei GPUs oft ein Tick und ein Tock vollführen.
Konami
2014-09-09, 15:49:36
Die GPU-Uhr ist so gesehen eh ziemlich kaputt. Meistens macht sie Ticktock-ticktock, bei Maxwell dann mal Tock, und als nächstes wieder Ticktock. :ugly:
Aber nachdem das nur Intel-Marketing-Sprech ist, machts wenig Sinn das auf GPUs anzuwenden.
-/\-CruNcher-/\-
2014-09-09, 15:57:46
Naja man muss schon unterscheiden zwischen einer optimierten Architektur und einer neuen Architektur wo man Maxwell einkategorisiert muss man selbst entscheiden.
Pascal wird definitiv eine neue Architektur zumal neue elementare komponenten hinzukommen.
Ailuros
2014-09-09, 16:00:30
Maxwell ist so gesehen ja auch nur ein TICK und kein TOCK aber schon ein beindruckender TICK (dank Tegra R&D) hin zum TOCK extreme viel zu investieren in den TICK macht wenig sinn dann lieber moderat hin zum TOCK gleiten und den nächsten TICK entspannt ausslassen ;)
*tock tock tock*...anybody home? :weg:
Ihr tickt doch nicht mehr richtig :D
*tock tock tock*...anybody home? :weg:
sorry, der war gut. Ok, hier geht´s eher um technische Umsetzung.
Es gibt zwar viele Unbekannte, aber wie platziere ich (preislich) eine GTX 980 gegen einen 780 (ti) ,wenn ich noch Bestaende habe?
Es könnte für eine erstmals geringere Einpreiserei sprechen. Erhöhte W/P klingt niedlich, ist ja auch nicht schlecht. Interessant wird für mich nur der Preis.
Pascal wird das, auf was wir alle warten.
Ailuros
2014-09-09, 18:06:16
Ihr tickt doch nicht mehr richtig :D
ROFL :D Wir duerfen uns schon ab und zu enstpannen.
Es gibt zwar viele Unbekannte, aber wie platziere ich (preislich) eine GTX 980 gegen einen 780 (ti) ,wenn ich noch Bestaende habe?
Es könnte für eine erstmals geringere Einpreiserei sprechen. Erhöhte W/P klingt niedlich, ist ja auch nicht schlecht. Interessant wird für mich nur der Preis.
Pascal wird das, auf was wir alle warten.
Man sollte nicht vergessen dass eine GTX980 (GM204) keine wirkliche Aufruestung fuer eine 780Ti (GK110) ist oder je sein wird. Die 980 ersetzt eigentlich die GTX770 (GK104) und die 780-er werden etwas spaeter vom top dog Maxwell GM200 ersetzt. Ich bin mir zwar noch nicht sicher aber ich erwarte den MSRP fuer die GTX980 irgendwo in der 450 Euro Region ergo mehr oder weniger GTX780 (non Ti) Bereich. Hier hat dann das Preis-/Leistungsverhaeltnis mehr Sinn.
Dural
2014-09-09, 18:09:10
Wer sagt das NV noch grosse GK110 bestände hat?
Zudem kann NV die GK110 Chips leicht in den Quadros oder Teslas noch etwas verwenden, oder man geht den klassischen Weg und haut einen extrem beschnittenen GK110 in den Handel um wirklich alle Chips noch los zu werden.
Was NV genau macht kann derzeit keiner sagen, kommt halt drauf an was an GK110 wirklich noch an Lager ist.
Leonidas
2014-09-09, 18:27:35
GM107 -> GM204 -> GM206+210?
Klingt erstmal nach einer komischen Reihenfolge.
Nicht wirklich. GM206 darf ja ruhig etwas später kommen, damit man in diesem Preisbereich vorher noch die Reste an GK104-Lösungen, die durch GM204 obsolet werden, verkaufen kann. Wenn GM206 antritt, wird das nahezu unverkäuflich, aber GK104 ist zu teuer, um es billig zu verramschen.
hasebaer
2014-09-09, 18:41:52
oder man geht den klassischen Weg und haut einen extrem beschnittenen GK110 in den Handel um wirklich alle Chips noch los zu werden.
Die 6GB Version der kleinen 780 dürfte das erledigt haben.
Wobei eine GK110, GTX 770 Ti mit 5GB @ 320Bit und 1920 ALUs auch seinen Reiz gehabt hätte, vor ~ 3 Monaten.
memoal
2014-09-09, 20:45:47
Ich bin mir zwar noch nicht sicher aber ich erwarte den MSRP fuer die GTX980 irgendwo in der 450 Euro Region ergo mehr oder weniger GTX780 (non Ti) Bereich. Hier hat dann das Preis-/Leistungsverhaeltnis mehr Sinn.
Glaubt hier nur keiner, da kann man tock tock tocken wie mal will. :D Die denken alle die 980 wird der Heilsbringer der gleich alles vom Tisch haut. Wozu nVidia dann die Tick Tick...GM200ter auflegt, naja, vielleicht lange Weile?:freak:
M4xw0lf
2014-09-09, 21:57:39
http://www.tomshardware.com/news/gtx-980-videocardz.com-nvidia,27621.html#xtor=RSS-998
Ist das hier schon bekannt?
This time around, instead of running a benchmark of a graphics card to evaluate its performance, VideoCardz.com calculated the synthetic performance of the GTX 980 and GTX 970. Yes, these are artificial numbers of a synthetic GPU test.
Worauf tomshardware das allerdings stützt ist mir nicht klar.
horn 12
2014-09-09, 22:00:08
@Ailures
Wird AMD womöglich gar eine Antwort auf die GTX 970 / 980 haben in Form einer Tonga GPU
Duplex
2014-09-09, 22:12:56
Also gegen die 980GTX bräuchte AMD ein Chip mit ca. 25% mehr Performance als Hawaii XT, Tonga ist unwahrscheinlich, 1. kleiner als Hawaii, 2. keine neue Architektur, der skaliert nicht besser, da bringen auch mehr Einheiten beim Tonga Chip nichts mehr. Ohne Architektur Änderungen würde ich jetzt auf 64 CUs aka 4096 Shader tippen, der wäre dann je nach Stromverbrauch ca. 30-40% schneller als Hawaii XT, es ist ja angeblich ein großer 5xxmm² DIE geplant, da würden die 4096 Shader passen, vielleicht diesmal auch mit weniger GPGPU Balllast?
memoal
2014-09-09, 22:19:24
Synthetisch ist der 980 10% schneller als eine 290x (Firestrike), ob das in Spielen genauso ist?, eher nicht. Tonga ist ja nicht Hawaii und soll den auch nicht ersetzen. Wer weiss schon was AMD so plant.
Ist das hier schon bekannt?
Was hast du erwartet, dass die eine Graka zum benchen da haben? und diese 3 unterschiedliche Boosttakt-Raten-Stufen besitzt? Die haben das an zugespielten Werten hochgerechnet.
Lies mal hier, dann dürfte es dämmern:
FYI pflanzen wir oefters auch kleine Einzelheiten mit rein damit wir wissen wer abschreibt....Sonst werde ich von VC Authoren anderswo auch privat via PM angesprochen, weil sie etwas rausfischen wollen ;D Die Typen wuerden wohl auch gerne Ihre Muetter fuer ein paar extra hits auf ihrer Seite verkaufen.
Mag sein das man die zugespielten Werte sogar absichtlich falsch gestreut hat!
horn 12
2014-09-09, 22:24:31
Nie im Leben, ca. gute 10% schneller dann wäre man schon auf GTX 780 TI +5% Performance
Dass der Hawai Chip nicht besonders gut zum OC geht ist sicherlich ein Wermutstropfen bei dem ansonsten sehr gutem AMD Chip, und zudem dass jener enorm viel Hitze produziert!
Kann man dies mit Tonga unterdrücken, wäre AMD wieder voll bei NV dabei.
Wird spannend werden, und AMD hält sich noch komplett bedeckt!
memoal
2014-09-09, 22:28:52
Nie im Leben, ca. gute 10% schneller dann wäre man schon auf GTX 780 TI +5% Performance
Dass der Hawai Chip nicht besonders gut zum OC geht ist sicherlich ein Wermutstropfen bei dem ansonsten sehr gutem AMD Chip, und zudem dass jener enorm viel Hitze produziert!
Kann man dies mit Tonga unterdrücken, wäre AMD wieder voll bei NV dabei.
Wird spannend werden, und AMD hält sich noch komplett bedeckt!
Dann sieh dir die Benchmark-Tabelle von Videocards nochmal genau an, mit dem höchsten Boostclock ist die 980 5% schneller als eine 780ti.
Ob die Werte überhaupt authentisch sind kann niemand sagen.
@Ailuros hat es dann gut beschrieben, "erste offizielle Benchmarkstest abwarten", alles andere ist reine Spekulation. Die Informationen von @VC sind nichts Wert, ausser das sie die Hits der Seite ins "Unermessliche" treiben, muss daran überhaupt nichts wahr sein.
Duplex
2014-09-09, 22:35:56
Das kann nicht wahr sein, ich vertraue der Seite nicht, warum soll GM204 nur 5% schneller sein, das macht doch kein sinn, dann bräuchte AMD nur ein neues Binning für Hawaii...
Godmode
2014-09-09, 22:40:08
Das kann nicht wahr sein, ich vertraue der Seite nicht, warum soll GM204 nur 5% schneller sein, das macht doch kein sinn, dann bräuchte AMD nur ein neues Binning für Hawaii...
Warum nicht? GM204 ersetzt dann die 780 TI und GM200 wird dann das neue Highend Flaggschiff. GM204 ist kleiner und kann somit billiger verkauft werden.
memoal
2014-09-09, 22:41:31
Lies mal @Ailuros Beiträge genauer, dann verstehst du das von allein. Ich bin jetzt kein Profi, kann dort aber genug rauslesen. In erster Linie wird Maxwell GM204 die GTX770 ablösen, das ist Performanceklasse bis unteres Highend.
Man muss auch noch Platz für die GM200 lassen oder wie schnell sollen die werden, wie Volta? Ich denke mal bei den neuen 28nm Derivaten geht es eher um hohe Effizienz bei ausrechendem Leistungszuwachs denn übermächtiger Leistung, was auch der richtige Weg ist. Alles andere wird ein neuer Fertigungsprozeß richten, so hab ich das hier jedenfalls gelesen und verstanden.
Seit wann wildert ein Performancechip in Highendklassen? Das würde die Angebote dort überflüssig machen. Es wird sicherlich wieder 3 Modelle vom GM200 geben.
Wenn GM204 jetzt zwischen 780 und 780ti liegt bei 160-175w Leistungsaufnahme unter Spielen, was ist daran verkehrt?
Duplex
2014-09-09, 22:42:35
Warum nicht? GM204 ersetzt dann die 780 TI und GM200 wird dann das neue Highend Flaggschiff.
Das wäre zwar eine Möglichkeit, aber wann kommt GM200 ?
Und warum wird GM204 nicht als GTX970 vermarktet?
Ich persöhnlich halte davon nichts, für mich muss GM204 >20% schneller als GK110 sein, dann hätte Nvidia kleinere Chips und mehr Gewinn in diesem Gebiet.
Duplex
2014-09-09, 22:47:30
Seit wann wildert ein Performancechip in Highendklassen? Das würde die Angebote dort überflüssig machen.
GK104 war auch >35% schneller als GF110 ;)
memoal
2014-09-09, 22:48:16
Das wäre zwar eine Möglichkeit, aber wann kommt GM200 ?
Womöglich ende des Jahres.
Und warum wird GM204 nicht als GTX970 vermarktet?
Wo soll man mit den Chips hin die den 980GTX Anspruch nicht erfüllen?
Ich persöhnlich halte davon nichts, für mich muss GM204 >20% schneller als GK110 sein, dann hätte Nvidia kleinere Chips und mehr Gewinn in diesem Gebiet.
In erster Linie muss er mal schneller sein als GK104! Und das ist er wohl ausreichend, wenn die Leistungsdaten wirklich stimmen.
GK104 war auch >35% schneller als GF110 ;)
Mit neuer Architektur und in kleinerem Fertigungsprozess, da gibt es deutliche Unterschiede. GM204 ist eher ein Update im gleichen Fertigungsprozess, eine "Neuanordnung" in 28nm.
Godmode
2014-09-09, 22:49:19
Das wäre zwar eine Möglichkeit, aber wann kommt GM200 ?
Und warum wird GM204 nicht als GTX970 vermarktet?
Ich persöhnlich halte davon nichts, für mich muss GM204 >20% schneller als GK110 sein, dann hätte Nvidia kleinere Chips und mehr Gewinn in diesem Gebiet.
GM200 kommt früher als der Abstand zwischen GK104 und GK110. Ail meinte irgendwann Anfang nächsten Jahres.
GK104 war auch >35% schneller als GF110 ;)
Wurde aber auch in einem neueren Prozess gefertigt.
Duplex
2014-09-09, 22:51:05
Wurde aber auch in einem neueren Prozess gefertigt.
Dafür hat Maxwell bei der Effizienz deutlich zugelegt, es ist kein neuer Prozess mehr nötig.
memoal
2014-09-09, 23:02:17
es ist kein neuer Prozess mehr nötig.
Doch, nur derzeit scheint sich der Aufwand (auch finanziell) gesehen, zur hinzu gewinnbaren Leistung einfach nicht zu rentieren. 20nm sollte eher effizienter werden denn hohe Leistungszuwächse mit sich bringen.
Dann setzt man eher auf den alten "ausgereiften Prozess" lässt den neueren aus, da der alte einfach rentabler (profitabler) sein dürfte und noch Updatemöglichkeiten bietet. 16nm sind wohl noch zu teuer, die Ausbeute vielleicht zu gering. Wobei man das rentabel oder profitabler des älteren Prozess eben zum Teil direkt an den Kunden weitergeben kann. Was heißt die Angebote könnten preiswerter werden und das Verhältnis Preis/Leistung steigen bzw. sich dem optimaleren Verhältnis nähern.
Mal öfter was von @Leonida's Nachrichten lesen.:)
Dural
2014-09-10, 10:58:39
man verwendet 28nm weil noch nichts anderes verfügbar ist. :wink:
Hübie
2014-09-10, 11:02:10
Verfügbar schon nur nicht wirtschaftlich genug und noch nicht mit entsprechenden Kapazitäten. Die SoCs nehmen da schon ordentlich was vom Kuchen.
Timbaloo
2014-09-10, 11:20:52
Wenn GM204 jetzt zwischen 780 und 780ti liegt bei 160-175w Leistungsaufnahme unter Spielen, was ist daran verkehrt?
Es gibt einige Leute an denen das Thema Effizienz total vorbeigegangen ist. Die würden einen GM204 auf 300W raufbrezeln. Klingt total schwachsinning, ich weiss, aber solche Leute gibt's ;)
fondness
2014-09-10, 11:23:32
Naja meinetwegen 50W unter Last sind mir auch relativ egal, die liegen eh fast nie an und machen den Braten auch nicht fett. Interessant wird es wegen der Kühlung IMO, die dann natürlich leiser ausfallen kann.
dargo
2014-09-10, 11:30:56
Es gibt einige Leute an denen das Thema Effizienz total vorbeigegangen ist. Die würden einen GM204 auf 300W raufbrezeln. Klingt total schwachsinning, ich weiss, aber solche Leute gibt's ;)
Der Stromverbrauch ansich ist auch relativ egal. Ob die Karte jetzt bei Last 200W oder 300W zieht... wayne. Das Problem ist halt die Kühlung. Erstere Graka lässt sich wesentlich leichter mit gleichem Aufwand kühlen als zweitere, sollte einleuchtend sein. Und natürlich muss der Verbrauch gerade bei neueren Performancekarten (GM204) sinken. Ansonsten wäre ein GM200 gar nicht mehr möglich. Jedenfalls nicht mit der normalen Lukü.
Ailuros
2014-09-10, 11:35:47
Dann sieh dir die Benchmark-Tabelle von Videocards nochmal genau an, mit dem höchsten Boostclock ist die 980 5% schneller als eine 780ti.
Ob die Werte überhaupt authentisch sind kann niemand sagen.
@Ailuros hat es dann gut beschrieben, "erste offizielle Benchmarkstest abwarten", alles andere ist reine Spekulation. Die Informationen von @VC sind nichts Wert, ausser das sie die Hits der Seite ins "Unermessliche" treiben, muss daran überhaupt nichts wahr sein.
Zu viel metaphorischer Weihrauch fuer mich an einem Tag :P Spass beiseite es ist total GLEICHGUELTIG ob die 3dmark Werte echt sind oder nicht. Es handelt sich um Resultate eines synthetischen benchmarks und dieser muss nicht unbedingt den realen Durchschnitt in N Anzahl von Spielen wiederspiegeln. Die vendor uebertakteten 980-er werden schon etwas schneller sein als die 780Ti aber sie werden auch mehr als die vanilla 980 SKUs kosten.
Zu guter letzt ist es auch wirklich scheissegal ob sie jetzt 2,5 oder 8% schneller sein wird als A,B oder C so lange sie sie nicht wirklich ersetzt. GM204 ist ein GK104 Nachfolger und wer es immer noch nicht schnallen kann, dem kann man leider nicht mehr weiterhelfen.
Sonst fuer den ueblichen Stress der AMD Juenger ob, wo und inwiefern AMD bringen wird: bis zu Fiji muessen sie abwarten. Und der Grund warum sie nichts von ihrer Religion....errrr ihrem Lieblings-IHV hoeren ist weil es dieser so haben will und da es hier NUR um Maxwell geht ist es auch scheissegal.
Timbaloo
2014-09-10, 11:41:45
Der Stromverbrauch ansich ist auch relativ egal. Ob die Karte jetzt bei Last 200W oder 300W zieht... wayne. Das Problem ist halt die Kühlung. Erstere Graka lässt sich wesentlich leichter mit gleichem Aufwand kühlen als zweitere, sollte einleuchtend sein. Und natürlich muss der Verbrauch gerade bei neueren Performancekarten (GM204) sinken. Ansonsten wäre ein GM200 gar nicht mehr möglich. Jedenfalls nicht mit der normalen Lukü.
Da bin ich voll bei dir!
Dural
2014-09-10, 12:48:27
Verfügbar schon nur nicht wirtschaftlich genug und noch nicht mit entsprechenden Kapazitäten. Die SoCs nehmen da schon ordentlich was vom Kuchen.
ich glaube kaum das 20nm schon so weit ist um Chips wie GM204 oder GM200 in grösseren Mengen liefern zu können, zudem fehlt Wahrscheinlich auch die Kapazität = nicht Verfügbar ;)
Und überhaupt kosten, diese spielen bei GM200 doch kaum eine rolle, der Chip wird man garantiert nicht unter 600.- kaufen können, und bei Quadro und Tesla spielen die Herstellungskosten so wie so keine rolle.
Hübie
2014-09-10, 12:57:46
Öhm. Deshalb schrieb ich ja dass es nicht die Kapazitäten gibt.
Und das Quadro oder Tesla keine Rolle spielen ist mal richtiger Quatsch.
Bitte informiere dich in Zukunft erst mal.
Edit: Entschuldige. Ich habe überlesen das du dich auf Herstellungskosten beziehst.
boxleitnerb
2014-09-10, 12:58:39
Der Stromverbrauch ansich ist auch relativ egal. Ob die Karte jetzt bei Last 200W oder 300W zieht... wayne. Das Problem ist halt die Kühlung. Erstere Graka lässt sich wesentlich leichter mit gleichem Aufwand kühlen als zweitere, sollte einleuchtend sein. Und natürlich muss der Verbrauch gerade bei neueren Performancekarten (GM204) sinken. Ansonsten wäre ein GM200 gar nicht mehr möglich. Jedenfalls nicht mit der normalen Lukü.
Das macht keinen Sinn, da widersprichst du dir doch selbst. Der Verbrauch ist eben wichtig, weil man nur bis zu einer gewissen Grenze gehen kann/will mit dem Top Dog. Und das wirkt sich auf alles darunter auch aus.
Theoretisch könnten alle Chips in den oberen Leistungsregionen, z.B. ab der kleinsten GM204 SKU bis hinauf zur größten GM200 SKU die 250W voll ausschöpfen. Mal abgesehen von der Kühlung und den Stromkosten - realistisch ist das nunmal nicht (Ausnahmen wie "Abfallchips", die höhere Spannungen brauchen oder bei der Effizienz generell etwas runterfallen wie z.B. Tahiti LE bestätigen die Regel), weil dann die Abstände zwischen diesen SKUs so zusammenschrumpfen würden, dass keine vernünftige Abstufung mehr möglich ist. Was für einen Sinn hätte eine GTX 780 z.B., wenn eine GTX 770 standardmäßig so aufgebretzelt würde, dass sie genausoviel verbraucht?
Lange Rede, kurzer Sinn:
Du hast immer eine Progression von Leistungsaufnahme, die mit der Performance einhergeht, Perf/W ändert sich über ein Portfolio von klein bis groß im Grunde nicht großartig. Und das heißt schlussendlich: Effizienz bzw. Verbrauch diktieren in jedem Segment die maximal mögliche Performance in gewissem Rahmen, wenn man eben davon ausgeht, dass wir aktuell bei 250-300W gedeckelt sind.
Ist ja nicht wie früher, wo man von GTX x40 bis GTX x80 Ti/Ultra über die ganze Spanne der SKUs hinweg sich mehr Performance mit Leistungsaufnahme erkaufen konnte. Das geht heute nicht mehr bzw. wird zumindest im Moment nicht gewollt.
Dural
2014-09-10, 13:17:48
Perf/W ist heut zu tage so ziemlich das wichtigste, danach kommt fast nichts mehr, der preis halt noch.
Wer in Perf/W zuoberst ist bekommt den Auftrag. Gerade deswegen erwarte ich bei NV dank Maxwell ziemlich gute Zeiten auf sie zukommen. Die grösste Baustelle im Moment ist sicher LTE und Eventuell Denver.
Da NV recht nett mit Apple umgeht (keine Anklage) könnte ich mir sogar vorstellen das Apple Maxwell oder zukünftige Grafik IP Lizenzieren wird.
dargo
2014-09-10, 13:21:18
@boxleitnerb
Danke für die Bestätigung. :freak:
Perf/W ist heut zu tage so ziemlich das wichtigste, danach kommt fast nichts mehr, der preis halt noch.
Wer sagt das? Für den Kunden ist Perf/W nebensächlich. Für mich als Kunde ist Perf/W nur im Hinblick auf leise Kühlung wichtig, sonst überhaupt nicht. Was bringt mir bsw. eine sparsame, poppelige 750TI wenn ich damit eh nichts vernünftig spielen kann? Das wichtigste für den Kunden ist immer noch Perf/Euro.
boxleitnerb
2014-09-10, 13:40:05
Welche Bestätigung? Du schreibst, es sei egal wieviel die Karte verbraucht. Und das stimmt nicht, denn es hat - an der Realität gemessen - Auswirkungen darauf, was die IHVs maximal bauen können/wollen. Würde GM204 300W brauchen, gäbe es u.U. keinen GM200, zumindest für uns Spieler. Oder einen, der nur 20% schneller wäre, weil er keine 400W brauchen soll. Und das wäre mitnichten "egal".
Das hast du doch an der GTX 480 gesehen. Die Karte hat soviel verbraucht (ok, weniger als die 7970 GHz Ed bzw. heutige Highendkarten, aber für die Zeit war es extrem viel), dass es keine GTX 490 geben konnte. Und selbst die GTX 590 war in ihrer Leistung eingeschränkt (nur gut 50% mehr Leistung) weil Nvidia nicht auf 400-500W TDP wollte.
Du machst den Fehler, von einem einzigen Produkt auszugehen und den ganzen Produktstack aus dem Auge zu verlieren. Wenn du mehr Performance willst, kaufe eine Klasse höher, ganz einfach. Abgesehen davon ist Effizienz dort unabdingbar, wo man mit der Kühlung bzw. TDP auch gar nicht weiter kommt, egal was man tut: im Mobilsektor. Es hängt alles zusammen.
dildo4u
2014-09-10, 13:49:57
Jup der kleine Maxwell würde ne Killer Dual Karte ermöglichen,ohne das man ne Wakü verbauen muss.
boxleitnerb
2014-09-10, 14:06:35
Und es ist ja auch so, dass ein deutlich erhöhter Verbrauch die Sekundärkosten hochtreibt (potenterer Kühler und Stromversorgung). Wieviel Prozent das vom Kaufpreis einer kleinen/mittleren Karte ausmacht, kann ich nicht sagen, aber es ist nicht nichts. Kommt drauf an wer es zahlen muss - der Kunde oder ob der AIB auf den Kosten sitzen bleibt.
@dildo4u? Eine Dualkarte mit GM204? Könnte ich mir vorstellen, wäre aber interessant im Vergleich zur Titan Z (Preis und dann kauft die Z ja keiner mehr).
Mandalore
2014-09-10, 14:53:51
Mit neuer Architektur und in kleinerem Fertigungsprozess, da gibt es deutliche Unterschiede. GM204 ist eher ein Update im gleichen Fertigungsprozess, eine "Neuanordnung" in 28nm.
Wenn du das so siehst, dann ist jede Architektur eine "Neuanordnung" und keine "neue"...
dargo
2014-09-10, 15:05:40
Welche Bestätigung? Du schreibst, es sei egal wieviel die Karte verbraucht. Und das stimmt nicht, denn es hat - an der Realität gemessen - Auswirkungen darauf, was die IHVs maximal bauen können/wollen.
Ähm... nochmal lesen?
Und natürlich muss der Verbrauch gerade bei neueren Performancekarten (GM204) sinken. Ansonsten wäre ein GM200 gar nicht mehr möglich. Jedenfalls nicht mit der normalen Lukü.
boxleitnerb
2014-09-10, 15:15:30
Ähm... nochmal lesen?
Eben darum hast du dir ja widersprochen zu Beginn. Liest du deine eigenen Texte überhaupt?
Hübie
2014-09-10, 16:02:47
Wenn du das so siehst, dann ist jede Architektur eine "Neuanordnung" und keine "neue"...
Quark. Wenn für bestimmte Probleme unterschiedliche Lösung in Hardware implementiert ist kann man kaum von neuer Anordnung sprechen. Maxwell bedient sich fast ausschließlich bei Kepler, macht die Anordnung nur sinnvoller.
-/\-CruNcher-/\-
2014-09-10, 16:09:58
@boxleitnerb
Danke für die Bestätigung. :freak:
Wer sagt das? Für den Kunden ist Perf/W nebensächlich. Für mich als Kunde ist Perf/W nur im Hinblick auf leise Kühlung wichtig, sonst überhaupt nicht. Was bringt mir bsw. eine sparsame, poppelige 750TI wenn ich damit eh nichts vernünftig spielen kann? Das wichtigste für den Kunden ist immer noch Perf/Euro.
Wenn das bei dir Perf/Euro ist dann kauf dir eine Konsole ;)
ab 760 geht das und so gesehen ist die 750 TI um welten besser, keine Ahnung was du unter vernünftig spielen verstehst wenn es schon die Konsolen hinbekommen ;)
memoal
2014-09-10, 16:35:11
Zu viel metaphorischer Weihrauch fuer mich an einem Tag :P
Wie Metapher? Als tiefgrüne oder dunkelrote Brille die in einer Form von selektiver Wahrnehmung resultiert? Hätte manch Hersteller sicher gern! Kommt aber eben drauf an ;), kann auch was positives sein, wobei aber das Offensichtliche manchmal verloren geht. Wirst du bei mir aber nicht finden, beweihräuchern, eher nicht.
Finde es nur blöd das soviel Mist verbreitet wird und man etwas völlig anderes erwartet. Nicht erfüllte Erwartungshaltungen können schnell das Gegenteil bewirken, eben zu maßloser Enttäuschung führen. Die "Wahrheit" wird einem niemand sagen solange ein NDA besteht, ist so.
Ich darf in der Hinsicht ja labern was ich will.:freak:
dargo
2014-09-10, 16:35:24
Wenn das bei dir Perf/Euro ist dann kauf dir eine Konsole ;)
ab 760 geht das und so gesehen ist die 750 TI um welten besser, keine Ahnung was du unter vernünftig spielen verstehst wenn es schon die Konsolen hinbekommen ;)
Jetzt wirds völlig OT.
Konsolen kommen für mich nie in Frage da u.a.:
* ich keine zugenagelten Systeme mag
* ich selbst entscheide wie ich spiele, ~30fps sind da weit unter meiner Schmerzgrenze
* ich Gamepads hasse
Jetzt aber genug mit OT bitte.
AnarchX
2014-09-10, 17:38:50
Hier hat ein Chinese zwei Galaxy GTX 970 (OC und Normal): http://tieba.baidu.com/p/3287030270
Wohl wieder ein Short PCB: http://imgsrc.baidu.com/forum/pic/item/46707dd98d1001e982c2f913bb0e7bec55e79769.jpg als Referenz?
Bei Futuremark gibt es auch weitere Ergebnisse:
http://www.3dmark.com/fs/2723084 GTX 970 1,25GHz / 7,2Gbps - FS Graphics Score - 12097
mironicus
2014-09-10, 18:04:02
Bei NVidia braucht man wohl immer noch SLI-Käbelchen - das ist ja sowas von 2012! :D
aufkrawall
2014-09-10, 18:05:25
AFR skaliert sowieso nicht mehr. :freak:
hasebaer
2014-09-10, 18:22:19
Bei Futuremark gibt es auch weitere Ergebnisse:
http://www.3dmark.com/fs/2723031 GTX 970 1,25GHz / 7,2Gbps - FS Graphics Score 12629
Dieser Graphics Score entspricht einer GTX 780Ti @ 1125Mhz.
Das geht aber eigentlich nur, wenn diese GTX 970 über 14-15 SMM verfügt, statt 13 wie bisher vermutet.
Oder der Cache wird um so wichtiger, je weniger ALUs es gibt...
horn 12
2014-09-10, 18:30:01
1664 Shader. also max. 2034 oder 2304 beim grossen Bruder ... ?!
AnarchX
2014-09-10, 18:31:17
Dieser Graphics Score entspricht einer GTX 780Ti @ 1125Mhz.
Das geht aber eigentlich nur, wenn diese GTX 970 über 14-15 SMM verfügt, statt 13 wie bisher vermutet.
Oder der Cache wird um so wichtiger, je weniger ALUs es gibt...
Ja, ist auch eine GTX 980...
Hier ist die OC 970: http://www.3dmark.com/fs/2723084 - 12097 Graphics Score.
ilibilly
2014-09-10, 18:31:44
Bin mal auf die Preise gespannt,was kostete die 770 beim Launch?
Für die 970 300-350€ und das Ding ist gekauft
Radeonfreak
2014-09-10, 18:36:57
Ich hab mal prophylaktisch 550€ zur Seite gelegt für die GTX 980. Damit rechne ich zirka. :freak:
hasebaer
2014-09-10, 18:46:30
1664 Shader. also max. 2034 oder 2304 beim grossen Bruder ... ?!
Jup, 1664 Maxwell Kerne ~ 2304 Kepler Kerne aka GTX 780.
Wobei ich vermute, das GM204 ggü. GM107 eher > 40% effektiver pro Kern ist, statt 35% wie das beim GM107 der Fall ist.
Ja, ist auch eine GTX 980...
Hier ist die OC 970: http://www.3dmark.com/fs/2723084 - 12097 Graphics Score.
Ah ok, ... aber auch wieder schade, ich hab mich schon gefreut, dass die 970 eventuell wieder weniger als 10% von der 980 entfernt ist, wie damals die 670 zur 680... nun ja.
Ich hab mal prophylaktisch 550€ zur Seite gelegt für die GTX 980. Damit rechne ich zirka. :freak:
Dito... =)
Nakai
2014-09-10, 18:50:39
Jup, 1664 Maxwell Kerne ~ 2304 Kepler Kerne aka GTX 780.
Nein, GM204 hat mehr als nur 13 SMMs.
18 SMMs für die Überversion.
fondness
2014-09-10, 18:50:48
Hm, 6+8Pin schon bei der GTX970?
AnarchX
2014-09-10, 18:52:24
Hm, 6+8Pin schon bei der GTX970?
Ich sehe da 6+6 Short PCB / Referenzkühler und eine 8+6 Pin Long PCB Variante mit Custom Kühler. ;)
Nein, GM204 hat mehr als nur 13 SMMs.
18 SMMs für die Überversion.
Ausgehend davon, dass die Testboards wohl im Mai auch nur 16 SMM hatten (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10342028#post10342028), würde ich nicht mehr als diese in GM204 vermuten.
hasebaer
2014-09-10, 18:56:31
Nein, GM204 hat mehr als nur 13 SMMs.
18 SMMs für die Überversion.
Es ging um die 970. Nicht den Vollausbau und wie AnarchX schon zeigt sind es auch dort nur 16.
Reicht aber für 780 Ti Level, bei 40 statt 35% mehr Leistung pro Kern oder halt etwas mehr Takt.
horn 12
2014-09-10, 18:57:39
Also so wie es scheint GTX 980 etwas flotter als GTX 780 TI (+ knappe 10%)
und GTX 970 in etwa zwischen GTX 780 und 780 TI, ungefaehr so flink wie eine R9 290 mit 1 Ghz.
Fuer die Custom Modelle laesst man Maxwell wohl freien Lauf und auch die 250 Watt erneut locker zu!
hasebaer
2014-09-10, 19:07:34
Wenn man mit diesen 250W am ende unter Luft 1,4 oder gar 1,5GHz Takt raus bekommt, why not.
-/\-CruNcher-/\-
2014-09-10, 19:09:45
Bin mal auf die Preise gespannt,was kostete die 770 beim Launch?
Für die 970 300-350€ und das Ding ist gekauft
jo switche dann auch von x60 auf x70 lohnt einfach :)
Und die Entäuschung bei DX12 ist etwas gefedert bis zu Pascal wenn was fehlen sollte und schneller switch zu gegebenfalls AMD tut auch nicht so weh ;)
M4xw0lf
2014-09-10, 19:20:23
Ich hab mal prophylaktisch 550€ zur Seite gelegt für die GTX 980. Damit rechne ich zirka. :freak:
Wenn du ein halbes Jahr wartest, kriegst du sie für 300 ;)
dildo4u
2014-09-10, 19:24:13
Nicht wirklich den großen Chip werden sie wieder für 900€ als Titan verkaufen,das wird länger dauern bis die 980 im Preis runter kommt sonst haben sie nix für 500€.Bis der 780TI Ersatz kommt dürfte es Ende 2015 sein.
Radeonfreak
2014-09-10, 20:16:56
Wenn du ein halbes Jahr wartest, kriegst du sie für 300 ;)
Ich habs nicht so mit warten. :( Vor allem nicht wenn ich ich Far Cry 4, Ryse, AC Unity und Alien Isolation Bestmöglich spielen und downsamplen will.
memoal
2014-09-10, 20:40:58
Bei Futuremark gibt es auch weitere Ergebnisse:
http://www.3dmark.com/fs/2723084 GTX 970 1,25GHz / 7,2Gbps - FS Graphics Score - 12097
Die GDDR Module haben jedenfalls 7,0Gbps (Samsung 4kg41325FC-Hc28) http://www.samsung.com/global/business/semiconductor/file/product/graphic_product_guide_nov_12-0.pdf
War dann wohl ein OC Ergebnis? und damit kein Standard. Könnte damit auch zu einer OC 670 mit 4GB passen. http://www.overclock.net/content/type/61/id/883112/width/599/height/399
AnarchX
2014-09-10, 20:49:09
Natürlich OC. Referenz wird wohl 1,05/7Gbps bei der 970 sein.
WCCFTech hat ein neueren Chip-Shot: http://wccftech.com/maxwell-geforce-gtx-970-alleged-specs-leak-shots/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29
Die 970 hat wohl nur ein GM204-200.
Vergleich GK104: 770 - 425 / 680 - 400 / 670 - 325 / 760 -225
Ich komme auf etwa 400mm² (ausgehend von 40x40mm für das Package).
hasebaer
2014-09-10, 20:49:38
Nicht wirklich den großen Chip werden sie wieder für 900€ als Titan verkaufen,das wird länger dauern bis die 980 im Preis runter kommt sonst haben sie nix für 500€.Bis der 780TI Ersatz kommt dürfte es Ende 2015 sein.
So wird es wohl kommen.
Ich hab zwar mit Blick auf die ausgereifte 28nm Produktion die Hoffnung, dass es für NV nicht verkehrt ist, neben Titan II , auch eine GM200 980Ti im H1 2015 zustarten.
Aber auf der anderen Seite, die Wafer kann man auch für GM204 verwenden ... hmm.
Das 16FF Maxwell Refresh oder Pascal, haben dann auch nammentlich einen sauberen Übergang zu "wie auch immer" diese Geforces dann genannt werden, Ende 2015/Anfang 2016.
@AnarchX
In der Tabelle dort stehen nur 14 oder 15 SMM für die 980 ... ich hoffe mal das ist ein Fehler.
Denn in dem Fall, dass die 980 ein Salvage ist, kann Nvidia sich abschmincken dafür 550€ zubekommen.
dildo4u
2014-09-10, 20:59:07
Natürlich OC. Referenz wird wohl 1,05/7Gbps bei der 970 sein.
WCCFTech hat ein neueren Chip-Shot: http://wccftech.com/maxwell-geforce-gtx-970-alleged-specs-leak-shots/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29
Die 970 hat wohl nur ein GM204-200.
Vergleich GK104: 770 - 425 / 680 - 400 / 670 - 325 / 760 -225
Ich komme auf etwa 400mm² (ausgehend von 40x40mm für das Package).Wird man diesmal nicht ganz so abgezockt wie bei der 680,mir war gar nicht bewusst das die unter 300mm² lag.
boxleitnerb
2014-09-10, 21:03:57
Ist doch völlig egal ob es ein voller Chip ist oder nicht oder wieviel deaktiviert ist. Hauptsache die Performance stimmt. Wie das erreicht wird...wayne. Ihr habt Sorgen :D
fondness
2014-09-10, 21:06:57
Ich komme auf etwa 400mm² (ausgehend von 40x40mm für das Package).
Da bleibt nicht mehr viel Luft für GM200.
Duplex
2014-09-10, 21:13:48
Da bleibt nicht mehr viel Luft für GM200.
Doch, es bleibt noch viel Luft nach oben, man hat noch gute 200mm² Potential, das sind 50% mehr.
Godmode
2014-09-10, 21:16:14
Da bleibt nicht mehr viel Luft für GM200.
150mm2 ist doch genug Luft.
Dural
2014-09-10, 21:17:04
meine schätzungen waren ja nicht mal so schlecht :biggrin:
werden super karten, freue mich drauf endlich wieder mal was neues zu haben.
Schaffe89
2014-09-10, 21:19:10
Viel Luft? Viel Luft war zwischen GK104 und GK110, aber doch nicht zwischen GM204 und GM200.
Es sieht so aus, als ob GM200 vielleicht erst ganz spät für den Gamingmarkt vorgesehen ist.
Denn mit satten ~400mm² für GM204 und noch anständiger Taktbarkeit, glaube ich kaum, dass GM200 + GPGPU + fetteres Interface+ Caches noch soviel Luft für mehr Einheiten hat.
Vielmehr könnte es ganz anderes wie bei Kepler so sein, dass ein hoch taktender GM204 an das Leistungsniveau eines GM200 herankomen wird.
Godmode
2014-09-10, 21:19:26
meine schätzungen waren ja nicht mal so schlecht :biggrin:
werden super karten, freue mich drauf endlich wieder mal was neues zu haben.
Was erhoffst du dir davon, du hast doch schon ne 780 Ti. Oder meinst du GM200?
Duplex
2014-09-10, 21:20:31
In 600mm² sollten schon 24 SMM reinpassen, das entspräche dann 3072 Maxwell Shader für GM200, das wären nur 50% mehr Shader als GM204.
Zum Vergleich GK110 vs. GK104
GK110 hat 88% mehr Shader als GK104 und ist 87% größer!
Wenn GM200 also um 50% größer als GM204 ausfallen wird, dann sollte man von 24 SMM aka 3072 Shader ausgehen, gegenüber den GM204 Specs mit 16 SMM ´2048 Shader ist das nichts besonderes für einen High End Chip!!!
Dural
2014-09-10, 21:23:54
Was erhoffst du dir davon, du hast doch schon ne 780 Ti. Oder meinst du GM200?
halt mal was neues zum testen, kaufe eh alle neuen Karten von AMD und NV ;)
Ravenhearth
2014-09-10, 21:25:37
Wenn der 400mm² große GM204 genau 16 SMMs hat, wird GM200 mit wahrscheinlich wieder rund 550mm² vielleicht auf nicht mehr als 20 SMMs kommen.
Dural
2014-09-10, 21:27:31
oder man geht Richtung 600mm2 und haut 24 rein ;)
memoal
2014-09-10, 21:29:27
WCCFTech hat ein neueren Chip-Shot: http://wccftech.com/maxwell-geforce-gtx-970-alleged-specs-leak-shots/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29
Würde mich nicht drauf verlassen das es um GM204 geht und das echt oder für den offiziellen Markt bestimmt ist/war, was bei wccftech veröffentlicht wird. Stammt aus der gleichen Quelle wie die erste Info, sieht sehr nach gefakter 670 aus.
Mal zum Vergleich: http://www.google.de/imgres?imgurl=http%3A%2F%2Fwww.legitreviews.com%2Fwp-content%2Fuploads%2F2014%2F07%2FGM204-vs-GK110-vs-GK104-comparison-645x213.jpg&imgrefurl=http%3A%2F%2Fwww.legitreviews.com%2Fnvidia-geforce-gtx-880-video-card-pictured_146092%2Fgm204-vs-gk110-vs-gk104-comparison&h=213&w=645&tbnid=TsXoYPqBgZncvM%3A&zoom=1&docid=vUP2SWS-qICGNM&ei=LqQQVN-DNYPhywPZloKwDA&tbm=isch&client=firefox-a&iact=rc&uact=3&dur=317&page=1&start=0&ndsp=26&ved=0CEAQrQMwCg
hasebaer
2014-09-10, 21:50:16
Ist doch völlig egal ob es ein voller Chip ist oder nicht oder wieviel deaktiviert ist. Hauptsache die Performance stimmt. Wie das erreicht wird...wayne. Ihr habt Sorgen :D
Sollte eine 980 nur mit 14 oder 15 SMM kommen, ist klar das 6 Monate später eine 16 SMM 980 Ti kommt und GM200 bleibt Titan II only.
Timbaloo
2014-09-10, 21:51:39
Also mir ist das nicht klar.
boxleitnerb
2014-09-10, 22:00:27
Sollte eine 980 nur mit 14 oder 15 SMM kommen, ist klar das 6 Monate später eine 16 SMM 980 Ti kommt und GM200 bleibt Titan II only.
Und selbst wenn - macht das die Karte jetzt langsamer? Kannst du die 6 Monate trotzdem spielen statt zu warten? Echt jetzt :wink:
hasebaer
2014-09-10, 22:00:31
@Timbaloo
Mir schon, denn das wäre eine klassische Marketing-Salamitaktik.
Es gibt bei der ausgereiften Fertigung und durchschnittlichen Größe des Chips keine Notwendigkeit, so tief zustappeln, ausser ebend den Vollausbau erst später als "Upgrade" zubringen.
@boxleitnerb
Nö scheiß drauf, meine 670 reicht in dem Fall noch.
Für 500€ kauf ich kein Verschnitt. Die Grenze dafür liegt bei 350€.
fondness
2014-09-10, 22:02:09
150mm2 ist doch genug Luft.
Zumindest wird der Unterschied dann deutlich geringer sein wie zwischen KG104 und GK110. Die DP-Einheiten brauchen schließlich auch Platz.
hasebaer
2014-09-10, 22:04:38
DP Einheiten wird es nicht geben, GM200 muss 1:2 DP/SP bei mindestens 25 SMM haben, ansonst können sie die 12 TGFLOPS pro Watt DP, nicht halten.
aufkrawall
2014-09-10, 22:06:32
Es müssen trotzdem mehr Transistoren eingesetzt werden, die für SP fehlen.
horn 12
2014-09-10, 22:06:45
vielleicht zwischen 20 bis 30% und das kann man oft schon durch starke 3-Slot OC Karten, bzw. zusätzlich nochmals Hand anlegen so gut wie fast wieder wettmachen :-)
Ailuros
2014-09-11, 08:52:36
DP Einheiten wird es nicht geben, GM200 muss 1:2 DP/SP bei mindestens 25 SMM haben, ansonst können sie die 12TFLOPS pro Watt DP, nicht halten.
Woher kommt das jetzt schon wieder? Ich bin mir ziemlich sicher dass es dedizierte FP64 auch auf GM200 gibt, aber Du kannst ja gerne Dein "Bauchgefuehl" weiter erlaeutern. Hat GM204 tatsaechlich 16 FP64/SMM dann braucht theoretisch auf synthesis Basis ein GM200 fuer seine 12 FLOPs/W DP zu erreichen ca. 6x Mal mehr die area; fuer 1600 rein hypothetische SPs ist die "die area" fuer nur synthesis bei 40mm2 insgesamt fuer FP64 SPs@1GHz unter 28nm. Man wird aber wohl auch nicht mit mehr als 850MHz diese takten wollen.
Der Haarspalterei zu Liebe koennten es wohl schwer 12 TFLOPs pro Watt DP sein ROFL ;D
Wenn der 400mm² große GM204 genau 16 SMMs hat, wird GM200 mit wahrscheinlich wieder rund 550mm² vielleicht auf nicht mehr als 20 SMMs kommen.
GM200 ist einen Furz groesser als 560mm2 das letzte Mal dass ich NV engineering fragte, ergo koennen einige hier den unendlichen Bullshit diesbezueglich endlich begragen.
Sonst bin ich allergisch gegen Bilder und videocardz generell, aber ich hoffe es merkt irgend jemand etwas bei den beiden Bildern von den Rueckseiten einer angeblichen 970 vs. GTX760: http://videocardz.com/52259/galaxy-geforce-gtx-970-gc-pictured
Godmode
2014-09-11, 09:23:38
GM200 ist einen Furz groesser als 560mm2 das letzte Mal dass ich NV engineering fragte, ergo koennen einige hier den unendlichen Bullshit diesbezueglich endlich begragen.
Sonst bin ich allergisch gegen Bilder und videocardz generell, aber ich hoffe es merkt irgend jemand etwas bei den beiden Bildern von den Rueckseiten einer angeblichen 970 vs. GTX760: http://videocardz.com/52259/galaxy-geforce-gtx-970-gc-pictured
Das einzige was mir hier auffällt ist, dass bei der 970 die leeren Speicherplätze mit Balls voll sind, bei der angeblichen 970 aber nicht (Da sitzen sogar Bauteile drauf, also da wird man nie einen Speicherchip draufpacken können^^). Die beiden PCBs sind bis auf das fast identisch.
edit: Ein paar Kondensatoren, Wiederstände sind auch noch anders, aber nicht großartig viel.
edit2: Direkt hinter der GPU fehlen bei der 760 zwei schwarze Blocke, die bei der 970 aber bestückt sind.
Loeschzwerg
2014-09-11, 09:57:37
edit2: Direkt hinter der GPU fehlen bei der 760 zwei schwarze Blocke, die bei der 970 aber bestückt sind.
Die schwarzen Blöcke sind ebenfalls Kondensatoren ;)
PCB Date der GTX 970 ist 1436, wurde also erst letzte Woche produziert.
Dural
2014-09-11, 11:07:25
Ich finde es immer noch krass wie man im selben Herstellungsprozess, mit einer grösseren Die, mit mehr Einheiten, mit mehr Takt und vor allem mit deutlich mehr Leistung sogar auf weniger verbrauch kommt als die direkten Vorgänger Generation.
Ich kann mich die letzten 20 Jahre an keine GPU erinnern die so was je hinbekommen hat, zudem die Architektur für sich ja immer noch rächt ähnlich ist und Kepler in dieser hinsicht ja auch nicht wirklich schlecht war. Wie machen die das nur?!?
Ja, der Nobelpreis sollte dieses Mal an Nvidia gehen.
Mensch, wartet doch erstmal unabhängige Tests ab, bevor ihr Euch in Superlativen und Schwärmereien verliert.
hasebaer
2014-09-11, 11:38:27
Woher kommt das jetzt schon wieder? Ich bin mir ziemlich sicher dass es dedizierte FP64 auch auf GM200 gibt, aber Du kannst ja gerne Dein "Bauchgefuehl" weiter erlaeutern.
Mein Bauchgefühl hat als Grundlage die Frage wie groß GM204 jetzt wird.
Zuletzt stand da immer bis zu 400mm^2 im Raum.
Ok lass es nur 370mm^2 werden.
560mm^2 wären so ~55% mehr Platz, für zusätzliche ALUs, SI und Cache.
Wenn GM204 für nur 2048 ALUs schon 370mm^2 verlangt und GM200 auch in Sachen SP Leistung nochmal zulegen soll und das muss man auch, wo bleibt da noch der Platz für DP Einheiten?
Wenn man nicht nur die DP Leistung steigern will, bleibt doch nur ein 2:1 SP/DP bei 3200 ALUs (25SMM) @ 900Mhz als Möglichkeit um auf 2,82 TFLOPs @ 235W zukommen (12 GFLOPs / W DP).
Oder bei 850Mhz wären es dann gar 26 SMM.
Ailuros
2014-09-11, 11:54:27
Mein Bauchgefühl hat als Grundlage die Frage wie groß GM204 jetzt wird.
Zuletzt stand da immer bis zu 400mm^2 im Raum.
Ok lass es nur 370mm^2 werden.
560mm^2 wären so ~55% mehr Platz, für zusätzliche ALUs, SI und Cache.
ROFL wir verhandeln nicht darueber. GM107 hat getrennte FP64 SPs; wenn Dir wenigstens ein logischer Grund einfaellt warum dieser nun getrette FP64 ALUs hat und der Rest der Maxwell Familie nicht, bin ich ganz Augen.
Wenn GM204 für nur 2048 ALUs schon 370mm^2 verlangt und GM200 auch in Sachen SP Leistung nochmal zulegen soll und das muss man auch, wo bleibt da noch der Platz für DP Einheiten?
Wenn N chip schon X mm2 verlangt wie Du sagst, ist es erstmal ein primaerer Grund zu bedenken dass vielleicht schon die FP64 in der Rechnung drinstecken, mit dem einzigen Unterschied dass Du versuchst es am falschen Ende zu packen.
GM107 hat 4 FP64 SPs pro SMM, ergo 20 SPs insgesamt. Fuer nur synthesis sind es dann 0.5mm2 fuer diese unter 28nm; natuerlich kommt noch extra Logik dazu aber nicht mehr als die vorerwaehnte Groesse.
Angenommen GM204 hat jetzt 16SPs bei 16SMMs sind es 256 FP64SPs fuer den gesamten chip ergo 6.4mm2 wieder fuer synthesis fuer diese. So VIEL MORDS-AREA verbraten die Dinger :rolleyes:
Wenn man nicht nur die DP Leistung steigern will, bleibt doch nur ein 2:1 SP/DP bei 3200 ALUs (25SMM) @ 900Mhz als Möglichkeit um auf 2,82 TFLOPs @ 235W zukommen (12 GFLOPs / W DP).
Oder bei 850Mhz wären es dann gar 26 SMM.
Ich hab weder fuer 204 noch fuer 200 je die Anzahl der clusters bestaetigt um es klar zu machen. Ich antworte nur mit vergleichbaren Konstanten zur Erbsenzaehlerei.
Sonst sind es NUR DP FLOPs pro Watt um Himmel's Willen (nicht Tera und nicht GigaFLOPs) und obwohl das 1:2 ratio gelten koennte fuer GM200 bleiben es mit aller Wahrscheinlichkeit nach wie vor dedizierte FP64 units. Und auf 900MHz wuerde ich keine FP64 unter 28nm jagen; wir wiederholen den genau gleichen Mist schon wie oft in diesem thread. Zur Erinnerung takteten die ersten Teslas nur etwas ueber 700MHz.
Ausserdem sind fuer 12 DP FLOPs/W weder 11.5 FLOPs noch 12.4 FLOPs pro Watt gelogen.
Ravenhearth
2014-09-11, 12:50:52
Wenn man ein bisschen rumrechnet, kommt man zu dem Schluss, dass es GM200 in Spielen nicht sehr einfach gegen GM204 haben wird. Da man beim Top-Dog im Gegensatz zu den anderen Chips die Chipfläche nicht steigert, wird der Vorsprung von GM200 ggü. GM204 kleiner ausfallen als der Vorsprung von GK110 ggü GK104. Denkbar wären 20 bis 24 SMMs, aber letzteres wäre vor allem aufgrund der dedizierten DP-Einheiten das äußerste. In jedem Fall wird es für GM200 knapp, ich erwarte @Stock nur <30% mehr Performance ggü GM204.
mironicus
2014-09-11, 13:15:50
Was erwartet ihr?
GTX 980 4 GB = 499 Euro? GTX 970 4 GB = 379 Euro?
Zu optimistisch?
fondness
2014-09-11, 13:19:18
Also ich glaube jedenfalls nicht das NV ihr Flagship unter 780Ti Preisen verkaufen wird. Also könnte dein Preis ganz gut hinkommen.
Dawn on Titan
2014-09-11, 13:23:48
Seit wann ist ein SMM ein fester Begriff? Die könnten auch 15 fettere SMM fahren. Wie wäre es mit 15 x 224 SP + 15 X 96 DP? Rechnen wir das Nv behaupten, dass die Leistung eines SMM 50% höher ist als die eines SMX, wäre man fast bei Faktor 2 gegenüber GK110. Würde für die zusätzlichen FP64 Einheiten rund 12mm² ausmachen.
dildo4u
2014-09-11, 13:26:20
Zum Launch ja die 780TI ist aber nicht wirklich vergleichbar da sie bei 650€ gestartet ist,die Preise werden sich vermutlich um 450 einpendeln.AMD müsste dann den Preis der 290X senken,die ist immer noch bei 400.
Ailuros
2014-09-11, 15:06:42
Wenn man ein bisschen rumrechnet, kommt man zu dem Schluss, dass es GM200 in Spielen nicht sehr einfach gegen GM204 haben wird. Da man beim Top-Dog im Gegensatz zu den anderen Chips die Chipfläche nicht steigert, wird der Vorsprung von GM200 ggü. GM204 kleiner ausfallen als der Vorsprung von GK110 ggü GK104. Denkbar wären 20 bis 24 SMMs, aber letzteres wäre vor allem aufgrund der dedizierten DP-Einheiten das äußerste. In jedem Fall wird es für GM200 knapp, ich erwarte @Stock nur <30% mehr Performance ggü GM204.
Wieso weil eine GTX580 um mehr als 45% im Durchschnitt schneller war als eine GTX560Ti oder im Gegenfall heute eine GTX780Ti vs. GTX770?
GM200 wird schaetzungweise ca. 40-50% vor GM204 liegen. Was hier wohl die meisten zu verpassen scheinen ist dass eine GTX980 eben nicht 2x Mal schneller sein wird als eine GTX770; die letzte war es dann schon gegenueber einer 560Ti.
Seit wann ist ein SMM ein fester Begriff? Die könnten auch 15 fettere SMM fahren. Wie wäre es mit 15 x 224 SP + 15 X 96 DP? Rechnen wir das Nv behaupten, dass die Leistung eines SMM 50% höher ist als die eines SMX, wäre man fast bei Faktor 2 gegenüber GK110. Würde für die zusätzlichen FP64 Einheiten rund 12mm² ausmachen.
Die These mit mehr als 4*SIMD32 ist zwar schoen und gut, nur musst Du mir jetzt erklaeren in welche Muelltonne ich Teil der Maxwell-Effizienz-steigerungen genau schmeissen soll mit Deiner 7*SIMD32 These. Hoechstwahrscheinlich reimst Du sogar etwas zusammen dass noch beschissenere Effizienz pro SMM hat als Kepler selber :rolleyes:
boxleitnerb
2014-09-11, 15:46:57
Ich gehe von GTX 770 + 50% aus für die GTX 980 (beide Standardboost ohne irgendwelche Anpassungen). Mit einer leicht gesunkenen Leistungsaufnahme ist das schon eine Effizienzerhöhung im Bereich vielleicht 70%, mehr gibts wohl nicht.
Wie schnell GM200 wird, hängt ja auch davon ab, welche TDP Nvidia ansetzt. 250W rigoros abriegeln oder 260-290W?
Meine Prognose also (Standardboost) zu Performance und Realverbrauch (laut 3DC-Zusammenfassung):
GTX 770 = 100% @180W
GTX 780 Ti = 140-145% @250W
GTX 980 = 150% @160-170W
GM200 größte SKU = 210% @250W
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.