Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)
Ailuros
2014-02-15, 17:23:46
Was für ein Interconnect? Zwischen den SMM? Was hat das mit seperatem DP zu tun?
Ja der interdie connect und nein natuerlich hat es nichts direkt mit DP zu tun.
Man spart Strom in dem man kuerzere Datenleitungen durch kleinere cluster-Verwaltung einbaut; dedizierte DP units abzuschaffen kostet wiederrum mehr Strom. Das erste klingt mir persoenlich NICHT gut genug um 2x Mal so viel Leistung/W zu erlauben und dann muss man die zweite Moeglichkeit noch wahrscheinlich abziehen.
Ergo frage ich mich ob sie nicht den interdie connect mit einem effizienterem mit etwas wie ein dragonfly und co. ersetzt haben und dadurch wirklich sehr viel weniger Verbrauch erreicht haben.
Entsprechend große Caches sind doch im Rahmen von TBDR GPUs nicht so unüblich (Series5/6, der tote 3D-LRB)? edit: Irgendwo müssen die Tiles ja entsprechend abgelegt werden.
Nicht nur total unmoeglich sondern auch technisch absurd. Wo genau siehst Du "grosse" caches auf Serie5/6? Ein multi-level cache haben die Dinger welches caching ziemlich effizient macht aber sonst nichts grossartiges. Jeglicher Series5 core kann maximal bis zu 128KB system level cache haben; neuere core glaub ich das doppelte ist aber nichts besonderes denn ARM Malis brauchen auch so viel.
Zu guter letzt ist und war alles Larabee NIE ein deferred renderer und schon gar nicht tile based; in software kann ein sehr programmierbarer core vieles ausfuehren und nein es gab und gibt keine dedizierte tiling hw auf allem LRB und Nachfolgern.
Gipsel
2014-02-15, 18:55:27
Am meisten Strom kostet als Erstes die Operanden aus den Registerfiles zu lesen, zu den ALUs zu leiten und dann das Ergebnis wieder in die Registerfiles zu schreiben. Das kann mehr Strom als die Operation selbst kosten (für Fermi von nV direkt so gesagt). Deswegen ist es wichtig, die Register möglichst nah an die ALUs zu bringen, bei vector ALUs also möglichst jedem ALU-Slot seine eigenen 4kB oder so zu spendieren, die dan praktisch direkt neben bzw. sogar in der ALU (wie bei dem von nV vorgeschlagenem RegFile-Cache) sitzen.
Blediator16
2014-02-15, 19:15:57
Nur um das richtig zu verstehen. Man schafft es innerhalb 28nm die perf/w zu verdoppeltn? Gab es das schonmal. Ich kann mich zumindest nicht erinnern.
M4xw0lf
2014-02-15, 19:17:47
Geht es da nicht schon immer und allein um die FP64-Performance?
Ailuros
2014-02-15, 19:50:47
Geht es da nicht schon immer und allein um die FP64-Performance?
Nein. Die GK107 hat 384SPs bei knapp ueber 1GHz (64W TDP) gegen GM107 mit 640SPs auch bei knapp ueber 1GHz + hoehere Effizienz (60W TDP).
Nur um das richtig zu verstehen. Man schafft es innerhalb 28nm die perf/w zu verdoppeltn? Gab es das schonmal. Ich kann mich zumindest nicht erinnern.
Gab es noch eine andere Architektur unter 28nm die ich verpasst habe? Sonst war G80 auf dem gleichen 90nm um ueber 3x Mal schneller als G7x.
AnarchX
2014-02-15, 20:00:00
Wenn Maxwell noch ein paar SLI-Optimierungen in der HW erfahren hat, wäre das ganze vielleicht gar als Dual-GPU-Karte in gewisser Weise interessant. ;D
Nein. Die GK107 hat 384SPs bei knapp ueber 1GHz (64W TDP) gegen GM107 mit 640SPs auch bei knapp ueber 1GHz + hoehere Effizienz (60W TDP).
Die Kepler ohne Boost haben aber auch relativ hohe TDPs die häufig in Messungen nicht im Ansatz ausgenutzt werden. Zum Beispiel die GTX 650 Ti hat gemessen eine sehr hohe Pro-Watt-Leistung:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_650_Ti_Amp_Edition/29.html
http://www.techpowerup.com/reviews/MSI/GTX_650_Ti_Power_Edition/29.html
Aber GM107 wird hier wohl nochmal gute 20% (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10089760#post10089760) mehr Leistung bei 10-15% weniger realen Verbrauch erreichen.
Wenn man jetzt auf SMX/SMM-Ebene geht, dann werden wohl die Perf/W Verdopplung durchaus erreicht.
Knuddelbearli
2014-02-15, 21:41:46
Sonst war G80 auf dem gleichen 90nm um ueber 3x Mal schneller als G7x.
bei höherem verbrauch und deutlich höherem die space
oder welchen Cip meinste?
Blediator16
2014-02-15, 22:39:28
Von welchen Zahlen geht man aus, dass man jetzt schon so euphorisch ist? Die COD Folie von Nvidia ist nicht der bringer. Die 640 mit dd3 wird sicher bei 4aa nichts ausrichten können gegen die gddr5 der 750ti.
Hugo78
2014-02-15, 23:49:26
Von welchen Zahlen geht man aus, dass man jetzt schon so euphorisch ist? Die COD Folie von Nvidia ist nicht der bringer. Die 640 mit dd3 wird sicher bei 4aa nichts ausrichten können gegen die gddr5 der 750ti.
Wenn wir für einen Moment davon ausgehen, dass Nvidias Med Settings in COD Ghost, in etwa den Settings von THG entsprechen,
welche auch in etwa als Medium, aber in keinem Fall als Max. durchgehen, dann erreicht die GTX 750 Ti genau den Speed einer GTX 650 Ti Boost (Avg. FPS von 51).
Und Letztere kommt mit einer TDP Angabe von 134W daher, ggü. den 60W der 750Ti.
- http://www.nvidia.de/object/geforce-gtx-650ti-boost-de.html#pdpContent=2
Edit: Dazu passt ebend auch, dass NV selber die 750Ti über der 650 Ti (ohne Boost) einordnet.
- http://abload.de/image.php?img=nvidia-geforce-maxwelztj83.jpg
http://media.bestofmicro.com/P/3/409143/original/COD.png
Quelle: - http://www.tomshardware.com/reviews/radeon-r9-270-review-benchmarks,3669-3.html
Pentium M
2014-02-16, 00:35:40
Von welchen Zahlen geht man aus, dass man jetzt schon so euphorisch ist? Die COD Folie von Nvidia ist nicht der bringer. Die 640 mit dd3 wird sicher bei 4aa nichts ausrichten können gegen die gddr5 der 750ti.
Nvidia hat den Gordischen Knoten zerschlagen.:rolleyes:
w0mbat
2014-02-16, 02:06:36
http://www.computerbase.de/news/2014-02/geforce-800-serie-mit-maxwell-im-zweiten-halbjahr/
Pentium M
2014-02-16, 02:59:33
Zu schön um wahr zu sein.
matty2580
2014-02-16, 04:02:43
Die News hattet Ihr hier als erste deutsche Seite w0mbat.
CB hat das auch nur von PCGH, oder aus meiner User-News:
http://extreme.pcgameshardware.de/user-news/319719-news-und-leaks-zur-8xx-series-von-nvidia-maxwell.html
Aber zuerst hatte boxleitnerb das hier in 1721 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10110597&postcount=1721) verlinkt.
Ailuros
2014-02-16, 08:25:31
bei höherem verbrauch und deutlich höherem die space
oder welchen Cip meinste?
Er fragte wo perf/W schon mal auf dem gleichen Prozess um 2x Mal gestiegen ist. Lies nochmal meine Antwort genau durch und auch Deine und denk weiter.
Von welchen Zahlen geht man aus, dass man jetzt schon so euphorisch ist? Die COD Folie von Nvidia ist nicht der bringer. Die 640 mit dd3 wird sicher bei 4aa nichts ausrichten können gegen die gddr5 der 750ti.
Launch abwarten und Tee trinken.
Skysnake
2014-02-16, 08:36:00
Die nehmen ja sooooooo viel Platz ein dass man darueber meckern muss. Nur auf synthesis begrenzt sind es 24mm2 fuer alle FP64 SPs im GK110.
Achso, und du musst das ja auch nicht noch über Vias miteinander verbinden usw usw.
Halb so schlimm; das wirklich komische ist dass jegliches "komische" erst auftaucht wenn eine neue Architektur erscheint.
What?
Seit der ersten Sekunde wo Huang davon angefangen hat, hab ich rumgestenckert und wurde dafür kritisiert und angepampt, weil die nVidia Leute es ja schon besser wissen würden...
Genau das Gleiche mit den 192 ALU/SMX. Das fand ich auch ne Schnapsidee.
Ansonsten->
Es geht nicht nur um den Platz. Mehr Ports, längere Signalwege, komplexere Schaltung.
Und ich fand das schon immer komisch, nicht erst jetzt.
100% /Sign da gibt es eigentlich nichts mehr hinzuzufügen!
Ja der interdie connect und nein natuerlich hat es nichts direkt mit DP zu tun.
Natürlich hat das auch was mit den DP Units zu tun...
Wenn du dedizierte DP-Units hast, musste die auch mit verdrahten und Sie auch unter bringen -> mehr und längere Vias, mehr static leakage usw usw usw. Wenn man bedenkt, wieviel Joule die eigentliche Berechnung in den ALUs braucht, dann kannste da kaum was einsparen, durch den ganzen Mehraufwand hauste die geringe Einsparung aber schnell wieder aus dem Fenster...
Wo man sparen kann ist, das man mit reduzierter Genauigkeit rechnet, wenn man es denn sich erlauben kann. Dann erfüllt man aber eben nicht mehr IEEE XY. Aber z.B. FP16 wird ja auch gemacht, und auf den CPUs gibt es FastMath mit reduzierter Genauigkeit als Folge. DAfür braucht man aber wie gesagt keine dedizierten DP-Units.
Man spart Strom in dem man kuerzere Datenleitungen durch kleinere cluster-Verwaltung einbaut; dedizierte DP units abzuschaffen kostet wiederrum mehr Strom. Das erste klingt mir persoenlich NICHT gut genug um 2x Mal so viel Leistung/W zu erlauben und dann muss man die zweite Moeglichkeit noch wahrscheinlich abziehen.
Dann fang mal an, das aufzuzählen und zu quantifizieren, wieviel Joule man mehr verbraucht durch den Wegfall der angeblichen DP-Units... Und dann vergleichen wir das mal...
Ergo frage ich mich ob sie nicht den interdie connect mit einem effizienterem mit etwas wie ein dragonfly und co. ersetzt haben und dadurch wirklich sehr viel weniger Verbrauch erreicht haben.
Kann sein, muss aber nicht.
Es kommt halt wirklich drauf an, was Sie wann wo wie verbinden. An den Verbindungen zwischen den SMX würde ich keine all zu großen Einsparungen erwarten. Die SMX an sich sollten aber deutlich einfacher zu verdrahten sein. Da würde ich jetzt die größte Einsparung erwarten, und halt aus dem L2 Cache.
Und jetzt noch was bzgl. K1.
Falls es dir und den anderen entgangen ist. Schon bei der Vorstellung habe ich darauf hingewiesen, das K1 NICHT! vergleichbar ist bzgl Perf/W mit den anderen nVidia GPUs, einfach weil man sich den kompletten Verdrahtungs und Logikaufwand für mehrere SMX spart... Da kann man extrem viel einfach weglassen. Das skaliert aber halt null.....
AnarchX
2014-02-16, 14:50:13
http://videocardz.com/49647/nvidia-geforce-gtx-750-ti-official-specifications-performance
SMM im Detail (GK104 SMX im Vergleich dazu):
http://i.imgur.com/Yh35Cs5.png http://i.imgur.com/SFlmqed.jpg
Weiterhin ein 64KB shared Memory für alle Untereinheiten zusammen? :|
Extreme overclocking
There is one key part that wasn’t covered yet. Because of extremely low TDP the clocks speeds suffered. NVIDIA had to choose the lowest possible clocks to obtain 60W. For that reason Maxwell GM107 GPU has extreme overclocking potential. In fact you will even find cards with 28% factory-overclocking.
1,4GHz garantierter Boost? :D
Nakai
2014-02-16, 15:33:14
Schade, dass man es mit einem GK104-SMX vergleicht, welches nur 1/24 DP-Rate hat. Sagt noch nichts über dedizierte DP-Einheiten aus. Ich muss jedoch Coda zustimmen, es wird wohl keine dedizierten DP-Einheiten mehr geben.
Anscheinend hat man nun den L1-Cache mit dem Texturecache vereinigt, ebenso sieht es so aus, dass es 4 SIMD8-Einheiten sind, wobei hier noch eine genaue Darstellung fehlt.
Weiterhin ein 64KB shared Memory für alle Untereinheiten zusammen?
Naja es sind jetzt "nur" noch 128 SPs.
Genauso wie die Regfiles zusammen genausogroß sind.
Timbaloo
2014-02-16, 15:41:46
1,4GHz garantierter Boost? :D
Wird interessant werden was angesichts der geringen Bandbreite dabei rumkommt, sprich wie gut der große L2-Cache das ausgleichen kann.
Hm, das mit dem shared memory ist komisch. Das würde bedeuten, dass doch ein SMM an sich die Compute Unit ist.
Godmode
2014-02-16, 17:15:55
Wenn die "dedizierten" FP-Units weg sind, gibts ja nichts mehr zu meckern :tongue:
Schaumer einfach mal.
Ich habe nie verstanden warum da eigene Units verwendet wurden, das schien so redundant. Irgend einen Sinn wird es aber schon gemacht haben. Eine Designentscheidung die wir wohl nie durchblicken werden.
N0Thing
2014-02-16, 17:18:08
Inwiefern kann man sich denn darauf verlassen, daß die Diagramme korrekt darstellen, was im Chip vorhanden ist?
Godmode
2014-02-16, 17:19:08
Inwiefern kann man sich denn darauf verlassen, daß die Diagramme korrekt darstellen, was im Chip vorhanden ist?
Ich denke gar nicht.
Ailuros
2014-02-16, 18:14:01
Achso, und du musst das ja auch nicht noch über Vias miteinander verbinden usw usw.
Ja und? Mit einer Grundlage von 24mm2 ist das Endresultat auch nicht doppelt so gross ergo ein einstelliges Prozentual von einem 551mm2 Monster-die. Wie viel Strom wird damit gespart?
What?
Seit der ersten Sekunde wo Huang davon angefangen hat, hab ich rumgestenckert und wurde dafür kritisiert und angepampt, weil die nVidia Leute es ja schon besser wissen würden...
Genau das Gleiche mit den 192 ALU/SMX. Das fand ich auch ne Schnapsidee.
Wer sagt dass wir Dich ernst nehmen? :eek:
Natürlich hat das auch was mit den DP Units zu tun...
Wenn du dedizierte DP-Units hast, musste die auch mit verdrahten und Sie auch unter bringen -> mehr und längere Vias, mehr static leakage usw usw usw. Wenn man bedenkt, wieviel Joule die eigentliche Berechnung in den ALUs braucht, dann kannste da kaum was einsparen, durch den ganzen Mehraufwand hauste die geringe Einsparung aber schnell wieder aus dem Fenster...
Wo man sparen kann ist, das man mit reduzierter Genauigkeit rechnet, wenn man es denn sich erlauben kann. Dann erfüllt man aber eben nicht mehr IEEE XY. Aber z.B. FP16 wird ja auch gemacht, und auf den CPUs gibt es FastMath mit reduzierter Genauigkeit als Folge. DAfür braucht man aber wie gesagt keine dedizierten DP-Units.
Was jetzt die dedizierten FP64 Einheiten mit dem interdie connect gemeinsam haben weisst nur Du. Spar Dir den Bash-durchfall bis es erstmal garantiert ist dass es keine dedizierten FP Einheiten gibt. Sonst musst Du dann den gleichen Durchfall nochmal von der vorigen 180 Grad Perspektive wiederholen.
Dann fang mal an, das aufzuzählen und zu quantifizieren, wieviel Joule man mehr verbraucht durch den Wegfall der angeblichen DP-Units... Und dann vergleichen wir das mal...
Du bist doch der Profi warum fragst Du gerade mich? Sonst gilt das obrige.
Kann sein, muss aber nicht.
Es kommt halt wirklich drauf an, was Sie wann wo wie verbinden. An den Verbindungen zwischen den SMX würde ich keine all zu großen Einsparungen erwarten. Die SMX an sich sollten aber deutlich einfacher zu verdrahten sein. Da würde ich jetzt die größte Einsparung erwarten, und halt aus dem L2 Cache.
Und jetzt noch was bzgl. K1.
Falls es dir und den anderen entgangen ist. Schon bei der Vorstellung habe ich darauf hingewiesen, das K1 NICHT! vergleichbar ist bzgl Perf/W mit den anderen nVidia GPUs, einfach weil man sich den kompletten Verdrahtungs und Logikaufwand für mehrere SMX spart... Da kann man extrem viel einfach weglassen. Das skaliert aber halt null.....
Siehe weiter oben. Sonst um Gottes Willen hab ich auf Dich gewartet mir zu erklaeren was mit jeglichem ULP SoC genau los ist oder? :P
Ailuros
2014-02-16, 18:19:23
Hm, das mit dem shared memory ist komisch. Das würde bedeuten, dass doch ein SMM an sich die Compute Unit ist.
Bedeutet uebersetzt fuer den Laien hier?
Uebrigens "instruction buffer" fuer jeden SIMD32? Wie gross der Puffer wohl sein koennte....
Lightning
2014-02-16, 18:23:06
Naja es sind jetzt "nur" noch 128 SPs.
Außerdem ist jetzt der L1-Cache getrennt dargestellt. D.h. es gibt immer die vollen 64K als Shared Memory, oder sehe ich das falsch? Wie groß der L1 dann wäre, steht leider auch nicht dran.
Gipsel
2014-02-16, 18:43:27
Uebrigens "instruction buffer" fuer jeden SIMD32? Wie gross der Puffer wohl sein koennte....Eine Handvoll Instruktionen pro Warp/Wavefront (eventuell eine Cacheline zu 64Byte?), ähnlich wie bei GCN. Ist praktisch ein L0-I$, damit nicht ständig kleine Datenmengen aus dem L1-I$ gelesen werden müssen.
Im Übrigen könnte mit diesen Untereinheiten auch hauptsächlich die Darstellung geändert worden sein, wenn shared memory immer noch von allen geteilt wird. Auch bei Kepler konnte ein Warp nicht den Scheduler wechseln, er war auf einen festgepinnt. Das macht es extrem wahrscheinlich, daß auch bei Kepler bereits 4 getrennte Registerfiles existierten. Dann wäre es auch nur logisch, daß jeder Kepler-Scheduler genau drei vec16-ALUs, 8 L/S und 8 SFU-Einheiten zur Verfügung hatte. Bei Maxwell hätte man dann lediglich eine vec16-ALU von den Untereinheiten entfernt (weil praktisch kaum nutzbar wegen fehlender Registerbandbreite).
Ganz allgemein sage ich ja schon seit Jahren, daß man den Blockdiagrammen von nV typischerweise nicht vertrauen kann.
Duplex
2014-02-16, 18:49:30
Wäre Super wenn Nvidia im 2. Halbjahr die GTX8xx Serie in 20nm bringen würde, dann kann man bereits nächstes Jahr "FineFET" aka GTX9xx erwarten :)
Edit: Mal sehen ob demnächst AMD auch was ankündigen wird, wäre nicht schlecht wenn Sie die Shader auch Leistungsfähiger machen können, bin gespannt was GCN2 sein wird.
Ailuros
2014-02-16, 18:53:00
Eine Handvoll Instruktionen pro Warp/Wavefront (eventuell eine Cacheline zu 64Byte?), ähnlich wie bei GCN. Ist praktisch ein L0-I$, damit nicht ständig kleine Datenmengen aus dem L1-I$ gelesen werden müssen.
Im Übrigen könnte mit diesen Untereinheiten auch hauptsächlich die Darstellung geändert worden sein, wenn shared memory immer noch von allen geteilt wird. Auch bei Kepler konnte ein Warp nicht den Scheduler wechseln, er war auf einen festgepinnt. Das macht es extrem wahrscheinlich, daß auch bei Kepler bereits 4 getrennte Registerfiles existierten. Dann wäre es auch nur logisch, daß jeder Kepler-Scheduler genau drei vec16-ALUs, 8 L/S und 8 SFU-Einheiten zur Verfügung hatte. Bei Maxwell hätte man dann lediglich eine vec16-ALU von den Untereinheiten entfernt (weil praktisch kaum nutzbar wegen fehlender Registerbandbreite).
Ganz allgemein sage ich ja schon seit Jahren, daß man den Blockdiagrammen von nV typischerweise nicht vertrauen kann.
Na das mit den Block-diagrammen sollte klar sein dass es in der Mehrzahl der Faelle bullshit ist, hauptsaechlich aber auch weil sie von den Marketing-Fritzen geschrieben werden.
Skysnake
2014-02-16, 20:18:23
Hm, das mit dem shared memory ist komisch. Das würde bedeuten, dass doch ein SMM an sich die Compute Unit ist.
Ja, das ist mir auch schon aufgefallen und hat mich gewundert. Fragt sich nur, wie Sie das genau geregelt haben.
Der SharedMemory ist auf jeden Fall linear mit gewachsen. Bisher waren es ja 16/32/48kB auf 192 ALUs, also maximal 256B/ALU. Jetzt sind es 64kB für 256 ALUs, also auch wieder max 256B/ALU.
Das sieht eigentlich ziemlich gut aus an sich. Was allerdings etwas doof ist, ist eben die fehlende Wahlmöglichkeit zwischen L1<->SharedMem. Zumindest lässt das Blockdiagramm das Vermuten.
Die spannende Frage ist jetzt, wie groß der L1 jetzt noch ist für Compute, und wie das mit Constanten aussieht.
Ich weiß jetzt auch nicht, was ich von der neuen Aufteilung der Caches halten soll. Je nachdem, sinkt halt die Effizienz der Caches, weil man mehrfach die selben Werte vorhalten muss, die Gefahr des Trashings sinkt dafür aber auch....
Am Registerfile an sich wird sich wohl nicht wirklich viel ändern. Man hat ja pro Registerblock immer noch mehr Register als man maximal für einen Thread nutzen kann. Eventuell steigt aber die Registersegmentierung, ich würde aber eher nicht davon ausgehen.
Ja und? Mit einer Grundlage von 24mm2 ist das Endresultat auch nicht doppelt so gross ergo ein einstelliges Prozentual von einem 551mm2 Monster-die. Wie viel Strom wird damit gespart?
Das ist halt die Frage, was da alles drin ist. Nur die ALUs an sich, oder alles drum und dran.
Und selbst wenn alles drum und dran dabei ist, sollte man es nicht unterschätzen. Du musst mehr parallele Leitungen legen, du musst die Gates etwas breiter machen, du musst mehr Kapazität umladen, du hast etwas längere und auch divergierende Laufzeiten usw usw usw.
Das zieht halt nen ellenlangen Rattenschwanz hinter sich her. Allein das man eben mehr Vias hat, die am Registerfile usw anliegen sind richtig scheise. Da wirste garantiert größere Transistoren deswegen verbauen müssen, was dann eben wieder zu längeren Signalwegen führt und auch mehr static Leakage. Du kannst bei den DP-"Units" kein Power-Gating machen, und selbst Clockgating wird interessant. Je nachdem wieviele Takte man sich halt wirklich erlauben kann, bis die Clock stabil ist.
Was jetzt die dedizierten FP64 Einheiten mit dem interdie connect gemeinsam haben weisst nur Du. Spar Dir den Bash-durchfall bis es erstmal garantiert ist dass es keine dedizierten FP Einheiten gibt. Sonst musst Du dann den gleichen Durchfall nochmal von der vorigen 180 Grad Perspektive wiederholen.
siehe oben. Das gesamte Routing wird halt schwieriger und du hast bei jedem Problem ein etwas größeres Problem.
[quote]
Du bist doch der Profi warum fragst Du gerade mich? Sonst gilt das obrige.
[quote]
Also rein von der Größenordnung her, sollte es ja nach der nVidia Presentation genau so viel Energie verbrauchen, ein Signal on Chip 1mm weit zu treiben, wie ne FP Op auszuführen.
Wenn wir also davon ausgehen, dass du maximal 50% einsparen wirst können, eher weniger, weil man muss ja immer noch Rechnen, dann biste bei ~500µm Leitungslänge. Eher weniger. Nimmt man jetzt deine 24mm² und teilt die durch die 15 SMX, dann biste bei 1,6mm²/SMX. Ich hoffe du siehst, dass das ne verdammt enge Geschichte wird.
Wie gesagt, da gehts auch gar nicht groß drum, was ich dazu mein/sage, sondern viel mehr darum, das außer nVidia noch keiner auf die Idee gekommen ist, das zu machen. Insbesondere nicht die CPU-Hersteller, die ja auch noch verdammt wenig ALUs haben.
Nakai
2014-02-16, 20:21:11
Außerdem ist jetzt der L1-Cache getrennt dargestellt. D.h. es gibt immer die vollen 64K als Shared Memory, oder sehe ich das falsch? Wie groß der L1 dann wäre, steht leider auch nicht dran.
Das ist die Frage. Nur zur allgemeinen Info. Bei Kepler gab es 64K Shared Memory, welcher "konfigurierbar" ist. Man konnte Teile des Caches als L1-Cache verwenden(16/48 ^ 48/16 ^ 32/32). Ich hoffe mal, man war richtig ambitioniert.^^
Ansonsten sind TextureCache und L1-Cache zusammen dargestellt. Ergo könnte ein Block von Texture/L1-Cache für zwei CUs und einer QuadTMU da sein. Das finde ich etwas komisch, evtl ist das Diagramm, wie schon zigmal erwähnt, ziemlich ungenau. Für mich wäre es logischer, wenn alles auf einer Ebene und von allen Einheiten genutzt werden kann. Ergo 4 CUs und zwei QuadTMUs teilen sich den gesamten Texture/L1-Cache. Irgendwie finde ich da AMDs Whitepaper und Diagramme mehrsagender.
Gipsel
2014-02-16, 20:34:19
Ja, das ist mir auch schon aufgefallen und hat mich gewundert. Fragt sich nur, wie Sie das genau geregelt haben.
Der SharedMemory ist auf jeden Fall linear mit gewachsen. Bisher waren es ja 16/32/48kB auf 192 ALUs, also maximal 256B/ALU. Jetzt sind es 64kB für 256 ALUs, also auch wieder max 256B/ALU.Es sind mit Maxwell 64kB für 128 ALUs, also mehr als bei Kepler (aber immer noch nur halb so viel wie bei GCN). Aber die 192 (4x48) Kepler ALUs waren wohl nicht wirklich mehr wert als die 4x32 Maxwell-ALUs, also hat sich im Prinzip nicht so viel geändert (48kB -> 64kB).
Das sieht eigentlich ziemlich gut aus an sich. Was allerdings etwas doof ist, ist eben die fehlende Wahlmöglichkeit zwischen L1<->SharedMem. Zumindest lässt das Blockdiagramm das Vermuten.
Die spannende Frage ist jetzt, wie groß der L1 jetzt noch ist für Compute, und wie das mit Constanten aussieht.Es ist im Prinzip identisch zu GCN: local memory ist separat und L1 und Textur-Cache sind jetzt vereint. Der L1 dürfte vermutlich 16kB (maximal 32kB) pro Quad-TMU betragen, nV hat da aber auch schon öfter etwas "krumme" Mengen gehabt (z.B. 12kB oder 24kB).
Bei GCN übernimmt ja der skalare L1 die Funktion des Konstantencaches, sowas scheint es bei Maxwell aber (noch?) nicht zu geben, also keine Ahnung.
Ich weiß jetzt auch nicht, was ich von der neuen Aufteilung der Caches halten soll. Je nachdem, sinkt halt die Effizienz der Caches, weil man mehrfach die selben Werte vorhalten muss, die Gefahr des Trashings sinkt dafür aber auch....Ich würde ja bald vermuten, daß sich alle 4 Untereinheiten die zwei Quad-TMUs teilen und daß die Zuständigkeit anhand der Speicheradresse per Interleaving geregelt wird (die L/S-Einheiten könnten die relevante Adressgenerierung dafür erledigen wobei das auf den zweiten Gedanken wohl relativ aufwändig wäre, also vielleicht doch nicht). Dann hat man das Problem der doppelt vorzuhaltenden Daten nicht. Oder es ist in Wirklichkeit nur ein Tex-L1, der von zwei Quad-TMUs genutzt wird, wie Nakai vorschlug.
edit:
Irgendwie finde ich da AMDs Whitepaper und Diagramme mehrsagender.
Die sind typischerweise auch näher an der Wahrheit (zumindest bei Architekturpräsentationen). ;)
Schaffe89
2014-02-17, 06:33:08
Ich will ja nicht unken, aber wenn ich mir die Strommessungen bei HT4U so anschaue, trickst Nvdia bei den TDP angaben der GTX 650 Ti Boost und der normalen schon erheblich.
Da redet man sich mehr als die Hälfte der angeblichen Effizienzverbesserungen, wohl einfach per Marketinggewäsch herbei.
Das gleiche Verhalten wie bei Tegra 3 und 4, sry, aber das ist erbärmlich.
http://ht4u.net/reviews/2013/sapphire_radeon_hd7730_1gb_2gb_gigabyte_geforce_gt640_1gb_gddr5_test/index18.php
Die GTX 650 Ti gibt man mit 110 Watt TDP an, obwohl sie nur 65 bis 70 Watt zieht.
Ailuros
2014-02-17, 06:40:38
Ich will ja nicht unken, aber wenn ich mir die Strommessungen bei HT4U so anschaue, trickst Nvdia bei den TDP angaben der GTX 650 Ti Boost und der normalen schon erheblich.
Da redet man sich mehr als die Hälfte der angeblichen Effizienzverbesserungen, wohl einfach per Marketinggewäsch herbei.
Das gleiche Verhalten wie bei Tegra 3 und 4, sry, aber das ist erbärmlich.
http://ht4u.net/reviews/2013/sapphire_radeon_hd7730_1gb_2gb_gigabyte_geforce_gt640_1gb_gddr5_test/index18.php
Was hat jetzt die 640 genau mit der 650 zu tun (nicht dass ich auf Anhieb verstehe was mit der 640 falsch liegen soll)?
Die GTX 650 Ti gibt man mit 110 Watt TDP an, obwohl sie nur 65 bis 70 Watt zieht.
Was verstehst Du genau unter TDP? Selbst wenn Du nicht weisst fuer was es steht, wo genau liegt der Beschiss hier?
Skysnake
2014-02-17, 07:33:16
Ich hoffe mal, man war richtig ambitioniert.^^
Ja ich auch, aber das ist halt echt gar nicht so einfach, da den Sweetspot zu treffen.
Wenn du den Cache zu groß machst, wird er zu komplex auch von der Ansteuerungslogik und die Signalwege werden auch zu lang. Weniger ist da eventuell bzgl. der Effizienz sogar mehr.
Wenn man 5% mehr Leistung durch nen größeren Cache raus holt, aber 6% mehr Strom verballert, weil man halt grad alles mögliche etwas komplexer bauen muss, dann bringt dir das für die Effizienz halt gar nichts.
Ansonsten sind TextureCache und L1-Cache zusammen dargestellt. Ergo könnte ein Block von Texture/L1-Cache für zwei CUs und einer QuadTMU da sein. Das finde ich etwas komisch, evtl ist das Diagramm, wie schon zigmal erwähnt, ziemlich ungenau. Für mich wäre es logischer, wenn alles auf einer Ebene und von allen Einheiten genutzt werden kann. Ergo 4 CUs und zwei QuadTMUs teilen sich den gesamten Texture/L1-Cache.
Das ist halt die Frage, was da jetzt wirklich passiert. Ich kann deine Idee gut verstehen, aber ich teile Sie eher weniger, weil man damit nichts erreicht hätte im Vergleich zu heute, und ich gehe schon davon aus, das man etwas an den L1 Caches dreht, einfach um Komplexität aus ihnen raus zu nehmen.
Btw. Man hat jetzt nur noch 4 ALUs pro LDS Einheit, und nicht mehr 6. Das finde ich sehr positiv.
Ansonsten gleich noch mehr zu dem L1
Irgendwie finde ich da AMDs Whitepaper und Diagramme mehrsagender.
Dem kann ich zustimmen ;)
Es sind mit Maxwell 64kB für 128 ALUs, also mehr als bei Kepler (aber immer noch nur halb so viel wie bei GCN). Aber die 192 (4x48) Kepler ALUs waren wohl nicht wirklich mehr wert als die 4x32 Maxwell-ALUs, also hat sich im Prinzip nicht so viel geändert (48kB -> 64kB).
Hä? :freak:
Bin ich jetzt zu blöd zum zählen oder wie? So ein SMM hat 256 ALUs und nur einen SharedMemory mit 64kB. Wie kommste also bitte auf 64kB für 128 ALUs :confused::confused::confused:
Es ist im Prinzip identisch zu GCN: local memory ist separat und L1 und Textur-Cache sind jetzt vereint. Der L1 dürfte vermutlich 16kB (maximal 32kB) pro Quad-TMU betragen, nV hat da aber auch schon öfter etwas "krumme" Mengen gehabt (z.B. 12kB oder 24kB).
Ja, und da empfand ich die Variante von nVidia gar nicht so schlecht, das man wählen konnte. Je nach Problem und Optimierung hat man halt so oder so gewählt. Ich empfand das schon als sehr angenehm für den Entwickler.
Bei GCN übernimmt ja der skalare L1 die Funktion des Konstantencaches, sowas scheint es bei Maxwell aber (noch?) nicht zu geben, also keine Ahnung.
Ja, (noch) gibt es so etws nicht. Schaumer mal, was da noch kommt.
Man wird mit Maxwell aber wohl wieder ziemlich umdenken müssen bei der Softwareentwicklung -.-
So langsam reicht mir das hin und her bei nVidia dann auch. Die drehen mir aktuell zu viel hin und her, hin und her. Eine optimierte Software für Fermi, Kepler und Maxwell zu schreiben wird wohl kaum gehen, weil man immer in details etwas anders herangehen muss.
Ich würde ja bald vermuten, daß sich alle 4 Untereinheiten die zwei Quad-TMUs teilen und daß die Zuständigkeit anhand der Speicheradresse per Interleaving geregelt wird (die L/S-Einheiten könnten die relevante Adressgenerierung dafür erledigen wobei das auf den zweiten Gedanken wohl relativ aufwändig wäre, also vielleicht doch nicht).
Jup! Dem Edit kann ich nur zustimmen. Das würde zu Aufwändig werden von der ganzen Verdrahtung her.
Was man sich allerdings vorstellen könnte wäre, denn L1 ähnlich dem LLC bei Intel als Slices die per Ringbus miteinander verbunden sind zu realisieren. Damit könnte man die Komplexität sehr schön unten halten und gleichzeitig alles für jeden Zugreifbar machen, was insbesondere in den Extrempunkten mit viel/wenig Cachenutzung pro Thread im Prinzip alle Vorteile vereinigen würde ohne echte Nachteile sich ein zu fangen.
Wie gesagt, die Komplexität hätte man unten gehalten, die etwas längeren Latenzen tun bei der GPU nicht wirklich weh, die Alternative ist ja der L2, der deutlich langsamer ist. Was man sich allerdings einfangen würde wäre ein Cachekohärenzprotokoll, wobei man sich das nochmal GENAU! durchdenken sollte. Eventuell kann man je nachdem wie man die einzelnen Blöcke behandelt dies sogar sparen, bzw sehr einfach/effizient halten.
Dann hat man das Problem der doppelt vorzuhaltenden Daten nicht. Oder es ist in Wirklichkeit nur ein Tex-L1, der von zwei Quad-TMUs genutzt wird, wie Nakai vorschlug.
Siehe oben, es gibt durchaus auch andere Lösungen die ich für eleganter/vielversprechender halte.
edit:
Die sind typischerweise auch näher an der Wahrheit (zumindest bei Architekturpräsentationen). ;)
Jup, deswegen mag ich deren Docs auch mehr :biggrin:
Ailuros
2014-02-17, 07:37:22
Hä? :freak:
Bin ich jetzt zu blöd zum zählen oder wie? So ein SMM hat 256 ALUs und nur einen SharedMemory mit 64kB. Wie kommste also bitte auf 64kB für 128 ALUs :confused::confused::confused:
:freak:
Hugo78
2014-02-17, 07:54:15
Ich will ja nicht unken, aber wenn ich mir die Strommessungen bei HT4U so anschaue, trickst Nvdia bei den TDP angaben der GTX 650 Ti Boost und der normalen schon erheblich.
Da redet man sich mehr als die Hälfte der angeblichen Effizienzverbesserungen, wohl einfach per Marketinggewäsch herbei.
Die 650 Ti Boost kommt auf 108W in Spielen und 115W in Furmark, bei 134W TDP.
Die TDP muss dabei aber auch beim Araber im Hochsommer eingehalten werden, wenn er ein noch intensivere Programm laufen lässt,
denn Furmark bringt den Chip nur besonders schnell auf Temperatur, es ist nicht die Speerspitze in Sachen Verbrauch.
Weshalb die TDP immer höher angegeben wird als der reale Stromverbrauch bei uns in Mitteleuropa bei 20°C Raumtemperatur.
Gipsel
2014-02-17, 08:35:07
Hä? :freak:
Bin ich jetzt zu blöd zum zählen oder wie?Das hast Du jetzt gesagt. So ein SMM hat 256 ALUs und nur einen SharedMemory mit 64kB. Wie kommste also bitte auf 64kB für 128 ALUs :confused::confused::confused:Also bei mir sind 4x32 immer noch 128. :rolleyes:
AffenJack
2014-02-17, 08:37:02
:freak:
Es ist immer wieder beeindruckend zu sehen, wie bei Skysnake die Hälfte der Infos auf der Strecke bleibt;)
Wenigstens bleibt's dann irgendwann doch alles hängen. Das kann man nicht von jedem hier behaupten :tongue:
Ailuros
2014-02-17, 08:48:30
Es ist immer wieder beeindruckend zu sehen, wie bei Skysnake die Hälfte der Infos auf der Strecke bleibt;)
Ist zwar verdammt OT, aber ich bin froh dass er mir es nicht uebel nimmt als ich ihm sagte dass wir ihn nicht ernst nehmen. Natuerlich ist es nicht ernst gemeint, aber er tippt und tippt und tippt....und meistens am Ende ist ueber 90% total ueberfluessig :P
***edit:
um mal zusammen zu fassen anscheinend macht 8*4 nicht 32 sondern 64 :freak: und es wird auch "beschissen" wenn der reale Verbrauch ein gutes Stueck unter dem TDP liegt. Kommt zwar nicht vom gleichen Author aber es wird ziemlich "bunt" in letzter Zeit :weg:
AnarchX
2014-02-17, 09:04:22
Offenbar schon im Handel erhältlich: http://www.overclock.net/t/1464898/guru3d-nvidia-geforce-gtx-750-750-ti-benchmarks-surface-in-the-uk/170#post_21795354
Der TwinFrozr wirkt im Vergleich zum Referenz-Design etwas überdimensioniert, zumal man hier auch auf den 6-Pin verzichtet hat.
Ailuros
2014-02-17, 09:07:26
Offenbar schon im Handel erhältlich: http://www.overclock.net/t/1464898/guru3d-nvidia-geforce-gtx-750-750-ti-benchmarks-surface-in-the-uk/170#post_21795354
Der TwinFrozr wirkt im Vergleich zum Referenz-Design etwas überdimensioniert, zumal man hier auch auf den 6-Pin verzichtet hat.
Wieviel kostet die 750Ti eigentlich?
AnarchX
2014-02-17, 09:12:16
Auf der Schachtel stehen $199 und der User scheint aus der USA zu kommen.
Da könnte wohl NV für die besondere HTPC-Eignung/unerreichte Effizienz einen Aufpreis verlangen...
Timbaloo
2014-02-17, 10:11:44
Der TwinFrozr wirkt im Vergleich zum Referenz-Design etwas überdimensioniert, zumal man hier auch auf den 6-Pin verzichtet hat.
Überdimensionierte Kühler gibt es nicht :freak:
Aber dass kein 6-Pin verbaut wurde ist in der Tat etwas seltsam in Verbindung mit einem "ordentlichen" Kühler. Aber gut, wer nicht groß übertakten will stört das nicht.
Skysnake
2014-02-17, 11:24:35
Das hast Du jetzt gesagt. Also bei mir sind 4x32 immer noch 128. :rolleyes:
Ähm.... :redface:
Sorry, ich habe 32*(max darstellbare Zahl von 4Bit, also 8) gerechnet im Kopf :facepalm:
Vor lauter Decoder für nen DAC bauen ist mir das aber gar nicht aufgefallen :freak:
Dann ist sowohl die Register als auch der SharedMemory überproportional angewachsen, was ne gute Sache ist :up:
Oh man.... ich glaub ich arbeite aktuell echt zu viel -.-
-/\-CruNcher-/\-
2014-02-17, 11:36:38
Schon irgendwelche Compute tests OpenCL, DirectCompute oder Cuda verfügbar ?
Vor allem interessant wären hier Tomb Raider 2013, AC4, BF4, Civ 5, Rage CUDA (Megatexture Streaming) und MadVr tests die ganzen Compute Raytracing tests und die komplette pallete von Compubench und Passmarks, Sisofts test, Fluidmark sowie cudaminer (wobei der kepler kernel wahrscheinlich jetzt sinnlos sein wird) und co @ Raff und bitte WDDM 1.3 tests durchgehend diesmal ;)
Schön währe es auch endlich mal die Power Outputs für jeden einzelnen test zu bekommen anstelle dieser Gesamtwertungen oder nur einen einzelnen Power Output test wie Furmark oder nur einen ein Engine last test @ HT4U :)
Ein ENB test mit allen Shadern auf full scale und komplettem render featureset vor allem Reflections wäre auch nicht schlecht :)
AnarchX
2014-02-17, 11:54:55
Erste Daten zum OC/Takt-Potential:
http://videocardz.com/49701/galaxy-geforce-gtx-750-ti-exposed-can-overclocked-1-35-ghz
http://we.poppur.com/thread-2201939-1-1.html
7Gbps Speichertakt (+30%) sind wohl durchaus möglich.
Etwas unklar ob da Galaxy nun OC-Ergebnisse bewirbt oder man wirklich eine 1,35/7Gbps Karte vorstellen wird.
-/\-CruNcher-/\-
2014-02-17, 12:15:21
@AnarchX
Meine Auffassung ist ja denke ich mal bekannt es gibt kein Overclocking mehr es währe besser man würde von "einkalkuliertem übertakten oder zum Aufpreis" sprechen, es ist einfach falsch das weiterhin Overclocking zu nenen. Overclocking ist TOT es ist ein Marketinginstrument geworden mehr nicht und es tut in der seele weh leute wie dich da von potential sprechen zu hören, es gibt da kein Gratis potential mehr was Overclocking in diesem Bereich früher ausmachte.
Da wird jedes Boost MHZ mit aufpreis verkauft wie nie zuvor.
Schon das das Overclocking in den Marketing Slides auftaucht ist doch einfach nur noch grotesk und sollte doch jedem klar machen das es das nicht mehr gibt ;)
Iruwen
2014-02-17, 12:30:21
Also meine 670 hat auch einen Boost und die ist definitiv übertaktet :freak:
-/\-CruNcher-/\-
2014-02-17, 12:42:26
Ja aber das ist einkalkuliert ins Hardware Design leute wie du wollen ja glauben das sie etwas umsonst bekommen, spätestens seit Intel sollte das Bombenklar geworden sein das das nicht mehr der Fall ist ;)
Thunder99
2014-02-17, 15:05:09
@AnarchX
Meine Auffassung ist ja denke ich mal bekannt es gibt kein Overclocking mehr es währe besser man würde von "einkalkuliertem übertakten oder zum Aufpreis" sprechen, es ist einfach falsch das weiterhin Overclocking zu nenen. Overclocking ist TOT es ist ein Marketinginstrument geworden mehr nicht und es tut in der seele weh leute wie dich da von potential sprechen zu hören, es gibt da kein Gratis potential mehr was Overclocking in diesem Bereich früher ausmachte.
Da wird jedes Boost MHZ mit aufpreis verkauft wie nie zuvor.
Schon das das Overclocking in den Marketing Slides auftaucht ist doch einfach nur noch grotesk und sollte doch jedem klar machen das es das nicht mehr gibt ;)
So lange man selber die Spannung verstellen kann gibt es noch OC. Nicht mehr so wie früher aber für mich ist das noch OC. Die IHVs schneiden sich von dem Potential was halt ab und vergolden es sich
Nakai
2014-02-17, 15:28:24
Es ist schon interessant, wie effektiver NV mit Maxwell geworden ist. GM107 hat weniger SPs als Bonaire, liefert aber wohl eine höhere Performance bei weniger Stromverbrauch. Da muss AMD auf jeden Fall viel nachholen.
Player18
2014-02-17, 15:38:44
es gibt neuigkeiten :
http://www.gamestar.de/hardware/news/grafikkarten/3032739/nvidia_maxwell_grafikkarten.html
Godmode
2014-02-17, 15:42:25
es gibt neuigkeiten :
http://www.gamestar.de/hardware/news/grafikkarten/3032739/nvidia_maxwell_grafikkarten.html
Das stand schon ein paar Seiten weiter hinten.
Kann man jetzt davon ausgehen, das GM104 und GM100 gleich in 20nm kommen?
AnarchX
2014-02-17, 15:53:44
Kann man jetzt davon ausgehen, das GM104 und GM100 gleich in 20nm kommen?
GM204/GM200 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10104950#post10104950) dürften auf jeden Fall eine erweiterte Maxwell Architektur besitzen. Mit einem Launch im 2. Halbjahr ist 20nm durchaus im Bereich des Möglichen. Wenn vielleicht auch GM200 erst wieder später vorgestellt wird.
Duplex
2014-02-17, 15:56:28
Ich denke auch das die 20nm Maxwell Chips anders aufgebaut sind.
Mit einem GM200 Vollausbau sollte man locker 70-80% mehr Speed als die GTX780 Ti besitzen, durch 20nm FineFET erwarte ich dann eine Verdopplung gegenüber GK110.
Thunder99
2014-02-17, 15:58:40
So wie GK104 zu 110?
Akkarin
2014-02-17, 16:02:21
Ist überhaupt klar ob GM2xx direkt mit FinFets kommt und nicht in 20nm SoC ?
Dawn on Titan
2014-02-17, 16:13:42
20nm FF oder 16nm kommt sicher nicht 2014 in den Handel. (für GPUs und SOCs)
Loeschzwerg
2014-02-17, 16:14:56
@-/\-CruNcher-/\-: Falls du auf den Kosten/Nutzen Spirit aus den Duron Zeiten anspielst, ja, der ist hinüber.
Es steht dir aber immer noch frei eine z.B. OEM 750 Ti entsprechend zu modifizieren und damit das Partnerdesign taktseitig zu schlagen. In das Powerboard investiert man einmalig und übernimmt es dann für sämtliche weiteren Karten. Du brauchst halt etwas technisches KnowHow.
Nakai
2014-02-17, 16:17:02
Milchmädchen:
GM204 ausgehend von GM107.
GM107 ~ 145mm²
GM107 in 20nm ~90mm²
GM204 bei 250~300mm²
GM107 in 20nm könnte, wenn Redundanzen außen vor gelassen werden, 4mal in GM204 reinpassen.
->2560SPs für GM204
Da 128SPs bei Maxwell so effizient wie 192SPs bei Kepler sind -> GM204 = ~GK110+33% bei Performance
Godmode
2014-02-17, 16:19:53
Milchmädchen:
GM204 ausgehend von GM107.
GM107 ~ 145mm²
GM107 in 20nm ~90mm²
GM204 bei 250~300mm²
GM107 in 20nm könnte, wenn Redundanzen außen vor gelassen werden, 4mal in GM204 reinpassen.
->2560SPs für GM204
Da 128SPs bei Maxwell so effizient wie 192SPs bei Kepler sind -> GM204 = ~GK110+33% bei Performance
Das sieht gut aus. GK104 war auch etwa 30% schneller als GF110 IIRC.
AffenJack
2014-02-17, 17:11:54
Milchmädchen:
GM204 ausgehend von GM107.
GM107 ~ 145mm²
GM107 in 20nm ~90mm²
GM204 bei 250~300mm²
GM107 in 20nm könnte, wenn Redundanzen außen vor gelassen werden, 4mal in GM204 reinpassen.
->2560SPs für GM204
Da 128SPs bei Maxwell so effizient wie 192SPs bei Kepler sind -> GM204 = ~GK110+33% bei Performance
Das alles bestimmende Problem bei Maxwell @ 20nm sehe ich in der Speicherbandbreite. Also könnte GM104 eher größer ausfallen als GK104, denn mit 256 Bit wird man nicht mehr auskommen. Mindestens 320Bit oder halt 384 Bit und somit Chipgrößen bei ~350mm² könnte ich mir vorstellen. Da würden die 2560 Shader dann wohl locker reinpassen, könnten sogar 3084 werden.
Duplex
2014-02-17, 17:15:33
Ich gehe von 350-380mm² bei GM204 aus, 384 Bit SI & 3GB GDDR5 sollte als GTX780 Ti Ablöse ausreichen, im Q4/2014 sollte das kein Problem sein.
Anfang 2015 dann GM200 mit 512 Bit SI & 4GB GDDR5 in 20nm, 60-80% Speedup gegenüber der GTX780 Ti sollte auch kein Problem sein.
Eine Verdopplung der Performance gegenüber der 780 Ti erwarte ich erst mit 20 FineFET.
Edit:
Mal sehen was demnächst von Semiaccurate über den GM204 kommen wird, kann mich noch errinern als Charlie plötzlich den GK104 gefeiert hat :D
matty2580
2014-02-17, 17:40:05
NVIDIA GeForce 800 Series in Second Half of 2014
NVIDIA also confirmed during the conference that they are planning to introduce the GeForce 800 series which is fully based on the Maxwell architecture in second half of 2014. This means that we will see the proper high-performance GPUs such as the replacements for GeForce GTX 780, GeForce GTX 770 and GeForce GTX 760 in Q3 2014. We have already noted codenames of the high-end Maxwell chips which include GM200, GM204 and GM206, however NVIDIA didn’t mention what process they would be based on but early reports point out to 20nm.
The initial Maxwell lineup consists of two cores which include GM107 for the GeForce 750 series and the GM108 for entry level GeForce 800M SKUs such as the GeForce GT 840M.
Read more: http://wccftech.com/nvidia-maxwell-geforce-gtx-750-ti-gtx-750-official-specifications-confirmed-60watt-gpu-geforce-800-series-arrives-2014/#ixzz2tb8uONtE
http://wccftech.com/nvidia-maxwell-geforce-gtx-750-ti-gtx-750-official-specifications-confirmed-60watt-gpu-geforce-800-series-arrives-2014/
Die Infos sollen dann falsch sein, wenn ihr hier Q4 vermutet?
Q3 wäre von Juli bis September.
AffenJack
2014-02-17, 17:46:06
http://wccftech.com/nvidia-maxwell-geforce-gtx-750-ti-gtx-750-official-specifications-confirmed-60watt-gpu-geforce-800-series-arrives-2014/
Die Infos sollen dann falsch sein, wenn ihr hier Q4 vermutet?
Q3 wäre von Juli bis September.
Nvidia mag gesagt haben die 800er kommen noch dieses Jahr, alles weitere ist aber wohl Spekulation seitens wcftech. Q4 klingt daher deutlich realistischer.
Nakai
2014-02-17, 17:46:42
Das alles bestimmende Problem bei Maxwell @ 20nm sehe ich in der Speicherbandbreite. Also könnte GM104 eher größer ausfallen als GK104, denn mit 256 Bit wird man nicht mehr auskommen. Mindestens 320Bit oder halt 384 Bit und somit Chipgrößen bei ~350mm² könnte ich mir vorstellen. Da würden die 2560 Shader dann wohl locker reinpassen, könnten sogar 3084 werden.
GM107 hat schon einen sehr großen L2-Cache von 2MB. Wie dieser skaliert, keine Ahnung, aber ich vermute mal mit den ROP-Clustern. GM107 hat 16 ROPs und 2MB L2-Cache. Eine ROP-Partition bei GK104 und darunter hat 8 ROPs und 128KB-L2-Cache, bei GK110 sogar 256KB-L2-Cache. Was man bei Maxwell gemacht hat, keine Ahnung, aber ich vermute, dass bei Maxwell die ROP-Partitionen nur noch 4 ROPs aber dafür 512KB-L2-Cache haben.
4MB L2-Cache bei 256Bit-SI? Klingt das gut für GM204.
Ailuros
2014-02-17, 17:48:07
Das alles bestimmende Problem bei Maxwell @ 20nm sehe ich in der Speicherbandbreite. Also könnte GM104 eher größer ausfallen als GK104, denn mit 256 Bit wird man nicht mehr auskommen. Mindestens 320Bit oder halt 384 Bit und somit Chipgrößen bei ~350mm² könnte ich mir vorstellen. Da würden die 2560 Shader dann wohl locker reinpassen, könnten sogar 3084 werden.
Die Bandbreite kann man mit 384bit fuer performance und 512bit im Notfall fuer high end noch regeln. Mir macht eher Sorgen dass Maxwell bis jetzt genauso lahmarschig fuer compute duftet wie Kepler :rolleyes:
Nvidia mag gesagt haben die 800er kommen noch dieses Jahr, alles weitere ist aber wohl Spekulation seitens wcftech. Q4 klingt daher deutlich realistischer.
Den Burschen bei wcftech kann man beruhigt links liegen lassen; dazu im Vergleich ist sogar OBR ein "Quelle" :freak:
matty2580
2014-02-17, 17:49:49
Nvidia mag gesagt haben die 800er kommen noch dieses Jahr, alles weitere ist aber wohl Spekulation seitens wcftech. Q4 klingt daher deutlich realistischer.
Sie schreiben doch, dass Nvidia dass selbst auf der Konferenz gesagt hat.
Die Seite ist nicht klein und würde sich total lächerlich machen, wenn sich dass als Vermutung herausstellt.
Duplex
2014-02-17, 17:50:42
Trotzdem ist sowas immer mit Vorsicht zu genießen.
AnarchX
2014-02-17, 17:53:02
Die Bandbreite kann man mit 384bit fuer performance und 512bit im Notfall fuer high end noch regeln. Mir macht eher Sorgen dass Maxwell bis jetzt genauso lahmarschig fuer compute duftet wie Kepler :rolleyes:
Woher kommt die Annahme? Die superskalaren SIMD-Einheiten sind wohl verschwunden und der Cache pro Core ist auch gestiegen.
Sie schreiben doch, dass Nvidia dass selbst auf der Konferenz gesagt hat.
Die Seite ist nicht klein und würde sich total lächerlich machen, wenn sich dass als Vermutung herausstellt.
Die Meldung basiert ja auf dem NDA-Bruch einer vietnamesischen Seite. Wer weiß wie die Übersetzung da ist.
Ansonsten gibt es vielleicht morgen ein paar mehr Infos, wenn man auf den europäischen und amerikanischen Tech-Days ähnliche Ankündigungen gemacht hat.
Ailuros
2014-02-17, 17:54:50
http://wccftech.com/nvidia-maxwell-geforce-gtx-750-ti-gtx-750-official-specifications-confirmed-60watt-gpu-geforce-800-series-arrives-2014/
Die Infos sollen dann falsch sein, wenn ihr hier Q4 vermutet?
Q3 wäre von Juli bis September.
Schau her was NV angeben hat (und NV's PR drueckt sich auch nicht so bekloppt aus....was zum Henker heisst "fully based"?):
NVIDIA also confirmed during the conference that they are planning to introduce the GeForce 800 series which is fully based on the Maxwell architecture in second half of 2014.
Der Rest ist eigengestrickter Duenschiss.
Woher kommt die Annahme? Die superskalaren SIMD-Einheiten sind wohl verschwunden und der Cache pro Core ist auch gestiegen.
Ich sagte im Notfall oder einfacher wenn sie wirklich mehr Bandbreite brauchen gibt es immer noch breitere SIs.
basix
2014-02-17, 18:34:30
Breiter als 512 Bit? :biggrin:
AffenJack
2014-02-17, 18:38:52
GM107 hat schon einen sehr großen L2-Cache von 2MB. Wie dieser skaliert, keine Ahnung, aber ich vermute mal mit den ROP-Clustern. GM107 hat 16 ROPs und 2MB L2-Cache. Eine ROP-Partition bei GK104 und darunter hat 8 ROPs und 128KB-L2-Cache, bei GK110 sogar 256KB-L2-Cache. Was man bei Maxwell gemacht hat, keine Ahnung, aber ich vermute, dass bei Maxwell die ROP-Partitionen nur noch 4 ROPs aber dafür 512KB-L2-Cache haben.
4MB L2-Cache bei 256Bit-SI? Klingt das gut für GM204.
Für mich klingt das nicht gut. 4 Fache Shaderleistung bei 2facher Bandbreite hört sich für mich nicht gut an und ich glaube nicht, dass man soviel mit Cache abfangen kann. Vor allem würde es mich nicht wundern, wenn GM107 schon stark Bandbreitenlimitiert ist. 5 Fache Sahderleistung mit 3facher Bandbreite klingt da schon etwas besser. Würden dann ja sogar 6mb Cache bei 384Bit.
Ich sagte im Notfall oder einfacher wenn sie wirklich mehr Bandbreite brauchen gibt es immer noch breitere SIs.
Nur läuft man natürlich mitn breiteren SI in ein Problem. Der Chip muss größer werden und kommt näher an GM200, welcher wahrscheinlich noch Denvercores mitschleppen dürfte. Damit wird der Chip für den Gamingbereich noch weniger lohnend, aber nur mitn professionellen Bereich dürfte sich GM200 noch immer nicht finanzieren lassen.
Ailuros
2014-02-17, 18:44:14
Nein so war es nicht gemeint; bis zu 384bit fuer performance und bis zu 512bit fuer high end. Wir wissen ja noch nicht mit wieviel Bandbreite Maxwell genau auskommt.
Nakai
2014-02-17, 18:59:05
Was könnte denn so ein etwas größerer L2-Cache bringen? Ich bin da wirklich überfragt. Caching-Effekte sind normalerweise sehr schön, nur kann ich mir die bei Grafikanwendungen, aufgrund der großen Datenmengen, schlecht vorstellen.
Kann da einer, er etwas mehr Einblick hat, ungefähr den Nutzen und die Vorteile erklären? Klar, Speicherzugriffe werden, wenn die Daten im Cache sind, vermieden, somit geringerer Stromverbrauch. Aber wie sieht es mit der Performance aus?
Schaffe89
2014-02-17, 18:59:06
Die 650 Ti Boost kommt auf 108W in Spielen und 115W in Furmark, bei 134W TDP.
Ne nicht die Boost, die Karte ohne Boost, da hab ich mich vertan.
Also die 650 Ti. Wird mit 110 watt angegeben und zieht etwa 70 Watt, oft auch weniger.
Wenn die 750 Ti gleichschnell wird und dann 55 Watt zieht, ist das keine große Verbesserung.
Sieht für mich so aus, als ob das lediglich Prozessverbesserungen großteils sind.
Ailuros
2014-02-17, 19:01:23
Ne nicht die Boost, die Karte ohne Boost, da hab ich mich vertan.
Also die 650 Ti. Wird mit 110 watt angegeben und zieht etwa 70 Watt, oft auch weniger.
Wenn die 750 Ti gleichschnell wird und dann 55 Watt zieht, ist das keine große Verbesserung.
Sieht für mich so aus, als ob das lediglich Prozessverbesserungen großteils sind.
Und ich frag nochmal: verstehst Du fuer was TDP genau steht?
boxleitnerb
2014-02-17, 19:02:57
72W Realverbrauch bei der 650 Ti laut 3DC-Zusammenfassung der Tests. Bei 55W für die 750 Ti wären fast 25% weniger Saft - wie man das keine große Verbesserung nennen kann, erschließt sich mir nicht. Bei Bonaire haben sich alle gefreut, dass das Ding 28% schneller bei 17% mehr Verbrauch war als die HD 7770, was im Vergleich dann eine kleinere Verbesserung ist (Quelle ebenfalls 3DC-Index). Der Maßstab ist also so krumm, der bricht gleich durch...
dildo4u
2014-02-17, 19:03:13
Ne nicht die Boost, die Karte ohne Boost, da hab ich mich vertan.
Also die 650 Ti. Wird mit 110 watt angegeben und zieht etwa 70 Watt, oft auch weniger.
Wenn die 750 Ti gleichschnell wird und dann 55 Watt zieht, ist das keine große Verbesserung.
Sieht für mich so aus, als ob das lediglich Prozessverbesserungen großteils sind.
Für die 750Ti gibt bisher nur TDP angaben. ;) Real sinds vermutlich weit unter 55W.
Ailuros
2014-02-17, 19:04:41
Für die 750Ti gibt bisher nur TDP angaben. ;)
Will ja nicht bei Ihm sitzen und ich frage schon zum zweiten Mal die genau gleiche Frage.
Skysnake
2014-02-17, 19:50:51
Was könnte denn so ein etwas größerer L2-Cache bringen? Ich bin da wirklich überfragt. Caching-Effekte sind normalerweise sehr schön, nur kann ich mir die bei Grafikanwendungen, aufgrund der großen Datenmengen, schlecht vorstellen.
Kann da einer, er etwas mehr Einblick hat, ungefähr den Nutzen und die Vorteile erklären? Klar, Speicherzugriffe werden, wenn die Daten im Cache sind, vermieden, somit geringerer Stromverbrauch. Aber wie sieht es mit der Performance aus?
Das kann dir nie jemand sagen, weil es IMMER vom Problem abhängt.
Von 0% bis >100% ist im Prinzip alles dabei...
Schaffe89
2014-02-17, 19:55:10
Wieso sollte ich auf solche flapsigen Fragen überhaupt antworten?
Unnötige Bemerkung entfernt. Bitte sachlich bleiben.
Schlag TDP doch selbst nach und lass mich mit deinem Unsinn in Frieden.
72W Realverbrauch bei der 650 Ti laut 3DC-Zusammenfassung der Tests.
Was eine übertaktete Karte ist.
Bei Bonaire haben sich alle gefreut, dass das Ding 28% schneller bei 17% mehr Verbrauch war als die HD 7770, was im Vergleich dann eine kleinere Verbesserung ist (Quelle ebenfalls 3DC-Index). Der Maßstab ist also so krumm, der bricht gleich durch...
Tja ich hab mich nicht gefreut. Die R7 265 ist bei gleichem Verbrauch der 260x auch deutlich flotter.
Weil du mir ja einen Maßstab in den Mund legen willst, den ich nirgends so geäußert habe.
Nvidia pocht auf die verbesserte Effizienz und wie toll die doch ist.
Da darf man gerne ein bisschen die Erwartungen dämpfen, wenn an sich an sieht wie großzügig Nvidia mit ihrer TDP bei der GTX 650 Ti umgeht.
Aber scheinbar geht das einigen gewaltig an die Gurgel.
Das ist übrigens nichts anderes wie eine Feststellung, hängt euch drann auf, von mir aus.
Der Spieleverbrauch einer 650 Ti liegt etwa bei 65 Watt, wenn der Verbrauch der 750 Ti bei 50 watt liegt, respekt, so große Verbesserungen wie Nvidia ankündigt sind es aber nicht, da wird mit doppelter Effizienz rumgeschwurbelt.
boxleitnerb
2014-02-17, 20:04:38
Was eine übertaktete Karte ist.
Nein:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-650-ti
Nur die Karte bei TPU ist übertaktet, die hat Leo mit reingeworfen.
Tja ich hab mich nicht gefreut. Die R7 265 ist bei gleichem Verbrauch der 260x auch deutlich flotter.
Weil du mir ja einen Maßstab in den Mund legen willst, den ich nirgends so geäußert habe.
Nvidia pocht auf die verbesserte Effizienz und wie toll die doch ist.
Da darf man gerne ein bisschen die Erwartungen dämpfen, wenn an sich an sieht wie großzügig Nvidia mit ihrer TDP bei der GTX 650 Ti umgeht.
Aber scheinbar geht das einigen gewaltig an die Gurgel.
Das ist übrigens nichts anderes wie eine Feststellung, hängt euch drann auf, von mir aus.
Der Spieleverbrauch einer 650 Ti liegt etwa bei 65 Watt, wenn der Verbrauch der 750 Ti bei 50 watt liegt, respekt, so große Verbesserungen wie Nvidia ankündigt sind es aber nicht, da wird mit doppelter Effizienz rumgeschwurbelt.
Du warst auch damals unter denen die Bonaire besungen haben. Macht Nvidia bei Perf/W dasselbe und sogar noch größere Schritte, ist es nicht gut genug. Das ist das Messen mit zweierlei Maß, was ich ankreide. Positive Dinge kleinreden, nur weil es von Nvidia kommt, das ist genau was du machst.
Ailuros
2014-02-17, 20:05:05
Wieso sollte ich auf solche flapsigen Fragen überhaupt antworten?
Brauchst Du nicht wirklich aber ich dachte es ist hier eine oeffentliche Debatte.
Manche meinen ja wirklich sie haben die Weisheit mit Löffeln gefressen, besonders du Ailuros.
Schlag TDP doch selbst nach und lass mich mit deinem Unsinn in Frieden.
Brauch ich nicht deshalb fordere ich Dich schon zum dritten Mal darauf auf. Was ist wenn die 750Ti um einiges weniger unter Last als 60W verbraucht, welches bei 60W TDP auch das wahrscheinlichste ist? Haben wir irgendwelche ausfuehrliche tests von GM107 basierenden GPU wo der reale Stromverbrauch analysiert wird? Nein. Ergo ist es wohl eher angebraucht auf unabhaengige Messungen zu warten anstatt hier andere anzumaulen nur weil es nicht in Deine Vorstellung passen sollte.
Für die 750Ti gibt bisher nur TDP angaben. ;) Real sinds vermutlich weit unter 55W.
Also eigentlich agieren viele Kepler-Karten auch in Spielen (den "richtigen") sehr nahe an ihrer TDP. Das ist ja auch der Sinn des Powertargets: Man bewegt sich stets an der Grenze, Takt und Spannung sind stets so hoch wie innerhalb dieser Grenze möglich.
MfG,
Raff
Dawn on Titan
2014-02-17, 20:21:12
Also rund 70W real. Nicht umwerfend.
Schnitzl
2014-02-17, 20:29:20
(...)Haben wir irgendwelche ausfuehrliche tests von GM107 basierenden GPU wo der reale Stromverbrauch analysiert wird? Nein. Ergo ist es wohl eher angebraucht auf unabhaengige Messungen zu warten anstatt hier andere anzumaulen nur weil es nicht in Deine Vorstellung passen sollte.
Das ist richtig. Dennoch kann man eine Befürchtung äußern ;)
Karte 1: 120W TDP
Karte 2: 60W TDP
Wenn nun Karte 1 real nur 70W verbrät dann liegt die Vermutung nun mal nahe dass der Marketingsatz "doppelte Perf./W" auf die TDP zielt und nicht auf den real-Verbrauch.
Ich halte es für fast unmöglich dass Karte 2 real nur 35W verbraucht....eher 45 oder 50.
Anders gesagt:
Wie wahrscheinlich ist es, dass eine Grafikkartenfirma nach 16(!) Jahren und zig Gernerationen plötzlich bei einer Generation auf die nächste so einen Effizienz-Sprung hinlegt?
/EDIT: @ Dawn on Titan: lies Raffs Post nochmal ;)
P.S.: nicht damit man mich hier falsch versteht: ich würde bei gleicher Leistung und gleichem Fertigungsprozess die Absenkung von 70W auf 50W super finden ^^
matty2580
2014-02-17, 20:29:55
Wenn Nvidia wirklich die kleinst mögliche Einstellung für die TDP genommen hat, finde ich dass Ergebnis schon beeindruckend.
Extreme overclocking There is one key part that wasn’t covered yet. Because of extremely low TDP the clocks speeds suffered. NVIDIA had to choose the lowest possible clocks to obtain 60W. For that reason Maxwell GM107 GPU has extreme overclocking potential. In fact you will even find cards with 28% factory-overclocking.
Long story short, you will easily be able to obtain 1200 MHz clock, but only with the cards equipped with additional power connectors.
http://videocardz.com/49647/nvidia-geforce-gtx-750-ti-official-specifications-performance
Raff müsste mit dem Test eigentlich schon durch sein.
Stimmt die Behauptung von Videocardz? ^^
boxleitnerb
2014-02-17, 20:31:42
Das ist richtig. Dennoch kann man eine Befürchtung äußern ;)
Karte 1: 120W TDP
Karte 2: 60W TDP
Wenn nun Karte 1 real nur 70W verbrät dann liegt die Vermutung nun mal nahe dass der Marketingsatz "doppelte Perf./W" auf die TDP zielt und nicht auf den real-Verbrauch.
Ich halte es für fast unmöglich dass Karte 2 real nur 35W verbraucht....eher 45 oder 50.
Anders gesagt:
Wie wahrscheinlich ist es, dass eine Grafikkartenfirma nach 16(!) Jahren und zig Gernerationen plötzlich bei einer Generation auf die nächste so einen Effizienz-Sprung hinlegt?
Karte 2 muss auch nicht die Hälfte verbraten...wenn sie schneller ist. Dann darf sie je nach Speed auch z.B. 75% von der größeren Karte verbraten.
Ich würde mit einer Perf/W-Verbesserung im Vergleich zur 650 Ti von gut 80% rechnen, Abzug wegen dem üblichen Cherrypicking inklusive ;)
Timbaloo
2014-02-17, 20:35:39
Ist irgendwie witzig, dass die Spekulationen einen Tag vor Präsentation immer intensiver werden, aber irgendwie nie präziser :freak:
dildo4u
2014-02-17, 20:37:42
Also eigentlich agieren viele Kepler-Karten auch in Spielen (den "richtigen") sehr nahe an ihrer TDP. Das ist ja auch der Sinn des Powertargets: Man bewegt sich stets an der Grenze, Takt und Spannung sind stets so hoch wie innerhalb dieser Grenze möglich.
MfG,
Raff
Kommt auf die Karte an die 780TI scheint sogar über dem Limit zu liegen die 670/680 und Titan weit darunter.
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_ti_gk110_complete_review/index17.php
Schnitzl
2014-02-17, 20:44:36
Karte 2 muss auch nicht die Hälfte verbraten...wenn sie schneller ist. (...)
Bitte verkomplizier es nicht unnötig :freak:
Hiess es nicht sie wäre grob gleich schnell oder bring ich da was durcheinander?
Ailuros
2014-02-17, 20:44:36
Das ist richtig. Dennoch kann man eine Befürchtung äußern ;)
Karte 1: 120W TDP
Karte 2: 60W TDP
Wenn nun Karte 1 real nur 70W verbrät dann liegt die Vermutung nun mal nahe dass der Marketingsatz "doppelte Perf./W" auf die TDP zielt und nicht auf den real-Verbrauch.
Ich halte es für fast unmöglich dass Karte 2 real nur 35W verbraucht....eher 45 oder 50.
Anders gesagt:
Wie wahrscheinlich ist es, dass eine Grafikkartenfirma nach 16(!) Jahren und zig Gernerationen plötzlich bei einer Generation auf die nächste so einen Effizienz-Sprung hinlegt?
/EDIT: @ Dawn on Titan: lies Raffs Post nochmal ;)
P.S.: nicht damit man mich hier falsch versteht: ich würde bei gleicher Leistung und gleichem Fertigungsprozess die Absenkung von 70W auf 50W super finden ^^
Ohne eine volle Analyse von unabhaengigen Quellen wage ich noch keine Schlussvolgerung. Und es gibt einen gewaltigen Unterschied zwischen einer sachlichen Vorbehalte die auch ausfuehrlich erklaert wird als solche Reaktionen.
Selbstverstaendlich wird es viele Vergleiche geben, aber der eigentliche Aepfel gegen Aepfel Vergleich wird GK107 vs. GM107 sein.
boxleitnerb
2014-02-17, 20:51:56
Bitte verkomplizier es nicht unnötig :freak:
Hiess es nicht sie wäre grob gleich schnell oder bring ich da was durcheinander?
Ich spreche von der 650 Ti, nicht der 650 Ti Boost. Naja wir werden es morgen sehen :)
Es kommt sowieso immer drauf an, mit was man vergleicht. Die 650 Ti ist die effizienteste NV-Karte in diesem Leistungssegment soweit ich weiß, zumindest nach dem 3DC-Index und hat gute 10% höhere Perf/W als die 650 Ti Boost z.B.
Sunrise
2014-02-17, 20:56:55
Bitte verkomplizier es nicht unnötig :freak:
Hiess es nicht sie wäre grob gleich schnell oder bring ich da was durcheinander?
Es geht immernoch um Perf/Watt. Woher willst du wissen, wieviel real Performance vs. wieviel real Watt?
Gleichschnell oder halb soviel TDP - was bitte wollt ihr damit ohne eine Relation herzustellen?
Schnitzl
2014-02-17, 21:39:52
Ich sprach von einer Vermutung bzw. Befürchtung und einer Wahrscheinlichkeit.
nVidia ist numal sehr euphorisch was seine Produktvorstellungen angeht, die Erfahrung jedoch hat mich Skepsis gelehrt. =)
AnarchX
2014-02-17, 22:48:30
Der Spieleverbrauch einer 650 Ti liegt etwa bei 65 Watt, wenn der Verbrauch der 750 Ti bei 50 watt liegt, respekt, so große Verbesserungen wie Nvidia ankündigt sind es aber nicht, da wird mit doppelter Effizienz rumgeschwurbelt.
Auf Ebene der SMM/SMX, wo diese Aussage vermerkt wurde, kann das durchaus hinkommen. Mit vergleichbarem Speicher und PCB liegt der Vorteil wohl immer noch bei respektablen 40-50%.
Und bei der 650 Ti stellt sich die Frage ob da in der Realität vielleicht nicht ein paar deutlich schlechtere Karten unterwegs sind, die eben nicht so wenig wie die Review-Samples verbrauchen. Die 750 Ti hingegen garantiert 60W maximalen Verbrauch.
Schaffe89
2014-02-17, 22:52:15
Brauch ich nicht deshalb fordere ich Dich schon zum dritten Mal darauf auf. Was ist wenn die 750Ti um einiges weniger unter Last als 60W verbraucht, welches bei 60W TDP auch das wahrscheinlichste ist? Haben wir irgendwelche ausfuehrliche tests von GM107 basierenden GPU wo der reale Stromverbrauch analysiert wird? Nein. Ergo ist es wohl eher angebraucht auf unabhaengige Messungen zu warten anstatt hier andere anzumaulen nur weil es nicht in Deine Vorstellung passen sollte.
Brauch ich ebenso nicht, ich wüsste nicht welche Erkenntnisse das liefern sollte.
GTX 650 64 Watt TDP 56 Watt Verbrauch
GTX 650 Ti 110 Watt TDP 72 Watt Verbrauch
Und je nach Karte und Messung kann eine GTX 650 Ti auch mal nur 65 Watt oder gar 60 ziehen.
Und die Karte ist von 2012.
Und da meint ihr der große Sprung kommt wirklich von der neuen Maxwell Architektur, wenn eine gleichperformante Karte von Anno 2012 schon teisl in die Gefilde von 60 Watt kommt?
Aller wahrscheinlichkeit nach behält Nvidia das enge setzen der TDP bei den kleineren Karten bei und aus der angeblichen Effizienzverdopplung durch fehlerhafte Angabe der TDP wird dann großes Marketing aufgezogen.
Die 750 Ti hingegen garantiert 60W maximalen Verbrauch.
abwarten, ich wette es werden ca 55 Watt werden.
Hugo78
2014-02-17, 23:03:52
Ne nicht die Boost, die Karte ohne Boost, da hab ich mich vertan.
Also die 650 Ti. Wird mit 110 watt angegeben und zieht etwa 70 Watt, oft auch weniger.
Die 750Ti wird aber die 650Ti Boost ersetzen.
Und die Boost ist nochmal 42% schneller als die ohne Boost in 1080p 4xAA im CB Ranking.
- http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-650-ti-boost-im-test/3/
Ailuros
2014-02-17, 23:10:14
Brauch ich ebenso nicht, ich wüsste nicht welche Erkenntnisse das liefern sollte.
Mag sein dass Du sie nicht brauchst oder lesen willst. Die groesste Mehrheit hier aber schon und diese Mehrheit wird auch gerechterweise bis zu diesen abwarten um zu jeglichen Schlussvolgerungen zu kommen.
GTX 650 64 Watt TDP 56 Watt Verbrauch
GTX 650 Ti 110 Watt TDP 72 Watt Verbrauch
Und je nach Karte und Messung kann eine GTX 650 Ti auch mal nur 65 Watt oder gar 60 ziehen.
Und die Karte ist von 2012.
Und da meint ihr der große Sprung kommt wirklich von der neuen Maxwell Architektur, wenn eine gleichperformante Karte von Anno 2012 schon teisl in die Gefilde von 60 Watt kommt?
Es wird hier eine neue Architektur versucht zu analysieren basierend auf den paar verstreuten Daten die bis jetzt bekannt sind. Die bisher zugeschriebene Leistung der 750Ti soll zwischen der 650Ti und 650Ti boost liegen mit einem vergleichbarem TDP zur 650.
Die GTX650 hat 384SPs waehrend die 750Ti 640SPs hat, ist aber auch nicht Neues fuer die letzten Wochen. Mag sein dass Du keinen Unterschied siehst, aber meine technische Neugierde beruht erstmal herauszufinden was zum Henker sie genau angestellt haben.
Aller wahrscheinlichkeit nach behält Nvidia das enge setzen der TDP bei den kleineren Karten bei und aus der angeblichen Effizienzverdopplung durch fehlerhafte Angabe der TDP wird dann großes Marketing aufgezogen.
Du hast das Recht zu Deiner Vorbehalte, wir haben sie gelesen warten trotzdem die unabhaengigen reviews ab und die Diskussion wird weiter gehen auf eher technischer Basis da der echte Stromverbrauch in Echtzeit und das genaue Verhalten vom GM107 noch nicht bekannt ist.
Hübie
2014-02-18, 00:28:20
GTX 650 64 Watt TDP 56 Watt Verbrauch
GTX 650 Ti 110 Watt TDP 72 Watt Verbrauch
Was sind denn deine Quellen, Tr0ll89Schaffe89? Die Karte kommt auch gerne mal in die 80er-90er Regionen. Wenn du jetzt mal noch annimmst dass die Umgebung Energie an das Kühldesign abgibt bin ich froh dass selbst 110 Watt noch abgeführt werden können.
Denn das hat mal nicht viel damit zu tun was aus der Dose gezogen wird. Aber das weißt du natürlich alles. :freak:
Gipsel
2014-02-18, 00:30:37
Mir macht eher Sorgen dass Maxwell bis jetzt genauso lahmarschig fuer compute duftet wie Kepler :rolleyes:
Woher kommt die Annahme? Die superskalaren SIMD-Einheiten sind wohl verschwunden und der Cache pro Core ist auch gestiegen.Woher kommt Deine Annahme mit dem Verschwinden der "superskalaren" Einheiten (paßt eigentlich nicht bei Vektoralus)? Jeder Scheduler ist immer noch dual-issue, wie es aussieht (und wenn nV nicht mal wieder ihre Interpretation von dual-issue umkrempelt wie schon mal). Also da gibt es keine Änderungen.
@Ailuros:
Außer der Cachegeschichte kann jetzt jeder SMM wohl an doppelt so vielen Threadgroups arbeiten (könnte was bei Shadern mit relativ wenig Registernutzung bringen, das Limit durch die geringe Größe des shared memory wird mit Maxwell ja etwas angehoben). Außerdem könnten durch Split des L1-Caches und des shared memory auch insgesamt mehr Bandbreite zur Verfügung stehen. Also da wird sich vermutlich tatsächlich etwas tun, wieviel genau ist momentan noch unklar (ich erwarte keinen riesigen Sprünge [von Einzelfällen mal abgesehen], aber moderate und spürbare Verbesserungen).
Nakai
2014-02-18, 00:43:41
@Ailuros:
Außer der Cachegeschichte kann jetzt jeder SMM wohl an doppelt so vielen Threadgroups arbeiten (könnte was bei Shadern mit relativ wenig Registernutzung bringen, das Limit durch die geringe Größe des shared memory wird mit Maxwell ja etwas angehoben). Außerdem könnten durch Split des L1-Caches und des shared memory auch insgesamt mehr Bandbreite zur Verfügung stehen. Also da wird sich vermutlich tatsächlich etwas tun, wieviel genau ist momentan noch unklar (ich erwarte keinen riesigen Sprünge [von Einzelfällen mal abgesehen], aber moderate und spürbare Verbesserungen).
Bei dem "etwas" größere L2-Cache, sollte es hier und da auch etwas größere Sprünge geben.
@Stromverbrauchs-Monologe:
GM107 ist wohl unter 28HPM gefertigt, der größere L2-Cache könnte auch den ein oder anderen Speicherzugriff auf den RAM abfangen und die Architektur wurde etwas zusammengestrichen. Heißt, dass schon etwas größere Verbrauchsverbesserungen möglich sind. Ich würde aber nicht unbedingt sagen, dass wirklich alles architekturbedingt ist.
Ailuros
2014-02-18, 06:37:14
@Stromverbrauchs-Monologe:
GM107 ist wohl unter 28HPM gefertigt, der größere L2-Cache könnte auch den ein oder anderen Speicherzugriff auf den RAM abfangen und die Architektur wurde etwas zusammengestrichen. Heißt, dass schon etwas größere Verbrauchsverbesserungen möglich sind. Ich würde aber nicht unbedingt sagen, dass wirklich alles architekturbedingt ist.
Das "wohl" in diesem Fall dachte ich auch fuer Hawaii und am Ende war es doch 28HP. Selbst wenn es HPm ist, welches noch nicht gesichert ist, ist der Unterschied fuer dynamic power zu HP bei 12%.
Sind sie jetzt doch noch auf HP und der Unterschied zum GK107 ist im Schnitt um die 50%, koennen sie mit 20SoC dann wohl auch 80% Unterschiede erreichen.
Nach den ersten reviews sind wir hoffentlich etwas weisser. Mit dem Zeug hier natuerlich nicht: http://videocardz.com/49701/galaxy-geforce-gtx-750-ti-exposed-can-overclocked-1-35-ghz
-------------------------------------------------------------
Gipsel danke fuer den compute Abschnitt.
Schaffe89
2014-02-18, 08:07:23
Die 750Ti wird aber die 650Ti Boost ersetzen.
Und die Boost ist nochmal 42% schneller als die ohne Boost in 1080p 4xAA im CB Ranking.
Ja natürlich. Wie soll das denn bitte funktionieren? Schau auf die Specs, die Bandbreite bitte und erzähl nich sonen Quatsch.
Die hat gegen die Boost nicht den Hauch einer Chance.
Aber gut ich halte mich hier raus, scheinbar ist man ja ein Troll wenn man das feststellt.
Kapier halt nicht, warum eure Erwartungen so derart geschönt sind, neutrale sind wohl hier nicht gewünscht.
Die groesste Mehrheit hier aber schon und diese Mehrheit wird auch gerechterweise bis zu diesen abwarten um zu jeglichen Schlussvolgerungen zu kommen.
Ich warte genauso ab. Trotzdem wird eine Einschätzung erlaubt sein, macht Ihr doch genauso. ;) Jetzt über die TDP zu philosophieren bringt gar nichts.
Fakt ist einmal wurde die TDP eng gesetzt und einmal nicht.
Die 650 Ti würde mit der richtigen Spannung heute wohl auch mit 75 Watt TDP laufen, statt mit 110.
Ich zitiere mal boxleitnerb: "80% mehr Effizienz" im gleichen Node nur durch Architekturvorteile.
Ich komm aus dem Lachen nicht mehr heraus.
Nvidia bezieht sich nicht auf den realen Verbrauch, sondern auf die TDP, welche bei der 650 Ti falsch angegeben ist, weil zu hoch.
Die 650 klebt an ihrer TDP, mit ein bisschen stärkerer Belastung wird die wohl auch überschritten.
Wieso kann man das nicht einfach zur Kenntnis nehmen?
Was sind denn deine Quellen,
Guck im 3D Center, dann wirst du es finden, wurde hier schon verlinkt, sowie HT4U.
Nvidia vergleicht auch eine GT 640 mit DDR3 und 35 Watt Verbrauch ( siehe HT4U) ( welche wieder eine zu hohe TDP hat) mit der GTX 750 ti, welche ganz offensichtlich völlig an ihrer TDP klebt und da keinen Spielraum hat.
Für mich steht fest Nvidia redet sich mehr als die Hälfte an verbesserter Leistung Watt durch schlichtes Lügen/Marketing herbei.
Hugo78
2014-02-18, 08:28:06
Im letzten Zitat, das bin nicht ich ...^^
Ja natürlich. Wie soll das denn bitte funktionieren? Schau auf die Specs, die Bandbreite bitte und erzähl nich sonen Quatsch.
Hmm... dann zaubert Nvidia wohl mit Dawns Feenstaub.
In jedem Fall gibt es ja schon erste Werte vom user iRush im overclock.net Forum.
- http://www.overclock.net/t/1464898/guru3d-nvidia-geforce-gtx-750-750-ti-benchmarks-surface-in-the-uk/170
Jemand anders hat das mal in Relation zu seinen Werten gesetzt.
2% faster then my backup 650 Ti boost
http://www.3dmark.com/fs/1372036
And a good 10% slower then my old 660
http://www.3dmark.com/fs/460114
21% slower then a stock 760
http://www.3dmark.com/fs/1397208
http://www.overclock.net/t/1464898/guru3d-nvidia-geforce-gtx-750-750-ti-benchmarks-surface-in-the-uk/230#post_21799689
-/\-CruNcher-/\-
2014-02-18, 09:08:04
@-/\-CruNcher-/\-: Falls du auf den Kosten/Nutzen Spirit aus den Duron Zeiten anspielst, ja, der ist hinüber.
Es steht dir aber immer noch frei eine z.B. OEM 750 Ti entsprechend zu modifizieren und damit das Partnerdesign taktseitig zu schlagen. In das Powerboard investiert man einmalig und übernimmt es dann für sämtliche weiteren Karten. Du brauchst halt etwas technisches KnowHow.
Das bedeutet aber erstmal du musst das Bios knacken und an den ganzen Treiber checks vorbei, nicht wie früher einfach den schieber nach vorne schieben den Turbo knopf drücken oder die jumper umsetzen, ansonsten bekommst du nur das was sie für dich vorgesehen haben, schau dir Nvidias Software Protection system an um alles mögliche zu schützen ;)
Natürlich ist es nicht nur aus reiner profitgier die Hardware wird halt schlauer und managed sich selbst dieses "Gehirn" ausser kraft zu setzen birgt natürlich gefahren, aber damals wurde es nicht geschützt und obliegte dem user die Hardware zu zerstören, dieses risiko will man heute nicht mehr eingehen und verkauft den usern das overclocking lieber gegen bares ;)
Und nicht nur die Hardware wird schlauer schau dir Windows NT6 an inzwischen analysiert es sich teils selbst aber anderes Thema :)
So lange man selber die Spannung verstellen kann gibt es noch OC. Nicht mehr so wie früher aber für mich ist das noch OC. Die IHVs schneiden sich von dem Potential was halt ab und vergolden es sich
Die Spannungsverstellung bekommst du ja aber auch bereits zugesichert in verschiedenen Versionen gegen bares :)
Naja wie gesagt man darf es nicht nur rein aus dem einen Winkel betrachten es ist wie mit DRM es wurde eben auch machbar den user an seine Platform und Hardware zu binden und die Versuchung ist da natürlich groß gewesen ;)
Genauso wie Intel am CPU Upgrage über die Firmware Geforscht hat (Software Vertriebs Model) es wurde halt machbar und ist an sich ja auch etwas gutes für die Zukunft wenn wir so resourcen sparen können :)
Skysnake
2014-02-18, 09:24:06
@Ailuros:
Außer der Cachegeschichte kann jetzt jeder SMM wohl an doppelt so vielen Threadgroups arbeiten (könnte was bei Shadern mit relativ wenig Registernutzung bringen, das Limit durch die geringe Größe des shared memory wird mit Maxwell ja etwas angehoben). Außerdem könnten durch Split des L1-Caches und des shared memory auch insgesamt mehr Bandbreite zur Verfügung stehen. Also da wird sich vermutlich tatsächlich etwas tun, wieviel genau ist momentan noch unklar (ich erwarte keinen riesigen Sprünge [von Einzelfällen mal abgesehen], aber moderate und spürbare Verbesserungen).
Bringt dir aber auch nur was, wenn du überhaupt mehr Threads gleichzeitig laufen lassen kannst. Ist halt die Frage, ob die 1024Thread/SM Limitierung gleich bleibt oder sich verändert.
Mehr wären echt schön.
Loeschzwerg
2014-02-18, 09:47:59
Das bedeutet aber erstmal du musst das Bios knacken und an den ganzen Treiber checks vorbei, nicht wie früher einfach den schieber nach vorne schieben den Turbo knopf drücken oder die jumper umsetzen, ansonsten bekommst du nur das was sie für dich vorgesehen haben ;)
Natürlich ist es nicht nur aus reiner profitgier die Hardware wird halt schlauer und managed sich selbst dieses "Gehirn" ausser kraft zu setzen birgt natürlich gefahren, aber damals wurde es nicht geschützt und obliegte dem user die Hardware zu zerstören, dieses risiko will man heute nicht mehr eingehen und verkauft den usern das overclocking lieber gegen bares ;)
Und nicht nur die Hardware wird schlauer schau dir Windows NT6 an inzwischen analysiert es sich teils selbst aber anderes Thema :)
Ja stimmt, die Skills verschieben sich halt immer weiter und gerade in Richtung SW. Boost und Co sind für mich eh die Pestilenz... zum Glück gab es den Kepler Bios Editor.
Bin gespannt wie das bei Maxwell wird, aber ich denke da kommt ebenfalls schnell entsprechende Software. (Bei AMD siehts da mau aus...)
Ailuros
2014-02-18, 09:59:39
Ja natürlich. Wie soll das denn bitte funktionieren? Schau auf die Specs, die Bandbreite bitte und erzähl nich sonen Quatsch.
Die hat gegen die Boost nicht den Hauch einer Chance.
Aber gut ich halte mich hier raus, scheinbar ist man ja ein Troll wenn man das feststellt.
Kapier halt nicht, warum eure Erwartungen so derart geschönt sind, neutrale sind wohl hier nicht gewünscht.
Du wirst wohl aber auch wirklich der einzige hier sein der sich selber als neutral betrachtet; eher das brutale Gegenteil.
Ich schau auf die Bandbreite, weiss noch nicht ob Maxwell mit der vorhandenen Bandbreite effizienter vorgeht und warte auch hier die reviews ab.
Ich warte genauso ab. Trotzdem wird eine Einschätzung erlaubt sein, macht Ihr doch genauso. ;) Jetzt über die TDP zu philosophieren bringt gar nichts.
Nur wenn wir es machen haben wir auch zumindest zumindest 2 Mal verifizierte Quellen dafuer. Es wird hier nicht philosophiert; es geht eher um Deine persoenlichen Interessen die eben auch verdammt OT sind. Es dauert nur Stunden bis die reviews online sind.
Fakt ist einmal wurde die TDP eng gesetzt und einmal nicht.
Die 650 Ti würde mit der richtigen Spannung heute wohl auch mit 75 Watt TDP laufen, statt mit 110.
Es gibt diesbezueglich noch keine standfeste Fakten ohne unabhaengige Messungen.
Ich zitiere mal boxleitnerb: "80% mehr Effizienz" im gleichen Node nur durch Architekturvorteile.
Ich komm aus dem Lachen nicht mehr heraus.
Mal sehen wer am Ende lachen wird. Ich wart persoenlich lieber ab.
Nvidia bezieht sich nicht auf den realen Verbrauch, sondern auf die TDP, welche bei der 650 Ti falsch angegeben ist, weil zu hoch.
Die 650 klebt an ihrer TDP, mit ein bisschen stärkerer Belastung wird die wohl auch überschritten.
Wieso kann man das nicht einfach zur Kenntnis nehmen?
Weil wir vielleicht eine ganz andere Perspektive zum Thema haben? In den Hals ohne standfeste Beweisse wirst Du keinem etwas wuergen koennen.
Das einzige was ich momentan wirklich zur Kenntnis nehme ist dass Du mit Deinem "Bauchgefuehl" serioeseren Anteilen der Debatte von Gipsel, Coda, Skysnake und co. stehst und wir ueber dieses unnoetig Bandbreite verschwenden muessen.
Hier heisst es EOD fuer jetzt und es geht erst dann weiter im GPU Forum wenn die reviews draussen sind, und ja ich pack es nicht in modtext ein aber es ist so gemeint diesmal weil irgendwann irgendwer mal einen Strich ziehen muss.
-/\-CruNcher-/\-
2014-02-18, 10:00:42
Ja stimmt, die Skills verschieben sich halt immer weiter und gerade in Richtung SW. Boost und Co sind für mich eh die Pestilenz... zum Glück gab es den Kepler Bios Editor.
Bin gespannt wie das bei Maxwell wird, aber ich denke da kommt ebenfalls schnell entsprechende Software. (Bei AMD siehts da mau aus...)
Die Schutzsysteme und checks entwickeln sich auch weiter der Aufwand wird immer höher sie zu brechen, was wiederum auch 2 seiten hat.
@Ailuros
seh ich genauso wir brauchen Daten und zwar einen haufen Daten :)
Übrigens brauch man kein semiaccurate zu sein um zu wissen das Nvidia die 860 GTX irgendwan Q2 präsentieren wird aller verrausicht aber in 28 nm an die 20 nm glaub ich noch nicht so recht, allerdings überrascht mich diese Entscheidung für dieses Jahr, hätte eine agressivere release Politik gegen AMD erwartet diesmal :)
Skysnake
2014-02-18, 10:17:33
/sign
Was aber GANZ allgemein festzuhalten ist, ist die Tatsache, das man durch Cache-Bandbreite anfälliger für Leistungseinbrüche ist als durch RAM-Bandbreite.
RAM-Bandbreite ist quasi der Hubraum von Motoren, einfach durch nichts zu ersetzen als mehr davon ;)
Man muss also mehrere Benchmarks usw vergleichen, um da wirklich aussagen drüber treffen zu können, wie sich der große L2 am Ende auswirkt.
Vor allem kann es sehr großen Einfluss haben, wieviele unterschiedliche Texturen man gleichzeitig zu sehen bekommt...
Man kann echt gute FPS haben, weil der "große" L2 halt noch ausreicht, aber irgendwann wirds halt zuviel und man fällt richtig hart auf die Schnauze, weil einfach recht wenig RAM-Bandbreite da ist.
Um es kurz zu machen, was ich damit sagen will ist, man sollte einen verstärkten Blick auf die Min-FPS haben. Die könnten nämlich trotz besserer Avg FPS im Vergleich zur Konkurrenz eben schlechter sein.
-/\-CruNcher-/\-
2014-02-18, 10:42:55
@Schnitzl
Wenn ich mit Tegra über Jahre so einen haufen Geld verbrenne möchte ich aus dem ULP Research auch was mitnehmen und das haben sie anscheinend, es wird sich halt Zeigen wie Konkurenzfähig dieses gewesen ist gegen AMD und vor allem in wie weit sich ihre Consumer Compute Leistung verbessert hat gegenüber AMD ;)
Wenn ich da in den Marketing slides sehe wie groß die 750 TI mit 4K beworben wird dann weiss ich nicht was ich sagen soll am liebsten würd ich los weinen
N0Thing
2014-02-18, 13:01:15
Ich warte genauso ab. Trotzdem wird eine Einschätzung erlaubt sein, macht Ihr doch genauso. ;) Jetzt über die TDP zu philosophieren bringt gar nichts.
Fakt ist einmal wurde die TDP eng gesetzt und einmal nicht.
Die 650 Ti würde mit der richtigen Spannung heute wohl auch mit 75 Watt TDP laufen, statt mit 110.
Ich zitiere mal boxleitnerb: "80% mehr Effizienz" im gleichen Node nur durch Architekturvorteile.
Ich komm aus dem Lachen nicht mehr heraus.
Nvidia bezieht sich nicht auf den realen Verbrauch, sondern auf die TDP, welche bei der 650 Ti falsch angegeben ist, weil zu hoch.
Die 650 klebt an ihrer TDP, mit ein bisschen stärkerer Belastung wird die wohl auch überschritten.
Ich bin auch mal gespannt, ob der gute Eindruck, der durch die geleakten Benchmarks bei mir entstanden ist, auch am Ende durch Reviews Bestätigung findet. Ich kann mir gut vorstellen, daß ein Teil der Verbesserungen durch unrealistische TDP-Angaben herrührt.
Eine deutliche Verbesserung erwarte ich aber in jedem Fall, sonst hätte sich Nvidia den neuen Chip ja sparen können.
Gaestle
2014-02-18, 13:25:51
Milchmädchen:
GM204 ausgehend von GM107.
GM107 ~ 145mm²
GM107 in 20nm ~90mm²
GM204 bei 250~300mm²
GM107 in 20nm könnte, wenn Redundanzen außen vor gelassen werden, 4mal in GM204 reinpassen.
->2560SPs für GM204
Da 128SPs bei Maxwell so effizient wie 192SPs bei Kepler sind -> GM204 = ~GK110+33% bei Performance
Warum wird GM204 immer nur in 20nm gedacht?
GK110 soll 550mm² in 28nm sein.
4 x GM107 in 28nm wären (wenn die 145mm² für GM107 stimmen) ca. 580mm², und wenn man bestimmte Dinge eben nicht stumpf vervierfachen muss, kommt man vielleicht auch bei GM204 unter 28nm auf 550mm².
Wenn die vermuteten Effizienzsteigerung in Sachen perf/W stimmen sollten, wäre so ein großes DIE mit der ensprechenden Leistung sicherlich auch mit maximal 250 TDP zu betreiben (das wäre dann auch ca. 4x GM107, eventuell sogar weniger, wenn Perf/W mit zunehmender Chipgröße steigt).
Und wenn GM204 in 28nm realisierbar wäre, dann könnte GM204 auch noch vor Q4/2014 kommen.
Godmode
2014-02-18, 13:46:09
Wann gibts die Reviews, 15:00?
Thunder99
2014-02-18, 14:16:34
Warum wird GM204 immer nur in 20nm gedacht?
GK110 soll 550mm² in 28nm sein.
4 x GM107 in 28nm wären (wenn die 145mm² für GM107 stimmen) ca. 580mm², und wenn man bestimmte Dinge eben nicht stumpf vervierfachen muss, kommt man vielleicht auch bei GM204 unter 28nm auf 550mm².
Wenn die vermuteten Effizienzsteigerung in Sachen perf/W stimmen sollten, wäre so ein großes DIE mit der ensprechenden Leistung sicherlich auch mit maximal 250 TDP zu betreiben (das wäre dann auch ca. 4x GM107, eventuell sogar weniger, wenn Perf/W mit zunehmender Chipgröße steigt).
Und wenn GM204 in 28nm realisierbar wäre, dann könnte GM204 auch noch vor Q4/2014 kommen.
Wenn die Infos stimmen sollten dann ist alleine wegen der 2 davon auszugehen das dieser ein 20nm Chip ist. Außerdem ist nvidia ja nicht in Zugzwang durch den guten GK110
fondness
2014-02-18, 14:17:00
Wenn es noch Zweifel an Maxwell gab, aus dem Release Notes des NV-Treibers:
GeForce 700 Series
[GeForce GTX 750(Ti)][Assassin's Creed IV Black Flag]: The game does not use GPU PhysX acceleration on Maxwell GPUs.
A game patch that resolves this issue will be available from Ubisoft in March.
[GeForce GTX 750(Ti)][Warframe]: The game does not use GPU PhysX acceleration on Maxwell GPUs.
http://us.download.nvidia.com/Windows/334.89/334.89-win8-win7-winvista-desktop-release-notes.pdf
Gaestle
2014-02-18, 14:33:02
Wenn die Infos stimmen sollten dann ist alleine wegen der 2 davon auszugehen das dieser ein 20nm Chip ist. Außerdem ist nvidia ja nicht in Zugzwang durch den guten GK110
Wie kommst Du darauf, dass der Prozess in der Chipbezeichnung vercodet ist?
Ja, GK110 läuft, aber was, wenn GM204 in 28nm durch Anpassungen im Design bessere Yields als GK110 ermöglicht?
-/\-CruNcher-/\-
2014-02-18, 14:36:07
Wenn es noch Zweifel an Maxwell gab, aus dem Release Notes des NV-Treibers:
http://us.download.nvidia.com/Windows/334.89/334.89-win8-win7-winvista-desktop-release-notes.pdf
Also müssen die kernel angepasst werden oder aber der CUDA 6 part bedarf Anpassungen, wie gesagt The Witcher 3 wird am interessantesten :)
Verdammt interessant das nur Warframe und AC4 angepasst werden müssen, die anderen Titel sollen alle ohne Probleme laufen ?
Ich vermute auch dass GK2xx für die 20nm Chips steht (nicht weil die Zahl 2 übereinstimmt).
Also müssen die kernel angepasst werden :)
Nein, das Spiel detektiert vermutlich idiotischerweise GPUs nach PCI ID. Die Kernel sind in der PhysX-Runtime, davon sieht die Applikation überhaupt nichts.
fondness
2014-02-18, 14:37:54
Ja, GK110 läuft, aber was, wenn GM204 in 28nm durch Anpassungen im Design bessere Yields als GK110 ermöglicht?
Dann würde man IMO keine Titan Black mehr bringen. Die Karte sollte Minimum ein Jahr auch das Top-Modell darstellen. Möglich natürlich das GM204 erst 2015 kommt in 20nm.
Timbaloo
2014-02-18, 14:38:52
Ja, GK110 läuft, aber was, wenn GM204 in 28nm durch Anpassungen im Design bessere Yields als GK110 ermöglicht?
Wird man GK110 trotzdem nicht (vollständig) durch GM204 ersetzen können -> DP, allgemein HPC-Zeugs.
Thunder99
2014-02-18, 14:40:51
Wie kommst Du darauf, dass der Prozess in der Chipbezeichnung vercodet ist?
Ja, GK110 läuft, aber was, wenn GM204 in 28nm durch Anpassungen im Design bessere Yields als GK110 ermöglicht?
Nur Spekulatius :) Codenamen sollen ja einen Sinn ergeben und da bietet es sich ja an. GK208 war zwar auch anders aber :redface:
AnarchX
2014-02-18, 14:41:01
Dann würde man IMO keine Titan Black mehr bringen. Die Karte sollte Minimum ein Jahr auch das Top-Modell darstellen. Möglich natürlich das GM204 erst 2015 kommt.
Titan Black steht eher etwas außerhalb des normalen GeForce Portfolios.
Denkbar ist auch das GM104 nicht eine solche DP-Leistung erreicht bzw. nur 4-5GiB 256-Bit/320-Bit bietet.
Ansonsten steht ja auch noch der mysteriöse GK210 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10110716#post10110716)im Raum.
-/\-CruNcher-/\-
2014-02-18, 14:47:39
Ich vermute auch dass GK2xx für die 20nm Chips steht (nicht weil die Zahl 2 übereinstimmt).
Nein, das Spiel detektiert vermutlich idiotischerweise GPUs nach PCI ID. Die Kernel sind in der PhysX-Runtime, davon sieht die Applikation überhaupt nichts.
Ah Ok dann wird das wohl bei AC4 und Warframe der fall sein lol und das passiert Ubisoft naja, wie funktioniert eigentlich eure GPGPU unterstützung momentan denke mal angepasst auf jeden IHV und ihr müsst dann Kernel umbauen oder nutzt ihr auch Physix Runtime Direkt und oder verweist eure Kunden direkt zu GameWorks ? ;)
Denke aber mal die Frage wirst du eh nicht beantworten da Geschäfts und R&Dblabla, versuchen kann man es ja, vieleicht eine Antwort in betracht auf euren own next Title in the Works währe sicher nicht sooooo kritisch ;)
Mandalore
2014-02-18, 15:42:11
Kann es sein, dass Nvidia mit Maxwell 1.0 etliches zurückhält, und damit nur das Grundgerüst testet? Ja klar, es fehlen Denver und UVM, aber was ist mit diesen damaligen Ankündigungen von Jen-Hsuan persönlich, dass Maxwell auch in Sachen Bildqualität einen großen Schritt nach vorne machen wird?
2 von 3 Versprechungen hat er ja eingehalten.
http://www.xbitlabs.com/news/graphics/display/20131223235036_Nvidia_to_Start_Rolling_Out_GeForce_8_Series_Graphics_Processors_ in_February.html
Bei dem Artikel stehts mit der BQ, was ich gemeint habe (Unter dem Bild von der GPU Roadmap)
Schaffe89
2014-02-18, 16:21:25
Du wirst wohl aber auch wirklich der einzige hier sein der sich selber als neutral betrachtet; eher das brutale Gegenteil.
Ja, ich bin der riesen Basher.
Schau dir die Ergebnisse an und gib Ruhe ;).
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/
69 Watt Leistungsaufnahme, rspektive 65 Watt bei 60 Watt TDP!!
Damit zieht man bis auf 5 Watt genausoviel wie die 650 Ti und ist 20 bis 25% schneller.
Das sieht nach einer rund 30 bis 35 % verbesserten Performance pro Watt aus.
Gut, aber doch weit von den 80% die boxleitnerb geschätzt hat. :D
boxleitnerb
2014-02-18, 17:03:37
Ja, ich bin der riesen Basher.
Schau dir die Ergebnisse an und gib Ruhe ;).
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/
69 Watt Leistungsaufnahme, rspektive 65 Watt bei 60 Watt TDP!!
Damit zieht man bis auf 5 Watt genausoviel wie die 650 Ti und ist 20 bis 25% schneller.
Das sieht nach einer rund 30 bis 35 % verbesserten Performance pro Watt aus.
Gut, aber doch weit von den 80% die boxleitnerb geschätzt hat. :D
Gut dass du die anderen Ergebnisse ignorierst...
fondness
2014-02-18, 17:06:43
Ist halt immer auch die Frage wie man vergleicht. Die getestete 750Ti hat auch eine sehr niedrige Kerntemperatur. Bei der 650Ti wird quer durch den Gemüsengarten verglichen. Außerdem hängt es natürlich auch an der Anwendung, die Architekturen sind schließlich nicht mehr gleich.
Blediator16
2014-02-18, 17:16:49
Dass eine brandaktuelle Karte weniger verbraucht als die alte ist klar. Die 265 kann man zum Vergleich nehmen, ist aber irgendwie quatsch. Das ist im Grunde scheinbar noch eine alte Karte unter neuem Namen. Die Frage wird sein wie gut es nach oben skaliert und wann AMD kontert. Ich denke nicht, dass AMD auf dem falschen Fuss erwischt wurde, schließlich sind die alten Karten schon lange genug draussen und Zeit zum verbessern sollten sie wohl lang genug gehabt haben.
Schaffe89
2014-02-18, 17:18:15
Gut dass du die anderen Ergebnisse ignorierst...
Und du pickst dir die besten raus oder wie?
Ich halte halt PCGH meistens für die Referenz, deswegen guck ich da zuerst.
Duplex
2014-02-18, 17:23:54
Man sollte erstmal abwarten wann GCN 2.0 aka Pirate Islands kommen wird, dann wird es bzgl. der Effizienz interessant wer mehr P/W hat, natürlich hat Nvidia gute Arbeit mit Maxwell geleistet, ich denke aber das ist nur der Anfang.
boxleitnerb
2014-02-18, 17:25:35
Und du pickst dir die besten raus oder wie?
Ich halte halt PCGH meistens für die Referenz, deswegen guck ich da zuerst.
Ich dachte das wäre für dich ht4u? Mein wert kommt immerhin von 2 bzw 3 seiten (cb liegt ähnlich wobei durch gesamtsystemmessungen schwieriger beurteilbar), und ich bin sicher dass auch Hardware.fr in dieselbe richtung gehen wird. Aber rede es nur weiter klein, nichts anderes erwarte ich
Blediator16
2014-02-18, 17:27:36
Jetzt streiten sie schon wegen einer Lowrange Karte :D
matty2580
2014-02-18, 17:29:13
Die Effizienzsteigerung ist doch definitiv da.
Bei den meisten Test im Durchschnitt ~40%.
Das ist doch kein schlechtes Ergebnis für die erste Maxwell Karte.
Duplex
2014-02-18, 17:30:04
Das ist ein Super Ergebnis weil gleicher Prozess!
fondness
2014-02-18, 17:37:56
Es sollte auch den Zweiflern zeigen wie wichtig das Design für die Perf/Watt ist. Als ich an dieser Stelle vor ca. einem Jahr die Bedeutung des Chip-Designs hervor hob wurde ich hier noch ziemlich kritisch beeugt. Kaum jemand glaubte daran, dass solche Effizienzverbesserungen ohne neuen Prozess machbar sind.
-/\-CruNcher-/\-
2014-02-18, 17:38:12
Und du pickst dir die besten raus oder wie?
Ich halte halt PCGH meistens für die Referenz, deswegen guck ich da zuerst.
Wie bitte die Daten sind ja lächerlich und das Interview mit Tom Petersen hat wie erwartet auch rein garnix neues gebracht
Ailuros
2014-02-18, 17:39:29
Ja, ich bin der riesen Basher.
Schau dir die Ergebnisse an und gib Ruhe ;).
Werde ich eben nicht, weil Du leider in Deiner verdrehten Realitaet alleine weiterleben musst. Und um es klar zu machen ich hatte gerade erst Zeit den ersten review zu lesen bei hardware.fr und ich bin ziemlich froh dass ich das lesen musste was ich innerhalb von Grenzen verdaechtigt habe. Und ich komm auch darauf zurueck
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/
69 Watt Leistungsaufnahme, rspektive 65 Watt bei 60 Watt TDP!!
Damit zieht man bis auf 5 Watt genausoviel wie die 650 Ti und ist 20 bis 25% schneller.
Das sieht nach einer rund 30 bis 35 % verbesserten Performance pro Watt aus.
Gut, aber doch weit von den 80% die boxleitnerb geschätzt hat. :D
Ja sicher weil Du nach wie vor darauf bestehst GK106 mit GM107 zu vergleichen.
Hier ein paar Punkte aus der verkorksten maschinellen Uebersetzung von Damien's review:
This presentation of things is not however completely correct. More than of a technical reality, it is in fact about a simplified, easy technical history to be sold and prepared by marketing to decorate the different articles, what risks misleading many journalists.
Reality differs and more complex. SMX of GPU KEPLER is already partitionnés in 4 as GPU Maxwell, main difference at this level being to search on the side of resources that these partitions share by pairs. To represent it, we changed diagrammes of architecture of Nvidia in order to get closer to reality, at best to our knowledge of different architectures:
So when Nvidia announces an output by "Cur" up 35 %, it does not mean that main units of calculation were improved, but that this badly used block was abolished. As a result SMM distinctly smaller than SMX during heavy tasks in calculation, its performances are very close, in the order of 90 % according to Nvidia. Of course, in game, when the texturing takes more importance, this new SMM will be able to be led to content itself with 50 % performances of SMX.
So weit so gut, aber hier kommt das wichtigste:
The GPU GM107 includes all 5 SMM regrouped in an only GPC. It implicates a debit limited to 1 triangle returned by cycle but allows to simplify at the farthest the cloth of intercommunication, as it was made on Tegra K1.
Kurz man hat u.a. am interdie connect heftig geschnipselt was wohl andeuten koennte dass es tatsaechlich aus rein technischen Gruenden keinen weiteren Maxwell unter 28nm geben wird.
The reference card is at least compact. She contents herself with TDP of 60W (in practice he is rather of 65W, Nvidia forgetting to count the 3.3V), what allows him to go without connector cable of feeding.
Gott dann sind es erstmal 5W mehr TDP in dem Bereich ist es so wurscht wie es nur geht. Sonst gibt es in den paar reviews in den ich nachgeschlagen habe Verbrauchsvergleiche zwischen GM107 und GK107 aber keine Leistungsvergleiche zwischen den beiden sondern GM107 zu GK106.
Der Titel von PCGH Artikel muss NV wohl ziemlich fett Kohle gekostet haben und auch Resultate wie das hier:
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/9/
Aber es gibt sowieso keine Hoffnung dass wir uns je einig werden. Reite Du gerne auf den 65/69 was auch immer Hirgespinsten weiter waehrend wir hier weiterhin versuchen werden die gesamte Architektur und ihre Aenderungen so gut wie moeglich zu analysieren.
Screemer
2014-02-18, 17:42:24
hp und hpm ist schon was anderes. bin mir ziemlich sicher das es hpm ist. wird dich zeigen, was das mit großen chips wird. muss allerdings auch sagen, dass mich die Steigerung echt überrascht.
Botcruscher
2014-02-18, 17:42:57
Das ist ein Super Ergebnis weil gleicher Prozess!
Ist er es denn? Zu HPM steht da noch immer nichts konkretes.
Skysnake
2014-02-18, 17:45:57
Naja, man muss aber auch schauen, wie Sie das erreicht haben.
Den riesen L2 Cache sollte man da wirklich nicht untern Tisch fallen lassen. Genau wie der Umstieg auf ein schöneres SM Design.
Das Clockgating haben Sie laut CB auch deutlich verbessert, und gerade da lässt sich richtig viel Energie sparen, die Implementierung ist aber auch nicht wirklich so einfach!
Was allerdings noch gar nicht erwähnt wurde von euch sind drei Punkte:
1. Kein Unified (Virtual) Memory.
Schon lustig, dass da plötzlich ein Virtual dazu gekommen ist.... nVidia hat da wohl endlich die Hosen runter gelassen... Denn genau das ist es. Ein virtueller Unified Memory, und damit praktisch nur eine Vereinfachung für den Entwickler....
Dennoch überrascht es, dass der Chip das gar nicht unterstützen soll. Immerhin hies es auf der SC, dass das Feature auch Kepler bekommen soll, aber Maxwell halt noch SecretSouce in Hardware dazubekommen soll... Damit kann man dann wohl den Keplersupport komplett in die Tonne treten, aber wenns eh nur Software ist, kann man sichs eigentlich auch eh sparen. Fragt sich nur, was da an Hardware kommen soll. Ich versprech mir da wirklich nicht mehr viel...
2. von CB
Eine abschließend durchaus überraschende Nachricht gibt es bezüglich der APIs. Dort hat sich nichts getan, sodass Maxwell genau wie Kepler nur DirectX 11.2 mit dem Feature Level 11.0 vollständig unterstützt – und damit im Endeffekt nur DirectX 11.0.
LOL! Das ist nicht wirklich ihr Ernst :ugly:
Wenn Maxwell jetzt kein DX11.2 bekommt, dann wird das mit Maxwell wahrscheinlich gar nichts mehr... Zumindest befürchte ich das.
3. auch von CB
Auch fehlt der GPU aktuell die Kompatibilität zu HDMI 2.0. Das liegt laut Nvidia daran, dass der Standard zu kurzfristig fertiggestellt worden ist.
Na TOLL!....
Gerade die kleinen Karten sind ja für HTPCs wie geschaffen. Jetzt haben die aber nicht mal HDMI2.0....
Es wäre ja voll auf ok gewesen, wenn der offizielle Support erst später nachgereicht wird, aber so wies aussieht kommt da gar nichts.... Als ob man die Entwicklung nicht hätte vorhersehen können.... Man sitzt ja nicht in den entsprechenden Gremien mit drin :facepalm:
Ailuros
2014-02-18, 18:00:41
hp und hpm ist schon was anderes. bin mir ziemlich sicher das es hpm ist. wird dich zeigen, was das mit großen chips wird. muss allerdings auch sagen, dass mich die Steigerung echt überrascht.
Wieso lese ich dann gerade dass GM107 auf 28HP hergestellt wurde?
1. Kein Unified (Virtual) Memory.
Schon lustig, dass da plötzlich ein Virtual dazu gekommen ist.... nVidia hat da wohl endlich die Hosen runter gelassen... Denn genau das ist es. Ein virtueller Unified Memory, und damit praktisch nur eine Vereinfachung für den Entwickler....
Dennoch überrascht es, dass der Chip das gar nicht unterstützen soll. Immerhin hies es auf der SC, dass das Feature auch Kepler bekommen soll, aber Maxwell halt noch SecretSouce in Hardware dazubekommen soll... Damit kann man dann wohl den Keplersupport komplett in die Tonne treten, aber wenns eh nur Software ist, kann man sichs eigentlich auch eh sparen. Fragt sich nur, was da an Hardware kommen soll. Ich versprech mir da wirklich nicht mehr viel...
2. von CB
LOL! Das ist nicht wirklich ihr Ernst :ugly:
Wenn Maxwell jetzt kein DX11.2 bekommt, dann wird das mit Maxwell wahrscheinlich gar nichts mehr... Zumindest befürchte ich das.
3. auch von CB
Na TOLL!....
Gerade die kleinen Karten sind ja für HTPCs wie geschaffen. Jetzt haben die aber nicht mal HDMI2.0....
Es wäre ja voll auf ok gewesen, wenn der offizielle Support erst später nachgereicht wird, aber so wies aussieht kommt da gar nichts.... Als ob man die Entwicklung nicht hätte vorhersehen können.... Man sitzt ja nicht in den entsprechenden Gremien mit drin :facepalm:
Wenn auf Maxwell 11.2 fehlt dann wird wohl auch die GK20A@K1 kein 11.2 haben. Eine Entschuldigung fuer desktop fuer fehlendes 11.2 und HDMI2.0 gibt es natuerlich nicht.
Screemer
2014-02-18, 18:02:30
wo liest du das. bis vor 10 Minuten hieß es noch, dass es nichts offizielles gibt? wenn wirklich HP, dann bin ich wirklich beeindruckt.
Blediator16
2014-02-18, 18:06:13
To achieve this NVIDIA has taken a number of steps, some of which they’ve shared with us at a high level and some of which they haven’t. NVIDIA is taking a bit of a “secret sauce” approach to Maxwell from a design level, so while we know a fair bit about its execution model we don’t know quite as much about the little changes that add up to Maxwell’s energy and space savings. However NVIDIA tells us that overall they’ve been able to outright double their performance-per-watt on Maxwell versus Kepler, which is nothing short of amazing given the fact that all of this is being done on the same 28nm process as Kepler.
http://www.anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell/3
-/\-CruNcher-/\-
2014-02-18, 18:07:28
Naja, man muss aber auch schauen, wie Sie das erreicht haben.
Den riesen L2 Cache sollte man da wirklich nicht untern Tisch fallen lassen. Genau wie der Umstieg auf ein schöneres SM Design.
Das Clockgating haben Sie laut CB auch deutlich verbessert, und gerade da lässt sich richtig viel Energie sparen, die Implementierung ist aber auch nicht wirklich so einfach!
Was allerdings noch gar nicht erwähnt wurde von euch sind drei Punkte:
1. Kein Unified (Virtual) Memory.
Schon lustig, dass da plötzlich ein Virtual dazu gekommen ist.... nVidia hat da wohl endlich die Hosen runter gelassen... Denn genau das ist es. Ein virtueller Unified Memory, und damit praktisch nur eine Vereinfachung für den Entwickler....
Dennoch überrascht es, dass der Chip das gar nicht unterstützen soll. Immerhin hies es auf der SC, dass das Feature auch Kepler bekommen soll, aber Maxwell halt noch SecretSouce in Hardware dazubekommen soll... Damit kann man dann wohl den Keplersupport komplett in die Tonne treten, aber wenns eh nur Software ist, kann man sichs eigentlich auch eh sparen. Fragt sich nur, was da an Hardware kommen soll. Ich versprech mir da wirklich nicht mehr viel...
2. von CB
LOL! Das ist nicht wirklich ihr Ernst :ugly:
Wenn Maxwell jetzt kein DX11.2 bekommt, dann wird das mit Maxwell wahrscheinlich gar nichts mehr... Zumindest befürchte ich das.
3. auch von CB
Na TOLL!....
Gerade die kleinen Karten sind ja für HTPCs wie geschaffen. Jetzt haben die aber nicht mal HDMI2.0....
Es wäre ja voll auf ok gewesen, wenn der offizielle Support erst später nachgereicht wird, aber so wies aussieht kommt da gar nichts.... Als ob man die Entwicklung nicht hätte vorhersehen können.... Man sitzt ja nicht in den entsprechenden Gremien mit drin :facepalm:
Wieso hängst du dich immer an diesem Featureleveln auf die sind uninteressant jeder Engine entwickler kann alles wichtige direkt implementieren das haben wir schon 100x durchgekaut mit Coda und Co.
Im praktischen heist es nur das Direct2D und somit Metro nicht von Nvidia profetiert und das haben sie absichtlich gemacht weil sie keine Verwendung dafür haben und in ihrem Target auch nicht sehen.
Reg dich nicht immer so darüber auf es hat für ihr Target hier (Desktop) keine Relevanz und sie sparen es sich einfach das ist Wirtschaftlich gesehen absolut Vernünftig, diese Strategie zeichnet Nvidia vollkommen aus das haben sie schon früher so gemacht.
Sie analysieren ganz genau ihr Target und sparen kosten und nutzen die sachen nur dort wo sie sinn machen hör dir einfach Petersen an er sagt es dir auch noch einmal, was ist an dieser Strategie falsch ?
Das Einzige was sie falsch gemacht haben war die öffentliche Kommunikation darüber durch ihr Marketing damals , entwickler wissen da absolut bescheid.
Ich hab das so jetzt 2x bei Nvidia mitbekommen einmal bei ihrem DSP Design und 1x bei ihrer D3D Implementation beides mal hat AMD voll implementiert überall kein Target
Ailuros
2014-02-18, 18:07:35
wo liest du das. bis vor 10 Minuten hieß es noch, dass es nichts offizielles gibt? wenn wirklich HP, dann bin ich wirklich beeindruckt.
Bei B3D; ob HP oder HPM der Unterschied ist wirklich nicht der Rede wert. Uebrigens da ich mit Wavey's hints ziemlich gut trainiert bin, wird es ueber GM107 wohl keinen weiteren 28nm Maxwell geben, ergo alles GM2xx = <28nm.
Godmode
2014-02-18, 18:22:58
Bei B3D; ob HP oder HPM der Unterschied ist wirklich nicht der Rede wert. Uebrigens da ich mit Wavey's hints ziemlich gut trainiert bin, wird es ueber GM107 wohl keinen weiteren 28nm Maxwell geben, ergo alles GM2xx = <28nm.
Schön das zu hören. Wurde ja auch schon von vielen hier angenommen, wegen der 2 im Codenamen.
Loeschzwerg
2014-02-18, 18:26:50
Kann mir aber schon vorstellen dass gerade für HDMI 2.0 Implementierung die finale Spec wirklich zu spät kam, da kann NV jetzt nicht unbedingt was. Wäre ein Treiber-Fix da möglich oder braucht es hier wegen neuem HDCP eine Hardwareanpassung?
Ganz abschreiben würde ich DX11.2 für GM2xx noch nicht. Wären die Anpassungen im Chipdesign so gravierend?
-/\-CruNcher-/\-
2014-02-18, 18:32:05
@Loeschzwerg
Wozu die sachen spielen auf den Target Gamer Desktops keine rolle es macht doch nur sinn diese wegzulassen und dafür woanders zu investieren wo ihr dann auch den nutzen sieht
Bei B3D; ob HP oder HPM der Unterschied ist wirklich nicht der Rede wert. Uebrigens da ich mit Wavey's hints ziemlich gut trainiert bin, wird es ueber GM107 wohl keinen weiteren 28nm Maxwell geben, ergo alles GM2xx = <28nm.
Nach Petersen hört sich das nicht so definitiv an er lässt es sehr offen im Interview ;)
Und er sagt noch etwas was ich gehoft habe als Nvidia user sie haben eine neue Balance was Compute angeht, nu müssen wir das nur noch sehen der Luxmark war schon nicht so schlecht aber mehr tests ;)
Skysnake
2014-02-18, 18:42:29
Komisch nur, das scheinbar zumindest ein Fernsehhersteller meinte, Sie wüden HDMI 2.0 nachliefern als offiziellen Support.
Und es ist ja wie gesagt nicht so, das man in den entsprechenden Gremien sitzen würde, und damit der Designspace absolut bekannt wäre.
Echt komisch, das Panasonic es schafft im Oktober 2013 (http://www.chip.de/artikel/Panasonic-TX-L65WT600E-65-Zoll-UHD-LED-TV-Test_64865789.html)!!!! einen Fernseher mit HDMI2.0 zu bringen, nVidia aber nicht Mitte Februar 2014... Zumal auf nem PC sich über Software noch viel mehr gerade biegen lässt, als in nem Fernseher....
@-/\-CruNcher-/\-
Weil nVidia damit den Entwicklern mal wieder das Leben unnötig schwer macht...
Und von wegen man spart sich halt bla blub. Das kannste dir da hinschieben wo die Sonne nicht hinscheint. Das ist mal wieder was aus der Kategorie: Die Konkurrenz hat es, wenn wirs weglassen, sparen wir damit was und ficken die Konkurrenz auch noch schön ins Knie, also doppelter Win für einen selbst...
Es behindert einfach die Marktdurchdringung von sinnvollen Entwicklungen. Und ja, da geht es teils rein ums Prinzip... Und wenn das volle Featurelvl ja ach so scheis egal wäre, dann müsste das nVidia Marketing ja nicht immer und immer und immer wieder diese Scheise abziehen...
PCGH_Carsten
2014-02-18, 18:54:06
Der Titel von PCGH Artikel muss NV wohl ziemlich fett Kohle gekostet haben und auch Resultate wie das hier:
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/9/
Erklär doch mal bitte genauer, wie du das meinst?
Botcruscher
2014-02-18, 18:55:33
Ironie Detektor kaputt?
-/\-CruNcher-/\-
2014-02-18, 18:59:16
Komisch nur, das scheinbar zumindest ein Fernsehhersteller meinte, Sie wüden HDMI 2.0 nachliefern als offiziellen Support.
Und es ist ja wie gesagt nicht so, das man in den entsprechenden Gremien sitzen würde, und damit der Designspace absolut bekannt wäre.
Echt komisch, das Panasonic es schafft im Oktober 2013 (http://www.chip.de/artikel/Panasonic-TX-L65WT600E-65-Zoll-UHD-LED-TV-Test_64865789.html)!!!! einen Fernseher mit HDMI2.0 zu bringen, nVidia aber nicht Mitte Februar 2014... Zumal auf nem PC sich über Software noch viel mehr gerade biegen lässt, als in nem Fernseher....
@-/\-CruNcher-/\-
Weil nVidia damit den Entwicklern mal wieder das Leben unnötig schwer macht...
Und von wegen man spart sich halt bla blub. Das kannste dir da hinschieben wo die Sonne nicht hinscheint. Das ist mal wieder was aus der Kategorie: Die Konkurrenz hat es, wenn wirs weglassen, sparen wir damit was und ficken die Konkurrenz auch noch schön ins Knie, also doppelter Win für einen selbst...
Es behindert einfach die Marktdurchdringung von sinnvollen Entwicklungen. Und ja, da geht es teils rein ums Prinzip... Und wenn das volle Featurelvl ja ach so scheis egal wäre, dann müsste das nVidia Marketing ja nicht immer und immer und immer wieder diese Scheise abziehen...
Macht keinen sinn diese features waren immer features die mit Gesammtauslastung des Systems auf nicht Gaming bezogene sachen zu tun hatten.
Ihnen da zu unterstellen sie würden Marktdurchdringung verhindern wollen ist absurd, zumal sie das besagte DSP feature auf den Mobile platformen implementiert haben auf dem Gamer Desktop war dafür genug CPU Leistung damals vorhanden es nicht zu tun das haben sie einfach genutzt um anderswo resourcen im Design nutzen zu können übrigens betraff es damals auch Microsoft ;)
Den richtig groben Fehler haben sie mit Kepler Consumer und Compute balance gemacht das haben sie endlich anscheinend korrigiert, nur auf diese Hiobsbotschaft hab ich gewartet als Nvidia user und Petersen hat es eindeutig gesagt :)
Loeschzwerg
2014-02-18, 19:00:06
Komisch nur, das scheinbar zumindest ein Fernsehhersteller meinte, Sie wüden HDMI 2.0 nachliefern als offiziellen Support.
Und es ist ja wie gesagt nicht so, das man in den entsprechenden Gremien sitzen würde, und damit der Designspace absolut bekannt wäre.
Echt komisch, das Panasonic es schafft im Oktober 2013 (http://www.chip.de/artikel/Panasonic-TX-L65WT600E-65-Zoll-UHD-LED-TV-Test_64865789.html)!!!! einen Fernseher mit HDMI2.0 zu bringen, nVidia aber nicht Mitte Februar 2014... Zumal auf nem PC sich über Software noch viel mehr gerade biegen lässt, als in nem Fernseher....
HDMI 2.0 wäre sicherlich kein Problem, aber macht HDMI 2.0 ohne HDCP 2.2 überhaupt Sinn? Für 4k @ 60hz hat man DP und für den Rest reicht aktuell eigentlich HDMI 1.4.
@-/\-CruNcher-/\-: Persönlich ist mir DX11.2 auch herzlich egal weil es in absehbarer Zeit nicht wirklich in Games sichtbar werden wird. Grundsätzlich sehe ich es aber wie Skysnake, es tut dem Markt nicht unbedingt gut, auch wenn der Impact relativ gering sein wird.
Ailuros
2014-02-18, 19:06:29
Erklär doch mal bitte genauer, wie du das meinst?
Ich weiss dass es verdammt muehsam ist die eher laecherliche "Debatte" zurueckzuverfolgen, aber es ist zu 100% sarkastisch gemeint.
OBrian
2014-02-18, 19:08:55
was für Dinge sind es denn überhaupt, die mit DX11.2 möglich sind und mit 11.1 oder 11.0 nicht? Ist DX11.0 nicht schon so flexibel, daß es praktisch keine Unterschiede gibt, die dem Nutzer auffallen könnten (entweder visuell oder durch Leistungsunterschiede)?
-/\-CruNcher-/\-
2014-02-18, 19:11:08
Overhead reduktion im GUI Rendering (mehr performance weniger CPU cycles) die in Windows 8.1 auf einem Gaming Desktop sinn befreit sind AMD tut es aber
aber solche genauen tests wirst du von den meisten Reviewern nie sehen, sie spielen auch nicht wirklich eine Rolle davon mal ab für die Zielgruppe von Geforce ;)
Skysnake
2014-02-18, 19:24:08
TJa, und damit erzählst du halt man wieder nur die halbe Wahrheit...
Man kann sowas auch für Schatten nutzen, indem man die Ränder der Schatten höher aufgelöst rendert, als den Rest usw.
Gab dazu hier mal nen Link zu ner richtig guten Presentation von nem Engineentwickler...
Aber selbst wenn man das weg lässt, ist es halt einfach Scheise was nVidia da macht. Wenn man zusammen in nem Gremium sitzt und weiß, wohin die Reise gehen soll, dann implementiert man es auch, einfach um nicht der Bremser am Markt zu sein...
Die PRT-Sache hat schon interessante Anwendungsfälle, aber NVIDIA hat da auch partiellen Support dafür den man mit bisschen mehr Arbeit auch benutzen kann.
Skysnake
2014-02-18, 19:38:20
Natürlich haben Sie da auch etwas.
Man muss aber eben wieder Extrawürste drehen, was so machen $.$ Publisher sicher dazu bringen wird, auf die Studios durck aus zu üben, das eben ganz fallen zu lassen usw usw.
Es schadet einfach dem Markt, und wenns nur in einem Spiel deswegen weniger eingesetzt wird.
Zumindest bei den großen Engines mache ich mir die Hoffnung, dass Sie es sich einfach nicht durch die Lappen gehen lassen aus Angst, die Konkurrenz könnte es als Marketing-Keule gegen einen einsetzen.
Sunrise
2014-02-18, 19:48:38
Schön das zu hören. Wurde ja auch schon von vielen hier angenommen, wegen der 2 im Codenamen.
Maxwell 1st Generation -> GM1xx
Maxwell 2nd Generation -> GM2xx
Man kann es sich sogar noch einfacher machen.
Und 28nm für die 2nd Generation ergibt deshalb keinen Sinn, weil NV genau weiß, dass sie weiter oben wohl sogar noch mehr Cache etc. brauchen (die Denver-Cores sind ja auch noch nicht eingerechnet, wenn sie denn kommen), und da ist unter 28nm einfach kein Platz für solche Spielereien. Zusätzlich scheint Denver 20nm vorbehalten zu sein, ob man da allerdings eine Parallele ziehen kann (da es nicht gesichert ist) werden wir spätestens Ende des Jahres wohl sehen.
Ailuros
2014-02-18, 19:56:40
Maxwell 1st Generation -> GM1xx
Maxwell 2nd Generation -> GM2xx
Man kann es sich sogar noch einfacher machen.
Und 28nm für die 2nd Generation ergibt deshalb keinen Sinn, weil NV genau weiß, dass sie weiter oben wohl sogar noch mehr Cache etc. brauchen (die Denver-Cores sind ja auch noch nicht eingerechnet, wenn sie denn kommen), und da ist unter 28nm einfach kein Platz für solche Spielereien. Zusätzlich scheint Denver 20nm vorbehalten zu sein, ob man da allerdings eine Parallele ziehen kann (da es nicht gesichert ist) werden wir spätestens Ende des Jahres wohl sehen.
...und das hier: http://forum.beyond3d.com/showpost.php?p=1828466&postcount=1086
Dawn on Titan
2014-02-18, 20:07:41
Wobei das nicht bedeutet, dass ein größer und komplexerer Maxwell Die unmöglich wäre, er wäre evtl. nur in Relation evtl. weniger effizient, weil er nicht so reduziert sein könnte. Imho ist eher wahrscheinlich, dass 20nm SOC im H2 bereit ist und man eben Kapazitäten gekauft hat, die man auch nutzen muss.
Natürlich haben Sie da auch etwas.
Man muss aber eben wieder Extrawürste drehen, was so machen $.$ Publisher sicher dazu bringen wird, auf die Studios durck aus zu üben, das eben ganz fallen zu lassen usw usw.
Es schadet einfach dem Markt, und wenns nur in einem Spiel deswegen weniger eingesetzt wird.
Zumindest bei den großen Engines mache ich mir die Hoffnung, dass Sie es sich einfach nicht durch die Lappen gehen lassen aus Angst, die Konkurrenz könnte es als Marketing-Keule gegen einen einsetzen.
Du hast doch soweit ich weiß keine Erfahrung mit 3D-APIs, oder? Bist du sicher, dass du das wirklich einschätzen kannst?
Ich hab Leute in meinem Umfeld jetzt noch nicht so rumschreien hören wie dich. Natürlich ist es nicht optimal, aber der Weltuntergang ist es auch bei weitem nicht.
Sunrise
2014-02-18, 20:26:20
Wobei das nicht bedeutet, dass ein größer und komplexerer Maxwell Die unmöglich wäre, er wäre evtl. nur in Relation evtl. weniger effizient, weil er nicht so reduziert sein könnte. Imho ist eher wahrscheinlich, dass 20nm SOC im H2 bereit ist und man eben Kapazitäten gekauft hat, die man auch nutzen muss.
Sagt ja auch keiner, dass irgendwas völlig unmöglich ist. Das ist aber eine Rechnung im Sinne von Verfügbarkeit, Chipgröße, Yield, etc.
Und für hohes Volumen sollten alle drei im Optimalfall sehr hoch sein. Daher ergibt es schon irgendwie Sinn, dass man gerade GM107 noch auf 28m loslaufen lässt.
Für GM2xx wird man - selbst wenn Kapazität gebucht wurde - auch deutlich höhere Preise zahlen müssen und auch Apple wird daran nicht unschuldig sein.
Vielleicht ist der fehlende DX11.2 Support, der Grund warum die ersten Maxwellchips als 700er Geforce verkauft werden. Viellecht unterstützt die zweite Maxwell Generation DX11.2?
fondness
2014-02-18, 20:37:43
Keine Ahnung warum sich NV da quer legt. AMD hat seit über 2 Jahren DX11.2-Chips am Markt, es sollte wirklich kein Problem sein das jetzt mit Maxwell auch zu unterstützen, selbst Intel schafft es. Ich sehe jedenfalls keinen Grund warum man das erst mit der zweiten Maxwell-Generation unterstützen sollte. Hauptsächlich relevant sind wohl eh nur die UAVs in non PixelShader.
Vielleicht ist der fehlende DX11.2 Support, der Grund warum die ersten Maxwellchips als 700er Geforce verkauft werden. Viellecht unterstützt die zweite Maxwell Generation DX11.2?
Möglich. Die größte Änderung wäre der Support für PRTs, dafür braucht man Änderungen an den TMUs. Das was sie bisher unterstützen läuft wohl über den virtuellen Speicher.
-/\-CruNcher-/\-
2014-02-18, 20:50:06
Vielleicht ist der fehlende DX11.2 Support, der Grund warum die ersten Maxwellchips als 700er Geforce verkauft werden. Viellecht unterstützt die zweite Maxwell Generation DX11.2?
Naja Petersen sagt da eindeutig wieso das so ist und wenn ich die daten sehe und herumvergleiche wie wild bin ich mir nicht mal mehr sicher das es überhaupt eine Karte mit dem namen 860 GTX geben wird diesmal dann müsste man die 760 GTX ersetzen mit höherer Performance vor allem im Compute.
Und ne 860 GTX mit weniger Verbrauch und gleicher Performance macht irgendwo keinen sinn mehr neben der 760 GTX oder wie seht ihr dass ?
Das logischste erscheint die nächste Karte wird weitaus höhere Performance haben als die 760 GTX, 860 GTX würde ergo nicht mehr passen das Verhältnis schiftet ja ziemlich heftig
Skysnake
2014-02-18, 20:54:00
Du hast doch soweit ich weiß keine Erfahrung mit 3D-APIs, oder? Bist du sicher, dass du das wirklich einschätzen kannst?
Keine nicht, aber wenig. Insbesondere DX halt. Bei OGL siehts besser aus. Da konnte ich mich durch nen großteil schon durchwühlen.
Im Allgemeinen ist ja aber ne API eine API, ist eine API, und von denen hatte ich schon unzählige zwischen den Fingern, und es sind eigentlich egal bei welcher API/Programmiersprache immer die selben Sachen, die einen am Ende dann davon abhalten es wirklich auch zu nutzen.
Ich hab Leute in meinem Umfeld jetzt noch nicht so rumschreien hören wie dich. Natürlich ist es nicht optimal, aber der Weltuntergang ist es auch bei weitem nicht.
Das glaube ich dir auch sofort. Je größer das Studio ist, und vor allem wenn man ne Engine auch anderen zugänglich machen will, wirste in den sauren Apfel beisen.
Bei der ganzen Indie-Szene und auch bei nem guten Teil der Ports wirste das aber wohl kaum sehen.
Das ist ja auch immer son Problem mit dem rumgefixe von AMD und nVidia durch die Treiber. Das hilft an und für sich nur den Bigplayern.
Als "0815" Entwickler/Nutzer biste der Gelackmeierte. Friss oder stirb. Es interessiert sich eh keiner für dich. Sowas ist halt echt immer zum kotzen...
Und ja, ich hatte inzwischen oft genug die eigene Erfahrung, das ich ohne direkten Herstellersupport nicht weiter gekommen wäre, weil Sie mal wieder nur die halbe Wahrheit sagen, und man dann gegen ne Wand rennt...
Mir könnte es in den Fällen ja scheis egal sein, weil ich den Support habe, aber mir geht das einfach vom Prinzip her gewaltig gegen den Strich. :mad: Und ja, ich lege hohen Wert auf gewisse Prinzipien. Da schlägt die "preusische Erziehung" wohl durch oder was auch immer.
Im Allgemeinen ist ja aber ne API eine API, ist eine API, und von denen hatte ich schon unzählige zwischen den Fingern, und es sind eigentlich egal bei welcher API/Programmiersprache immer die selben Sachen, die einen am Ende dann davon abhalten es wirklich auch zu nutzen.
Es geht um einen sehr spezifischen Aspekt, nämlich dass man ganz bestimmte Features von PRTs nicht benutzen kann. Erzähl doch mal was genau das ist? Sonst brauchst du nämlich nicht so rummarodieren.
Die ganzen anderen Features gibt es nämlich, nur ist sich MS zu fein sie zu exposen (Kepler kann UAVs in jeder Stage schreiben, MS koppelt es nur mit anderen Features). Wird Zeit dass die Industrie auf OpenGL umschwenkt, ich hab keinen Bock mehr auf die Scheiße.
Das einzige wo sich NVIDIA wirklich weigert es zu implementieren ist Target Independent Rasterization. Der einzige Anwendungsfall ist für Microsofts beschleunigtes 2D-Zeug. Wäre mir auch zu blöd.
Bei der ganzen Indie-Szene und auch bei nem guten Teil der Ports wirste das aber wohl kaum sehen.
Indie-Studios benutzen fertige Engines, die meisten Unity. Und PRT ist eh nichts was man kurz mal implementiert. Das zieht sich durch die komplette Pipeline der Content-Produktion.
-/\-CruNcher-/\-
2014-02-18, 21:15:47
Richtig es geht um die TIR implementation die hat Nvidia für nonsense erklärt für das Target Gamer Desktop :)
Das PRT problematisch ist wusste ich nicht kam das nicht schon mit D3D9 ?
also muss man bei Nvidia Cascaded Shadow Maps aufwendiger implementieren und deswegen ist es part of GameWorks und wird so oft als Game Feature bei ihren Präsentationen gennant ?
Nicht Precomputed Radiance Transfer, Partial Resident Textures
Skysnake
2014-02-18, 21:25:50
Es geht um einen sehr spezifischen Aspekt, nämlich dass man ganz bestimmte Features von PRTs nicht benutzen kann. Erzähl doch mal was genau das ist? Sonst brauchst du nämlich nicht so rummarodieren.
Die ganzen anderen Features gibt es nämlich, nur ist sich MS zu fein sie zu exposen (Kepler kann UAVs in jeder Stage schreiben, MS koppelt es nur mit anderen Features). Wird Zeit dass die Industrie auf OpenGL umschwenkt, ich hab keinen Bock mehr auf die Scheiße.
Frag mich jetzt bitte nicht, was das GENAU war. Ich hatte es halt nur in einer hier auf 3DCenter verlinkten Presentation gesehen, was man mit DX11.2 machen können soll.
Wenn da nen Engine-Entwickler sagt, dass das toll ist und nen grobes Beispiel zeigt, das jetzt etwas möglich sit, was vorher nicht ging, dann glaub ich ihm das.
Ob er es am Ende für nVidia auch so machen kann, musste den jeweiligen Entwickler fragen. Es ist aber auf jeden Fall Mehraufwand.
Das einzige wo sich NVIDIA wirklich weigert es zu implementieren ist Target Independent Rasterization. Der einzige Anwendungsfall ist für Microsofts beschleunigtes 2D-Zeug. Wäre mir auch zu blöd.
Indie-Studios benutzen fertige Engines, die meisten Unity. Und PRT ist eh nichts was man kurz mal implementiert. Das zieht sich durch die komplette Pipeline der Content-Produktion.
Natürlich haste das nicht "mal eben" implementiert, aber ich würde in der aktuellen Situation, wo das nicht 100% in nen Standard gekippt ist, auch tunlichst unterlassen, wenn ich nicht Crytek, Ubisoft, DICE oder sonstwie heisen würde. Am Ende hackts nämlich an irgend ner Stelle weil eben wieder irgend nen kleiner Mist doch nicht ganz so funktionert, wie er sollte, das aber mal wieder nirgends dokumentiert ist, und man ja eben kein Gehör bekommt. GZ, richtig viel Arbeitszeit in den Sand gesetzt.
Und ja, ich stand schon mehrfach vor der Situation, das ich ohne Sopport fett auf die Fresse gefallen wäre...
Und genau deswegen hasse ich son Rumgehampel wie von nVidia bzgl DX11.x auch so abartig. Egal wo du hin schaust, wenn du wirklich auf die Kacke haust, und die Features egal von was voll ausreizt, stolperste immer wieder über irgendwelche Conercases, wo sich dann zeigt, das es eben doch noch ein paar Stolperfallen mehr gibt als allgemein bekannt. Da brauch ich so was echt nicht auch noch. Ohne die dicke Firma im Rücken, die man nicht ignorieren kann, biste da dann einfach der Depp vom Dienst, und sowas hasse ich wie die Pest.
Undertaker
2014-02-18, 21:26:31
...selbst Intel schafft es.
Auch Haswell unterstützt nur 11.1 soweit ich weiß, heißt also selbst bei neu gekauften GPUs/iGPUs beschränkt sich die 11.2-Unterstützung (Tier 2) auf einige AMD-Modelle (und damit maximal 10-15 Prozent des Gesamtmarktes). Blickt man dann noch auf den für Entwickler viel interessanteren Anteil der überhaupt vorhandenen Systeme mit 11.2, landet man bei einem niedrigen einstelligen Prozentsatz. Das zögert die breite Nutzung der API natürlich immens hinaus...
Es bleibt bedauerlich, aber demgegenüber ist z.B. die immens gesteigerte Effizienz viel, viel wichtiger und nützlicher. :)
-/\-CruNcher-/\-
2014-02-18, 21:33:18
Nicht Precomputed Radiance Transfer, Partial Resident Textures
Die meisten werden es wohl eher als Tiled Resources oder Megatextures kennen :)
fondness
2014-02-18, 21:34:41
Auch Haswell unterstützt nur 11.1 soweit ich weiß, heißt also selbst bei neu gekauften GPUs/iGPUs beschränkt sich die 11.2-Unterstützung (Tier 2) auf einige AMD-Modelle (und damit maximal 10-15 Prozent des Gesamtmarktes). Blickt man dann noch auf den für Entwickler viel interessanteren Anteil der überhaupt vorhandenen Systeme mit 11.2, landet man bei einem niedrigen einstelligen Prozentsatz. Das zögert die breite Nutzung der API natürlich immens hinaus...
Es bleibt bedauerlich, aber demgegenüber ist z.B. die immens gesteigerte Effizienz viel, viel wichtiger und nützlicher. :)
DX11.2 ist ggü. 11.1 praktisch nur Software-Zeug, sollte kein Problem sein für Intel das zu unterstützen wenn sie FL11_1 beherrschen. Vermutlich hinkt Intel mal wieder nur mit dem Treiber hinterher.
Die ganzen anderen Features gibt es nämlich, nur ist sich MS zu fein sie zu exposen (Kepler kann UAVs in jeder Stage schreiben, MS koppelt es nur mit anderen Features). Wird Zeit dass die Industrie auf OpenGL umschwenkt, ich hab keinen Bock mehr auf die Scheiße.
Das einzige wo sich NVIDIA wirklich weigert es zu implementieren ist Target Independent Rasterization. Der einzige Anwendungsfall ist für Microsofts beschleunigtes 2D-Zeug. Wäre mir auch zu blöd.
Das kann man aber auch anders sehen. Eine Standard unterstützt man entweder oder man unterstützt ihn nicht, genau dafür gibt es einen Standard. Wenn ich jedes Feature separat abfragen muss kann ich mir das auch gleich sparen. NV hat Glück das sie wenigstens die anderen Features über FL11_0 erreichen. Was es für einen Sinn hätte für NV sich hier irgendwo zu weigern, wird schon handfeste Gründe haben.
Skysnake
2014-02-18, 21:39:19
Ich hab nochmal nachgeschaut, das müsste Destiny gewesen sein. Die hatten was erzählt von reduzierter Auflösung für die Bildschirmbereiche mit Schatten, und wenn ich mich jetzt richtig erinnere, sollte das auch für Explosionen usw gelten.
Man rendert halt solche Teile mit an sich wenig Information in niedriger Auflösung und vereinigt dann die Bildinformationen wieder.
Frag mich jetzt bitte nicht, was das GENAU war.
-> Bla.
Es ist aber auf jeden Fall Mehraufwand.
Nö.
Das kann man aber auch anders sehen. Eine Standard unterstützt man entweder oder man unterstützt ihn nicht, genau dafür gibt es einen Standard. Wenn ich jedes Feature separat abfragen muss kann ich mir das auch gleich sparen. NV hat Glück das sie wenigstens die anderen Features über FL11_0 erreichen. Was es für einen Sinn hätte für NV sich hier irgendwo zu weigern, wird schon handfeste Gründe haben.
Nö kann man nicht. Die Hardware kann alle relevanten Features, Microsoft macht ein Politikum draus auf Kosten der Kunden.
mczak
2014-02-18, 21:50:06
Ich wuerde es sinnvoller finden wenn NV endlich die ROPs vom MC entkoppelt hat. Mit 16 pixels/raster hast Du bei theoretischen =/>6 GPCs auf dem top dog theoretisch 96 pixels/clock. Fuer was?
pcgh sagt aber jetzt auch 16 pixels/GPC (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/). Da lag ich wohl für einmal richtig, immerhin :-).
fondness
2014-02-18, 21:52:59
Nö kann man nicht. Die Hardware kann alle relevanten Features, Microsoft macht ein Politikum draus auf Kosten der Kunden.
Genau dasselbe könnte man auch NV vorwerfen. Sollte schließlich kein Ding der Unmöglichkeit sein alle Features zu supporten, das schaffen andere auch.
-/\-CruNcher-/\-
2014-02-18, 22:03:02
@Coda
denkst du Hardware OIT könnte von den Änderungen in Maxwell auch profetiert haben ?
jemand muss mal die ATI MechaDemo auf Maxwell anschmeisen :D
@Coda
denkst du Hardware OIT könnte von den Änderungen in Maxwell auch profetiert haben ?
Was bitte ist "hardware OIT"?
Genau dasselbe könnte man auch NV vorwerfen. Sollte schließlich kein Ding der Unmöglichkeit sein alle Features zu supporten, das schaffen andere auch.
Hardware ist so ein bisschen was anderes als Software als ich das letzte Mal im Lexikon geschaut habe.
Fakt ist, Microsoft legt hier Steine in den Weg, die sie einfach ändern könnten. NVIDIA kann ihre Hardware nicht mehr umbauen die sie verkauft haben.
Ailuros
2014-02-18, 22:11:11
pcgh sagt aber jetzt auch 16 pixels/GPC (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/). Da lag ich wohl für einmal richtig, immerhin :-).
*einen virtuellen Keks an mczak* :P
pcgh sagt aber jetzt auch 16 pixels/GPC (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/). Da lag ich wohl für einmal richtig, immerhin :-).
Besser als ich, nach dem letzten Blockdiagram hab ich's total verkackt :D
Naja, so halb. Die Block-Diagramme von NVIDIA sind auch immer... sehr geschönt.
Timbaloo
2014-02-18, 22:13:19
Eine Standard unterstützt man entweder oder man unterstützt ihn nicht, genau dafür gibt es einen Standard.
Der war gut.
-/\-CruNcher-/\-
2014-02-18, 22:15:00
Was bitte ist "hardware OIT"?
Hardware ist so ein bisschen was anderes als Software als ich das letzte Mal im Lexikon geschaut habe.
Fakt ist, Microsoft legt hier Steine in den Weg, die sie einfach ändern könnten. NVIDIA kann ihre Hardware nicht mehr umbauen die sie verkauft haben.
Naja die OIT Performance in Hardware war ja bei Kepler nicht so berrauschend für The Witcher 3 wird es ja essentziel wichtig :)
Die Tomb Raider tests scheinen ja alle auf Full Details + Tressfx zu laufen die die Reviewer durchführen das sieht ja nicht schlecht aus
die TressFX Demo anzuschmeisen währe sicher auch nicht verkehrt und zu vergleichen :)
Naja die OIT Performance in Hardware war ja bei Kepler nicht so berrauschend für The Witcher 3 wird es ja essentziel wichtig :)
Es ist Software. Dementsprechend kommt es auf die Implementierung an...
Die Tomb Raider tests scheinen ja alle auf Full Details + Tressfx zu laufen die die Reviewer durchführen das sieht ja nicht schlecht aus
... die AMD geschrieben hat.
-/\-CruNcher-/\-
2014-02-18, 22:30:01
Ein ganzer Verbund an fähigen leuten haben an der PPLL AMD implementation gearbeitet aber das weist du :)
Mich erstaunt es ehrlichgesagt wie es Nvidia geschaft hat dort so gut mit dem Patch plötzlich darzustehen das muss doch einen harken haben den niemand so wirklich erkennt ;)
Ein ganzer Verbund an fähigen leuten haben an der PPLL AMD implementation gearbeitet aber das weist du :)
Die alle bestimmt total darauf erpicht waren das letzte bisschen Performance aus einer NVIDIA-Karte herauszuholen.
Mich erstaunt es ehrlichgesagt wie es Nvidia geschaft hat dort so gut mit dem Patch plötzlich darzustehen das muss doch einen harken haben den niemand so wirklich erkennt ;)
Ziemlich sicher haben sie den Kernel im Treiber komplett ersetzt.
von Richthofen
2014-02-18, 22:43:31
Hmm, Geizhals (http://geizhals.at/de/?cat=gra16_512&xf=1439_GTX+750#xf_top) listet die Maxwells im Gegensatz zu den Keplers (11.0) als 11.2
Weiss man da mehr oder hat sich nur ein Fehler eingeschlichen ?
PCGH_Carsten
2014-02-18, 23:09:32
Ich weiss dass es verdammt muehsam ist die eher laecherliche "Debatte" zurueckzuverfolgen, aber es ist zu 100% sarkastisch gemeint.
Da war dann wohl wirklich der
Ironie Detektor kaputt?
:)
Naja die OIT Performance in Hardware war ja bei Kepler nicht so berrauschend für The Witcher 3 wird es ja essentziel wichtig :)
Gerade OIT in der Mecha-Demo ging noch ganz gut (dafür, dass es eine AMD-Demo war) - obwohl die noch auf VLIW4/5 optimiert gewesen ist. Mit GCN-Optimierungen könnte AMD sicherlich noch ein bißchen zulegen:
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/Geforce-GTX-Titan-GK110-Benchmark-AMD-Techdemo-1057761/
kann bereits dieser kleine Maxwell die mit CUDA 6 eingeführte "Unified Virtual Memory"-Verwaltung IN HARDWARE?
Oder können das nur die kommenden großen Maxwell 2?
Auch wenn die Compute-Leistung natürlich von diesem Ersten sehr gering ist, wäre es mal äußerst interessant zu schauen wie effizient das in Hardware ist - im Vergleich zur Software Lösung wenn CUDA 6 auf alten (Kepler) Karten läuft...
s. auch z.B.
http://www.anandtech.com/show/7515/nvidia-announces-cuda-6-unified-memory-for-cuda
-/\-CruNcher-/\-
2014-02-18, 23:15:55
Da war dann wohl wirklich der
:)
Gerade OIT in der Mecha-Demo ging noch ganz gut (dafür, dass es eine AMD-Demo war) - obwohl die noch auf VLIW4/5 optimiert gewesen ist. Mit GCN-Optimierungen könnte AMD sicherlich noch ein bißchen zulegen:
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/Geforce-GTX-Titan-GK110-Benchmark-AMD-Techdemo-1057761/
Sehe das ein wenig anders mit dem Power Target der Titan sicher kein problem aber im Mid Range consumer schon ein größeres und gerade dort machte AMD keine Einschnitte und Nvidia viel böse zurück, durch tegra hat sich einiges geändert ;)
Allerdings zeigt das die 750 Ti noch nicht so deutlich interessant wird die nächste Karte was ja eigentlich das Mid Range flagschiff x60 sein sollte aber wie gesagt ich zweifele das die 860 GTX namensweise überhaupt kommt aus deinem Interview mit Petersen und den vorhandenen daten :)
Skysnake
2014-02-18, 23:18:41
-> Bla.
Da bitteschön, die Bilder habe ich von der Presentation noch gefunden.
Da kombiniert dort, soweit ich das verstanden habe
TIER2 supports a new version of Texture2D.Sample that lets you clamp the mip level to a certain value. They use this to force the shader to sample from lower-resolution mip levels if the higher-resolution mip isn’t currently resident in memory. For TIER1 they emulate this by computing what mip level would normally be used, comparing it with the mip level available in memory, and then falling back to SampleLevel if the mip level needs to be clamped. There’s also another overload for Sample that returns a status variable that you can pass to a new “CheckAccessFullyMapped” intrinsic that tells you if the sample operation would access unmapped tiles.
Und kombiniert das mit
TIER2 supports MIN and MAX texture sampling modes that return the min or max of 4 neighboring texels. In the sample they use this when sampling a residency texture that tells the shader the highest-resolution mip level that can be used when sampling a particular tile. For TIER1 they emulate it with a Gather.
Auf der DX11.2 Demo, die ja auf ner nVidia lief, hat man ja auch anhand von Schatten gezeigt, was man da an Qualität rausholen kann.
Und das wäre shcon sehr schade, wenn auch nur ein Spiel weniger das Nutzen würde, weil man eben die Sachen unterschiedlich implementieren muss für AMD und nVidia.
Nö.
Und haste es schon mal selbst verwendet, und alles ist komplett ohne Überraschungsmomente verlaufen, wo etwas nicht so funktioniert, wie man es eigentlich erwartet hätte?
Wenn ja, GZ an nVidia. Dann haben Sie mal wirklich solide Arbeit abgeliefert und alles dokumentiert. Das ist aber eher die Ausnahme denn die Regel und ich würde mich da im Allgemeinen nicht drauf verlassen, wenn es um meine Kohle gehen würde.
Nö kann man nicht. Die Hardware kann alle relevanten Features, Microsoft macht ein Politikum draus auf Kosten der Kunden.
Das kann man so oder so sehen.
Es kommt halt ganz drauf an, wie man sich geeinigt hat in den Gremien. AMD wird ja wohl kaum MS gegen nVidias Willen dazu gezwungen haben DX11.x genau so zu spezifizieren.
Zumindest MS und AMD werden sich da wohl schon einig gewesen sein.
Skysnake
2014-02-18, 23:21:05
kann bereits dieser kleine Maxwell die mit CUDA 6 eingeführte "Unified Memory"-Verwaltung IN HARDWARE?
Oder können das nur die kommenden großen Maxwell 2?
Auch wenn die Compute-Leistung natürlich von diesem Ersten sehr gering ist, wäre es mal äußerst interessant zu schauen wie effizient das in Hardware ist - im Vergleich zur Software Lösung wenn CUDA 6 auf alten (Kepler) Karten läuft...
s. auch z.B.
http://www.anandtech.com/show/7515/nvidia-announces-cuda-6-unified-memory-for-cuda
GM107 soll gar kein Unified Virtual Memory erhalten laut CB.
Locuza
2014-02-18, 23:34:56
Wo genau steht das?
PCGH_Carsten
2014-02-18, 23:39:46
Sehe das ein wenig anders mit dem Power Target der Titan sicher kein problem aber im Mid Range consumer schon ein größeres und gerade dort machte AMD keine Einschnitte und Nvidia viel böse zurück, durch tegra hat sich einiges geändert ;)
Das bleibt selbstverständlich dein gutes Recht, aber ein genauerer Blick auf die Diagramme führt unweigerlich zu dem Schluss, dass in der gezeigten Demo - trotz aller Vorteile für AMD wie ein 384-Bit-Speicherinterface, eine hauseigene Demo-Engine, eine hauseigene Demo-Technik sowie natürlich eine besonders hohe Auflösung, höhere Die-Size, höheres Power-Budget - die GTX 680, also die besagte Mittelklasse mit der HD 7970 GE mehr als nur mithält. Genau genommen ist sie per Durchschnitts-Fps sogar ein klein bißchen schneller.
Wieviel Bedeutung das nun in der realen Welt hat, mag ich nicht beurteilen, aber es zeigt eben, dass OIT keine generelle Schwäche der Keplers ist, obwohl es von denen (Schwächen) ja durchaus einige gibt.
hab hier noch etwas zum (vermuteten) Status von Unified Virtual Memory gefunden: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/29819-maxwell-architektur-mit-unified-memory-vorerst-nur-im-professionellen-bereich.html
-/\-CruNcher-/\-
2014-02-18, 23:50:27
Das bleibt selbstverständlich dein gutes Recht, aber ein genauerer Blick auf die Diagramme führt unweigerlich zu dem Schluss, dass in der gezeigten Demo - trotz aller Vorteile für AMD wie ein 384-Bit-Speicherinterface, eine hauseigene Demo-Engine, eine hauseigene Demo-Technik sowie natürlich eine besonders hohe Auflösung, höhere Die-Size, höheres Power-Budget - die GTX 680, also die besagte Mittelklasse mit der HD 7970 GE mehr als nur mithält. Genau genommen ist sie per Durchschnitts-Fps sogar ein klein bißchen schneller.
Wieviel Bedeutung das nun in der realen Welt hat, mag ich nicht beurteilen, aber es zeigt eben, dass OIT keine generelle Schwäche der Keplers ist, obwohl es von denen (Schwächen) ja durchaus einige gibt.
Die Render Probleme damals ignorierst du komplett, es ist gut das du sie erwähnst aber du gehst hier einfach davon aus das deine resultate so halten würden wenn es korrekt gerendert wird ?
Ailuros
2014-02-18, 23:52:45
Das Thema ist Maxwell.
PCGH_Carsten
2014-02-19, 00:02:06
Die Render Probleme damals ignorierst du komplett, es ist gut das du sie erwähnst aber du gehst hier einfach davon aus das deine resultate so halten würden wenn es korrekt gerendert wird ?
Meinst du die Probleme in Tomb Raider oder welche?
Spätestens mit Maxwell - um das Thema zu ehren - sollte das doch hinfortgepatcht sein.
-/\-CruNcher-/\-
2014-02-19, 01:14:28
Ja das hoffe ich auch es geht ja auch um die Physix Performance problematiken in AC4 die man ja jetzt noch nicht testen kann mit Maxwell ;)
Beim Tomb Raider Test hätte ich von den Reviewern auch mal erwartet das sie eine closeup scene testen wo das haar fast fullscreen gerendert wird (da gibt es ingame eine bestimmte beim absetzen des SOS), kann natürlich verstehen das die meisten Reviewer das vieleicht als unsinnig sehen und lieber mit hohem fov oder im Benchmark testen aber schaden würde so ein test sicher nicht.
Ailuros
2014-02-19, 06:57:13
http://forum.beyond3d.com/showpost.php?p=1828610&postcount=1107
Ryan Smith von Anandtech bestaetigt dass 28HP fuer GM107 direkt von NV kommt.
AnarchX
2014-02-19, 08:52:04
Heise hat auch einen Termin für die 20nm Maxwell:
GM107 zählt zur ersten Generation an Maxwell-GPUs – die besagten Schlachtschiffe, für die Nvidia unter anderem Unified Memory versprach, sollen erst im zweiten Halbjahr 2014 kommen und dann mit 20-nm-Strukturen gefertigt werden
http://www.heise.de/newsticker/meldung/Nvidia-Maxwell-GeForce-GTX-750-und-750-Ti-hoechst-effizient-2116645.html
Duplex
2014-02-19, 11:35:48
Wenn das HPM Chips wären, dann würde man im 2. Halbjahr keine 20nm Chips sehen, HPM wurde bisher von keiner Quelle bestätigt, warum sollte man die Chips extra auf einem neuerem Prozess entwickeln wenn 20nm deutlich mehr Reserven bietet, GM107 wurde in 28nm HP entwickelt und das Ergebnis ist Super, HPM hin und her bei 20nm kann man von doppelter Dichte gegenüber 28nm ausgehen, 28nm HP hat einfach ausgedient, der Nachfolger ist garantiert 20nm SOC und nicht 28nm HPM.
Mandalore
2014-02-19, 16:11:42
Also könnte uns mit High-End Maxwell ein 2. G80 erwarten, wenn man die weiteren Architekturverbesserungen mit Maxwell 2.0 implementiert. Ich bin gespannt, ich glaube es gab seit Jahren nicht mehr so viel Interessantes im GPU-Markt seit dem G80 vs. R600/RV770. Wenn AMD jetzt auch noch mit GCN2 kontert scheint das in Ganze in eine sehr gute Richtung zu gehen.
Duplex
2014-02-19, 16:16:40
Das sollte durch 20nm dieses Jahr möglich sein.
GTX680 > GTX870 +80%
GTX780 > GTX880 +60-80%
Ich denke das Nvidia im 2. Halbjahr erstmal die GTX870 "GM204" vorstellen wird.
Die GTX9xx Serie wird wahrscheinlich ende 2015 ein Maxwell Refresh in 20FineFET.
Mandalore
2014-02-19, 16:21:28
Ich hoffe sehr stark, dass es mit 20nm gut klappt. Denn dank Maxwell, könnte auch Apple mal in ihre Retina-MacBooks eine Performance GPU reinstecken (High-End würde Apples Kodex widersprechen denke ich;(), da die derzeit verbauten Keplers leistungsmäßig schon von Intels Iris Pro überholt werden.:rolleyes::rolleyes:
Mandalore
2014-02-19, 16:32:25
Würde ein doppeltes SI der 750 TI auf ein GTX660 Performance Level helfen?
AnarchX
2014-02-19, 16:37:25
Würde ein doppeltes SI der 750 TI auf ein GTX660 Performance Level helfen?
Mit 6Gbps Speichertakt und einer großzügigeren TDP ist die 750 Ti schon fast dort: http://www.techpowerup.com/reviews/Palit/GTX_750_Ti_StormX_Dual/25.html
Mit schon einem 192-Bit SI würde man da wohl in bandbreitenlimitierten Szenarien weiter aufholen.
Ailuros
2014-02-19, 22:24:44
Das sollte durch 20nm dieses Jahr möglich sein.
GTX680 > GTX870 +80%
GTX780 > GTX880 +60-80%
Ich denke das Nvidia im 2. Halbjahr erstmal die GTX870 "GM204" vorstellen wird.
Die GTX9xx Serie wird wahrscheinlich ende 2015 ein Maxwell Refresh in 20FineFET.
IMHO GM204 = 18SMMs, 256bit = GK110b+20%
20SoC, launch Q3.
Hugo78
2014-02-19, 22:40:47
Also 2304 Maxwell ALUs die 3110 Kepler ALUs vom Durchsatz her entsprechen...
Duplex
2014-02-19, 22:45:45
IMHO GM204 = 18SMMs, 256bit = GK110b+20%
20SoC, launch Q3.
Dann wird GM204 ca. 70% schneller als GK104, die GTX780 Ti ist bereits >50% schneller als GK104, 20nm SoC ist also doch nicht schlecht :smile:
GM200 kommt bestimmt zwischen Q4/14-Q1/15, vermutlich erstmal Salvage Part, Vollausbau aka Ti & Black kommt bestimmt wieder später wenn der Prozess reifer geworden ist.
Ailuros
2014-02-19, 22:46:45
Also 2304 Maxwell ALUs die 3110 Kepler ALUs vom Durchsatz her entsprechen...
Ja. Ein ~180W TDP waren auch nett und ein $349 MSRP. Gerade das letzte kann man beruht vergessen....
Duplex
2014-02-19, 22:53:45
Ja. Ein ~180W TDP waren auch nett und ein $349 MSRP. Gerade das letzte kann man beruht vergessen....
Stell dir vor GM200 kommt als Geforce erst Q2 2015, dann wird Nvidia die Kunden wieder mit hohen Preisen abziehen, also GM204 = 549$ !!!
Auch möglich das man den Preis der GTX780 Ti als Einführungspreis nutzen wird, da kommen also nochmal 100$ drauf!!!
Warum soll Nvidia bei einem neuem Prozess gleich große Chips anbieten, die werden bestimmt erstmal nur GM204 einsetzen, 20nm SoC ist Anfangs bestimmt teurer als 28nm HP !
Ailuros
2014-02-19, 23:05:36
GM200 können sie wieder anfangs nur für HPC verkaufen.
Duplex
2014-02-19, 23:11:49
Dann haben wir also wieder das gleiche Spiel wie bei GK104 & GK110, vor Ostern 2015 kommt kein GM200.
Diesen Satz kenne ich http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10117104&postcount=1968
Das gleiche habe ich damals bzgl. GK104 auch von dir gelesen, GK104 war ja mal deutlich günstiger geplant...
Es kommt wie es kommen musste, GM204 wird genau wie GK104 als High End Chip mit hohen Preisen verkauft, aus GM204 wird dann GTX880, GTX870 & GTX860.
GM200 wird dann als GTX980, 980 Ti & Black auf dem Markt kommen, GTX970 ist dann nur ein umlabbeln aka GM204.
Da bleibt zum Schluss noch eine ungeklärte Frage: Wenn GM200 so spät startet, ist der Chip dann 20 SoC oder bereits 20 FineFET ?
Godmode
2014-02-19, 23:12:59
Sagte ich ja schon vor x Seiten und sicher x mal, warum sollten sie was ändern wenn das so gut funktioniert? Glaubt ihr immer noch die handeln aus Nächstenliebe, oder was? :rolleyes:
IMHO wird Consumer GM100 ganz klar erst 2015 erscheinen. Die HPC Version könnte aber schon Ende 2014 kommen. Es wird genau so laufen wie schon bei GK104 und GK110. Das sagte ich schon bei der Vorstellung der GTX Titan.
Edit: Der große Vorteil von ARM Cores liegt wohl darin, On-Die bleiben zu können. Ich schätze mal, dass ich damit bei bestimmten Problemen größeres Speedups erreichen kann.
Duplex
2014-02-19, 23:18:30
Angenommen GM204 wird 20% schneller als die GTX780 Ti, dann bräuchte AMD in 20nm nur ein 64x64 Chip mit 4096 Shader als Konter.
Godmode
2014-02-19, 23:20:33
Angenommen GM204 wird 20% schneller als die GTX780 Ti, dann bräuchte AMD in 20nm nur ein 64x64 Chip mit 4096 Shader als Konter.
Um die mache ich mir überhaupt keine sorgen. AMD hat es bisher fast jede Runde geschafft, eine konkurrenzfähige Karte zu bauen.
Ailuros
2014-02-19, 23:26:18
Kann sein dass ich mich irre aber ich hab das Gefühl dass AMD 20SoC überspringt. 16FF nicht vor Q2 2015 für komplizierte chups IMHO.
Hübie
2014-02-19, 23:27:33
Man darf nicht vergessen dass man jetzt erst mal mit der Titan BE die Kunden abzocken besänftigen möchte. Die braucht ein klares Alleinstellungsmerkmal für Gamer. Da ist einerseits die DMA-Engine, DP-unlocked, künstliche Verknappung (damit der Abgezockte geneigte Kunde denkt er habe fette Beute gemacht) und ein MSRP der sagt: "eure Armut kotzt mich an". Das sind klare Indizien das so schnell kein Maxwell kommen wird der diesen Karten paroli bieten wird. Ich kann mir denken dass die 780 ersetzt wird und erst 2015 dann ein breiter Ausbau von Maxwell kommt.
Jetzt steht auch noch die GTX 790 vor der Tür für die man auch Abgezockte Kunden finden muss.
Wir sehen, und da bin ich mir ziemlich sicher, jetzt langsam die Abspaltung von GeForce und Tesla.
Duplex
2014-02-19, 23:29:25
Kann sein dass ich mich irre aber ich hab das Gefühl dass AMD 20SoC überspringt. 16FF nicht vor Q2 2015 für komplizierte chups IMHO.
AMD zunächst Richtung 20 nm, danach FinFETs
http://www.computerbase.de/news/2013-10/amd-zunaechst-richtung-20-nm-danach-finfets/
Warum sollte AMD 20 SoC überspringen?
Ein 64 CU Chip mit 4096 Shader sollte in 20nm auch kleiner als Hawaii ausfallen, mit 499$ wäre man dann P/L vor Nvidia gegenüber GM204.
Godmode
2014-02-19, 23:37:43
Man darf nicht vergessen dass man jetzt erst mal mit der Titan BE die Kunden abzocken besänftigen möchte. Die braucht ein klares Alleinstellungsmerkmal für Gamer. Da ist einerseits die DMA-Engine, DP-unlocked, künstliche Verknappung (damit der Abgezockte geneigte Kunde denkt er habe fette Beute gemacht) und ein MSRP der sagt: "eure Armut kotzt mich an". Das sind klare Indizien das so schnell kein Maxwell kommen wird der diesen Karten paroli bieten wird. Ich kann mir denken dass die 780 ersetzt wird und erst 2015 dann ein breiter Ausbau von Maxwell kommt.
Jetzt steht auch noch die GTX 790 vor der Tür für die man auch Abgezockte Kunden finden muss.
Wir sehen, und da bin ich mir ziemlich sicher, jetzt langsam die Abspaltung von GeForce und Tesla.
Sorry, aber so bescheuert bin nicht mal ich eine Titan Black zu kaufen und das heißt was. Vor ein paar Monaten wollte ich sogar noch ne K20X kaufen. :freak:
Ne K20X hat doch gar keinen Display-Ausgang?
Hübie
2014-02-20, 02:02:30
Für PhysX :freak:
Ich weiß dass du immer fette Hardware hast godmode, aber glaub mir: irgendwo im Luxx liegt schon einer auf der Lauer. Wetten? Es wird Käufer geben. So wie jedes Mal.
Übrigens rede ich zyklisch immer von ca einem Jahr. Also werden wir vielleicht Q1/Q2 eine echte Ablöse für Titan BE & Co sehen. Aber ich bin mir sicher dass wir 2014 keinen fetten Chip alá GK110 sehen werden (also in Relation gesehen).
Godmode
2014-02-20, 08:47:19
Ne K20X hat doch gar keinen Display-Ausgang?
Meinte natürlich die Quadro K6000 mit vollen SMX.
Hugo78
2014-02-20, 18:22:06
Ja. Ein ~180W TDP waren auch nett
Das sollte unter 20nm bei einem nur 256Bit SI sogar das Minimumziel darstellen.
Aber ich hoffe ja, dass sich deine Quelle beim dem SI irrt und es doch wenigstens 320Bit sind.
und ein $349 MSRP. Gerade das letzte kann man beruht vergessen....
Na ja spätestens als Refresh GTX 970, ende 2015/ anfang 2016 wirds das geben. :tongue:
Wobei die GTX 870 im Vergleich sicher wieder kaum langsamer wird (7-10%), bei einem wieder so schmalem SI.
Da bekommt man dann ca. GTX 780 Ti Speed @ ca. 160W, für um die 400€ und nach X-Mas für 350€.
Und Geduld muss man bei den sich verlängernden Entwicklungszyklen eh wieder lernen.
Auch wenn allein schon die Bezeichnung GTX 880 mit Blick auf die 8800 GTX ein gewissen Reiz hat und es dann um so bedauerlich ist,
dass da kein fetter GM200 drauf sein wird.
Ailuros
2014-02-20, 18:54:53
Das sollte unter 20nm bei einem nur 256Bit SI sogar das Minimumziel darstellen.
Aber ich hoffe ja, dass sich deine Quelle beim dem SI irrt und es doch wenigstens 320Bit sind.
Welche Quelle? Ich sagte dass es eigene Spekulation ist.
***edit: AMD/20nm Posts findet Ihr hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544607&page=5
Dawn on Titan
2014-02-20, 19:06:02
<200W - +20% gegenüber GK110b - da zahle ich gerne den Preis der GK110 für.
Hugo78
2014-02-20, 22:34:13
Welche Quelle? Ich sagte dass es eigene Spekulation ist.
Ok, na dann sag ich GM204 als GTX 880 bekommt 20SMM (2560 Cores), ein 320 Bit SI für 5GiB RAM bei noch < 200W, wird aber auch markant größer als GK104.
Die GTX 870 hat nur 18SMM und kommt sowohl mit 5 als auch mit nur 2,5GiB.
GM200 wird dann garnicht mal soviel mehr ALUs haben (25 - 30SMM / 3200 - 3840 Cores), aber dafür ein breiteres SI mit bis zu 512 Bit und 8GiB.
Wobei eher ein 384Bit bis 448Bit SI für 6-7 GiB wahrscheinlicher ist, kostet ja anscheinend recht viel Perf/W., man wäre damit im HPC Bereich aber insgesamt besser aufgehoben.
Mandalore
2014-02-21, 14:56:54
Es wird drauf ankommen, was AMD bringt. Wenn AMD eine sehr starke GPU raushaut mit GCN2, dann kann Nvidia nicht einfach nur nen GM204 als GTX880 rausbringen. Außer die Chips sind technisch bis dahin nicht realisierbar.
Nvidia gibt ja an, dass die ALUs von Maxwell 35% schneller sind als die von Kepler. Wurden da die Cores an sich verändert oder liegt es eher an dem L2-Cache?
Kann man generell sagen, dass der Sprung von Kepler->Maxwell größer ist als der Sprung von Fermi->Kepler?
Ailuros
2014-02-21, 16:27:31
Kann man generell sagen, dass der Sprung von Kepler->Maxwell größer ist als der Sprung von Fermi->Kepler?
Noch schwer zu sagen ohne die ersten perf/W Verhaeltnisse unter 20SoC schwarz auf weiss zu sehen; mein Bauchgefuehl sagt mir aber dass der ziemlich grosse Luftraum zwischen 40G und 28HP nicht so leicht uebertreffen laesst von 28HP auf 20SoC.
***edit: ich hab Dir uebrigens die letzten 2 posts vereint; in solchen Faellen benutz bitte die edit Funktion wenn Du direkt nach einem Post noch etwas nachtragen willst. Danke.
Dawn on Titan
2014-02-21, 17:13:34
Keppler ist wesentlich effizienter als Thermi, da wird ein vergleichbarer Sprung für Maxwell schon sehr unwahrscheinlich.
dildo4u
2014-02-21, 17:17:06
Die 750 hat das machbare unter 28nm doch schon gezeigt,etwas unter 2X.
http://abload.de/img/fps-per-wattwjact.png
http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-14.html
Ailuros
2014-02-21, 17:22:31
Keppler ist wesentlich effizienter als Thermi, da wird ein vergleichbarer Sprung für Maxwell schon sehr unwahrscheinlich.
Wesentlich ist relativ, denn mehr als 2x Mal schneller ist GK110 auch nicht als GF110. Es war lediglich um einiges leichter zu erreichen weil 32nm bei TSMC storniert wurde und somit sich der Abstand zwischen 40G und 28HP vergroesserte. Im Fall von 28HP zu 20SoC hast Du eben nicht mehr den fast 50% Unterschied sondern eher um die 30%.
Godmode
2014-02-21, 17:27:11
Ich mache mir da keine Sorgen. GM200 wird ein sehr rundes Produkt werden, aber halt wieder auch teuer.
Ailuros
2014-02-21, 17:46:33
Ich mache mir da keine Sorgen. GM200 wird ein sehr rundes Produkt werden, aber halt wieder auch teuer.
Bei einem Sonderpreis von $999/SKU soll ich Dir schon 4 vorbuchen? :biggrin:
Godmode
2014-02-21, 18:11:51
Bei einem Sonderpreis von $999/SKU soll ich Dir schon 4 vorbuchen? :biggrin:
Nein, verkaufe gerade meine restlichen zwei Titans und habe nicht vor diese in Zukunft durch was schnelleres zu ersetzen.
Dawn on Titan
2014-02-21, 19:03:08
Wesentlich ist relativ, denn mehr als 2x Mal schneller ist GK110 auch nicht als GF110. Es war lediglich um einiges leichter zu erreichen weil 32nm bei TSMC storniert wurde und somit sich der Abstand zwischen 40G und 28HP vergroesserte. Im Fall von 28HP zu 20SoC hast Du eben nicht mehr den fast 50% Unterschied sondern eher um die 30%.
Keppler ist aber an sich schon effizienter als Fermi war. Die Fertigung spielt da natürlich eine große Rolle und die Vorhersagen für 20nm SOC lassen ja auch eher keine Wunder erwarten. Immerhin sagt ja selbst TSMC, das man eher die Wahl hat ob man bei ähnlichem Verbrauch mehr Leistung erzielen will oder ähnliche Leistung bei rund 30% weniger Verbrauch. 28nm brachte da gegenüber 40nm deutlich mehr, keine Frage.
gibts denn Anhaltspunkte, ob es mehr Unterschiede zwischen GM1xx und GM2xx als nur 28HP zu 20SoC gibt?
AnarchX
2014-02-21, 19:11:15
Laut den Treibern könnte GM2xx eine erweiterte Compute Capability haben, SM_52 statt SM_50.
Es gab ja auch schon Spekulationen, dass die DP-ALUs für SP mitgenutzt werden können.
OK, aber nichts für Gamer?
Das mit den DP-Units für SP hab ich auch schon mal irgendwo gelesen.
Vielleicht hab ich's überlesen, hat GM107 wieder extra DP ALU's?
Wenn es so wäre, dass DP-ALU's für SP mit zu verwenden, warum kann das GM107 nicht?
Ailuros
2014-02-21, 19:27:09
Keppler ist aber an sich schon effizienter als Fermi war.
Haarspalterei aber http://de.wikipedia.org/wiki/Johannes_Kepler ; und es war sogar ein Deutscher.
Sonst nochmal ist es nicht immer so bei einer neuen Architektur? Dass GF100 einen ernsthaften hw bug hatte ist eine andere Geschichte, aber der GF110 ohne hw bug war schon ein verdammt grossen Schritt der Vorgaenger-Generation voraus. Technisch gesehen ist Fermi dank der verteilten Tessellations-engine ueber alle clusters und dem interconnect zwischendrin der auch heute fast so erhalten bleibt bei Maxwell der eigentlich grosse Wendepunkt. Kepler und Maxwell konzentrieren sich eher groessere Effizienz zu liefern und sonst ziemlich wenige bzw. kleine Aenderungen. Ist alles Ansichtssache.
Es gab ja auch schon Spekulationen, dass die DP-ALUs für SP mitgenutzt werden können.
Muelltonne auf ---> obrige Spekulation rein <---Muelltonne zu. :wink:
Hatten wir schonmal.
OK, aber nichts für Gamer?
Das mit den DP-Units für SP hab ich auch schon mal irgendwo gelesen.
Vielleicht hab ich's überlesen, hat GM107 wieder extra DP ALU's?
Wenn es so wäre, dass DP-ALU's für SP mit zu verwenden, warum kann das GM107 nicht?
GM107 hat 4*FP64/SMM ergo 20 FP64 SPs insgesamt. GK107 hat hingegen 8*FP64/SMX ergo 16 FP64 SPs insgesamt.
Dawn on Titan
2014-02-21, 20:03:29
Klar technologisch war der große Sprung Fermi, im Konkurrenzumfeld war man damit aber relativ schlecht wenn es um Perf/W ging, dies hat Kepler massiv geändert, ich denke einfach dass es nun schwerer wird einfach große Verbesserungen zu erzielen und der Prozess verspricht auch nicht so viel, dass ich insgesamt zwar eine spürbare Verbesserung erwarte, aber eine kleinere als von Fermi auf Kepler.
GM107 hat 4*FP64/SMM ergo 20 FP64 SPs insgesamt. GK107 hat hingegen 8*FP64/SMX ergo 16 FP64 SPs insgesamt.
Danke für die Erkläung :smile:
Bleibt das Verhältnis FP64 je SMM bei GM2xx gleich?
Haarspalterei aber [url]... Technisch gesehen ist Fermi dank der verteilten Tessellations-engine ueber alle clusters und dem interconnect zwischendrin der auch heute fast so erhalten bleibt bei Maxwell der eigentlich grosse Wendepunkt.....
Was hat den NV am Interconnect verändert? Bei GF100 war es ja noch ein riesen Problem.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.