PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33

Ailuros
2014-11-12, 06:57:35
Laut der News heute 3072 Cores, 384-Bit-SI. Aus meiner Sicht am unteren Ende der Ewartung. Dürfte immerhin 50%, je nach Takt (Speichertakt?) und Cache-Effizienz 60% schneller sein.

Wie wuerdest Du mehr unter 28nm genau reinquetschen? Sobald es sicher war dass GM200 auf 28nm ausgelegt wurde, war nicht mehr zu erwarten.

Dawn on Titan
2014-11-12, 07:10:02
Cores zählen ist doch so oldfashioned.

Hübie
2014-11-12, 08:01:41
Und was ist dann bitte newfashoned? :| Die nehmen nun mal ein Gros des Dies ein und Dinge wie PCIE-Interface, UVD lassen sich skalieren bzw. sind bei gleichem Prozess so gut wie konstant.

Also bitte erleuchte uns :freak:

PHuV
2014-11-15, 13:56:15
Hm, da werden wohl die ersten Margen vom GM200 eher dahin wandern:

USA wollen wieder den schnellsten Großrechner (http://www.heise.de/newsticker/meldung/USA-wollen-wieder-den-schnellsten-Grossrechner-2457719.html?wt_mc=rss.ho.beitrag.atom)

Laut Nvidia, eines der beauftragten Unternehmen, sollen sie im Vergleich zu den derzeit schnellsten Supercomputern ein Mehrfaches an Rechenoperationen abarbeiten können. Neben Nvidias Grafikbeschleunigern sollen Power-CPUs von IBM und Netzwerktechnik von Mellanox zum Einsatz kommen.

Nightspider
2014-11-15, 14:00:53
Aus meiner Sicht am unteren Ende der Ewartung.

lol, hast du getrunken? ;D

MorPheuZ
2014-11-28, 16:20:21
Sorry für meine nicht aktualisierte Kenntniss und Thread searching. Was sind die letzten bekannten Daten zum Release vom GM200? Möchte nur abschätzen wegen Grafikkartenneukauf :)

PHuV
2014-11-28, 16:35:03
Gibts bisher leider nichts neues. So wie es aktuell aussieht, kommt bis Weihnachten nichts mehr.

Godmode
2014-11-28, 18:12:10
Ich habe GM200 für 2014 abgeschrieben. :mad:

Nakai
2014-11-28, 18:20:16
Ich habe GM200 für 2014 abgeschrieben. :mad:

Tja, wieso sollte NV, welche das Segment derzeit anführen, eine GPU bringen, welche ihre kleinere GPU zerlegt, kaum teuerer verkauft werden kann und dadurch ihre Margen verringern. GM200 kommt erst, wenn AMD kontert und GM200 kommt erst im professionellen Bereich. Da muss NV aufholen.

M4xw0lf
2014-11-28, 18:22:18
Ich habe GM200 für 2014 abgeschrieben. :mad:
No shit? :freak:

Godmode
2014-11-28, 18:27:23
Tja, wieso sollte NV, welche das Segment derzeit anführen, eine GPU bringen, welche ihre kleinere GPU zerlegt, kaum teuerer verkauft werden kann und dadurch ihre Margen verringern. GM200 kommt erst, wenn AMD kontert und GM200 kommt erst im professionellen Bereich. Da muss NV aufholen.

Tzzz. Sie könnten GM200 wieder um 1000 Euro verkaufen, ich würde sofort zuschlagen. Um 1000 Euro würden sie genug verdienen, soviel teurer ist der Chip dann auch wieder nicht. Selbst wenn man 200 Euro Mehrkosten ansetzt (GM204 vs GM200 Board, GPU, RAM), würde dadurch der Gewinn um 300 Euro höher sein.

fondness
2014-11-28, 18:27:36
Tja, wieso sollte NV, welche das Segment derzeit anführen, eine GPU bringen, welche ihre kleinere GPU zerlegt, kaum teuerer verkauft werden kann und dadurch ihre Margen verringern. GM200 kommt erst, wenn AMD kontert und GM200 kommt erst im professionellen Bereich. Da muss NV aufholen.

Solange es GM200 auch im professionellen Bereich nicht gibt ist er schlicht noch nicht fertig, da braucht man gar nicht herum diskutieren. Zumal es beim Preis noch genug Luft nach oben gibt mit einer Titan.

AnarchX
2014-11-28, 18:28:42
Der Dezember ist noch lang. ;)

Nakai
2014-11-28, 18:33:51
Solange es GM200 auch im professionellen Bereich nicht gibt ist er schlicht noch nicht fertig, da braucht man gar nicht herum diskutieren. Zumal es beim Preis noch genug Luft nach oben gibt mit einer Titan.

Er ist doch schon lange fertig. Womöglich läuft gerade ein Respin im Hintergrund. Man wird erstmal eine Titan II bringen mit leicht über 2560SPs o.Ä , um die Early-Adpoters abzustrafen.

Tzzz. Sie könnten GM200 wieder um 1000 Euro verkaufen, ich würde sofort zuschlagen.

Ich versteh das einfach nicht. Das ist nur eine GPU. Spiele sind doch eh langweilig. Im HPC-Bereich wär das alles ganz witzig, imo, aber ich würde trotzdem sowas nicht kaufen.

Godmode
2014-11-28, 18:37:52
Der Dezember ist noch lang. ;)

Wann wurde das letzte mal eine Nvidia GPU im Dez vorgestellt? Wenn das müsste das die nächsten zwei Wochen passieren, sonst geht es sich nicht mehr aus bis die Teile breit verfügbar sind.


Ich versteh das einfach nicht. Das ist nur eine GPU. Spiele sind doch eh langweilig. Im HPC-Bereich wär das alles ganz witzig, imo, aber ich würde trotzdem sowas nicht kaufen.

Leute mit GK110 warten jetzt seit fast 2! Jahren.

aufkrawall
2014-11-28, 19:24:13
GM200 wird übel: Brachiale Compute-Performance auf breiter Linie und die min-fps müssten äußerst gut sein im Vergleich zu GK110. Schon bei GM204 legten die min-fps im Durschnitt stärker zu als avg, da werden die zusätzlichen ALUs schon gut reinhauen.
Bisher war offenbar hohe ALU-Last eher AMD-Metier, Maxwell 2.0 dürfte sie ziemlich ärgern.

Skysnake
2014-11-28, 20:03:25
Im SP Bereich ja, im DP ziemlich wahrscheinlich nicht. Da ist eher Intel mit KNL eine Gefahr.

Nakai
2014-11-28, 20:30:25
DP:SP- 1:2 für GM200. Alles andere wäre lächerlich. Damit ist man nur leicht über Hawaii. Schlecht für NV. Wenn Fiji ein DP:SP von 1:2 hat(also Compute-Chip) und der Stromverbrauch sich bewahrheiten soll, dann bringt AMD nächstes Jahr einen Compute-Chip mit deutlich mehr als 12DP-GFLOPs/Watt.

Ailuros
2014-11-28, 20:39:50
Wohl eher DP FLOPs/W. Intel KNL soll nach Intel's Zielen bei 14/15 liegen.

hasebaer
2014-11-28, 21:26:50
Ist das nicht irgendwie wenig dafür das sie mit 14nm Tri-Gate arbeiten?

Ailuros
2014-11-28, 21:37:48
Ist das nicht irgendwie wenig dafür das sie mit 14nm Tri-Gate arbeiten?

Ich hab's zumindest so in Erinnerung; hatten wir nicht einen KNL thread wo die relevanten Folien drinstanden?

ndrs
2014-11-29, 01:24:20
Wohl eher DP FLOPs/W.
:D Sicher? Hat die Karte bei 200W dann satte 2,4 k(!!!)Flops?

Ailuros
2014-11-29, 02:41:21
:D Sicher? Hat die Karte bei 200W dann satte 2,4 k(!!!)Flops?

Lass meinen brainfart in Ruhe :P

Hübie
2014-11-29, 02:58:45
Hm, da werden wohl die ersten Margen Chargen vom GM200 eher dahin wandern:

Fixed that for you.

Skysnake
2014-11-29, 08:55:42
DP:SP- 1:2 für GM200. Alles andere wäre lächerlich. Damit ist man nur leicht über Hawaii. Schlecht für NV. Wenn Fiji ein DP:SP von 1:2 hat(also Compute-Chip) und der Stromverbrauch sich bewahrheiten soll, dann bringt AMD nächstes Jahr einen Compute-Chip mit deutlich mehr als 12DP-GFLOPs/Watt.
Fiji wird ganz sicher 1:2 haben, GM200, aber eher nicht. Das wäre eine riesen Umstellung im Vergleich zu GM20x. Daher hat nVidia ja auch durchaus ein Problem mit GM200.Das Ding wird sicherlich interessant, aber allein schon Intel haut halt richtig auf die Kacke.

Und eins darf man nicht vergessen, Intel integriert den NIC in KNL. Das kann je nach Anwendung wohl schon den Ausschlag geben, zumal Omnipath ja auch eine niedrigere Latenz besitzen soll als die Infiniband Switches von Mellanox. Zudem steht da schon die Rpadmap für 1.2Tb/s Linkbandbreite.

Intel geht da einen ziemlich extremen Weg, bei dem Sie wie IBM mit BlueWater auch fett auf die Fresse fallen können. Wenn Sie es aber durchziehen, dann sieht die Konkurrenz halt gar kein Land mehr.

Ich seh da IBM+nVidia+Mellanox auch im Nachteil. IBM&nVidia haben sich scheinbar auf einen Link geeinigt, aber ob da Mellanox auch noch mitspielt dürfte fraglich sein. Und selbst wenn Sie mitspielen, werden Sie sicher nicht ein komplettes Design nur dafür raushauen. Intel macht aber im Prinzip genau das. Die passen alles auf ihr Produkt an, und holen das Maximum raus, ohne auf irgendetwas anderes Rücksicht zu nehmen. Das sind einfach schon viel viel bessere Ausgangsvorraussetzungen, um am Ende was richtig richtig geiles zu schaffen, oder fett auf die Fresse zu fliegen.

IBM mit ihrem BlueWater system hätte dagegen locker anstinken können, und AMD, falls ihnen noch ein Netzwerkspezialist anheimfällt, aber ansonsten sehe ich Intel da ziemlich allein.

AnarchX
2014-11-29, 09:35:15
Fiji wird ganz sicher 1:2 haben, GM200, aber eher nicht. Das wäre eine riesen Umstellung im Vergleich zu GM20x. Daher hat nVidia ja auch durchaus ein Problem mit GM200.

Die Non-Zero-Parts waren schon immer stark kastriert bei der DP-Leistung. Und Maxwell bietet für 1:2 wohl deutlich bessere Voraussetzungen als noch Kepler.
Oder welche Gründe sieht du da noch?

Ailuros
2014-11-29, 09:49:16
Fiji wird ganz sicher 1:2 haben, GM200, aber eher nicht. Das wäre eine riesen Umstellung im Vergleich zu GM20x. Daher hat nVidia ja auch durchaus ein Problem mit GM200.Das Ding wird sicherlich interessant, aber allein schon Intel haut halt richtig auf die Kacke.

Welche riesen Umstellung genau? Sonst entschuldige aber Intel haut schon seit Jahren angeblich bei HPC ein (zumindest behaupten sie es selber) aber einen sehenswerten Vorsprung hab ich bis jetzt noch nicht sehen koennen.

Und eins darf man nicht vergessen, Intel integriert den NIC in KNL. Das kann je nach Anwendung wohl schon den Ausschlag geben, zumal Omnipath ja auch eine niedrigere Latenz besitzen soll als die Infiniband Switches von Mellanox. Zudem steht da schon die Rpadmap für 1.2Tb/s Linkbandbreite.

Intel geht da einen ziemlich extremen Weg, bei dem Sie wie IBM mit BlueWater auch fett auf die Fresse fallen können. Wenn Sie es aber durchziehen, dann sieht die Konkurrenz halt gar kein Land mehr.

Ist ja alles schoen und gut, nur warte ich lieber die finale hw ab und wie es wirklich am Ende aussieht denn von tollen Versprechungen und Vorteilen hoeren wir schon seit einer Ewigkeit. Wuerde man Intel's bisherigen Behauptungen glauben muessten sie heute schon ein Monopol im HPC haben.

Vor kurzem hatten wir ein angebliches technisches briefing von Intel fuer KNL und dessen Nachfolger; tud mir leid aber dass der Inhalt total fehlte hat wohl nicht nur Charlie festgestellt. Es ist nicht so dass man Intel unterschaetzen sollte, aber vom "die Konkurrenz hat keine Chance mehr" Punkt bin ich noch nicht ueberzeugt. Wenn es um reine DP TFLOPs geht wuerde ich mir mit Fiji eher Sorgen machen gegen GM200. KNL wird knapp ueber 3 TFLOPs DP liegen nach Intel selber fuer H2 15' wenn alles nach Plan laeuft.

Nakai
2014-11-29, 11:53:48
Fiji wird ganz sicher 1:2 haben, GM200, aber eher nicht. Das wäre eine riesen Umstellung im Vergleich zu GM20x. Daher hat nVidia ja auch durchaus ein Problem mit GM200.Das Ding wird sicherlich interessant, aber allein schon Intel haut halt richtig auf die Kacke.


Es sind DP1:2 für GM200, alles andere macht bei diesem Aufbau keinen Sinn. GK110 hatte das nur, weil die Registerbandbreite sonst nicht ausgereicht hätte. Maxwell hat diese Probleme nicht.

Der nächste Punkt wäre auch die Konzeption von GM200 gegenüber GK110. GK110 hat 12(6) SP SIMD-Ports, aber nur 4(2) DP SIMD-Ports. Das passt zufällig genau zu der Anzahl der Warp-Scheduler(2 pro Dispatcher, warscheinlich 1 Dispatcher für DP pro Scheduler). Man verfolgt bei Maxwell eher das Prinzip "ich laste meine SPs maximal aus" im Gegensatz zu Keplers "ich laste meine Scheduler maximal aus". 4 Scheduler(2 Dispatcher pro Scheduler; einer für DP pro Scheduler) pro SMM. Sieht stark danach aus, dass Maxwell DP:SP von 1:2 hat.

PHuV
2014-11-29, 12:57:16
Der Dezember ist noch lang. ;)
Solange sich die GTX 980 und 970 so gut verkaufen wie jetzt, und AMD nichts entgegenzusetzen hat, würde ich an Nvidias Stelle hier auch abwarten. Wenn das Ding wirklich so gut sein soll, brauchen sie nichts zu führten, und setzen den Konter erst, wenn AMD kommt.

dargo
2014-11-29, 13:42:37
Solange sich die GTX 980 und 970 so gut verkaufen wie jetzt, und AMD nichts entgegenzusetzen hat, würde ich an Nvidias Stelle hier auch abwarten.
Quelle?

Wenn ich die Top-10 bei GH betrachte sehe ich da 8x die 970 und nur 1x die 980. Bei der Preisdifferenz auch kein Wunder.

Ailuros
2014-11-29, 13:46:58
Solange sich die GTX 980 und 970 so gut verkaufen wie jetzt, und AMD nichts entgegenzusetzen hat, würde ich an Nvidias Stelle hier auch abwarten. Wenn das Ding wirklich so gut sein soll, brauchen sie nichts zu führten, und setzen den Konter erst, wenn AMD kommt.

Ausser es ist irgend etwas kaputt verzoegern IHV selten bis nie irgend ein Produkt. GM200 hatte seinen tape out im Juli 2014 und bei der chip-Komplexitaet wuerde ich auf keine vorzeitige Massenproduktion hoffen.

Fuer HPC wird es schwer aussehen fuer NV; die einzige Rettungsplanke bis zu Pascal waere dann noch eine Maxwell Variante auf dem GK210 Konzept.

Skysnake
2014-11-29, 14:06:42
Welche riesen Umstellung genau? Sonst entschuldige aber Intel haut schon seit Jahren angeblich bei HPC ein (zumindest behaupten sie es selber) aber einen sehenswerten Vorsprung hab ich bis jetzt noch nicht sehen koennen.

Na für 1:2 im bisherigen "dedizierte DP-Units" wirds etwas eng, wenn man auch was an Leistung reisen will. Das Ding soll/muss ja auch ne gewisse Grundleistung bringen, nicht nur einfach effizient sein.

Man ist halt immer nur so gut, wie die Konkurrenz einen das zulässt, und was soll man bitte von GM200 bitte erwarten? Er wird nicht schlecht sein, aber ich gehe nicht davon aus, das es auch nur einen relevanten Part gibt, wo er AMD und! Intel ausstechen wird.


Ist ja alles schoen und gut, nur warte ich lieber die finale hw ab und wie es wirklich am Ende aussieht denn von tollen Versprechungen und Vorteilen hoeren wir schon seit einer Ewigkeit. Wuerde man Intel's bisherigen Behauptungen glauben muessten sie heute schon ein Monopol im HPC haben.

Vor kurzem hatten wir ein angebliches technisches briefing von Intel fuer KNL und dessen Nachfolger; tud mir leid aber dass der Inhalt total fehlte hat wohl nicht nur Charlie festgestellt. Es ist nicht so dass man Intel unterschaetzen sollte, aber vom "die Konkurrenz hat keine Chance mehr" Punkt bin ich noch nicht ueberzeugt. Wenn es um reine DP TFLOPs geht wuerde ich mir mit Fiji eher Sorgen machen gegen GM200. KNL wird knapp ueber 3 TFLOPs DP liegen nach Intel selber fuer H2 15' wenn alles nach Plan laeuft.
Dann les mal nochmal genau was ich geschrieben habe ;)

Die machen die Konkurrenz platt, wenn Sie umsetzen, was Sie versprechen, bisher gabs aber immer kleinere/größere Dämpfer. Die Frage ist also, kann Intel die Kurve bekommen? Für KNL glaube ich nicht wirklich dran. Da wurde schon so einiges Relativiert. Um AMD und nVidia gehörig ins Schwitzen zu bringen, wird es aber dennoch reichen, und wenn es auch nur bei den günstigen Preisen bleibt.

Die spannendste Sache wird der HMC aufm package, und die Integration von Infini... Argh wait OmniPath sein. Rein vom Datendurchsatz her, ist es sehr sicher wohl doch nicht mehr als die Konkurrenz bietet, aber die Latenzen werden spannend, genau wie der Preis. Intel hatte mit ihre(n) 80GBit Karte(n) ja gezeigt, das man halt zur Not den Preis halbiert und gut ist.

Und zu was Intel bereit ist, sieht man ja im ultraMobile Bereich, wo die Chips ja soweit man das weiß, teils faktisch verschenkt wurden. Soweit wird Intel nicht gehen, aber im Zweifel nehem Sie lieber nen Deal mit, bei dem Sie wenig bis nichts verdienen, als ihn der Konkurrenz zu überlassen.

Die Non-Zero-Parts waren schon immer stark kastriert bei der DP-Leistung. Und Maxwell bietet für 1:2 wohl deutlich bessere Voraussetzungen als noch Kepler.
Oder welche Gründe sieht du da noch?
Zwischen kastriert und über gar nicht mehr verfügen besteht ein kleiner Unterschied. Um die Leistungszuwächse relativ zu GKx10 müssen wir uns denke ich auch keine Sorgen machen, eher darum, ob das zu dem Zeitpunkt, wo es auf den Markt kommt, auch nur noch irgendjemand hinterm Ofen vor holt.

Ailuros
2014-11-29, 14:21:16
Na für 1:2 im bisherigen "dedizierte DP-Units" wirds etwas eng, wenn man auch was an Leistung reisen will. Das Ding soll/muss ja auch ne gewisse Grundleistung bringen, nicht nur einfach effizient sein.

Eine Loesung die effizient ist, bringt verstaendlicherweise auch eine gewisse Grundleistung.

Man ist halt immer nur so gut, wie die Konkurrenz einen das zulässt, und was soll man bitte von GM200 bitte erwarten? Er wird nicht schlecht sein, aber ich gehe nicht davon aus, das es auch nur einen relevanten Part gibt, wo er AMD und! Intel ausstechen wird.

Auf spekulativem Nivaeu zieht bisher GM200 auf Papier den kuerzeren. Ich hab A, B und C chip; wenn bei allen drein alles nach Plan laeuft yaddayadda dann gilt auch der erste Satz.

Dann les mal nochmal genau was ich geschrieben habe ;)

Die machen die Konkurrenz platt, wenn Sie umsetzen, was Sie versprechen, bisher gabs aber immer kleinere/größere Dämpfer. Die Frage ist also, kann Intel die Kurve bekommen? Für KNL glaube ich nicht wirklich dran. Da wurde schon so einiges Relativiert. Um AMD und nVidia gehörig ins Schwitzen zu bringen, wird es aber dennoch reichen, und wenn es auch nur bei den günstigen Preisen bleibt.

Und die daemlichen Maerchen lese ich mit Verlaub schon seit dem ersten LRB Enkelkind; wie toll und leicht es sich programmieren laesst, wie das und das andere und am Ende kommt immer nichts wirklich besonderes raus. Es ist lediglich ein stinknormaler Nebeneffekt vom marketing. Und hier haben sie schon umgesetzt was sie versprochen hatten; es hat sie wohl nur das Publikum falsch verstanden :D

Die spannendste Sache wird der HMC aufm package, und die Integration von Infini... Argh wait OmniPath sein. Rein vom Datendurchsatz her, ist es sehr sicher wohl doch nicht mehr als die Konkurrenz bietet, aber die Latenzen werden spannend, genau wie der Preis. Intel hatte mit ihre(n) 80GBit Karte(n) ja gezeigt, das man halt zur Not den Preis halbiert und gut ist.

Und zu was Intel bereit ist, sieht man ja im ultraMobile Bereich, wo die Chips ja soweit man das weiß, teils faktisch verschenkt wurden. Soweit wird Intel nicht gehen, aber im Zweifel nehem Sie lieber nen Deal mit, bei dem Sie wenig bis nichts verdienen, als ihn der Konkurrenz zu überlassen.

Das heisst aber auch nicht dass sie eine garantierte Zukunft im ULP haben, ausser sie verscherpeln ihre SoCs fuer immer umsonst. Hat aber mit HPC auch nichts zu tun, ausser dass sie mit ihrer quadratischen interner Buerokratie nie wirklich zu den richtigen strategischen Entscheidungen kommen werden welches dann ein gemeinsamer Punkt zwischen ULP und HPC ist. Sonst fuer's OT: sie konnten bis jetzt selbst mit subsidies ihr 40Mio tablet SoC Ziel erreichen :rolleyes:

Gibt es irgendwo eine Statistik um zu sehen welchen Marktanteil fuer HPC bisher jeder IHV genau hat? Wollen wir wetten dass Intel nicht so gut dasteht wie jeder auf Anhieb glauben wuerde?

Nakai
2014-11-29, 14:42:41
Na für 1:2 im bisherigen "dedizierte DP-Units" wirds etwas eng, wenn man auch was an Leistung reisen will. Das Ding soll/muss ja auch ne gewisse Grundleistung bringen, nicht nur einfach effizient sein.

Man ist halt immer nur so gut, wie die Konkurrenz einen das zulässt, und was soll man bitte von GM200 bitte erwarten? Er wird nicht schlecht sein, aber ich gehe nicht davon aus, das es auch nur einen relevanten Part gibt, wo er AMD und! Intel ausstechen wird.


Alles andere als DP1:2 macht keinen Sinn. Anders bekommt NV ihre DP GFlops/Watt nicht hin, vor allem, weil GM200 nicht weniger als GM204 verbrauchen wird.

Aus gegebenen Anlass: Wenn der Leak Fiji entspricht und das eine PRO-Variante war(Annahme: 800~850MHz Coretakt) und Fiji DP1:2 hat und dieser Fiji eine TDP von 200W hat, folgt eine Effizienz von 17 DP GFLOPs/Watt. Pascal soll auch nur 20 DP GFLOPs/Watt haben. Keine Ahnung wie Effizient KNL von Intel ist, aber das muss erstmal getoppt werden. Leider denke ich eher, der Leak war GM200.

Denn:
Reinher von der Performance liegt man etwa 15% vor GM204. Bei 200W Verbrauch müsste der Chip etwa 925MHz takten. Was eine Effizienz von ~14DP GFLOPs/Watt macht. Unter Compute wird der Chip wohl noch etwas mehr schlucken, weswegen man beruhigt auf 12DP GFLOPs/Watt abrunden kann. ;)

Das sieht mir zu sehr nach GM200 aus...

Skysnake
2014-11-29, 15:04:38
Eine Loesung die effizient ist, bringt verstaendlicherweise auch eine gewisse Grundleistung.

Klar, aber wenn man x% hinter der Konkurrenz liegt, dann ist auch die tollste Perf/W schnell auch wieder fürn Arsch. Es sollte inzwischen ja bekannt sein, dass die Gesamteffizienz durch viele Faktoren bestimmt wird, und wenn man allein 10% mehr Knoten braucht, weil man eben weniger Leistung in einen Knoten bekommt, wirkt sich das schnell ungünstig aus. Man sollte ja nicht vergessen, das nVidia immer einen Host braucht. Von den NICs erst gar nicht angefangen, vor allem nicht in Verbindung mit den Switches.


Auf spekulativem Nivaeu zieht bisher GM200 auf Papier den kuerzeren. Ich hab A, B und C chip; wenn bei allen drein alles nach Plan laeuft yaddayadda dann gilt auch der erste Satz.

Dann sind wir uns ja diesbezüglich einig ;)


Und die daemlichen Maerchen lese ich mit Verlaub schon seit dem ersten LRB Enkelkind; wie toll und leicht es sich programmieren laesst, wie das und das andere und am Ende kommt immer nichts wirklich besonderes raus. Es ist lediglich ein stinknormaler Nebeneffekt vom marketing. Und hier haben sie schon umgesetzt was sie versprochen hatten; es hat sie wohl nur das Publikum falsch verstanden :D

Naja, von Intel gibt es schon Prototypen die ohne Host booten, und KNL soll ja ganz offiziell als Standalone Version vertrieben werden. Bei nVidia sieht man davon bis heute nichts, und wird es wohl selbst mit Volta nicht. Project Denver ist ja bekanntlich tot.


Das heisst aber auch nicht dass sie eine garantierte Zukunft im ULP haben, ausser sie verscherpeln ihre SoCs fuer immer umsonst. Hat aber mit HPC auch nichts zu tun, ausser dass sie mit ihrer quadratischen interner Buerokratie nie wirklich zu den richtigen strategischen Entscheidungen kommen werden welches dann ein gemeinsamer Punkt zwischen ULP und HPC ist. Sonst fuer's OT: sie konnten bis jetzt selbst mit subsidies ihr 40Mio tablet SoC Ziel erreichen :rolleyes:

Gibt es irgendwo eine Statistik um zu sehen welchen Marktanteil fuer HPC bisher jeder IHV genau hat? Wollen wir wetten dass Intel nicht so gut dasteht wie jeder auf Anhieb glauben wuerde?
Ja, gibt es. Kann man sich auf der Top500 als Auswertungen anzeigen lassen.

Für den Gesamtmarkt gibt es solche Auswertungen sicherlich auch, aber mir selbst sind jetzt keine konkreten bekannt.

Das Problem bei solchen Sachen ist auch immer, was man denn jetzt genau betrachtet.


#Systeme
#verkaufte Karte
#installierte Gesamtleistung
#installierte Gesamtleistung über Schwellwert XY
generierter Gesamtumsatz


Je nachdem wird das Bild ziemlich unterschiedlich aussehen. Intel hat z.B. wenige Systeme beliefert, aber dafür eben auch einige ziemlich fette, die halt richtig reinknallen wie Tianhe2

Zudem hat Intel wohl einige größere Partner gewonnen laut Berichten von der SC im Bereich Software, die ihren (legacy) Code auf KNx portieren. Da scheint Intel nen starken Fuß in die Tür bekommen zu haben, und das ist Gold wert. nVidia hatte das lange zum Vorteil gereicht.

Von der SC kam aber auch, das immer mehr aktiv nach OpenCL statt CUDA nachfragen, weil die Leute merken, dass Sie sich auf Gedeih und Verderben an nVidia ketten.

Von der SC haben Sie ne Fachzeitschrift mitgebracht, da gab es auch einen längeren Artikel zur Software und Exascale. Da stand mehr oder weniger Sinngemäß drin, dass immer mehr Kunden folgende Erkenntnis haben. Am Anfang war nVidia mit CUDA eine sehr günstige Sache, inzwischen bekommt man aber durch die niedrigeren Preise der nVidia Konkurrenz den Port der bestehenden Software praktisch umsonst, und da schlagen die Leute dann auch anscheinend zu. Man macht sich halt unabhängiger.

nVidias Markt wird halt von allen Richtungen kanabalisiert. Seien es jetzt die Japaner mit ihrem PEZY, Intel mit KNx, AMD mit FirePro (GPU&APU) oder eben auch die eine oder andere FPGA Entwicklung.

Und ob ihnen ihr Deal mit IBM da unbedingt hilft, ist auch noch eine Spannende Sache. Die Entwicklung wird ziemlich viele Ressourcen fressen, aber abseits von IBM nur überschaubare Früchte tragen.

Ansonsten:
Der Hinweis auf BlueWater war nicht willkührlich. Das kann bei Intel wirklich genau so Enden. Wenn man sich das nochmal mit etwas Abstand anschaut, finde ich sieht man doch so manche Parallele nicht wahr? ;) Intel ist halt "nur" nen knappes Jahrzehnt dann später dran als IBM.

Ailuros
2014-11-29, 16:10:54
Naja, von Intel gibt es schon Prototypen die ohne Host booten, und KNL soll ja ganz offiziell als Standalone Version vertrieben werden. Bei nVidia sieht man davon bis heute nichts, und wird es wohl selbst mit Volta nicht. Project Denver ist ja bekanntlich tot.

Bin mir nicht sicher aber ich glaube sie haben eher standard ARM cores im Visier wenn ueberhaupt.


Ja, gibt es. Kann man sich auf der Top500 als Auswertungen anzeigen lassen.

Für den Gesamtmarkt gibt es solche Auswertungen sicherlich auch, aber mir selbst sind jetzt keine konkreten bekannt.

Das Problem bei solchen Sachen ist auch immer, was man denn jetzt genau betrachtet.


#Systeme
#verkaufte Karte
#installierte Gesamtleistung
#installierte Gesamtleistung über Schwellwert XY
generierter Gesamtumsatz


Je nachdem wird das Bild ziemlich unterschiedlich aussehen. Intel hat z.B. wenige Systeme beliefert, aber dafür eben auch einige ziemlich fette, die halt richtig reinknallen wie Tianhe2

Zudem hat Intel wohl einige größere Partner gewonnen laut Berichten von der SC im Bereich Software, die ihren (legacy) Code auf KNx portieren. Da scheint Intel nen starken Fuß in die Tür bekommen zu haben, und das ist Gold wert. nVidia hatte das lange zum Vorteil gereicht.

Von der SC kam aber auch, das immer mehr aktiv nach OpenCL statt CUDA nachfragen, weil die Leute merken, dass Sie sich auf Gedeih und Verderben an nVidia ketten.

Und ein eingeschaetztes Markprozentual gibt es nirgends? Macht denn Intel eigentlich Gewinn von dem Zeug? Denn es ist eben nicht so dass sie die Dinger sonst wo noch in grossen Volumen verkaufen oder dass es ihr Kerngeschaeft ist.

AffenJack
2014-11-29, 16:30:01
Kommt drauf an, wie man das Marktprozentual berechnet. Die genauen Stückzahlen sind schwer rauszufinden, aber guckt man nur auf die Leistung dann teilen sich Nv/Intel den Markt fast 1:1 auf meine ich. Liegt aber zum guten Stück an Tianhe, der einfach der größte Rechner ist. Guckt man auf Anzahl der Computer mit GPGPU, hat Nv noch die Nase vorne, aber da sind auch viele alte Fermigurken dabei.

Ob Intel allerdings Geld verdient mit der Sparte ist ne andere Sache. Gab ja mal Meldungen, dass Phi verdammt billig angeboten wird.
Und auch wenn Skysnake Nvidia wie immer nix zutraut, haben sie mit IBM immerhin den Deal für die 2 größten US HPCs gewonnen.

Ailuros
2014-11-29, 16:35:34
Ob Intel allerdings Geld verdient mit der Sparte ist ne andere Sache. Gab ja mal Meldungen, dass Phi verdammt billig angeboten wird.
Und auch wenn Skysnake Nvidia wie immer nix zutraut, haben sie mit IBM immerhin den Deal für die 2 größten US HPCs gewonnen.

Es ist ja auch nicht so dass bis jetzt Intel Unmengen an R&D resources in Phi gesteckt hat.

Zum fettgedruckten :freak::biggrin:

Skysnake
2014-11-29, 17:48:46
Bin mir nicht sicher aber ich glaube sie haben eher standard ARM cores im Visier wenn ueberhaupt.

Im Prinzip ist es doch egal, was Sie "im Visier" haben. Man wird auf absehbare Zeit wohl nichts davon zu Gesicht bekommen.


Und ein eingeschaetztes Markprozentual gibt es nirgends? Macht denn Intel eigentlich Gewinn von dem Zeug? Denn es ist eben nicht so dass sie die Dinger sonst wo noch in grossen Volumen verkaufen oder dass es ihr Kerngeschaeft ist.
Mir wären keine konkreten Zahlen bekannt. Bei Intel ist das auch schwer, weil es ja schlicht unter der Xeon Sparte läuft meines Wissens nach.

KNC war/ist nicht ganz so gut angekommen wie erhofft, aber besser als man erwarten hätte können. Intel ist da ja quasi von nichtexistent auf nVidia Konkurrent geswichted. Interessant wird halt vor allem, wie sich KNL mit der on Package fabric und dem Sockel Replacement für normale Xeons schlägt. Da entscheidet es sich dann quasi meiner Meinung nach. Wenn es eine breite Akzeptanz des propritären Intel Ökosystems gibt, dann glhf für alle anderen. Wenn es nicht akzeptiert wird, dann hat Intel einen ziemlich schweren Stand, und jede Gen werden die Karten neu gemischt.

Kommt drauf an, wie man das Marktprozentual berechnet. Die genauen Stückzahlen sind schwer rauszufinden, aber guckt man nur auf die Leistung dann teilen sich Nv/Intel den Markt fast 1:1 auf meine ich. Liegt aber zum guten Stück an Tianhe, der einfach der größte Rechner ist. Guckt man auf Anzahl der Computer mit GPGPU, hat Nv noch die Nase vorne, aber da sind auch viele alte Fermigurken dabei.

Absolut, und wenn man bedenkt, dass z.B. Firmen wie FusionIO usw zum Teil mit 2-3 Großabnehmern 80%+ ihres Umsatzes machen, dann wird das alles ziemlich schwer in der Beurteilung. Bei China wird vor allem interessant, auf was der Tianhe2 Nachfolger setzt. Wenn das wieder XeonPhis sind, dann sieht das sehr gut für Intel aus. Wenn es was anderes wird, wäre das ein herber Rückschlag.


Ob Intel allerdings Geld verdient mit der Sparte ist ne andere Sache. Gab ja mal Meldungen, dass Phi verdammt billig angeboten wird.

Ob man Geld verdient ist IMMER! eine große Frage bei den Top 10 Rechnern. Da ist viel Politik und Marketing auch mit drin. Zudem werden die großen Stückzahlen halt auch R&D Posten gesehen. Wenn man mit so nem Deal ein neues Produkt finanzieren kann, dann hat man schon gewonnen. Die echten Gewinne kann man dann ja wo anders machen mit dem selben Produkt.


Und auch wenn Skysnake Nvidia wie immer nix zutraut, haben sie mit IBM immerhin den Deal für die 2 größten US HPCs gewonnen.
Wer sagt denn, das ich nVidia hier nichts zutraue? :P

Was hat denn IBM zuletzt im HPC-Bereich gerissen? Nicht wirklich soo viel, und BlueWater war eine extreme Klatsche. Das IBM+nVidia+Mellanox System wird sicherlich auch nicht schlecht werden, und alle bisherigen Systeme in den Schatten stellen, aber die arbeiten NICHT! im Vakuum, sondern haben von AMD, über Intel bis hin zu SPARC und PEZY eine breite Konkurrenz. HP mit ihrem Memristor-System darf man auch nicht aus dem Auge verlieren.

Klar, IBM hat ne Menge knowhow, aber Sie habens zuletzt erst verkackt, und nVidia ist jetzt auch nicht gerade dafür bekannt, das man sich bei gemeinsamen Entwicklungen sonderlich offen gibt. Nein, da wird versucht so wenig wie nur irgendwie preis zu geben. Das ist für so ein System aber eine absolut bescheidene Ausgangssituation... Mich würde es absolut nicht wundern, wenn da mindestens einmal während der Entwicklung auch öffentlich so richtig die Fetzen fliegen.


Es ist ja auch nicht so dass bis jetzt Intel Unmengen an R&D resources in Phi gesteckt hat.

Zum fettgedruckten :freak::biggrin:
Naja, kommt doch drauf an, was man alles mit rein rechnet. Wenn man die ganzen Zukäufe berücksichtigt, dann wohl doch ne ganze Menge ;)

Wenn nicht, na gut, dann seit Larrabee wirklich nicht mehr soooo viel. Der erste große Schritt seit da ist ja KNL. Alles andere ist doch quasi nur ein aufgeblasener Larrabee. KNL ist schon eine neue Entwicklung.

mksn7
2014-11-29, 23:29:46
Wenn Intels interconnect genauso gut wird wie die Infiniband hardware von qlogic, die Intel vor einiger Zeit gekauft hat, dann brauchen Mellanox und co sich keine Sorgen machen...

Es wird echt spannend wie der Markt die neuen Phis aufnimmt. Nachdem sich viele enthusiastisch gefreut haben, dass Intel Accelerator speedups unter gewohntem Namen und Programmiermodel bringt, sind mittlerweile doch viele Rechenzentrenbetreiber mit Phis eher unzufrieden. Man haut Produkte, die gut laufen auch nicht grad für ein paar hundert Dollar raus?

(Alles rein anekdotisch auf Basis von Unterhaltungen)

Selbst wenn der Phi ganz tolle DP werte hat, hat nvidia immer noch das bessere Prgorammiermodel. Für einen Workload, der nur 99% schön regulär ist, ist der straight-forward Cuda code eben nur 99% schnell. Der simple SIMD/intrinsics code ist 99% korrekt, und um die Sonderfälle muss ich aufwändige Sonderbehandlungen rum bauen. Die meiste Software muss explizit geportet werden, da wenige HPC applications so gebaut sind, dass sie nicht nur schon schön vektorisiert, sondern auch noch mit einer anderen SIMD länge funktionieren. Der Intel Compiler leistet hier schon unglaubliches, aber an vielen Stellen ist es dann doch eher ein Kampf.

Spannend wirds allemal. Der HPC bereich ist momentan doch deutlich stärker CUDA als OpenCL dominiert, aber es ist schön, an der Spitze der Green500 ein AMD system zu sehen.

Skysnake
2014-11-30, 00:38:24
Naja, Intel behautet, Sie hätten eine niedrigere Latenz als Mellanox, eben auch durch die 48 Port switch Chips. Das ist schon eine Hausnummer.

@Programmiermodell:
Gerade da, wo es nicht straight forward ist, ist nen Phi doch tausend mal angenehmer als ne GPU, egal ob mit CUDA oder OpenCL. Man kann valgrind usw usw verwenden. Also alle 0815 tools, die man sonst auch verwendet. Gerade irregularen Code mit Verzweigungen usw schreibste doch damit deutlich angenehmer, als mit CUDA oder OpenCL. Also zumindest mir geht es so, das ich für GPUs deutlich länger brauche, um funktionierenden Code zu schreiben, als mit C/C++ und Pthreads/OpenMP/MPI.

Schaffe89
2014-11-30, 01:33:54
GM200 wird übel: Brachiale Compute-Performance auf breiter Linie und die min-fps müssten äußerst gut sein im Vergleich zu GK110.

Was hat die Computeperformance mit den Minimum FPS zu tun?
Mich interessieren nur Frameverläufe und AVG FPS.

chon bei GM204 legten die min-fps im Durschnitt stärker zu als avg, da werden die zusätzlichen ALUs schon gut reinhauen.

Kannst du dafür eine Quelle anführen?
Ist doch Käse was du da schreibst.^^

mksn7
2014-11-30, 03:00:33
@valgrind: Da hast du natuerlich recht.

In reinem C/C++ ist halt immer fraglich ob hinten auch vector instructions rauskommen. Das ist oft ein bisschen ein Kampf mit dem Compiler, der sicht oft dann eben auch von kleineren Dingen verwirren laesst.

Im Vergleich dazu kommt bei dem Assembler was aus OpenCL fuer CPUs erzeugt wird, eigentlich immer ganz guter Code raus, oder zumindest versuchts der Compiler fast immer.

Mit instrinsics muss man dann halt viel Arbeit selbst machen, darauf bezog sich die Korrektheit.

Ich weiss nicht in welchem Zustand OpenCL fuer die Phis ist, aber das faende ich auch einfacher. Auch wenn CUDA (noch) einfacher und besser ist (vom vendor lock in abgesehen).

Auch wenn beide opencl oder CUDA verwenden, sind die GPUs rtrotzdem noch flexibler in der Verwendung ihrer Vektoreinheiten. Was nvidia als SIMT bezeichnet ist schon nochmal flexibler als das was in CPU als SIMD implementiert ist.

Skysnake
2014-11-30, 09:37:46
Wo biste denn bitte mit CUDA/OpenCL flexibler? :ugly:

Selbst wenn du "nur" intrinsics nutzt, biste ja auf registerebene, und KNC bietet schon echt richtig viele unterschiedliche SIMD Befehle. Das Einzige, was etwas nervig sein kann, ist das 512 Bit allignment. Zudem scheinen die startup Latenzen relativ hoch zu sein. Für computeintensive Sachen sollte das aber an sich echt kein Problem sein.

Der Compiler macht teils aber echt viel aus, selbst bei schlichtem C Code, gibt es teils große Unterschiede zwischen GCC und dem Intel Compiler, wobei seltsamerweise, der Intelcompiler teils echt langsamen Code generiert. Die Entwicklung geht da aber auch noch weiter. Gibt immer mal wieder auch bugfixes bzgl KNx

mksn7
2014-11-30, 23:27:37
Erzeugt der gcc mittlerweile überhaupt vector code für KNI? Ich dachte den nimmt Intel nur als Compiler für die system sachen.

Die Intrinsics sind mir eben zu low levelig. Da muss ich mich eben wirklich drum kümmern, dass ich wirklich immer schöne, korrekte alignte 512 bit Häppchen hab. Um alle Ausnahmen (Ränder, Gittergrößen die nicht ein Vielfaches von 8 sind usw) muss ich mich von Hand kümmern.

Mit flexibler mein ich hier die Hardware. Nicht nur dass den GPUs das Alignment mittlerweile echt egal ist, die Speicherzugriffe können total inkoherent sein, solange nicht zuviele Cachelines angefasst werden. Ich bin mir nicht sicher ob das die richtige Terminologie ist, aber ich denke die GPUs haben eine AGU für jede Vectorlane.

Mein Behauptung beruht also zum einen darauf, dass es mit CUDA/OpenCL eine Programmiermodel gibt, das meistens in schönem vectorcode resultiert ohne dass ich mir viel gedanken machen muss, und Hardware die etwas flexibler mit unregelmäßigem code umgehen kann.

AnarchX
2014-12-16, 07:04:35
http://www.chiphell.com/thread-1196441-1-1.html
Fiji XT, Bermuda XT (Hybrid-Cooling) VS GM200 ES (21SMM), GM200 Full

Momentan sieht es wohl doch eher danach aus, dass GM200 zusammen mit GM206 im Januar auf der CES vorgestellt werden.

Ailuros
2014-12-16, 07:37:27
http://www.chiphell.com/thread-1196441-1-1.html
Fiji XT, Bermuda XT (Hybrid-Cooling) VS GM200 ES (21SMM), GM200 Full

Momentan sieht es wohl doch eher danach aus, dass GM200 zusammen mit GM206 im Januar auf der CES vorgestellt werden.

Zwar Meilen entfernt von finalem Material, aber als ich im AMD thread erwaehnte dass die angeblichen "Captain Jack" Resultate NICHT dem vollen Potential dieser Generation entspricht, haben mich die hiesigen AMD fans privat fast gelyncht. GTX980+16% ist eben NICHT =/>550mm2 Material, ob es jetzt bei manchen sitzen will oder nicht.

Sieht nach einem schoenen Nacken an Nacken Rennen im Enthusiast Bereich aus, mit vielleicht sogar einem leichten Vorsprung fuer AMD.

Ergo haben wir erstmal zum festhalten:

* GM200 salvage part = *gaehn*
* AMD's groesster die = Bermuda und nicht Fiji.

Skysnake
2014-12-16, 07:50:08
Ob das aber wirklich echt ist?

Wenn man an ein ES kommt ok, aber gleich an 4? Ähm... ja ne is klar. Also ich bin da eher skeptisch.

Ailuros
2014-12-16, 08:02:42
Ob das aber wirklich echt ist?

Wenn man an ein ES kommt ok, aber gleich an 4? Ähm... ja ne is klar. Also ich bin da eher skeptisch.

Es geht auch mit 3 :P

Skysnake
2014-12-16, 08:12:42
Macht den Bock aber auch nicht fett

Ailuros
2014-12-16, 08:30:52
Macht den Bock aber auch nicht fett

Du bist im Spekulationsforum und klingst mir nicht unbedingt spindelduerr :freak:

Schaffe89
2014-12-16, 08:48:42
Chiphell hat aber eigentlich immerschon als erster die korrekten Ergebnisse geliefert.
Ich gehe davon aus dass das grob stimmt.
Ich frage mich nur was Fijii dann sein soll, ein aufgepimpter Hawai XTX mit 3072 Shadern?
Oder eine Specialversion von der r9 285 alias Tonga Vollausbau mit 1250mhz Takt und 4GB V-ram?

Würde insofern passen da man Nvidia wieder mit einem kleineren Chip wie schon mit Hawai schlagen bzw einholen kann.

GTX980+16% ist eben NICHT =/>550mm2 Material, ob es jetzt bei manchen sitzen will oder nicht.

Dürfte eher 365mm Material sein einen anderen Chip hat AMD doch gar nicht im Aufgebot.
Und wenn die Chips jetzt schon soweit sind für ES Samples, dann kann da gar kein HBM mit dabei sein, das gibts wohl erst Q32015.

Ailuros
2014-12-16, 08:49:56
Chiphell hat aber eigentlich immerschon als erster die korrekten Ergebnisse geliefert.
Ich gehe davon aus dass das grob stimmt.

Selbst wenn das Zeug erfunden sein sollte, liegt es innerhalb logischen Grenzen und Erwartungen.

MR2
2014-12-16, 08:50:01
@Schaffe89 Jep, denk ich auch. Wenn der Kunde seriös ist.

Godmode
2014-12-16, 09:09:44
http://www.chiphell.com/thread-1196441-1-1.html
Fiji XT, Bermuda XT (Hybrid-Cooling) VS GM200 ES (21SMM), GM200 Full

Momentan sieht es wohl doch eher danach aus, dass GM200 zusammen mit GM206 im Januar auf der CES vorgestellt werden.

Das passt doch! Schön das von AMD auch wieder eine richtig große und leistungsfähige highend GPU erscheint, das kann dem Markt nur gut tun. Interessant allerdings, dass sie einen GM200 und einen GM200 Salvage haben wollen. Das würde bedeuten, das man mit einer gleichzeitigen Vorstellung von Salvage und vollem Chip rechnen kann. Bei GK110 gabs ja die vollen Chips erst viel später und da gabs dann auch am Anfang keine Benchmarks.

Edit: Oder ist der volle GM200 hier nur extrapoliert?

Dural
2014-12-16, 09:17:13
wie so sollte man zwei chip bauen die mit ca. 20% unterschied so nahe beisammen sind?

sieht für mich nicht glaubwürdig aus.

y33H@
2014-12-16, 09:17:57
* AMD's groesster die = Bermuda und nicht Fiji.Wie wäre es mit Fiji als größter Chip und Bermuda als Dual-GPU? Single mit WaKü? Hmmm ...

Timbaloo
2014-12-16, 09:19:19
@Godmode: Bei GK110 war 28nm ja auch noch frisch und die yields wohl nicht so prall, das sollte jetzt ja kein Problem mehr sein.

wuzetti
2014-12-16, 09:19:52
warum nicht so?:

Fiji = Tahiti Nachfolger
Bermuda = Hawaii Nachfolger

Dural
2014-12-16, 09:19:59
das war auch mein erster Gedanke, es macht sonst einfach keinen Sinn.

wuzetti
2014-12-16, 09:21:29
Es macht auch schon lange keinen Sinn dass ein 550mm² Die "nur" GM980 Performance oder knapp darüber erreichen soll!

Dural
2014-12-16, 09:25:29
ich habe mich auf y33H@ bezogen.

Da macht es schon Sinn, weil ein 550mm Chip wohl kaum sinnvoll als Dual GPU Karte bauen kann oder es aufsparen möchte für später als High-End XXX Version ;) Da nimmt man halt einen etwas kleineren Chip und setzt zwei drauf um GM200 zu übertrumpfen (eigentlich das klassische vorgehen seitens AMD seit Jahren)

Schaffe89
2014-12-16, 09:26:50
Wie wäre es mit Fiji als größter Chip und Bermuda als Dual-GPU? Single mit WaKü? Hmmm ...

Das zeigt dass die Presse bisher noch gar nichts weiß.
Wenn Bermuda eine Dual GPU ist, dann fress ich einen Besen, der wäre doch viel zu Leistungsswach und hinter einer 295x2.
WTF?

Da nimmt man halt einen etwas kleineren Chip und setzt zwei drauf um GM200 zu übertrumpfen (eigentlich das klassische vorgehen seitens AMD seit Jahren)

Ja, wenn man sich alles so zurechtbiegt wie man es haben will.
Das letzte mal als AMD´s Dual GPU dafür eingesetzt wurde den Singlechip von Nvidia zu schlagen war anno 2007 als die 3870x2 kam.
Die darauffolgenden DualGPU´s dueliierten sich immer mit Nvidias Dual GPu´s.

wuzetti
2014-12-16, 09:30:48
ich habe mich auf y33H@ bezogen.

Da macht es schon Sinn, weil ein 550mm Chip wohl kaum sinnvoll als Dual GPU Karte bauen kann oder es aufsparen möchte für später als High-End XXX Version ;) Da nimmt man halt einen etwas kleineren Chip und setzt zwei drauf um GM200 zu übertrumpfen (eigentlich das klassische vorgehen seitens AMD seit Jahren)

versteh ich jetzt grad nicht. y33H@ sprach doch genau davon, dass Fiji der größte chip sein soll bzw. man 2 davon fürs absolute High End nimmt. in dieses bild passen dann aber die 550 mm² nicht. und zumindest noch ist nicht klar, warum AMD soviel fläche brauchen sollte, um GM980 Leistung zu erreichen.

Schaffe89
2014-12-16, 09:32:19
GTX980+16% ist eben NICHT =/>550mm2 Material, ob es jetzt bei manchen sitzen will oder nicht.

Wenn man ganz pessimistisch ist und von Hawai 438mm² ausgeht und keine Effizienzsteigerung pro Shader und pro mm² annimmt, dann kann das durchaus auch passen.
Später eine Auflage des hips mit HBM und nochmal ~ +10% mehr Performance.
Das reicht doch auch um GM200 Paroli zu bieten.

AffenJack
2014-12-16, 09:32:39
* AMD's groesster die = Bermuda und nicht Fiji.

Wie groß der Die wirklich ist, ist aber auch noch ne Frage, denn der User behauptet auch 20nm Gf. Frage ob beides 20nm sein soll.

Ailuros
2014-12-16, 09:36:05
Wie wäre es mit Fiji als größter Chip und Bermuda als Dual-GPU? Single mit WaKü? Hmmm ...

Und wieso ist BermudaXT dann leicht langsamer als eine 295X2 im genau gleichen benchmark-setup? ;D

Wie groß der Die wirklich ist, ist aber auch noch ne Frage, denn der User behauptet auch 20nm Gf. Frage ob beides 20nm sein soll.

Der eine chart zeigt Fiji bei irgendwo 210-215W schaetzungsweise bei BF4 MP in 1440p, waehrend GM200 salvage bei ~225W. Bermuda tritt nur im zweiten chart auf. Mir klingt gar nichts davon nach kleiner als 28nm, aber wir werden sehen.

Schaffe89
2014-12-16, 09:37:16
Vielleicht eine Karte mit nur 250 Watt TDP und mit Interposern.^^

Ailuros
2014-12-16, 09:44:15
Vielleicht eine Karte mit nur 250 Watt TDP und mit Interposern.^^

Bermuda hat laut dem chiphell link hybride Kuehlung auch mit Wasser.

y33H@
2014-12-16, 10:29:29
Und wieso ist BermudaXT dann leicht langsamer als eine 295X2 im genau gleichen benchmark-setup?Treiber-Fuckup :P

Ailuros
2014-12-16, 11:10:27
Treiber-Fuckup :P

Spass beseite, die Chance fuer so etwas liegen unter Null. Der groesste die dieser Generation soll tatsaechlich =/>550mm2 sein; als einzelner core ist die praesentierte Leistung fuer einen so grossen core einfach zu lahmarschig.

y33H@
2014-12-16, 11:31:56
Bis nichts Vernünftiges leakt, bleib ich unter NDA ^^ und halte von dem Chiphell-Zeug wenig ...

Schaffe89
2014-12-16, 11:40:15
Es gibt noch gar kein NDA und sogut wie gar keine Informationen.

Ailuros
2014-12-16, 12:21:05
Bis nichts Vernünftiges leakt, bleib ich unter NDA ^^ und halte von dem Chiphell-Zeug wenig ...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10455394&postcount=6303

Kriton
2014-12-16, 13:17:21
Und wenn die Chips jetzt schon soweit sind für ES Samples, dann kann da gar kein HBM mit dabei sein, das gibts wohl erst Q32015.

In diesem Zusammenhang aus den News-Links:

http://www.semiwiki.com/forum/content/4098-3d-state-staten.html

Dort heißt es u.a.:

Announced, but not shipping are that AMD (ATI) will use 3D stacked high bandwidth memory (HBM) on 20nm in 2Q next year. Nvidia will do the same in 2016. Intel has said they have the technology but haven't announced anything but then they are Intel. Even at the lower end of the market Matrox has announced next generation GPU modules powered by AMD 3D stacks. If you want to be in graphics, get with the program.
(Hervorhebung durch mich)

In Verbindung mit den News:

Laut dem italienischen Bits & Chips (maschinelle Übersetzung ins Deutsche) wird Grafikkarten-Dinosaurier Matrox in der zweiten Jahreshälfte wohl neue Matrox-Hardware auf Basis von AMD-Chips vorstellen

Dein Q3 könnte also gut passen.

Kriton
2014-12-16, 13:19:15
Es gibt noch gar kein NDA und sogut wie gar keine Informationen.

Ein NDA verbietet Dir normalerweise auch über das NDA zu reden, also woher weißt Du, dass keins existiert? :freak:

Timbaloo
2014-12-16, 15:24:11
Ein NDA verbietet Dir normalerweise auch über das NDA zu reden, also woher weißt Du, dass keins existiert? :freak:
"Normalerweise"? Hast du etwa ein NDA unterschrieben und verheimlichst jetzt was? :freak:

y33H@
2014-12-16, 15:44:41
Wie sagte Volker mal so schön? Das NDA ist das NDA ist das NDA ;D

Kriton
2014-12-17, 13:59:42
"Normalerweise"? Hast du etwa ein NDA unterschrieben und verheimlichst jetzt was? :freak:

Nein, insoweit wollte ich nur abstrahieren, weil ich ein eventuell existierendes, aktuell auf unser Thema bezogenes NDA nicht kenne und damit auch nichts über seine konkrete Formulierung sagen kann.

Rampage 2
2014-12-17, 14:22:54
Sieht nach einem schoenen Nacken an Nacken Rennen im Enthusiast Bereich aus, mit vielleicht sogar einem leichten Vorsprung fuer AMD.

Ergo haben wir erstmal zum festhalten:

* GM200 salvage part = *gaehn*
* AMD's groesster die = Bermuda und nicht Fiji.

Auch wenn andere User schon ihre Meinung dazu geschrieben haben, würde ich auch gerne deine Meinung dazu wissen:

Ist es wirklich sooo unwahrscheinlich, dass beim Maxwell Top-Dog 8Gbps-Grafikspeicher (= 384GB/sek. Speicherbandbreite bei 384Bit SI) verbaut wird?

Irgendwie halte ich 336GB/sek. trotz DC-Kompression für zu wenig... (~ 300GB/sek. gibt es bei Nvidia schon seit Anfang 2013 und das ist schon fast 2 Jahre her...)

R2

aths
2014-12-17, 17:19:13
Auch wenn andere User schon ihre Meinung dazu geschrieben haben, würde ich auch gerne deine Meinung dazu wissen:

Ist es wirklich sooo unwahrscheinlich, dass beim Maxwell Top-Dog 8Gbps-Grafikspeicher (= 384GB/sek. Speicherbandbreite bei 384Bit SI) verbaut wird?

Irgendwie halte ich 336GB/sek. trotz DC-Kompression für zu wenig... (~ 300GB/sek. gibt es bei Nvidia schon seit Anfang 2013 und das ist schon fast 2 Jahre her...)

R2
Naja, eine 980 mit nur rund 220 GB/s natzt auch eine ältere High-End-Karte die 320 GB/s aufbieten kann. Selbst bei aktivem Antialiasing.

Ailuros
2014-12-17, 17:49:57
Auch wenn andere User schon ihre Meinung dazu geschrieben haben, würde ich auch gerne deine Meinung dazu wissen:

Ist es wirklich sooo unwahrscheinlich, dass beim Maxwell Top-Dog 8Gbps-Grafikspeicher (= 384GB/sek. Speicherbandbreite bei 384Bit SI) verbaut wird?

Irgendwie halte ich 336GB/sek. trotz DC-Kompression für zu wenig... (~ 300GB/sek. gibt es bei Nvidia schon seit Anfang 2013 und das ist schon fast 2 Jahre her...)

R2

Da fragst Du aber den falschen Mann. Denn das einzige was ich Dir sagen werde ist dass es wurscht ist wieviel Bandbreite eine jegliche Loesung hat; was NUR wichtig ist, ist wie diese mit der vorhandenen Bandbreite umgeht.

Sowohl GM107 im Vergleich zu GK107 und auch GM204 im Vergleich zu GK104 haben bewiesen dass Maxwell mit vergleichbarer Bandbreite auskommen kann wie Kepler wobei gleichzeitig die Effizienz sehenswert gesteigert wird. Demzufolge sollte selbst 7Gbps GDDR5 @384bit genug Bandbreite liefern fuer den Maxwell top dog.

Wie aths schon sagte:

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-770/specifications

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-980/specifications

Mist warum limitiert die genau gleiche Bandbreite auf der 980 nicht? :eek: :biggrin:

aufkrawall
2014-12-17, 17:53:42
Bandbreite wird bei einzelnen Spielen & Szenarien schon limitieren (GM204).

Dural
2014-12-17, 17:58:41
GM204 hängt ab 1400MHz GPU Takt je nach Anwendung sogar ziemlich fest an der Bandbreite.

Daher halte ich es für gut möglich das GM200 mit überall 50% mehr auch 50% schneller ist.

8Gbps würde ich aber fast ausschliessen, es könnte aber sein das NV 8Gbps Chips nimmt und die etwas dazwischen Takten wird.

Rampage 2
2014-12-17, 18:05:10
8Gbps würde ich aber fast ausschliessen, es könnte aber sein das NV 8Gbps Chips nimmt und die etwas dazwischen Takten wird.

Wie hoch wäre denn der Preisunterschied (in % des Gesamtpreises einer kompletten Grafikkarte) zwischen 7Gbps und 8Gbps-Speicher? (bei ansonsten identischen Grafikkarten)

Und äh, dieselbe Frage zum Stromverbrauch:rolleyes:

R2

Ailuros
2014-12-17, 18:24:05
Bandbreite wird bei einzelnen Spielen & Szenarien schon limitieren (GM204).

Im Vergleich zum GK104? :rolleyes: Fuer die Lebenszeit vom GM204 und bis zu 1440/1560p reicht die Bandbreite vollkommen aus.

Wie hoch wäre denn der Preisunterschied (in % des Gesamtpreises einer kompletten Grafikkarte) zwischen 7Gbps und 8Gbps-Speicher? (bei ansonsten identischen Grafikkarten)

Und äh, dieselbe Frage zum Stromverbrauch:rolleyes:

R2

IHVs setzen die Bandbreite einer SKU dort fest wo in der breiten Mehrzahl der Faelle kein Bandbreiten-Limit auftritt. Wenn aber GM200 tatsaechlich >7Gbps brauchen sollte dann werden sie auch dafuer sorgen, eben weil die Leistungssteigerung zum heutigen GM204 nicht uebermaessig gross ausfallen wird und man nicht wirklich an der Bandbreite haengen bleiben sollte weil man dann den Leistungsunterschied noch mehr begrenzt.

Godmode
2014-12-17, 20:23:11
GM204 hängt ab 1400MHz GPU Takt je nach Anwendung sogar ziemlich fest an der Bandbreite.

Daher halte ich es für gut möglich das GM200 mit überall 50% mehr auch 50% schneller ist.

8Gbps würde ich aber fast ausschliessen, es könnte aber sein das NV 8Gbps Chips nimmt und die etwas dazwischen Takten wird.

50% im Schnitt halte ich für ausgeschlossen.

aths
2014-12-17, 22:30:14
GM204 hängt ab 1400MHz GPU Takt je nach Anwendung sogar ziemlich fest an der Bandbreite.Ja, wenn man den Speicher auf Default belässt.

Daher halte ich es für gut möglich das GM200 mit überall 50% mehr auch 50% schneller ist.Ich hoffe sehr, dass der GM200 im Vollausbau die 980 bei GPU-Limitierung um souveräne 50% übertrumpft.

Godmode
2014-12-17, 23:16:28
Ich hoffe sehr, dass der GM200 im Vollausbau die 980 bei GPU-Limitierung um souveräne 50% übertrumpft.

Und wie soll das gehen? Meinst du GM200 taktet ähnlich hoch wie GM204?

Raff
2014-12-17, 23:25:31
Er schreibt, dass er hofft. ;) Wir alle hoffen. Sonst wird's auch 2015 öde. Hauptsache, man kann die Kiste ordentlich übertakten und es laufen noch die BIOS-Mods. Ohne diese Möglichkeiten hätte ich keine Titan gekauft ...

MfG
Raff

Kriton
2014-12-18, 00:07:04
GM204 hängt ab 1400MHz GPU Takt je nach Anwendung sogar ziemlich fest an der Bandbreite.

Daher halte ich es für gut möglich das GM200 mit überall 50% mehr auch 50% schneller ist.


Die beiden Aussagen passen nicht zusammen. Einmal "je nach Anwendung" und dann "überall".

Ich denke die 1. Aussage ist richtig.

Im Vergleich zum GK104? :rolleyes: Fuer die Lebenszeit vom GM204 und bis zu 1440/1560p reicht die Bandbreite vollkommen aus.


Redest Du vom Highend-User (welcher primäre Zielgruppe des GM 200 sein dürfte)? Manch einer mag sich eine "große" Karte kaufen um nicht in einem Jahr wechseln zu müssen.

MorPheuZ
2014-12-18, 00:20:56
Die Zeiten sind zum Glück vorbei wo man jedes Jahr eine neue Grafikkarte kaufte... oder ist das jetzt bald wieder anders :wink:

Ailuros
2014-12-18, 07:31:36
Redest Du vom Highend-User (welcher primäre Zielgruppe des GM 200 sein dürfte)? Manch einer mag sich eine "große" Karte kaufen um nicht in einem Jahr wechseln zu müssen.

Nein ich rede von einem performance core wie GM204 im Vergleich zu seinem Vorgaenger GK104. Wenn ein 970/980 User in einem Jahr sie wechseln muss weil die Bandbreite angeblich ausgehen wird, dann duerfte dieses genauso fuer 290/290X Users passieren wenn nicht sogar frueher.

Die Zeiten sind zum Glück vorbei wo man jedes Jahr eine neue Grafikkarte kaufte... oder ist das jetzt bald wieder anders :wink:

So lange die Zeitspannen zwischen Prozessen groesser werden gibt es keine Hoffnung dafuer.

Kriton
2014-12-18, 12:42:52
Nein ich rede von einem performance core wie GM204 im Vergleich zu seinem Vorgaenger GK104. Wenn ein 970/980 User in einem Jahr sie wechseln muss weil die Bandbreite angeblich ausgehen wird, dann duerfte dieses genauso fuer 290/290X Users passieren wenn nicht sogar frueher.


Ich sprach bewusst vom user, nicht vom core. Denn wenn Du vom highend user ausgehst wird dieser ja "schnell" auf GM200 wechseln, die "Lebensspanne" des bisherigen GM204 also relativ kurz sein (jedenfalls für den bisherigen user). Mir geht es also nur darum den von Dir genannten Zeitraum "Lebensspanne" für mich einzuordnen.

Ailuros
2014-12-18, 12:59:10
Ich sprach bewusst vom user, nicht vom core. Denn wenn Du vom highend user ausgehst wird dieser ja "schnell" auf GM200 wechseln, die "Lebensspanne" des bisherigen GM204 also relativ kurz sein (jedenfalls für den bisherigen user). Mir geht es also nur darum den von Dir genannten Zeitraum "Lebensspanne" für mich einzuordnen.

Die Faelle wo GTX680 User auf eine GTX780 wechselten sind Aussnahmen. Aehnliches gilt auch fuer 780Ti Besitzer die wohl auch nicht ihre GPUs verkauft haben in der Mehrzahl um auf eine 980 zu wechseln und es wird auch nichts anders werden in der absehbaren Zukunft von einer GM204 zu einer GM200 SKU.

Unter normalen Umstaenden behaelt heute der durchschnittliche User seine GPU um die 2 Jahre.

aufkrawall
2014-12-18, 13:09:39
Mit der 780 Ti ist man mit den 3GB doch nur noch am Kotzen, spätestens bei >1080p.

Ailuros
2014-12-18, 13:36:40
Mit der 780 Ti ist man mit den 3GB doch nur noch am Kotzen, spätestens bei >1080p.

Und fuer diese wird der high end User der sie gekauft hat wohl eher auf eine 6GB GM200 SKU aufruesten. Wobei die 780Ti auch schon 13 Monate seit ihrem launch zaehlt; die 780 dann schon 18.

Sunrise
2014-12-18, 13:52:43
Und wie soll das gehen? Meinst du GM200 taktet ähnlich hoch wie GM204?
Und selbst bei 1.1GHz Core oder leicht darüber und schnellem Speicher wird das bei Spielen im Schnitt nicht möglich sein. Alles über 35% schneller wäre da schon verdammt überraschend. Man muss sich mal vor Augen führen, was 50% bei identischer Architektur eigentlich sind und das noch bei 28nm. Die geschätzten Daten kennen wir ja (die auch sehr realistisch sind). Irgendwelche Szenarien gibt es immer, da kann GM200 sicher auch wieder mehr auf die Straße bringen.

Ist doch auch ok, wenn man dann evtl. noch etwas Spiel für OC und Mods hat, das freut die Enthusiasten.

Godmode
2014-12-18, 19:38:53
Und selbst bei 1.1GHz Core oder leicht darüber und schnellem Speicher wird das bei Spielen im Schnitt nicht möglich sein. Alles über 35% schneller wäre da schon verdammt überraschend. Man muss sich mal vor Augen führen, was 50% bei identischer Architektur eigentlich sind und das noch bei 28nm. Die geschätzten Daten kennen wir ja (die auch sehr realistisch sind). Irgendwelche Szenarien gibt es immer, da kann GM200 sicher auch wieder mehr auf die Straße bringen.

Ist doch auch ok, wenn man dann evtl. noch etwas Spiel für OC und Mods hat, das freut die Enthusiasten.

50% im Schnitt wäre toll, aber ich halte das für unmöglich, außer sie verbauen auch ne Wakü wie AMD, wovon ich erstmal nicht ausgehe.

aufkrawall
2014-12-18, 20:30:15
Und fuer diese wird der high end User der sie gekauft hat wohl eher auf eine 6GB GM200 SKU aufruesten. Wobei die 780Ti auch schon 13 Monate seit ihrem launch zaehlt; die 780 dann schon 18.
Wenn GTA 5 speicherhungrig ist, darf man vorzeitig eine GK110-Verkaufswelle erwarten.
FC4 oder AC: U konnte man mit 3GB in hohen Auflösungen auch vergessen.
In weiser Voraussicht hab ich deshalb eine 780 Ti gegen eine 970 eingetauscht, 3 GB machen genau jetzt schon keinen Spaß mehr.

Ailuros
2014-12-18, 20:33:24
Wenn GTA 5 speicherhungrig ist, darf man vorzeitig eine GK110-Verkaufswelle erwarten.
FC4 oder AC: U konnte man mit 3GB in hohen Auflösungen auch vergessen.
In weiser Voraussicht hab ich deshalb eine 780 Ti gegen eine 970 eingetauscht, 3 GB machen genau jetzt schon keinen Spaß mehr.

Es macht Dich nicht weniger zur Aussnahme. Ueber was willst Du mich gerade genau ueberreden?

basix
2014-12-18, 21:43:09
Wenn GTA 5 speicherhungrig ist, darf man vorzeitig eine GK110-Verkaufswelle erwarten.
FC4 oder AC: U konnte man mit 3GB in hohen Auflösungen auch vergessen.
In weiser Voraussicht hab ich deshalb eine 780 Ti gegen eine 970 eingetauscht, 3 GB machen genau jetzt schon keinen Spaß mehr.

Haha, dann bin ich aber froh, dass ich neben der verbauten GTX 780 auch noch eine R9 290 hier rumfliegen habe ;D

Mal ehrlich: Gibt es irgendein Spiel, dass merklich besser läuft mit 3GB anstatt 4GB? Ausgenommen mal 4k / UHD oder sowas in die Richtung aber da wird eine einzelne 970er schon wieder eher zu schwach sein. Und wenn man ums verrecken jeden Textur-Mod installiert, dann ist man selbst Schuld wenn man ein solches Sidegrade wagen muss :rolleyes:

On Topic: Momentan tendiere ich ebenfalls zur 1-Chip Lösung für Fiji / Bermuda aber eben unterschiedlicher Speicherkonfiguration. Scheint für mich am sinnvollsten zu sein. 2 Chips wäre unwirtschaftlich und an 20nm glaube ich nicht wirklich. Aber lassen wir uns mal überraschen ;)

aufkrawall
2014-12-18, 22:15:00
Mal ehrlich: Gibt es irgendein Spiel, dass merklich besser läuft mit 3GB anstatt 4GB?

Wo lebst du?
Fast alle Ubisoft-Spiele, spätestens mit MSAA. Bei CoD gibt es auch bestimmte Szenarien. Shadows of Mordor profitiert ebenfalls, The Evil Within, wohl auch Lords of the Fallen...
Mit 1600p hast du mit 3GB keinen Spaß mehr. Wer will schon mit einer 13 Monate alten 600€ Karte die Texturdetails reduzieren?

Ailuros, mir kommt so vor, als wäre der Anteil an 780 Ti-Besitzern hier doch recht stark geschrumpft...
Wer mit der Karte auf Big-M wartet, hat den Schuss nicht gehört.

Ex3cut3r
2014-12-18, 22:36:09
Stimme Krawall da zu. Meiner Meiunung nach wirklich erschreckend wie die 780 Ti innerhalb paar Monate gealtert ist. Die 3GB waren echt ne Frechheit bei der Rohpower, muss man einfach sagen.

Rente
2014-12-18, 23:20:35
Wo lebst du?
Fast alle Ubisoft-Spiele, spätestens mit MSAA. Bei CoD gibt es auch bestimmte Szenarien. Shadows of Mordor profitiert ebenfalls, The Evil Within, wohl auch Lords of the Fallen...
Mit 1600p hast du mit 3GB keinen Spaß mehr. Wer will schon mit einer 13 Monate alten 600€ Karte die Texturdetails reduzieren?

Ailuros, mir kommt so vor, als wäre der Anteil an 780 Ti-Besitzern hier doch recht stark geschrumpft...
Wer mit der Karte auf Big-M wartet, hat den Schuss nicht gehört.
Wieso wirst du in dem Fall direkt beleidigend? Ich hab kein Bock jetzt auf die 970 zu wechseln weil es 0 bringt bis auf Mehrarbeit (Wakü), die 3GB reichen sicherlich bei mehr als FHD immer seltener, die 4GB der 970/980 sind letztendlich aber auch nur krüppelig.
Der Verkaufspreis für eine 780 Ti ist eh schon am Boden, also kann man auch warten wenn man sich nicht extrem einschränken muss (ich verzichte auf alle Ubisoft-Titel freiwillig seit WD).

Wenn Big-M nicht mindestens 6GB hat weiß ich ehrlich gesagt aber auch nicht was ich dann tue...

Godmode
2014-12-18, 23:30:40
Ich hoffe auf 12 GB, damit kommt man dann bis zum Nachfolger von GM200 ohne Probleme. Ich habe selber zwei 4 GB Karten und für SLI ist das schon grenzwertig.

aufkrawall
2014-12-18, 23:37:42
Wieso wirst du in dem Fall direkt beleidigend? Ich hab kein Bock jetzt auf die 970 zu wechseln weil es 0 bringt bis auf Mehrarbeit (Wakü)

Fühl dich bitte ausgenommen. :)
Ich habe überspitzt formuliert, Die Art von basix ging mir nur gegen den Strich.


Wenn Big-M nicht mindestens 6GB hat weiß ich ehrlich gesagt aber auch nicht was ich dann tue...
6 werden es wohl sein für die normale Konsumer-Version.
8 wären allerdings wesentlich sinniger mit 4k. Mit 50% mehr Bandbreite bei regulären 384 Bit wäre doch auch ein krummes Interface für 8GB nicht unsinnig?

Ex3cut3r
2014-12-19, 00:46:55
Ich denke mir das so GM200 LE aka GTX 780 Nachfolger mit 6GB VRAM. Titan 2 mit 12GB :)

Ailuros
2014-12-19, 06:49:51
Ailuros, mir kommt so vor, als wäre der Anteil an 780 Ti-Besitzern hier doch recht stark geschrumpft...
Wer mit der Karte auf Big-M wartet, hat den Schuss nicht gehört.

Wofuer steht "hier" und wieso soll es als irgend eine Art Statistik dienen? Besser was hat die alberne Seitenshow genau mit dem thread hier zu tun? Mir ist zwar klar dass Du Deine eigenen Verkaufsentscheidungen quasi verteidigen willst aus welchem Grund auch immer, es aendert aber trotzdem nichts an manchen Tatsachen. Es ging um die Bandbreite beim GM204; diese wird fuer den core und seine Lebenszeit ausreichen und genau gleiches wird auch fuer direkt konkurrierende Loesungen gelten.

Ja es gibt immer Ausnahmen in Spielen und ja es gibt immer noch Leute die glauben dass man mit einer performance SKU 4k problemlos bewaeltigen koennte oder weiss der Geier was noch. Am Ende des Tages wird KEINE kommende Loesung vor Pascal Aufloesungen wie 4k durchgehend bewaeltigen koennen, es wird nur besser werden wie jeder erwarten wuerde.

Technisch gesehen ist der gesamte Ansatz fuer die Muelltonne; selbst wenn Du mir 8GB auf eine GTX980 steckst und N% mehr Bandbreite heisst es eben NICHT dass man auch ploetzlich N% mehr Leistung bekommt oder ueberhaupt einen sehenswerten Unterschied ausser ein paar sehr wenigen Aussnahmen sehen wird. Eben weil immer etwas anderes am Grundgeruest des cores Dich zurueckhalten wird und von diesem wird auch GM200 auf seinem Nivaeu keine Ausnahme sein.

IHVs versuchen eine gewisse Balance herzustellen fuer wieviel A, B oder C fuer die Mehrzahl der Faelle ausreichen wird und sorgen auch damit dass die GPUs somit auch bezahlbarer bleiben. Fuer die Ausnahmen gibt es mGPU oder "spf" (seconds per frame) aka grosse Geduld. Man kann es eben nicht allen recht machen und es gibt stets die Norm und auch Uebertreibungen. Pick your poison.

fondness
2014-12-19, 09:38:50
Stimme Krawall da zu. Meiner Meiunung nach wirklich erschreckend wie die 780 Ti innerhalb paar Monate gealtert ist. Die 3GB waren echt ne Frechheit bei der Rohpower, muss man einfach sagen.

Als ob das nicht schon beim erscheinen absehbar war. ich frage mich eher warum sich damals so viele die 780Ti 3Gb gekauft haben.

Rente
2014-12-19, 09:50:16
Weil es die schnellste nVidia-Karte bei einem halbwegs vernünftigen Preis war, Titan lag bei 999€ UVP, Titan Black gab es noch nicht und die R290 gab es noch nicht Custom-Lüftern (und die Ti ist zu mindestens mit OC quasi immer schneller als eine R290X mit OC).

Bis zum jetzigen Zeitpunkt stellen die 3GB bei FullHD auch kein Problem dar - es gibt ein paar Ausnahmeerscheinungen, die sind aber auch problemlos spielbar (bis auf die leidigen Ubisoft-Ausnahmen).
Wer allerdings 1440p und mehr nutzen will/muss, der ist aktuell wirklich etwas schlecht dran.

On Topic: Ist Januar/Februar jetzt eigentlich schon irgendwie fix für Big-M oder heißt es weiter hoffen?

desert
2014-12-19, 09:55:46
Wo lebst du?
Fast alle Ubisoft-Spiele, spätestens mit MSAA. Bei CoD gibt es auch bestimmte Szenarien. Shadows of Mordor profitiert ebenfalls, The Evil Within, wohl auch Lords of the Fallen...
Mit 1600p hast du mit 3GB keinen Spaß mehr. Wer will schon mit einer 13 Monate alten 600€ Karte die Texturdetails reduzieren?

Ailuros, mir kommt so vor, als wäre der Anteil an 780 Ti-Besitzern hier doch recht stark geschrumpft...
Wer mit der Karte auf Big-M wartet, hat den Schuss nicht gehört.

Warum sollte ich jetzt meine Karte verkaufen und dann auf 980GTX sidegraden? Außer Geldverbrennung ist das nichts was mich weiterbringt.

Bei Crysis 3 bringt mich die neue karte ungefähr 3 -5 FPS weiter, Und dafür 500,00 Euro ausgeben? und dann im Januar endlich upgrade auf GM 200 ?

da warte ich doch lieber gleich auf den GM200. Die 980 und 970 bringen mich nicht weiter. Das ist ein Upgrade für 670/680/770 Besitzer....

Ailuros
2014-12-19, 09:56:41
Es sieht danach aus als ob erstmal mainstream/GTX960 und ULP Erista gesichert ist fuer Januar. Fuer alles GM200 noch keine Ahnung; womoeglich ist sich selbst NV noch nicht zu 100% sicher wie sie genau vorgehen werden.

desert
2014-12-19, 10:15:17
Es sieht danach aus als ob erstmal mainstream/GTX960 und ULP Erista gesichert ist fuer Januar. Fuer alles GM200 noch keine Ahnung; womoeglich ist sich selbst NV noch nicht zu 100% sicher wie sie genau vorgehen werden.

Dann wird es halt März oder April. Aber warum jetzt 980 GTX kaufen für teures Geld?

Ailuros
2014-12-19, 10:16:56
Aber warum jetzt 980 GTX kaufen für teures Geld?

*schulterzuck* :P

Hübie
2014-12-19, 10:17:24
Weil GeForce drauf steht ;D
Nein ehrlich. Das "zwingt" zum Geld ausgeben.

Loeschzwerg
2014-12-19, 10:30:25
Weil GeForce drauf steht ;D
Nein ehrlich. Das "zwingt" zum Geld ausgeben.

Das zwingt zum Retro-Games zocken :D (Outcast 1.1 :eek:)

Auf GM204 werde ich zumindest nicht setzen...

desert
2014-12-19, 10:37:03
Das zwingt zum Retro-Games zocken :D (Outcast 1.1 :eek:)

Auf GM204 werde ich zumindest nicht setzen...

Sehe ich ähnlich. Habe zwar einen 4k Monitor aber da rettet mich die 980GTX auch nicht, wo jetzt meine auch schon limitiert. Sind ja dann nur ein paar Frames maximal. Wenn wir von 10-20 FPS reden, ok. Aber das wird der Big-M leider nicht schaffen und GM204 erst recht nicht.

Und in den spielen in denen ich jetzt in 4k spielen kann, bringt GM204 keine wirkliche Verbesserung, gut mal hier und dort ein paar Frames mehr, aber nichts was den Kohl fett macht.

AnarchX
2014-12-31, 18:50:47
Zwei 960 Ti (1536/1280SPs)?

http://wccftech.com/gtx-960-ti-benchmarks-specs-revealed/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29

Dieser Koreaner in der Quelle simuliert aber auch sehr gerne diverse Varianten mit Rechenmodellen.
Die 1536SPs Variante könnte evtl. eine OEM-Version sein oder eine "Special Edition" mit kurzer Verfügbarkeit auf GM204 Basis um einen eventuellen GM206 Engpass durch die wohl hochvolumige "GTX 960" Anfang 2015 zu überbrücken.

Quadro M6000 (GM200) ist wohl auch in der Vorbereitung:
http://www.techpowerup.com/gpudb/2638/quadro-m6000.html
http://developer.download.nvidia.com/compute/nvenc/v5.0_beta/NVENC_DA-06209-001_v06.pdf
Das könnte die 12GiB Karte bei SiSoft gewesen sein.

horn 12
2014-12-31, 18:54:35
@AnarchX

PS: Neues auf die Konkurrenz bezogen nicht in Sicht (R9 295, Fiji udg.)
Dank!
Will nicht mehr warten sobald ich aus dem Brasilien Urlaub wieder zu Hause bin (15 Jaenner 2015)

Ailuros
2015-01-01, 09:44:59
https://forum.beyond3d.com/threads/nvidia-maxwell-speculation-thread.50568/page-53

Es sieht tatsaechlich so aus als ob GM200 eigentlich gar nichts mit HPC (wo immer FP64 notwendig) zu tun haben wird.

mboeller
2015-01-01, 11:31:04
meinst du diesen Artikel:
http://wccftech.com/nvidia-planning-ditch-maxwell-gpus-hpc-purposes-due-lack-dp-hardware-update-tesla-line-pascal-2016-volta-arriving-2017/

dein Link ist schon ein wenig alt... Feb. 2014

hasebaer
2015-01-01, 13:13:35
Es sieht tatsaechlich so aus als ob GM200 eigentlich gar nichts mit HPC (wo immer FP64 notwendig) zu tun haben wird.

Oder GM200 wird mit 1:2 DP/SP geplant worden sein, was auch schon länger im Raum steht ...
DP Einheiten wird es nicht geben, GM200 muss 1:2 DP/SP bei mindestens 25 SMM haben, ansonst können sie die 12 TGFLOPS pro Watt DP, nicht halten.


... und wenn GM200 aber nicht im HPC Bereich antanzt, dann wohl nur, weil die Geschichte noch nicht fehlerfrei läuft.

Skysnake
2015-01-01, 14:41:38
Das wäre für nVidia ein ziemliches Desaster. 2015 gar keine neuen Karten für den gesamten Compute Bereich, und erst 2016 die kleinen Pascal Karten. Das wäre eine verdammt lange durststrecke, in der die ganze CUDA Fraktion zusehen muss, wie Intel und AMD neue schnellere und effizientere Systeme rausknallt, und man selbst an CUDA gekettet ist. Da wird wohl wieder der eine oder andere sich von CUDA abwenden.

Der dicke Brocken KNL kommt ja erst noch von Intel, und das sehr sicher noch relativ früh in 2015.

Unicous
2015-01-01, 15:31:09
Könnt ihr mir mal erklären, warum ihr andauernd auf WTF-Tech verlinkt, wenn die mal wieder was von einer anderen Seite geklaut haben (also immer)?

http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-to-speed-up-development-of-graphics-processing-architectures/

bzw. Primärquelle.

http://www.4gamer.net/games/121/G012181/20141225075/

Ist doch nicht so schwer.

fondness
2015-01-01, 16:09:03
Hm, wenn dann womöglich eine Reaktion auf AMDs HBM. Der Gaming-Markt ist da wohl wichtiger da der mit Abstand größte Umsatzbringer.

Hübie
2015-01-01, 16:38:36
@skysnake: Es ist nicht klar ob auch als Tesla für HPC Cluster. Für Grid und Quadro schon. Nun ists ja wenigstens "offiziell" bestätigt. Man hat einfach keine lukrativen Deals wo es sich lohnen könnte so einen fetten Chip einzusetzen. Nach ORNL war klar das so schnell nix kommt. Also wusste man wohl schon mindestens vor zwei Jahren was zu tun ist. Male dir nicht gleich wieder die CUDA-Abwanderung zu bunt. Das kostet u. U. auch wieder derbe Ressourcen um 2016 festzustellen dass man hätte warten sollen ;)

Skysnake
2015-01-01, 16:45:40
Die CUDA Abwanderung findet wohl seit einiger Zeit immer stärker statt. In nem SC Messe-Magazin war ein Mehrseitiger Artikel dazu drin, das wohl immer mehr Firmen auf OpenCL Umschwenken, da Sie die Kosten für die Codeportierung durch günstigere Hardware meist "umstonst" drin haben.

Was du jetzt aber mit Tesla und HPC meinst weiß ich nicht. Es gibt nur eine Art von Tesla Karten, wo die dann eingesetzt werden ist egal.

Hübie
2015-01-01, 16:57:24
K10 z. B. wird sich niemand in ein Cluster ala Titan stecken. Sei es drum. Abwanderung von CUDA heißt nicht zwangsläufig Hardwarewechsel und wurde in diesem Artikel auch gesagt wer dazu gekommen ist?
Ich will das also nicht so negativ beurteilen wie du. Wir können ja erst mal die Zahlen aus 2014 mal abwarten, denn vielleicht seh ich das zu einseitig ;)

Ailuros
2015-01-01, 17:03:23
meinst du diesen Artikel:
http://wccftech.com/nvidia-planning-ditch-maxwell-gpus-hpc-purposes-due-lack-dp-hardware-update-tesla-line-pascal-2016-volta-arriving-2017/

dein Link ist schon ein wenig alt... Feb. 2014

Ich hab auf's B3D Forum verlinkt. Sonst originale Quelle:

https://translate.google.gr/translate?hl=en&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F121%2FG012181%2F20141225075%2F

By the way, the current Tesla has continued to use the architecture of the "Kepler" generation, but I wonder if there is that these are switched to Maxwell.
Mr. Lin about this, was clearly deny the possibility. Says, "Maxwell will not be used in such a way of Tesla because there is no double-precision (floating-point unit). (Then) the double precision enters becomes to Pascal" and things. This means that of 2015 NVIDIA, although promote the transition to Maxwell in the graphics field, but not so that will continue to expand the Kepler in the HPC field.

Nakai
2015-01-01, 17:08:13
Ich hab auf's B3D Forum verlinkt. Sonst originale Quelle:

https://translate.google.gr/translate?hl=en&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F121%2FG012181%2F20141225075%2F

Da fragt man sich, ob AMDs neuen Chips auch mit DP geizen. Ansonsten merkt man doch, dass 28nm hier ein paar Probleme bereitet.

fondness
2015-01-01, 17:09:42
Wenn NV nichts neues bringt kann AMD im HPC-Bereich IMO auch sehr gut mit Hawaii gegen GK110 leben.

Hübie
2015-01-01, 17:12:15
Na ja wenns Ende der Fahnenstange erreicht ist kommst du einfach nicht mehr höher. Das scheint also der Fall zu sein.
Man sieht ja auch schon daß es für Normalverbraucher zuviel Leistung in einer GeForce 980 gibt. Also warum jetzt große Eile beim Zyklus haben wenn man noch gut absetzt. Wobei Maxwell wahrscheinlich nicht an den Erfolg von Kepler anknüpfen kann. Sieht man ja am Preis zur Einführung der GTX 970.

Ailuros
2015-01-01, 17:18:33
Na ja wenns Ende der Fahnenstange erreicht ist kommst du einfach nicht mehr höher. Das scheint also der Fall zu sein.
Man sieht ja auch schon daß es für Normalverbraucher zuviel Leistung in einer GeForce 980 gibt. Also warum jetzt große Eile beim Zyklus haben wenn man noch gut absetzt. Wobei Maxwell wahrscheinlich nicht an den Erfolg von Kepler anknüpfen kann. Sieht man ja am Preis zur Einführung der GTX 970.

Ich frag mich dann eher wofuer irgendwelche Muehe fuer GM200 ueberhaupt. Haette man GK210 und GM200 nicht entwickelt haette man eine Zweitauflage vom GM204 machen koennen mit 64 FP64/SMM und dann auf mGPU gehen.

Hübie
2015-01-01, 18:53:22
Wahrscheinlich muss man jetzt sehen dass R&D soweit wie möglich reingeholt werden. Desktop-GPUs haben es ohnehin schon schwer genug.

Kriton
2015-01-01, 19:15:14
Da fragt man sich, ob AMDs neuen Chips auch mit DP geizen. Ansonsten merkt man doch, dass 28nm hier ein paar Probleme bereitet.

Das ist doch primär eine Kosten-(Transistoranzahl-)frage ob und ggfs. in welchem Verhältnis man DP berücksichtigt. KA wie 28nm da eine besondere Rolle spielen soll.

Vielleicht gehen Sie auch davon aus, dass Sie den HPC-Bereich eh sicher haben (CUDA) und "fürchten" sich eher vor HBM und der Unklarheit bei GFs Prozess bei Grafikkarten für Spieler? Das man seinen "Ruf" die schnellste Single-Grafikkarte zu haben verlieren könnte?

Hübie
2015-01-01, 19:20:44
Nö. Primär ist die Frage ob Feature XY die erwarteten Kosten deckt bzw. den Absatz entsprechend ankurbelt. Erst dann wird gefragt ob man es technisch machen kann / soll.
Das Geschäft wird immer härter. AMD hat doch keine dedizierten FP64—Units oder hatte ich das falsch verstanden? :|

Edit: Den Titel der schnellsten Karte stecken die sich doch eh immer selber an die Brust. Die Fußnoten erklären dir dann warum. :D

Nakai
2015-01-01, 19:29:50
AMD hat doch schon mit Hawaii gezeigt, dass ein kleiner Die mit hoher DP-Performance drin ist. Mit ~440mm² über 2TFLOPs DP-Performance ist schon stark. NV ist da noch einiges entfernt, vor allem wäre Maxwell auch nicht drüber gekommen.

Ich frag mich dann eher wofuer irgendwelche Muehe fuer GM200 ueberhaupt. Haette man GK210 und GM200 nicht entwickelt haette man eine Zweitauflage vom GM204 machen koennen mit 64 FP64/SMM und dann auf mGPU gehen.

Wieso NV so und nicht anders gehandelt hat, wird eventuell in Zukunft klarer werden. Wenn ich auf AMD schiele und sehe, wieviel Die-Space die noch Platz haben, kann man schon eher erkennen, dass ein Pascal schon einiges anders anpacken muss.

Hübie
2015-01-01, 20:02:00
Wo genau ist eigentlich der Vorteil von dedizierten DP-Units? :confused: Also es muss ja irgendwas bringen sonst hätte nV das wohl nicht über drei vier Generationen geschleppt.

Skysnake
2015-01-01, 20:33:10
Die haben in zwei Generationen laut ihren Aussagen dedizierte DP Units, weils Energieeffizienter sein soll, aber ich habe da seit Anfang an meine Zweifel dran, ob das stimmt, und selbst wenn, dann ganz sicher nicht mehr, wenn man 1:2 DP:SP unterstützen will.

Hübie
2015-01-01, 20:39:55
Waren nicht bereits in Tesla und Fermi ded. FP64?

Skysnake
2015-01-01, 20:54:42
Nein, wie kommste darauf?

Hübie
2015-01-01, 20:55:21
Keine Ahnung. Hat mir mein Gedächtnis mitgeteilt X-D Ich geb gleich mal den "Löschen-Befehl"!

Nakai
2015-01-01, 22:16:21
Nein, wie kommste darauf?

Fermi(GF100/110) hatte anscheinend geteilte Einheiten(ähnlich GCN). Steht jedenfalls so im Whitepaper. Fermi hatte bereits eine DP:SP-Rate von 1:2, wie Hawaii heute.

Tesla(GT200) hatte dedizierte Einheiten.

http://www.realworldtech.com/fermi/7/

Reinher vom Aufbau, bis auf die hochgetakteten SPs, war Fermi eine schöne Architektur.

€: Im Ernst, ich glaube nicht daran, dass es immer vollkommene dedizierte Einheiten sind. Irgendwo wird definitiv was geteilt.

horn 12
2015-01-01, 22:30:17
Nicht mehr lang und dann duerfte man wohl was Neues zu NV und AMD erfahren (CES 2015 ab Montag)

mksn7
2015-01-02, 00:10:10
Es gäbe bestimmt auch einen Markt für Tesla Karten mit Slow DP, auch wenn mir grad keine Einsatzzwecke für viel SP Leistung einfallen. So Sachen wie Raytracing wird ja eher von Quadros abgedeckt. Vielleicht so Sachen im Bereich (Big) Data Analysis und Neural Networks, die mittlerweile ja wieder ganz hip sind. Da werden wohl schonmal Wochen damit verbracht ein NN zur Bilderkennung zu trainieren.

Ich bezweifle, dass im HPC Bereich so viele Leute von CUDA zu OpenCL abwandern. In anderen Bereichen wie Consumer Software scheint das schon der Fall zu sein. Ich bin aber da nicht objektiv, da ich gerade Praktikant bei nvidia bin und deswegen sehr viel von CUDA sehe, aber wenig OpenCL.

Zu Ailuros Quelle passt ja, dass nvidia immer noch neue Tesla Produkte wie K80 auf Kepler Basis herrausbringt.

Nakai
2015-01-02, 02:33:11
https://www.lirmm.fr/arith18/papers/libo-multipleprecisionmaf.pdf

Vll ganz interessant.

Ich bezweifle, dass im HPC Bereich so viele Leute von CUDA zu OpenCL abwandern. In anderen Bereichen wie Consumer Software scheint das schon der Fall zu sein. Ich bin aber da nicht objektiv, da ich gerade Praktikant bei nvidia bin und deswegen sehr viel von CUDA sehe, aber wenig OpenCL.

Irgendwas von OpenCL oder gar nichts?

mksn7
2015-01-02, 02:56:13
Nvidia selber macht natürlich nur Cuda, und in den üblichen Marketingkanälen gehts auch nur um Cuda. Von daher meine Subjektivität. Ausserhalb von nvidia hab ich das Gefühl, dass wenn man bei einem typischen HPC code schaut ob es einen GPU port gibts, dass das fast immer Cuda ist. Da war nvidia in den letzten Jahren beim Portieren von Anwendungen und beim Libraries entwicklen deutlich aktiver.

Skysnake
2015-01-02, 10:33:54
Einen selektiveren Blickwinkel als deinen gibt es nicht. nVidia macht NUR! CUDA und hat seit Kepler ja sogar den offiziellen OpenCL Support gestrichen.... Die OpenCL Samples wurden von nVidia auch von ihrer Webseite entfernt usw usw.

Wie willste denn da bitte groß was von OpenCL sehen? :rolleyes:

EDIT:
Btw. hier noch was recht aktuelles dazu. https://www.linkedin.com/groups/Petition-put-back-OpenCL-samples-1729897.S.149050851

Ailuros
2015-01-02, 11:24:43
Die haben in zwei Generationen laut ihren Aussagen dedizierte DP Units, weils Energieeffizienter sein soll, aber ich habe da seit Anfang an meine Zweifel dran, ob das stimmt, und selbst wenn, dann ganz sicher nicht mehr, wenn man 1:2 DP:SP unterstützen will.

Wenn man von den gleichen ALUs von 1:4 zu 1:3 oder 1:2 skaliert wird es auch nicht billiger in hw. Dedizierte DP units kosten etwas mehr in hw als alle anderen Loesungen und sparen dafuer mehr Strom. Bis zu Kepler zumindest duerfte es gueltig sein, denn ich sehe weder von Intel noch von AMD eine analoge DP/W Rate wie bei Kepler bis jetzt. Was heute gilt muss nicht unbedingt auch morgen gelten.

Und nochmal genauso wie es mit dedizierten ALUs fuer FP64 von FP32 nach oben gilt, gilt es auch von FP32 zu FP16 nach unten im ULP SoC GPU Fall, stets fuer die heutigen Verhaeltnisse.

Ich hab zwar noch keine anstaendige Erklaerung aber GM200 ohne anstaendige DP Raten klingt mir verdammt merkwuerdig. Ich bin ernsthaft neugierig wie die heutigen high end Quadro Nachfolger basierend auf Maxwell aussehen werden. Ausser sie verkaufen auch dort analoge hw zum K80 Mist; bei den Margen ist es kein besonders grosses Problem nur eben eine laecherlich kleine Steigerung in DP Leistung.

Einen selektiveren Blickwinkel als deinen gibt es nicht. nVidia macht NUR! CUDA und hat seit Kepler ja sogar den offiziellen OpenCL Support gestrichen.... Die OpenCL Samples wurden von nVidia auch von ihrer Webseite entfernt usw usw.

Wie willste denn da bitte groß was von OpenCL sehen? :rolleyes:

EDIT:
Btw. hier noch was recht aktuelles dazu. https://www.linkedin.com/groups/Petition-put-back-OpenCL-samples-1729897.S.149050851

Sei nicht so gemein :P OCL wird fuer K1 nur auf "Antrag" unterstuetzt und da es sowieso keine Kunden gibt (weder Hersteller noch "Lizenz-nehmer") wird es auch theoretisch "unterstuetzt" :D

------------------------------------------------------------------------------------------------------------------------------------
OT: da die desktop Welt zunehmend langweiliger wird, setz ich mich vielleicht hin und kritzel ein Laien "review" ueber ein tablet zusammen.

hasebaer
2015-01-02, 16:25:18
videocardz glaubt es wird die Quadro M6000 auf der CES gezeigt.
http://videocardz.com/54171/nvidia-quadro-m6000-with-gm200-gpu-specifications-leaked

Unicous
2015-01-02, 16:30:47
Blödsinn. ICryBecausIhavenosources hat einfach den Artikel von

http://www.techpowerup.com/208501/possible-nvidia-gm200-specs-surface.html

geklaut, bei dem ein GPU-Z Eintrag gefunden wurde (ob authentisch oder manipuliert... keine Ahnung die TPU-Datenbank ist meist nicht sehr aussagekräftig und manipulierbar) und die bereits bekannte PM http://blogs.nvidia.com/blog/2014/12/31/watch-nvidia-ces/

damit verwoben. Das ist stochern im Nebel... mit einer Nebelkerze.


Ein paar Tage vor der CES so einen Artikel rauszuhauen ist einfach nur lächerlich. Nvidia wird sicherlich etwas vorstellen oder previewen, ob es GM200 ist...vllt.. Vllt. ist es aber auch nur Tegra.

y33H@
2015-01-02, 16:41:41
NV will auf der CES eher Richtung IVI.

boxleitnerb
2015-01-02, 16:42:01
Was ist IVI?

Unicous
2015-01-02, 16:43:59
Tegra fürs Auto. In-Vehicle Infotainment.

fondness
2015-01-02, 17:08:47
Wenn man von den gleichen ALUs von 1:4 zu 1:3 oder 1:2 skaliert wird es auch nicht billiger in hw. Dedizierte DP units kosten etwas mehr in hw als alle anderen Loesungen und sparen dafuer mehr Strom. Bis zu Kepler zumindest duerfte es gueltig sein, denn ich sehe weder von Intel noch von AMD eine analoge DP/W Rate wie bei Kepler bis jetzt.

Bitte? Ich sehe bei Kepler nirgends auch nur annähernd die 10.8 DP GFLOP/W welche Hawaii erreicht.

hasebaer
2015-01-02, 17:37:54
NV will auf der CES eher Richtung IVI.

Jo, so wie sie schon die letzten zwei Jahre immer nur Tegra auf der CES gezeigt haben.

Für Quadro bietet sich die GTC mitte/ende März an.

Unicous
2015-01-02, 17:50:56
Denke ich auch. Aber teasern tut Jensen dennoch gerne, von daher könnte er sicherlich kurz im örtlichen Baumarkt vorbeischneien (wobei, schneit es in Las Vegas überhaupt?) und etwas Schönes zusammenbasteln.:tongue:

Ailuros
2015-01-02, 18:01:40
Bitte? Ich sehe bei Kepler nirgends auch nur annähernd die 10.8 DP GFLOP/W welche Hawaii erreicht.

W9100 = 9.52
W8100 = 9.58
K80 = 9.70 :biggrin::freak:

Spass beiseite, wenn man einen K40 von 235W peak auf 275W TDP hochjagen wuerde, wuerde es auch nicht bei 7.0 steckenbleiben.

Warum NV so viel Scheiss baut bleibt abzusehen. Momentan leaken angebliche Quadro M6000 Spezifikationen nach aussen. Wie genau will NV das Ding im Vergleich zur K6000 verkaufen wenn es zu DP kommt? Wenn sie jetzt noch das GK210 Gespann fuer Quadros einsetzen haben sie wirklich nicht mehr alle Tassen im Schrank, oder der GM200 ist total abgefurzt was mir dann leichter faellt zu glauben.

fondness
2015-01-02, 18:04:07
S9150: 10,8
http://www.amd.com/en-us/products/graphics/workstation/firepro-remote-graphics/s9150#

Ansonsten: es gab doch von Huang selbst eine Folie wo die DP GLOPs/W für Maxwell eingezeichnet waren, von daher muss sich da einiges geändert haben falls GM200 tatsächlich keine DP-Einheiten hat.

http://s3.postimg.org/vdmwle15v/Old_Roadmap.jpg (http://postimg.org/image/8c6bfn1i7/full/)

/Edit: Ahh, sehr interessant, wer findet den Fehler?

http://s30.postimg.org/qqhiclig1/Pascal_Roadmap.jpg (http://postimg.org/image/qqhiclifx/full/)

Ailuros
2015-01-02, 18:09:02
S9150: 10,8
http://www.amd.com/en-us/products/graphics/workstation/firepro-remote-graphics/s9150#

Ansonsten: es gab doch von Huang selbst eine Folie wo die DP GLOPs/s für Maxwell eingezeichnet waren, von daher muss sich da einiges geändert haben falls GM200 tatsächlich keine DP-Einheiten hat.

http://s18.postimg.org/3xkhhtyah/nvidia_gpu_roadmap_maxwell_volta.jpg (http://postimage.org/)

Touche. Ich will GM200 zuerst angekuendigt sehen. Irgend was stimmt hier nicht.

***edit: nachdem Volta in die Zukunft versetzt wurde gab es eine neue Folie fuer DP oder nur fuer SGEMM?

******edit Nr.2: daemlich....ich haette es schon seit langem sehen sollen.... http://www.anandtech.com/show/7900/nvidia-updates-gpu-roadmap-unveils-pascal-architecture-for-2016

fondness
2015-01-02, 18:12:14
Touche. Ich will GM200 zuerst angekuendigt sehen. Irgend was stimmt hier nicht.

***edit: nachdem Volta in die Zukunft versetzt wurde gab es eine neue Folie fuer DP oder nur fuer SGEMM?

NV hat die Skalierung von DP auf Single-Precision geändert, warum wohl? :)
SGEMM (single-precision/fp32 GEMM), nicht zu verwechseln mit DGEMM (double precision/fp64 GEMM).

Ailuros
2015-01-02, 18:14:45
NV hat die Skalierung wohl von DP auf Single-Precision geändert, warum wohl? :)

Siehe zweiter edit oben. Es lag wohl die ganze Zeit vor unser Nase wenn's stimmt :rolleyes:

fondness
2015-01-02, 18:19:37
Ich finde es allerdings ziemlich witzig das sich an den Werten nichts geändert hat, Maxwell liegt genau wie vorher bei ~12 :D

AnarchX
2015-01-02, 18:20:48
Blödsinn. ICryBecausIhavenosources hat einfach den Artikel von

http://www.techpowerup.com/208501/possible-nvidia-gm200-specs-surface.html

geklaut, bei dem ein GPU-Z Eintrag gefunden wurde (ob authentisch oder manipuliert... keine Ahnung die TPU-Datenbank ist meist nicht sehr aussagekräftig und manipulierbar) und die bereits bekannte PM http://blogs.nvidia.com/blog/2014/12/31/watch-nvidia-ces/

damit verwoben. Das ist stochern im Nebel... mit einer Nebelkerze.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10470897#post10470897
M6000 ist auch ein Begriff bei Nvidia - im PDF vom November hat man die Karte wohl ausversehen genannt. ;)

GM200 wird wohl anders als GK110 am Markt eingeführt, aber dass der Chip nicht irgendwann in 2015 NVs Top-HPC-Chip sein wird, kann ich mir nicht vorstellen.

Unicous
2015-01-02, 18:29:30
Ich weiß. Genau deswegen könnte es ein Fake sein (muss aber nicht). *Zwinker zurück


Übrigens steht ja direkt vor der M6000 Erwähnung auch noch GTX 980... könnte daher u.U. auch nur auf GM204-Basis sein (anstatt wie bei K6000 GK110) *schulterzucksmiley

Ailuros
2015-01-02, 18:31:52
GM200 wird wohl anders als GK110 am Markt eingeführt, aber dass der Chip nicht irgendwann in 2015 NVs Top-HPC-Chip sein wird, kann ich mir nicht vorstellen.

Ich kann's auch nicht glauben, aber es gibt die direkte Aussage eines NV Angestellten bei 4gamersnet. Auf jeden Fall wie gesagt wenn's stimmt lag es die ganze Zeit vor unser Nase mit den roadmap Folien.

hasebaer
2015-01-02, 18:33:36
aber dass der Chip nicht irgendwann in 2015 NVs Top-HPC-Chip sein wird, kann ich mir nicht vorstellen.

Irgendwas ist entweder bei den DP Einheiten defekt oder wenn es die garnicht gibt, dann funktioniert das 2:1 SP/DP nicht so das man auf die gewünschte Perf./W. kommt.

Oder von GM200 kommt in Zukunft immer auch ein HPC optimierter Chip, nennen wir ihn mal GM210.

Skysnake
2015-01-02, 18:38:46
Wenn das Ding nicht ne Mega Perf/W hat, dann kannste den krassen Performancerückstand nicht rechtfertigen, wenn das Ding nicht deutlich mehr DP-Leistung hat als GK110. Was man bisher gehört hat, soll DP aber ziemlich mager ausfallen, so macht das Ding aber nicht mehr wirklich viel Sinn im HPC Umfeld, weil du eben zu stark bzgl Perf/Compute-Node abfällst, und du dann wieder zu viele Nodes brauchst, was die Skalierbarkeit drückt und damit auch die Gesamteffizienz usw usw.

W9100 = 9.52
W8100 = 9.58
K80 = 9.70 :biggrin::freak:

Spass beiseite, wenn man einen K40 von 235W peak auf 275W TDP hochjagen wuerde, wuerde es auch nicht bei 7.0 steckenbleiben.

Warum NV so viel Scheiss baut bleibt abzusehen. Momentan leaken angebliche Quadro M6000 Spezifikationen nach aussen. Wie genau will NV das Ding im Vergleich zur K6000 verkaufen wenn es zu DP kommt? Wenn sie jetzt noch das GK210 Gespann fuer Quadros einsetzen haben sie wirklich nicht mehr alle Tassen im Schrank, oder der GM200 ist total abgefurzt was mir dann leichter faellt zu glauben.
Naja, GK210 hätte man schon lange als Dual-Karte bringen können, um die S10000 zu kontern. Da hätten sich sicherlich genug Leute drüber gefreut, aber jetzt wäre es ziemlich sinnfrei, das Ding noch zu bringen. Da muss ich dir rechtgeben. Wenn, wie du so schön sagst, furzt GM200 wirklich ab. So nen Dual-GK210 muss man dann nämlich auf Kosten der Marge "verramschen" im Vergleich zu bisher. Wirklich mehr verlangen als für ne K40 kannste da bei nem Launch jetzt nicht wirklich. Das würde nVidias Preisgefüge natürlich komplett kaputt machen, und so manchen Käufer auch sauer aufstoßen, weil er sich fragen muss, warum er selbst so viel mehr gezahlt hat.

NV hat die Skalierung von DP auf Single-Precision geändert, warum wohl? :)
SGEMM (single-precision/fp32 GEMM), nicht zu verwechseln mit DGEMM (double precision/fp64 GEMM).
LOL!
Die Änderung von DGEMM auf SGEMM ist mir noch gar nicht aufgefallen bewusst :freak:

Zumindest kann ich mich nicht dran erinnern.:confused: Eventuell hatte ich aber was dazu geschrieben, weil an sich springt es einem schon ins Gesicht, ist aber wirklich schon lange her, dass die Meldung aktuell war. Naja, seis drum. So gibt nVidia auf jeden Fall bullshit an, denn Kepler hat natürlich wohl kaum die gleiche XGEMM/W Effizienz für SP und DP.

Ailuros
2015-01-02, 18:41:24
Irgendwas ist entweder bei den DP Einheiten defekt oder wenn es die garnicht gibt, dann funktioniert das 2:1 SP/DP nicht so das man auf die gewünschte Perf./W. kommt.

DP muss ja nicht unbedingt auf der hoechsten Frequenz laufen.

Oder von GM200 kommt in Zukunft immer auch ein HPC optimierter Chip, nennen wir ihn mal GM210.

Nochmal GM107/204 haben 4*FP64 SPs; Maxwell braucht theoretisch die gleichen 64 FP64 SPs/cluster wie Kepler um die oben erwaehnten ~12 DP GFLOPs/W zu erreichen.

Ein GM210 waere irgend ein komischer dual core wie GK210, wofuer erstmal die Grundlagen per core stimmen muessen dass ein dual core erstmal Sinn macht. Dazu kommt auch noch das Problem dass eine angebliche Maxwell Quadro M6000 wie sie oben angeblich erwaehnt wird dann eine ehlendige DP Rate haben wird im Vergleich zum K6000. Ist die 988MHz (boost) Frequenz real fuer die "M6000" Quadro dann waeren es theoretisch 3.035 TFLOPs DP.

Bogen nach oben: gibt es ein Problem mit dem Stromverbrauch benutzt man eben "nur" =/>800MHz fuer DP.

Sonst: wie ich bei B3D schon sagte, ich erwartete schon seit einiger Zeit mGPU fuer HPC. Das daemliche ist eben dass ich GK210 leider nicht ernst genommen habe und ich auch natuerlich nie erwartete dass NV es so ungeschickt anlegt. Die Effizienz vom GK210 ist ja wirklich nicht umwerfend ueberhaupt wenn man bedenkt wieviel die area dafuer verplempert wird.


LOL!
Die Änderung von DGEMM auf SGEMM ist mir noch gar nicht aufgefallen bewusst :freak:

Zumindest kann ich mich nicht dran erinnern.:confused: Eventuell hatte ich aber was dazu geschrieben, weil an sich springt es einem schon ins Gesicht, ist aber wirklich schon lange her, dass die Meldung aktuell war. Naja, seis drum. So gibt nVidia auf jeden Fall bullshit an, denn Kepler hat natürlich wohl kaum die gleiche XGEMM/W Effizienz für SP und DP.

Aufgefallen ist es mir schon in der Vergangenheit weil ich stellenweise auch bei B3D ueber den neuesten SGEMM slide diskuttiert hat. Mir ist leider nie der Groschen gefallen es mit dem originalen "Volta/DP" slide zu vergleichen. Gelogen haben sie auf jeden Fall erstmal nicht :P

fondness
2015-01-02, 18:51:28
Damit machen plötzlich auch die ganzen GK110/GK180/GK210 Ableger deutlich mehr Sinn...

Für mich sieht das stark nach einer Reaktion auf Fiji aus. AMD wird sich schwer tun die für HPC nötige VRAM-Menge zu verbauen und deshalb womöglich ebenfalls auf DP verzichten....

Skysnake
2015-01-02, 19:03:51
Aufgefallen ist es mir schon in der Vergangenheit weil ich stellenweise auch bei B3D ueber den neuesten SGEMM slide diskuttiert hat. Mir ist leider nie der Groschen gefallen es mit dem originalen "Volta/DP" slide zu vergleichen. Gelogen haben sie auf jeden Fall erstmal nicht :P
WIeso nicht?

Wenn SGEMM/W und DGEMM/W die etwa gleichen Werte ausspuckt, dann läuft da gewaltig was falsch... Und nein, selbst mit Skalenargumentationen kannste das nicht rechtfertigen, denn Kepler sitzt genau an der gleichen stelle, und man nutzt schon eine Verschiebung, siehe Fermi.

DGEMM muss etwa halb so effizient sein wie SGEMM. Man muss halt auch einfach mehr als das Doppelte an Aufwand reinstecken bei DP Multiplikationen im Vergleich zu SP.

Ansonsten müsste ja der Verbrauch sich halbieren, bzw auf ein drittel sinken, wenn man von SP auf DP wechselt, und das ist ja wohl offenkundig nicht der Fall oder ;)

ndrs
2015-01-02, 19:49:10
DGEMM muss etwa halb so effizient sein wie SGEMM.
Bei der Pascal-Folie steht "normalized" daneben. Man hat wohl einfach Tesla auf 1 gesetzt und alles ins Verhältnis dazu. Tesla steht auf der Volta-Folie bei 0,5. Wenn jetzt einer das DP:SP-Verhältnis für Tesla zur Hand hat (4:1? zu faul zum googeln), kann man die beiden Folien sicher in Einklang bringen. Am besten ein Freiwilliger macht mal ne Tabelle :D

Ailuros
2015-01-02, 20:00:02
Damit machen plötzlich auch die ganzen GK110/GK180/GK210 Ableger deutlich mehr Sinn...

Für mich sieht das stark nach einer Reaktion auf Fiji aus. AMD wird sich schwer tun die für HPC nötige VRAM-Menge zu verbauen und deshalb womöglich ebenfalls auf DP verzichten....

GK180 war nichts anderes als GK110B. NV kann nur hoffen dass dem so ist fuer AMD. Im jeglichen Gegenfall *autsch* :eek:

Dural
2015-01-02, 20:16:23
euch ist aber schon klar das NV schon vor einer halben ewigkeit für 2015 deutlich mehr DP leistung pro Watt mit Maxwell versprochen hat!?!

mboeller
2015-01-02, 20:28:10
Damit machen plötzlich auch die ganzen GK110/GK180/GK210 Ableger deutlich mehr Sinn...

Für mich sieht das stark nach einer Reaktion auf Fiji aus. AMD wird sich schwer tun die für HPC nötige VRAM-Menge zu verbauen und deshalb womöglich ebenfalls auf DP verzichten....

Du glaubst also das die AMD-Mitarbeiter die zu Nvidia gewechselt sind solche Infos "mitgebracht" hatten? Die "Ableger" sind ja schon etwas länger in der Mache. Das können keine normalen Leaks gewesen sein die Nvidia zu so einer Änderung veranlasst hätten, sofern sie real ist.

Nakai
2015-01-02, 20:59:09
euch ist aber schon klar das NV schon vor einer halben ewigkeit für 2015 deutlich mehr DP leistung pro Watt mit Maxwell versprochen hat!?!

http://techreport.com/news/26226/nvidia-pascal-to-use-stacked-memory-proprietary-nvlink-interconnect

Das da? Da steht echt SGEMM...:freak:

GK180 war nichts anderes als GK110B. NV kann nur hoffen dass dem so ist fuer AMD. Im jeglichen Gegenfall *autsch* :eek:

Naja hierfür ist Hawaii NV immer noch ein Stückchen vorraus, vor allem bei der Speichermenge. Eine S11000(Dual-Hawaii; 32GB) oÄ wäre so ziemlich hart für jeglichen doppelten GK180.

Ich bin erstmal auf Fiji gespannt, da erwarte ich nur einen Gaming-Chip. Dann kommt noch Bermuda. Was jetzt genau was ist und wie jegliche aussehen werden, wird interessant.;)

Duplex
2015-01-03, 00:12:09
Nvidia ist im Profimarkt deutlich vor AMD, jeder weiß doch das hier AMD kaum was zu sagen hat, daran wird sich auch nichts ändern, das ist genau wie Intel im Server Markt.

mksn7
2015-01-03, 00:13:52
Einen selektiveren Blickwinkel als deinen gibt es nicht. nVidia macht NUR! CUDA und hat seit Kepler ja sogar den offiziellen OpenCL Support gestrichen.... Die OpenCL Samples wurden von nVidia auch von ihrer Webseite entfernt usw usw.

Jap, das ist natürlich richtig. Aber ich mach auch noch andere Sachen als bei nvidia zu sitzen.

So Ankündigungen wie die Corral Systeme kommen nicht von ungefähr. Die National Labs haben schon viel ihrer Software auf Cuda portiert wegen Titan, und bleiben deswegen auch dabei. Titan mag ja nur die Nummer zwei sein, aber was richtige Wissenschaft angeht höre ich viel von Titan aber nichts von Milkyway. Das könnte aber mein westlich geprägter Blickwinkel sein.

OpenCL geht schon noch... aber richtigen Support gibts nicht mehr. Ich fänds auch schöner, wenn nvidia da mal über den eigenen Schatten springen würde und nicht nur den eigenen Kram unterstützt.

Beim Rest der Diskussion kann ich nur zuschauen, sogar der Praktikant weiß mittlerweile wie GM200 aussieht.

Skysnake
2015-01-03, 01:44:51
Ich kann "Corral" langsam echt nicht mehr hören... Die Dinger werden zwar im Vergleich zu den aktuellen System echt fix und dabei auch noch recht sparsam sein, aber alle anderen schlafen auch nicht, und werden zu der Zeit +/- ein Jahr ebenfalls Systeme mit sehr sehr ähnlichen Eckdaten dastehen haben... Nur nicht jeder macht so auf Selbstbeweihräucherung...

Und bzgl. Titan vs. Tianhe2, Tianhe2 war und ist ne Kiste um den Amis richtig den Stinkefinger zu zeigen. Sobald es nötig ist, wird da auch wieder nachgelegt. Ob Sie am Ende was vernünftiges damit anfangen können, ist dabei erstmal zweitrangig. Zudem muss man auch immer bedenken, dass die Chinesen teils auch in ihrer eigenen Filterbubble leben, und gar nicht alles so in die westliche Welt rausgeblasen wird, wie eben bei uns das der Fall ist. Auf jeden Fall haben Sie ein krankes System hingestellt. Da muss man schon erstmal den Hut vor ziehen, wobei es eben auch die big Goverment-Dollars mit waren. Aber das war schon immer so. Die Amis machen mit ihrem FastForward Programm usw usw. ja quasi auch nichts anderes. AMD, IBM, Intel, Mellanox und auch nVidia bekommen regelmäßig Geld in den Arsch geblasen, damit die Entwicklung weiter geht. Die Europäer machen das natürlich auch, aber eher weniger mit eigenen Firmen...

Wie auch immer. CUDA ist ein sehr zweischneidiges Schwert, und zwar für alle Parteien. Keiner sollte also zu fest zupacken an Selbigen, sonst sind ein paar Finger ab...

hasebaer
2015-01-03, 12:41:52
Beim Rest der Diskussion kann ich nur zuschauen, sogar der Praktikant weiß mittlerweile wie GM200 aussieht.

Dann leite mal bitte die Erwartungshalt eines kleinen 3DCler nach Oben weiter.

,,(Mindestens) 20% mehr Speed und 50% mehr RAM ggü. der Referenz GTX 980 und ich bin mit einer nochmals 35% höheren UVP einverstanden."

Deal !? :deal:

:biggrin:

Schnoesel
2015-01-03, 12:53:54
Da erwarte ich doch mehr als nur lächerliche 20%+. Für 4k muss da einiges mehr kommen.

fondness
2015-01-03, 12:55:07
Ohne DP kann man schon up to 50% erwarten.

-/\-CruNcher-/\-
2015-01-03, 12:57:53
DP wird zunehmend ein Problem ich seh immer mehr Code für AMD der darauf abzielt und wo Nvidia dann plötzlich in die Knie geht ;)

schön sind solche kämpfchen aber nicht eher kindergarten, da müssen die Nvidia Engineers dann wieder rumbasteln ;)

hasebaer
2015-01-03, 13:57:25
Da erwarte ich doch mehr als nur lächerliche 20%+. Für 4k muss da einiges mehr kommen.

Mit OC sind sicher auch 40% drin, aber Nvidia wird ihr Referenzdesign nicht so hoch ansetzen.
Ein eleganter Perf/W Sweetspot (zb. +20% Speed ggü. GTX 980 bei einer TDP knapp um die 200W) und wenn man dann noch 15-20% OC Spielraum hätte unter Luft, kann man doch schon zufrieden sein in 28nm.

Edgecrusher86
2015-01-03, 14:52:34
GM200 Salvage mit vermeintlichen 21 SMM dürfte die 20% auf die 980 packen - der Vollausbau mit 24 SMM nochmal 10 - 15% drauf.

Ohne FP64 Units und somit Teslas am Markt, dürfte es ja keine neue GTX TITAN geben (frühstens wieder mit Pascal). Aber NV wird natürlich die Preise trotzdem hoch halten -> The Way It's Meant To Be Paid. :freak:
Dann bringt man halt wieder so etwas wie eine Ultra mit gleichzeitig doppelten VRAM zum Salvage - so erwarte ich das.

Salvage mit 6GB - $699 MSRP - wie etwa die 780 Ti
Vollausbau mit 12GB - 899$ MSRP oder ähnlich (dass man derzeit 12GB als Enthusiast - selbst im Surround - unbedingt benötigt, sei mal dahin gestellt, aber man kann so den Preis in die Höhe treiben :biggrin:). Preislich ohne das DP-Feature der TITANs vielleicht etwas günstiger.

Desweiteren bezweifel ich auch, dass man zur CES etwas anderes als Tegra "M1" oder wie immer man den GM-Ableger nennen wird, samt dem erwähnten IVY, gezeigt bekommt. Also wird vermutlich auch über die Quadro M6000 kein Wort verloren werden.

Das letzte Mal, dass es Neuigkeiten zu High-End-GPUs gab, war auf der CES 2010 in Form vom GF100 ES-Demo-Systemen sowie FC2- und Dark-Void (GPU-PhysX) Benchmarks gegen GT200b.
Danach nutze man eigentlich immer hauseigene Veranstaltungen, wie vor allem die GTC, für High-End-Ankündigungen.

GTC 2012 (Mai) - GTX 690
GTC 2013 (Februar) - GTX TITAN
GTC 2014 (März) - GTX TITAN Z (auch wenn sich der Launch dann doch noch gut hinausgezögert hat...u.a. sicher auch deshalb, weil die finale Karte dann einen 2,5 Slot Kühler bekam...gut, die finalen Karten lagerten ja auch noch einige Wochen bei den Händlern)

Zur GTC 2015 (17. - 20.3.) dürfte also in der Tat GM200 vorgestellt werden. Eventuell sowohl im Desktop-Vollausbau, als auch Quadro M6000. Salvage, eventuell als 980 Ti, dürfte dann wieder so drei Monate danach kommen.
Eine GTX 990 zur GTC, bestehend aus zwei heruntergetakteten GTX 980, wäre natürlich auch eine Möglichkeit, haut aber vermutlich die meisten Enthusiasten, die entweder GK110 SLI oder schon GM204 SLI fahren, nicht wirklich vom Hocker - gerade auch, was die VRAM-Bestückung an geht - hoffentlich kommt es nicht so. ;)

Nun ja, ich hoffe, dass wir wenigstens Ende März die dicke Karte kaufen können und die Leute, die nicht ganz soviel ausgeben möchten im Mai...



E: Ich tippe ja auf folgende GM200-SP-Performance-Konstellationen - seit GM204 gibt NV diese übrigens mit dem typical Boost-Takt an - wie auch AMD zuvor schon hierfür nicht den Basis-Takt verwendete:

Vollausbau
~7 TFLOP/s SP (3072 SPs, 1127 oder 1140 MHz Boost-Takt (gerundet) -> 6924,29 GFLOP/s SP oder 7004,16 GFLOP/s SP)

Salvage
~6 TFLOP/s SP (2688 SPs, 1102 oder 1114 MHz Boost-Takt (gerundet) -> 5924,35 GFLOP/s SP oder 5988,86 GFLOP/s SP)

Der maximale Boost sollte dann bei beiden Karten innerhalb der 1203 MHz-Grenze liegen bzw. etwas darunter.
Der Baseclock könnte beim Vollausbau ~ 6,5 TFLOP/s sowie beim Salvage ~ 5,5 TFLOP/s ermöglichen...allerdings hat man hier auch allen Spielraum der Welt, siehe GM204-> GTX 980 ~ 88 MHz Differenz Base/Boost vs. GTX 970 Ref ~ 127 MHz Differenz Bae/Boost)


Das wäre auch analog zur GTX 980 und GTX 970 mit Referenztaktraten, deren SP-Performance sich auch um ~ 1 TFLOP/s unterscheidet:

GTX 980
~ 5 TFLOP/s SP (2048 SPs, 1215 MHz Boost-Takt (gerundet) -> 4976,64 GFLOP/s SP)

GTX 970
~ 4 TFLOP/s SP(1664 SPs, 1178 MHz Boost-Takt (gerundet) -> 3920,64 GFLOP/s SP)

M4xw0lf
2015-01-03, 14:57:13
GM200 ohne DP-Einheiten wäre schon schräg. Dann hat NV AMD noch länger nicht wirklich was entgegenzusetzen in Sachen DP-FLOPS/W und DP-FLOPS absolut.

Rampage 2
2015-01-03, 15:23:28
Mit OC sind sicher auch 40% drin, aber Nvidia wird ihr Referenzdesign nicht so hoch ansetzen.


Sind 1.5GHz (24/7 stabil) Chiptakt für den GM200 @ Vollausbau (3072SPs, 96ROPs, 192TMUs) realistisch? (gegebenenfalls mit gehacktem Power-Target)

R2

aufkrawall
2015-01-03, 15:29:29
Woher soll man das jetzt schon wissen?

Bei 40% effektiveren ALUs als Kepler sollte man gegenüber GK110 gut Abstand gewinnen. Ohne DP und weniger Die-Space für Caches oder sonst was (50% mehr Bandbreite, also mehr als genug), sollten schon 40% gegenüber GM204 drin sein.

Edgecrusher86
2015-01-03, 15:39:18
Ich denke schon, dass auch GM200 relativ taktfreudig werden dürfte - zumindest ohne PT-Fesseln, wie schon erwähnt.

GK110 war ja mit ~+87% deutlich größer als GK104, ließ sich aber nicht wirklich schlechter takten als dieser - und das als eine GPU, die auf HPC ausgelegt ist, anders als es jetzt der Fall ist.

1,4 GHz sollten definitiv drin sein bei GM200 @ OC - eventuell sogar mehr, da bin ich relativ zuversichtlich. Wir werden es sehen. :)

aufkrawall
2015-01-03, 15:44:45
Man könnte vielleicht annehmen, dass es sich bei dem ausgereiften Prozess ähnlich wie GM204 wird takten lassen.
Die 780 Ti ließ sich auch nicht schlechter takten als die 680. Außerdem hat man ja keine Späße wie ein 512 Bit Interface (+ Elpida).

MilesEdgeworth
2015-01-03, 15:47:45
Der vergleichsweise hohe Energiebedarf von GM204 in Compute Anwendungen (gegenüber Spielen) scheint ja inzwischen vergessen zu sein. :freak: Kann mir jedenfalls für GM200 kaum Taktraten über 1GHz vorstellen, zumindest solange es kein reiner Gamingchip werden soll. Tendenziell würde ich eher Richtung 900MHz schielen, womit vermutlich 30% auf GM204 schon viel wären!

aufkrawall
2015-01-03, 15:49:24
Der vergleichsweise hohe Energiebedarf von GM204 in Compute Anwendungen (gegenüber Spielen) scheint ja inzwischen vergessen zu sein.
Bitte was? Das Referenzdesign riegelt natürlich kurz nach 165W ab.

Rampage 2
2015-01-03, 15:52:07
(50% mehr Bandbreite, also mehr als genug)


Ich hoffe, dass Nvidia doch 8Gbps-Speicher verbaut...

Gibt es eigentlich User die es geschafft haben, ihre 780 Ti dauerhaft bei 4GHz Speichertakt (= 384GB/sek. Bandbreite) zu betreiben?

R2

aufkrawall
2015-01-03, 15:54:05
Ich hoffe, dass Nvidia doch 8Gbps-Speicher verbaut...

Wieso? Mehr Takt = schlechtere Effizienz. Würde bei dem dicken Interface doch gar keinen Sinn machen.

Rampage 2
2015-01-03, 16:19:04
Wieso? Mehr Takt = schlechtere Effizienz.

:confused: Wie meinst du das?

Abgesehen davon: es ist doch so, dass ALLE GPUs der heutigen Generation von mehr Bandbreite profitieren... 192GB/sec. hatte schon der GF110 (Fermi) - und das ist fast 4 Jahre her!

R2

aths
2015-01-03, 16:20:44
Ich hoffe, dass der GM200 neue Maßstäbe setzt. Klar würde die GTX 980 dann vergleichsweise schlecht aussehen und ich "freue" mich schon auf die hämischen Bemerkungen der GM200-Käufer.

Doch es gibt genug Games, die mehr GPU-Leistung vertragen könnten.

Ailuros
2015-01-03, 16:33:10
:confused: Wie meinst du das?

Ich kann zwar nur raten was er meint, aber wenn GM204 mit N Bandbreite auskommen kann, dann braucht ein GM200 mit z.B. X% mehr Einheiten auch nicht wirklich mehr als N+X Bandbreite.

Abgesehen davon: es ist doch so, dass ALLE GPUs der heutigen Generation von mehr Bandbreite profitieren... 192GB/sec. hatte schon der GF110 (Fermi) - und das ist fast 4 Jahre her!

R2

Es ist schon seit Jahrzehnten so dass alle GPUs nur gering von nur einer sterilen Bandbreiten-steigerungen profitierten. Die Faelle wo die Bandbreite zu kurz lag sind Aussnahmen. Unter normalen Umstaenden wenn Du den core und den Speicher um 15% z.B. uebertaktest, bekommst Du auch ca. 15% mehr durschnittliche Leistung. Uebertaktest Du nur entweder den core oder den Speicher geht normalerweise das groessere Prozentual an den core.

HOT
2015-01-03, 17:01:39
Bitte was? Das Referenzdesign riegelt natürlich kurz nach 165W ab.
Der macht wat? Neeeee...
Das Referenzdesign riegelt bei ca. 180W ab, die 165W "TDP" sind NVs durchschnittlicher Spiele-Last-Verbrauch. Geht man weg vom Referenzdesign ist das Powertarget oft auf 200-300W eingestellt, das verbraucht der Chip bei Compute dann auch (bei Spielen natürlich nicht, es sei denn, mann übertaktet >1300MHz).

Bezüglich 1/32 DP/SP bei GM200 lässt sich konstatieren, dass man jetzt den Sinn eines GK210 tatsächlich auch nachvollziehen kann.

aufkrawall
2015-01-03, 17:05:28
:confused: Wie meinst du das?

Abgesehen davon: es ist doch so, dass ALLE GPUs der heutigen Generation von mehr Bandbreite profitieren... 192GB/sec. hatte schon der GF110 (Fermi) - und das ist fast 4 Jahre her!

R2
Mit Maxwell 2 & Tonga hast du aber schon neue lossless color compression, die den Bandbreitenbedarf stark senkt.
Wenn du >90% der Zeit nicht bandbreitenlimitiert bist, macht es keinen Sinn, einen höheren VRAM-Takt festzulegen. Verbrätst du Strom für nichts und dürfte auch teurer im Einkauf sein.

MilesEdgeworth
2015-01-03, 17:10:35
@HOT:
Danke, darauf habe ich mich bezogen. Außerdem geht der Takt sicherlich deutlich in den Keller sobald das Powerlimit überschritten werden würde. Erst in der Praxis wird sich zeigen wie der Chip sich in Spielen verhält, die sind aber eben nicht alles. :D

Mein Gefühl sagt mir, dass das bestimmt wieder wie bei der GTX970 laufen wird.. Durch geschicktes Marketing (abgeriegeltes Referenzdesign) wird (/werden) die Karte(n) auf GM200-Basis relativ effizient. Das bleibt in den Köpfen hängen. Die gekauften Custom Designs haben jedoch ein weit höheres Powertarget und schwupps ist der Verbrauch auch wieder deutlich höher.. :ugly: Es wird jedoch sicher noch dauern, bis da mal was für den Consumer-Markt kommt, schließlich ist aus wirtschaftlicher Sicht ein performanterer, größerer und v.a. teurerer Chip zurzeit einfach nicht sinnvoll.

aufkrawall
2015-01-03, 17:11:03
Der macht wat? Neeeee...
Das Referenzdesign riegelt bei ca. 180W ab, die 165W "TDP" sind NVs durchschnittlicher Spiele-Last-Verbrauch.

Wohl kaum:
http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/

http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index24.php
Die maximale Leistungsaufnahme der GTX 980 unter Spielen liegt kurzfristig im Bereich von 180 Watt, nachdem der Takt sich auf die Base-Clock abgesenkt hat lediglich noch im Bereich von 160 Watt (HAWX) oder 165 Watt (Anno 2070)
Dass PT erst verzögert reagiert, mag für dich neu sein. Ist aber hinlänglich bekannt.


Geht man weg vom Referenzdesign ist das Powertarget oft auf 200-300W eingestellt, das verbraucht der Chip bei Compute dann auch (bei Spielen natürlich nicht, es sei denn, mann übertaktet >1300MHz).

Man vergleicht natürlich apples to apples...

Schnitzl
2015-01-03, 17:11:31
sieht doch gut aus :freak:
http://www.computerbase.de/2015-01/nvidia-quadro-m6000-mit-gm200-kuendigt-sich-an/
liest sich wie ein Weihnachtswunsch ;D

HOT
2015-01-03, 17:16:27
Wohl kaum:
http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/

http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index24.php

Dass PT erst verzögert reagiert, mag für dich neu sein. Ist aber hinlänglich bekannt.


Man vergleicht natürlich apples to apples...
Das hat aber auch einen ganz schön bitteren Beigeschmack. Zudem gibts kaum Karten im Referenzdesign.
NV wird sicherlich beim GM200 Referenzdesign irgendwo zwischen 200 und 220W bleiben, die Costomdesigns gehen dann wieder auf 300W hoch. Interessant wird, ob TitanII Salvage wird oder nicht. Klingt für mich erst mal plausibel, Quadro M6000 als Vollausbau und TitanII als passendes Salvage, Margen müssten zueinander passen. GK210 dann als Tesla und für speziellen Bedarf an DP-Chips.

aufkrawall
2015-01-03, 17:24:10
Das hat aber auch einen ganz schön bitteren Beigeschmack.

??
Ist das normale Boost-Verhalten, das hilft, Leakage zu verringern.
Die Diskussion gab es vor drei Jahren schon.
Ändert trotzdem nichts an der guten Compute-Effizienz.


Zudem gibts kaum Karten im Referenzdesign.
Die 980 Referenz ist seit Release durchweg lieferbar.

CD-LABS
2015-01-03, 17:57:12
Ich kann zwar nur raten was er meint, aber wenn GM204 mit N Bandbreite auskommen kann, dann braucht ein GM200 mit z.B. X% mehr Einheiten auch nicht wirklich mehr als N+N*X% N+X Bandbreite.



Es ist schon seit Jahrzehnten so dass alle GPUs nur gering von nur einer sterilen Bandbreiten-steigerungen profitierten. Die Faelle wo die Bandbreite zu kurz lag sind Aussnahmen. Unter normalen Umstaenden wenn Du den core und den Speicher um 15% z.B. uebertaktest, bekommst Du auch ca. 15% mehr durschnittliche Leistung. Uebertaktest Du nur entweder den core oder den Speicher geht normalerweise das groessere Prozentual an den core.
Fixed this for you! :D
sieht doch gut aus :freak:
http://www.computerbase.de/2015-01/nvidia-quadro-m6000-mit-gm200-kuendigt-sich-an/
liest sich wie ein Weihnachtswunsch ;D
Dann hast du aber ungewöhnlich realistische Weihnachtswünsche...
Mit Maxwell 2 & Tonga hast du aber schon neue lossless color compression, die den Bandbreitenbedarf stark senkt.
Wenn du >90% der Zeit nicht bandbreitenlimitiert bist, macht es keinen Sinn, einen höheren VRAM-Takt festzulegen. Verbrätst du Strom für nichts und dürfte auch teurer im Einkauf sein.
Wieso gibt es eigentlich noch kein VRAM-Boostverhalten? Also tatsächliche, fein differenzierte Schritte---die Powerstates arbeiten momentan ja noch enorm grobschrittig, während der GPU-Boost gefühlt jedes MHZ zweimal umdreht! :biggrin:

(natürlich lohnt sich eine entsprechende Funktion nur mit dem zugehörigen Marketing, momentan ist "Halb-Last" ja nicht gerade ein populäres Review-Thema!)

hasebaer
2015-01-03, 18:01:12
Zudem gibts kaum Karten im Referenzdesign.

Bei 24 Modellen würde ich nicht von "kaum" sprechen.

14x GTX 980 und 10x GTX 970
http://tinyurl.com/llele83

Die 14x GTX 980er sind dabei alle auf 165W begrenzt und von den zehn GTX 970er im Ref.Design, kommen nur zwei mit über 150W und diese sind als "OC" bzw. "SuperClocked" gekennzeichnet.

kunibätt
2015-01-03, 18:08:38
Die 970er gibt es nicht in einem Ref-Design. Nur einmal im Ref-Design der 980.

Schnitzl
2015-01-03, 19:08:35
Dann hast du aber ungewöhnlich realistische Weihnachtswünsche...
nun, GM204 ist fast immer schneller als GK110 und GM200 hat 50% mehr Shader-Einheiten als GM204
Da sollte schon ordentlich was bei rumkommen :)

Dawn on Titan
2015-01-03, 20:55:26
Ich hoffe, dass der GM200 neue Maßstäbe setzt. Klar würde die GTX 980 dann vergleichsweise schlecht aussehen und ich "freue" mich schon auf die hämischen Bemerkungen der GM200-Käufer.

Doch es gibt genug Games, die mehr GPU-Leistung vertragen könnten.

Was soll bei einem bekannten Prozess schon groß raus kommen vor allem wenn man mit dem Vorgängerchip an der Grenze der Diegröße war. Gut entschlackt von DP-Last kann man da sicher was machen aber mehr als GK104 gegen GM204 ist da im Verhältnis zu GK110 kaum realistisch.

Raff
2015-01-03, 22:47:48
Mein Gefühl sagt mir, dass das bestimmt wieder wie bei der GTX970 laufen wird.. Durch geschicktes Marketing (abgeriegeltes Referenzdesign) wird (/werden) die Karte(n) auf GM200-Basis relativ effizient. Das bleibt in den Köpfen hängen. Die gekauften Custom Designs haben jedoch ein weit höheres Powertarget und schwupps ist der Verbrauch auch wieder deutlich höher.. :ugly: Es wird jedoch sicher noch dauern, bis da mal was für den Consumer-Markt kommt, schließlich ist aus wirtschaftlicher Sicht ein performanterer, größerer und v.a. teurerer Chip zurzeit einfach nicht sinnvoll.

Das mit dem höheren Powertarget ist auch vollkommen in Ordnung, sonst gäb's keinen Leistungsfortschritt. Eine GTX 970, die ab Werk 1.300+ MHz und 200 Watt hält, liefert immer noch eine vernünftige Leistung pro Watt. GM200-Boards dürfen gern ab Werk mit 225 Watt laufen - solange die Partner auf 300 Watt gehen und den Takt dementsprechend um mindestens 10 Prozent steigern können (und die Kühler der Hitze Herr werden), ist das okay. Wer nur die Reviews zu den Referenzkarten liest, die ja immer am sparsamsten sind, ist selbst schuld.

MfG,
Raff

Knuddelbearli
2015-01-03, 23:11:57
Und wer durch eine dunkle Gasse läuft ist auch selber schuld wenn er überfallen wird?
Sorry aber solche Täuschereien gehören von den Medien knallhart an den pranger gestellt.
Aber die haben heutzutage ja fast alle nen Maulkorb da man sonst gar keien oder später seine Grafikkarten bekommt

Raff
2015-01-03, 23:20:10
Hier fehlt die Logik. Welche Täuscherei? Im Referenztest steht, was Referenzkarten leisten. Die Dinger kann man kaufen. Und die verhalten sich gewöhnlich auch so, wie man das in den Referenztests sehen kann. Wer jedoch davon ausgeht, dass die bunte Auswahl an Partnerkarten das gleiche leistet und die zahlreichen Tests (= kein Maulkorb) dazu ignoriert, ist selbst schuld oder liest die falschen Reviews.

MfG,
Raff

hasebaer
2015-01-03, 23:27:01
Da wird niemand getäuscht.

Ich versteh ja das man im roten Lager, bei Maxwell das offenherzige Powertarget der Partnerkarten mit tatsächlichen Verbrauch verwechseln will, so 250W hören sich ja auch gleich ganz anders an, als 145W/165W.
Aber wenn man sich zb. den aktuellen ht4u Test der Palit GTX 970 Jetstream anschaut, dann ist die 7% schneller als die GTX 970 mit Referenztakt, bei 13% mehr Verbrauch, was 180W entspricht.
Für 180W bekomm ich bei AMD nur ne 280X die 30% langsamer ist und wenn man letztere übertaktet, entfernt die sich sicherlich mindestens genauso schnell von ihrem Perf./W Sweetspot mit dem AMD diese Karte in den Markt entlassen hat.

http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index15.php

aufkrawall
2015-01-03, 23:38:23
Eine 280X zieht je nach Spiel viel mehr als 180W, siehe den PCGH-Link. Ist zwar die GE (bis zu 265W), der Unterschied wird, wie bei der Performance, aber nicht groß sein (oder?).
Bei Tonga haben sie das PT ja auch wesentlich enger angesetzt. Entsprechend lahm ist das Teil bei Anno 2070 aber auch im Vergleich zu den alten Karten.

hasebaer
2015-01-03, 23:42:24
Stimmt, hab mich geirrt, das war nur ne 280 ohne X, ggü. der ist die Palit 970 55% schneller... :freak:

MilesEdgeworth
2015-01-04, 12:52:37
Ich habe mich da jetzt weniger auf den informierten Leser bezogen, sondern eher auf den Laien. :D Der sieht "boah niedriger Verbrauch muss ich haben" und kauft dann ein Custom Design weil es ja besser aussieht. :ugly:
Klar, ich bestreite nicht, dass Maxwell in Spielen sehr effizient ist, dennoch wage ich zu behaupten, dass ein großer Anteil dieser Effizienz durch geschicktes Powermanagement zustande kommt. Das ist für den gewöhnlichen Nutzer natürlich total egal, für den zählt nur was am Ende rauskommt.

aufkrawall
2015-01-04, 13:07:20
Was soll "geschicktes Powermanagement" sein?
Der Stromverbrauch ist dann am höchsten, wenn die ALUs am stärksten ausgelastet sind. Unter diesen Umständen haben PCGH, CB & HT4U den Spiele-Verbrauch ermittelt und auch die Spiele mit hohem Verbrauch gebencht.

Selbst wenn die 980 bei Anno 2070 stärker runtertaktet als anderswo, sollte sich das nach Aufheizen auch in den Benchmark-Ergebnissen widerspiegeln. Und bei besagten Spielen schlägt sich GM204 gut.

Siehe auch Trine 2:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=559911
Bei dem Spiel ist mit allen Karten der Stromverbrauch recht hoch (da ALU-limitiert). Trotzdem ist GM204 bei mindestens 100W weniger immer noch schneller als Hawaii.

MilesEdgeworth
2015-01-04, 15:01:13
Ich kenne mich bisher leider nicht gut genug mit den architekturiellen Details von Grafikchips aus, aber soweit ich das verstanden habe werden in Spielen gewisse Bereiche des Chips nicht oder nur teilweise benötigt. Die gezielte Abschaltung bzw. feinstufige Ansteuerung dieser Bereiche würde ich als geschicktes Powermanagement bezeichnen. Bei Compute Anwendungen wird der Chip in einem größeren Ausmaß genutzt, weshalb dann ein verbessertes Powermanagement einen geringeren Einfluss hat.

Kriton
2015-01-04, 15:28:54
Hier fehlt die Logik. Welche Täuscherei? Im Referenztest steht, was Referenzkarten leisten. Die Dinger kann man kaufen. Und die verhalten sich gewöhnlich auch so, wie man das in den Referenztests sehen kann. Wer jedoch davon ausgeht, dass die bunte Auswahl an Partnerkarten das gleiche leistet und die zahlreichen Tests (= kein Maulkorb) dazu ignoriert, ist selbst schuld oder liest die falschen Reviews.


Der Punkt ist IMHO, dass das die niedrigen Referenzwerte hängenbleiben auch wenn Customkarten betrachtet werden. Das kannst Du als Mitgleid einer Redaktion gern als Problem der Leser betrachten (und ich verstehe woher Du kommst), aber der Nutzen einer professionellen Redaktion ist doch auch gerade der, dass Sie Dinge vermittelt, die der durchschnittliche User gerade nicht erkennt oder begreift. Insofern mag es kein Fehler welcher Redaktion auch immer sein, aber man könnte es als Aufgabe verstehen diese Dinge besser zu vermitteln.

Raff
2015-01-04, 15:32:20
Ich vermittle das, nur leider liest meine Werke nicht jeder. Insofern möge man mir das Unverständnis und die Aussage "selbst schuld" verzeihen.

MfG,
Raff

Loeschzwerg
2015-01-04, 15:43:02
Ich sehe da auch eher den Kunden in der Pflicht sich selbst zu informieren... macht man doch eigentlich bei den meisten Dingen so.

Es gibt genügend Tests zu Custom Modellen im WWW und wer zu faul ist zu googeln, der darf sich nicht beschweren.

Zudem wird man als geneigter Käufer doch wohl mal auf die Idee kommen, sich etwas genauer über ein Custom Modell zu informieren, wenn es bei Geizhals und Co schon komplett anders aussieht als das Ref Design :freak:

Kriton
2015-01-04, 15:46:01
Ihr geht immer von so superinformierten, weil technikaffinen, Leuten aus. Achtung: das trifft nicht auf die Mehrzahl an Menschen und auch nicht auf die Mehrzahl an Spielern zu.

Loeschzwerg
2015-01-04, 15:56:02
Ihr geht immer von so superinformierten, weil technikaffinen, Leuten aus. Achtung: das trifft nicht auf die Mehrzahl an Menschen und auch nicht auf die Mehrzahl an Spielern zu.

Was hat das mit technikaffin zu tun, wenn man zu faul ist nach Tests zu googeln?

Custom Modell XY bei Google und los gehts :)

Nakai
2015-01-04, 15:58:34
Was soll "geschicktes Powermanagement" sein?
Der Stromverbrauch ist dann am höchsten, wenn die ALUs am stärksten ausgelastet sind. Unter diesen Umständen haben PCGH, CB & HT4U den Spiele-Verbrauch ermittelt und auch die Spiele mit hohem Verbrauch gebencht.


Siehe THQ Artikel zu GM204. Die Stromverbrauchsmessungen schwanken dramatisch. Im Mittel werden die "versprochenen" ~185W gehalten...*hust* "versprochenen"...

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

We originally posted Power Consumption Torture (GPGPU) results that showed a simulated GeForce GTX 970 reference card pulling over 240 Watts. This does not represent Nvidia's reference GeForce GTX 970 board because our data point was simulated with a Gigabyte GTX 970 card that has a non-reference ~250 Watt power target, unlike the reference board's ~150 W power target.

We have since pulled that data since it does not represent Nvidia's reference GeForce GTX 970 card. On the other hand, as far as we know there are no actual GeForce GTX 970 reference card designs for sale as each manufacturer has put their own spin on this model. None of the manufacturers we have talked to have released a GeForce GTX 970 card with a ~150 Watt power target as of this time, opting instead to give this product more performance headroom.

This is an issue we are keeping a close eye on, and we will follow up with a detailed investigation in the near future. We are curious to see if a reference-based GeForce GTX 970 will perform in the same league as the cards we have tested with higher power targets, but it would certainly make more sense in an HTPC or for use in smaller form factors. In the meantime, we have removed the 'simulated' GeForce GTX 970 data point from the following charts.

Auf Ht4u gibt es Computebenches, welche ungelockte GM204 Karten, also ohne Powerlimit bzw. höherem Powerlimit, dramatisch höhere Computeleistungen bescheinigen.

http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index38.php

http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index9.php

Wird das Powerlimit angehoben, frisst Maxwell verdammt viel. Computeleistung ist bei GM204 etwa auf Tahiti-Niveau anzusehen, wenn beide einen ähnlichen ungeregelten Takt fahren. Beide haben 2048SPs und landen meistens in ähnlichen Regionen.

Maxwell ist mitnichten sonderlich sparsamer. Das kann man sich nur schwer vorstellen, da ich nicht glaube, dass die generelle Struktur bei den SIMD-Einheiten zwischen Maxwell und GCN nicht so sehr unterscheiden bzw. die Architekturen sind sehr ähnlich und verbrauchen bei Compute-Intensiven Tasks auch ähnliche Werte. Bei Spielen kann man wohl besser regeln, da verliert GCN dramatisch.

Sunrise
2015-01-04, 16:08:26
Was hat das mit technikaffin zu tun, wenn man zu faul ist nach Tests zu googeln?

Custom Modell XY bei Google und los gehts :)
Vor allem sollte mittlerweile fast jeder wissen, der so eine Grafikkarte kauft, dass es bei den nicht-Referenz (das sieht man ja schon optisch) Unterschiede gibt. Ist ja irgendwie auch das Schöne daran, dass es etwas gibt, das besser zu meinen Präferenzen passt.

Das mit dem Googeln ist so eine Sache, manche lassen sich heutzutage Informationen nur noch liefern, sind aber regelrecht zu faul, sich selbst zu informieren. Dafür habe ich dann absolut kein Verständnis.

Weshalb die PCGH (das Heft) bei einem Grafikkartenkauf in diesem Fall perfekt ist, da sie auch mir oft Kaufentscheidungen liefert.

Kriton
2015-01-04, 16:28:16
Was hat das mit technikaffin zu tun, wenn man zu faul ist nach Tests zu googeln?

Custom Modell XY bei Google und los gehts :)

Sieh Dir mal einen wirklich technikfernen Menschen an. Nur ein kurzes Beispiel: Mein Bruder hat mich mal angerufen, weil mit seinem Rechner was nicht in Ordnung war. Aufgrund der Entfernung nur Ferndiagnose möglich. Ich frage ihn also was er seit dem letzten Mal als er lief gemacht hat. Antwort: Nichts. Nach einer halben Stunden ausprobieren komme ich auf eine Änderung die er vorgenommen haben musste. Ich frage ihn also warum er das auf meine erste Frage hin nicht gesagt hat. Antwort: Ich dachte das wäre nicht wichtig.

Da erwartest Du, dass solche Menschen nach Tests googlen um dann die Feinheiten, von denen sie nichts verstehen, aus Tests zu ermitteln?
Wenn ich mich mit Dingen auseinandersetzen muss mit denen ich sonst nichts zu tun habe und nur ein gutes Gerät will, dann habe ich auch gern (neben einem ausführlichen Test welcher mir jedenfalls sugerriert, dass der Tester weiß was er da tut) ein ordentliches Fazit, dass mir die wichtigsten Dinge mitteilt auch wenn ich von der Sache keine großartige Ahnung habe. Für die Spezialisten gibt es ja die Seiten mit den Details vorher.

Vor allem sollte mittlerweile fast jeder wissen, der so eine Grafikkarte kauft, dass es bei den nicht-Referenz (das sieht man ja schon optisch) Unterschiede gibt. Ist ja irgendwie auch das Schöne daran, dass es etwas gibt, das besser zu meinen Präferenzen passt.

Das mit dem Googeln ist so eine Sache, manche lassen sich heutzutage Informationen nur noch liefern, sind aber regelrecht zu faul, sich selbst zu informieren. Dafür habe ich dann absolut kein Verständnis.

Weshalb die PCGH (das Heft) bei einem Grafikkartenkauf in diesem Fall perfekt ist, da sie auch mir oft Kaufentscheidungen liefert.

Ich zitiere hier gern noch mal Jeff Walden (Mozilla):

"Stupid" is the wrong way to put it. There's a finite amount of time in the day. There's a finite number of things any person can care about. Under those limitations, lots of people don't prioritize understanding the particular tradeoffs here to decide whether to download a 32-bit build or a 64-bit build. And that's not necessarily a bad thing -- maybe they're doing something much more "important" the rest of the time, like doing drug research on treatments for pancreatic cancer or something.

It is possible to be under-informed, even rationally under-informed, without being stupid.

Loeschzwerg
2015-01-04, 16:36:50
Sieh Dir mal einen wirklich technikfernen Menschen an. Nur ein kurzes Beispiel: Mein Bruder hat mich mal angerufen, weil mit seinem Rechner was nicht in Ordnung war. Aufgrund der Entfernung nur Ferndiagnose möglich. Ich frage ihn also was er seit dem letzten Mal als er lief gemacht hat. Antwort: Nichts. Nach einer halben Stunden ausprobieren komme ich auf eine Änderung die er vorgenommen haben musste. Ich frage ihn also warum er das auf meine erste Frage hin nicht gesagt hat. Antwort: Ich dachte das wäre nicht wichtig.

Da erwartest Du, dass solche Menschen nach Tests googlen um dann die Feinheiten, von denen sie nichts verstehen, aus Tests zu ermitteln?
Wenn ich mich mit Dingen auseinandersetzen muss mit denen ich sonst nichts zu tun habe und nur ein gutes Gerät will, dann habe ich auch gern (neben einem ausführlichen Test welcher mir jedenfalls sugerriert, dass der Tester weiß was er da tut) ein ordentliches Fazit, dass mir die wichtigsten Dinge mitteilt auch wenn ich von der Sache keine großartige Ahnung habe. Für die Spezialisten gibt es ja die Seiten mit den Details vorher.


Er wird doch wohl 150Watt zu 200Watt z.B. vergleichen können? Oder mehr FPS und weniger FPS.

Um nichts anderes geht es doch hier... und das liefern dir doch die Tests zu den jeweiligen Custom Modellen. Sei es nun bei PCGH, CB usw usw.

Verstehe das Problem nicht.

Und wer absolut keine Ahnung hat, der kauft sich auch selber keine Grafikkarte :freak: Denn dann weiß er nicht wie man diese einbaut und wie man Treiber installiert.

fondness
2015-01-04, 16:39:29
Wird das Powerlimit angehoben, frisst Maxwell verdammt viel. Computeleistung ist bei GM204 etwa auf Tahiti-Niveau anzusehen, wenn beide einen ähnlichen ungeregelten Takt fahren. Beide haben 2048SPs und landen meistens in ähnlichen Regionen.

Maxwell ist mitnichten sonderlich sparsamer. Das kann man sich nur schwer vorstellen, da ich nicht glaube, dass die generelle Struktur bei den SIMD-Einheiten zwischen Maxwell und GCN nicht so sehr unterscheiden bzw. die Architekturen sind sehr ähnlich und verbrauchen bei Compute-Intensiven Tasks auch ähnliche Werte. Bei Spielen kann man wohl besser regeln, da verliert GCN dramatisch.

Bingo. Die Compute-Leistung liegt auf CGN-Niveau auch in punkto Perf/Watt, das ist natürlich sehr gut da aktuell Referenz, aber nichts was es nicht schon seit Jahren gäbe. Das bemerkenswerte bei Maxwell ist die Spieleleistung/Watt. Oder man könnte es auch anders interpretieren: Maxwell hat die relative Compute-Schwäche nicht wirklich behoben, sondern nur allgemein das Perf/Watt-Niveau stark angehoben. Sollte AMD etwas ähnliches gelingen sieht es wohl wieder ähnlich aus wie bei Kepler vs. GCN.

hasebaer
2015-01-04, 16:45:45
Siehe THQ Artikel zu GM204. Die Stromverbrauchsmessungen schwanken dramatisch. Im Mittel werden die "versprochenen" ~185W gehalten...*hust* "versprochenen"...

Vergleich doch Referenz mit Referenz, die Werte hat Toms HW für GPGPU Verbrauch.

GTX 980 Referenz: 177 W
R9 290X Referenz (Uber/Quite): 305/309 W

Die 12W die NV jetzt über der TDP sind, wo AMD 5-9W mehr als versprochen nimmt, rechtfertigen doch nicht diesen Dünnpfiff von wegen Maxwell würde bei GPGPU das TDP Ziel sprengen und auch in Hawaii Regionen vorstoßen.

Da sind immernoch ~ 130W Unterschied.

Nakai
2015-01-04, 17:05:04
Vergleich doch Referenz mit Referenz, die Werte hat Toms HW für GPGPU Verbrauch.

GTX 980 Referenz: 177 W
R9 290X Referenz (Uber/Quite): 305/309 W

Die 12W die NV jetzt über der TDP sind, wo AMD 5-9W mehr als versprochen nimmt, rechtfertigen doch nicht diesen Dünnpfiff von wegen Maxwell würde bei GPGPU das TDP Ziel sprengen und auch in Hawaii Regionen vorstoßen.

Da sind immernoch ~ 130W Unterschied.

Kein Dünnpfiff, wenn man lesen kann.

http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index38.php

Und nochmal gepostet...

Luxmark 2.0 Room
Referenz GTX 980 liegt bei 921 Punkten. EVGA GTX 980 SC ACX 2.0 bei bei 1836 Punkten. Man liegt auch über 220W.

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-13.html

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html

Maxwell legt bei dieser Spannungssteuerung noch einmal richtig nach, aber wie wir später noch sehen werden, ist bei voller Shader-Last kaum noch ein großer Vorteil zu Kepler sichtbar. Der hauptsächliche Zugewinn liegt im somit Umstand, dass Maxwell bedeutend besser mit den wechselnden Lasten umgehen und die Leistungsaufnahme noch gezielter an die tatsächliche Last anpassen kann. Je stärker und schneller die Anforderungen der Applikation schwanken, umso besser kann Maxwell also punkten.

Das ist auch, was Maxwell so gut macht. Gute Laststeuerung, vor allem bei Spielen. Bei GPGPU siehts anders aus, da geht die Effizienz zunichte, wenn das TDP-Limt dementsprechend eingestellt ist. Luxmark 2.0 zeigt gut, was passiert. Ein ungeregelter GM204 ist doppelt so schnell wie ein Geregelter.

Nochmal, Maxwell regelt verdammt gut. Man setzt eine Zieltemperatur oder TDP und das wird dann nicht überschritten. GM204 Stock aka GTX 980 schluckt nicht mehr als 200W, eher 185W, dann ist die Performance dementsprechend, wenn ein Lastszenario anliegt, welches definitiv mehr als 200W benötigen würde, niedriger. Wird das Limit hochgesetzt und geht der Boosttakt und die Spannung mit, wird man auch deutlich schneller sein. Luxmark ist ein hartes Beispiel, zwischen Stock GTX980 auf OC GTX980 von Performancegewinn etwa 100%.

Wenn ich Referenz vergleichen will, okay.

Luxmark 2.0 Room
Ref GTX 980 bei 921 Punkten bei 175W.
Quiet R9 290X bei 1279 Punkten bei 230W.

R9 290X ist 38% schneller und verbraucht 31% mehr Strom. Effizienz sehr nah beieinander.^^

Hübie
2015-01-04, 17:08:06
Könnten wir mal zum Thema zurück kehren und nicht über selbst analysierte und hergeleitete Ansichten von Informationsverarbeitung oder -beschaffung reden? Danke. Mich würde es nicht wundern wenn GM200 wie angesprochen ohne ded. DP-Units daher kommt. Wofür auch?

Nakai
2015-01-04, 17:12:32
Könnten wir mal zum Thema zurück kehren und nicht über selbst analysierte und hergeleitete Ansichten von Informationsverarbeitung oder -beschaffung reden? Danke. Mich würde es nicht wundern wenn GM200 wie angesprochen ohne ded. DP-Units daher kommt. Wofür auch?

Ich schätze GM200 nicht größer als 550mm² ein. Ansonsten ist GM200 so ziemlich genau 50% breiter als GM204. Das sollte in 550mm² reinpassen. Eventuell könnte das DP:SP-Verhältnis trotzdem ein Stück besser sein als bei GM204. NV sollte da definitiv auch mehrere Möglichkeiten haben, wie man das skaliert. Aber NV hat es sich wohl einfach gemacht.

HOT
2015-01-04, 17:12:42
Der könnte sogar einiges kleiner als 550mm² sein, wenn man den DP-Krempel weglässt.

Nakai
2015-01-04, 17:16:19
Der könnte sogar einiges kleiner als 550mm² sein, wenn man den DP-Krempel weglässt.

Ich habe es zwar schonmal angesprochen. Die GPU-Leaks von der Synapse-Folie könnten eher GM204(>350mm²) und GM200(>500mm²), also AMDs Tonga und Fiji sein. Tonga ist auch TSMCs 28HP und nicht 28HPM. Bei GM200/4 wissen wir es bis heute nicht eindeutig, nur, dass es von TSMC kommt.

Loeschzwerg
2015-01-04, 17:17:05
Könnten wir mal zum Thema zurück kehren und nicht über selbst analysierte und hergeleitete Ansichten von Informationsverarbeitung oder -beschaffung reden? Danke. Mich würde es nicht wundern wenn GM200 wie angesprochen ohne ded. DP-Units daher kommt. Wofür auch?

Ja, hast recht, ein Teil sollte ein Mod ins GM204 Review Thema verschieben.

Ich denke man wird mit dem GK210 soweit ganz gut im DP Bereich aufgestellt sein, wie schon in der News steht.

hasebaer
2015-01-04, 17:17:16
@Nakai
1. Wo seh ich bei HT4u den Verbrauch unter Luxmark?
Den gibt es dort doch garnicht?

2. Die 921 Punkte kommen doch im leben hin, wenn die Karte dabei mit 1126Mhz rennt,
dann aber mit 1240 Mhz plötzlich 1674 Punkte erreicht.

Das sind 81% mehr Leistung für 10% Takt.

Unicous
2015-01-04, 17:18:08
Nvidia ist nicht Kunde von Synapse Design.

M4xw0lf
2015-01-04, 17:19:29
Du kannst einen Hawaii natürlich auch nur ~zur Hälfte auslasten, dann braucht er auch nur 177 Watt.

€ ah, bin nur ca 10 Posts zu spät :freak:

aufkrawall
2015-01-04, 17:30:19
Und nochmal gepostet...

Luxmark 2.0 Room
Referenz GTX 980 liegt bei 921 Punkten. EVGA GTX 980 SC ACX 2.0 bei bei 1836 Punkten. Man liegt auch über 220W.

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-13.html

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html



Das ist auch, was Maxwell so gut macht. Gute Laststeuerung, vor allem bei Spielen.
So einen Stuss kenn ich nicht von dir. :frown:
Du betreibst übelstes Chery Picking. Es gibt genau so Compute-Fälle, wo das 980 Referenz-Design (das garantiert nicht mehr als 180W verbrät!) einen Hawaii übelst zersägt (siehe etwa CB f@h Implicit).
Wie da die Perf/W-Verhältnisse sind, kannst du dir ja denken. Hawaii wird sich sicher nicht mit 150W begnügen...
Was du jetzt mit diesen Links zu Custom Designs bezwecken willst, erschließt sich mir auch nicht. Da haben halt die Board-Partner den Fokus weg von Effizienz auf Performance gelegt. Ist aber Äpfel und Birnen vergleichen.

Nakai
2015-01-04, 17:31:50
@Nakai
1. Wo seh ich bei HT4u den Verbrauch unter Luxmark?
Den gibt es dort doch garnicht?


Ich habe es auch schon vor einige Wochen/Monaten gesagt. Die derzeitgen Reviews sind eine Beleidigung für die Intelligenz der Leser, weil sie schlecht sind, vor allem bei den Stromverbrauchsmessungen. Bei THQ wird zB nicht angegeben, was der GPGPU Torture Test ist, welche Applikationen getestet werden, etc.

Nochmal, bei der Stock GTX980 ist ein Limit bei ~185W drin. Das kann hochgezogen werden, seitens des Nutzers und seitens des Herstellers. Stellt man das Limit auf Maximum, dann kann die Karte deutlich mehr verbrauchen. Der Boosttakt wird bei der Stock-Karte, wenn sie stark runterregelt, kaum erreicht. Erst wenn man alle schranken bricht, schluckt die Karte dementsprechend.

Die einzige Seite, die es einigermaßen beleuchtet ist THG. Und da braucht eine OC-Version bzw. eine ungelockte Version ~280W statt nur ~180W.

2. Die 921 Punkte kommen doch im leben hin, wenn die Karet dabei mit 1126Mhz rennt,
dann aber mit 1240 Mhz plötzlich 1674 Punkte erreicht.

Das sind 81% mehr Leistung für 10% Takt.

HT4U macht schon einige Fehler, ja. Vorstellbar ist es dennoch, wenn Luxmark eine solche Last erzeugt, woduch der Chip gezwungen ist zu throtteln. Vorstellbar ist ed dennoch.

Nvidia ist nicht Kunde von Synapse Design.

Tja, aus der Traum.

Du kannst einen Hawaii natürlich auch nur ~zur Hälfte auslasten, dann braucht er auch nur 177 Watt.

Quiet ist nicht soviel langsamer als wie Uber, dafür ist der Verbrauch deutlich niedriger. Da wär schon noch was drin, würde man es besser regeln.

€:
So einen Stuss kenn ich nicht von dir. :frown:
Du betreibst übelstes Chery Picking. Es gibt genau so Compute-Fälle, wo das 980 Referenz-Design (das garantiert nicht mehr als 180W verbrät!) einen Hawaii übelst zersägt (siehe etwa CB f@h Implicit).
Wie da die Perf/W-Verhältnisse sind, kannst du dir ja denken. Hawaii wird sich sicher nicht mit 150W begnügen...
Was du jetzt mit diesen Links zu Custom Designs bezwecken willst, erschließt sich mir auch nicht. Da haben halt die Board-Partner den Fokus weg von Effizienz auf Performance gelegt. Ist aber Äpfel und Birnen vergleichen.

Ich habe nie das Gegenteil gesagt und sogar erwähnt, dass es auf den Anwendungsfall ankommt. Es hat einfach einen Grund, warum Maxwell beim Compute so stiefmütterlich behandelt wird. GM200 wird wohl auch kein Computechip werden.

Nennt mir dann mal bitte "die" Referenz GTX 980/970(Taktraten, Spannung, Regelung).

aufkrawall
2015-01-04, 18:08:13
Ich habe nie das Gegenteil gesagt und sogar erwähnt, dass es auf den Anwendungsfall ankommt.

Wo hast du das?
Du hast dich auf Einzelergebnisse versteift und die Compute-Effizienz von GM204 mit Tahiti gleichgesetzt. Das ist echt mal Kokolores.


Es hat einfach einen Grund, warum Maxwell beim Compute so stiefmütterlich behandelt wird. GM200 wird wohl auch kein Computechip werden.

Das spielt für die Benchmarks doch keine Rolle, die sind eh nicht vergleichbar mit spziell angepasster Profi-Software.
Kannst du schon bei f@h erahnen, das im Gegensatz zu etwa Geekzeugs wie Luxmark optimierte Pfade für NV besitzt.


Nennt mir dann mal bitte "die" Referenz GTX 980/970(Taktraten, Spannung, Regelung).
tomshardware sprechen bei der Gaming-Load von 185W. Das ist das, was HT4U rausbekommt, allerdings vor dem automatischen Absenken des Boosts. Ich würde annehmen, dass tomshardware nicht richtig getestet haben. Selbst wenn der Stromverbrauch nach Absenken des Boosts irgendwann mal wieder hoch geht, sollte der Durchschnittswert über die Zeit geringer als 185W sein. Warum beißt du dich auf TH so fest, wenn HT4U und PCGH schon für Gaming mitunter andere Werte ermitteln?
Die Werte von HT4U mit ungelockten PT beziehen sich auf die 970. Bei Compute schlagen i.d.R. deaktivierte ALU-Blöcke voll durch, die Effizienz der 970 bei Compute dürfte ein gutes Stück schlechter sein als die der 980. Außerdem weiß man nie, wie sich die Bauteile auf den Custom Boards bzw. die Biose verhalten. Ist außerhalb von NVs Kontrolle.
Außerdem hast du geschrieben, ungelockt wäre GM204 bei Compute viel schneller. Wo finde ich das? Ich sehe es nicht bei deinen beiden HT4U-Links.

Abgesehen davon ist Tonga der bessere Vergleich. Menetwegen mit der 970, da beide Salvage. Sind beide Gaming-GPUs.
Trotzdem wird die Compute-Effizienz insgesamt von GM204 (aka 980 Referenz) besser sein als von Hawaii XT (TDP 290W, gerne auch mit Vapor-X Kühler).
GM200 wird da, wo sich GM204 schlechter von GK110 absetzen konnte oder gar langsamer war, noch einen guten Brocken drauflegen, und 980 ist jetzt schon häufig vor Hawaii.
Warum soll ich dir jetzt die Daten einer Refernz-980 rausschreiben? Die gibts im Netz, inklusive Angabe des Mindesttakts.

Unglaublich, wie solche unvollständigen Tests zur Mythenbildung beitragen.

Nakai
2015-01-04, 18:26:31
Wo hast du das?
Du hast dich auf Einzelergebnisse versteift und die Compute-Effizienz von GM204 mit Tahiti gleichgesetzt. Das ist echt mal Kokolores.


Ich lese selber bei mir:
Wird das Powerlimit angehoben, frisst Maxwell verdammt viel. Computeleistung ist bei GM204 etwa auf Tahiti-Niveau anzusehen, wenn beide einen ähnlichen ungeregelten Takt fahren. Beide haben 2048SPs und landen meistens in ähnlichen Regionen.

Ich lese nirgends was von Effizienz bei mir, oder lese ich die richige Passage?

Ansonsten ist GM204 kein Computechip. Sobald DP verwendet wird geht GM204 runter. Die 2MB L2-Cache klingen nett, auch für Compute.

Das spielt für die Benchmarks doch keine Rolle, die sind eh nicht vergleichbar mit spziell angepasster Profi-Software.
Kannst du schon bei f@h erahnen, das im Gegensatz zu etwa Geekzeugs wie Luxmark optimierte Pfade für NV besitzt.

Nicht nur das. Luxmark setzt auf OpenCL.

tomshardware sprechen bei der Gaming-Load von 185W. Das ist das, was HT4U rausbekommt, allerdings vor dem automatischen Absenken des Boosts. Ich würde annehmen, dass tomshardware nicht richtig getestet haben. Selbst wenn der Stromverbrauch nach Absenken des Boosts irgendwann mal wieder hoch geht, sollte der Durchschnittswert über die Zeit geringer als 185W sein. Warum beißt du dich auf TH so fest, wenn HT4U und PCGH schon für Gaming mitunter andere Werte ermitteln?
Die Werte von HT4U mit ungelockten PT beziehen sich auf die 970. Bei Compute schlagen i.d.R. deaktivierte ALU-Blöcke voll durch, die Effizienz der 970 bei Compute dürfte ein gutes Stück schlechter sein als die der 980. Außerdem weiß man nie, wie sich die Bauteile auf den Custom Boards bzw. die Biose verhalten. Ist außerhalb von NVs Kontrolle.
Außerdem hast du geschrieben, ungelockt wäre GM204 bei Compute viel schneller. Wo finde ich das? Ich sehe es nicht bei deinen beiden HT4U-Links.


http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index38.php

Guck mal bei Luxmark 2.0 Sala
GTX 980 [1126 MHz] - 973,00
GTX 980 [Max 1240 MHz] - 3029,00

Das verwirrt mich ein bisschen. Wieder ein Fehler bei HT4u?

Warum soll ich dir jetzt die Daten einer Refernz-980 rausschreiben? Die gibts im Netz, inklusive Angabe des Mindesttakts.

Unglaublich, wie solche unvollständigen Tests zur Mythenbildung beitragen.

Ich weiß, dass es diese gibt. NVs Regelung kann temperaturgesteuert oder verbrauchsgesteuert sein. Man regelt runter, wenn nicht mehr Gebrauch wird bzw. regelt Teile runter, die nicht benötigt werden. Bei Compute sehe ich starke Unterschiede, vor allem auch bei Custommodelle, denn da sprengt GM204 seine Effizienzfesseln teilweise dramatisch.

M4xw0lf
2015-01-04, 19:18:48
http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index38.php

Guck mal bei Luxmark 2.0 Sala
GTX 980 [1126 MHz] - 973,00
GTX 980 [Max 1240 MHz] - 3029,00

Das verwirrt mich ein bisschen. Wieder ein Fehler bei HT4u?
Weil das Ergebnis nicht mit dem Takt skaliert?
Die Leistungsaufnahme dazu müsste man halt wissen. Wäre ja denkbar, dass der Chip eben trotz fast gleichem Takt sehr unterschiedlich ausgelastet wird, je nachdem wie viel Saft er sich genehmigen darf. +200%, analog zum Ergebnis, wird die Leistungsaufnahme im zweiten Fall allerdings kaum angestiegen sein :freak:

aufkrawall
2015-01-04, 19:49:47
Ich lese selber bei mir:


Ich lese nirgends was von Effizienz bei mir, oder lese ich die richige Passage?

Ok, vielleicht hab ich das reingelesen.




http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index38.php

Guck mal bei Luxmark 2.0 Sala
GTX 980 [1126 MHz] - 973,00
GTX 980 [Max 1240 MHz] - 3029,00

Das verwirrt mich ein bisschen. Wieder ein Fehler bei HT4u?

Mal wieder ein richtiger Griff ins Klo von denen. :frown:
Meine 970:
http://abload.de/thumb/pt9auey.png (http://abload.de/image.php?img=pt9auey.png) http://abload.de/thumb/resn0ur5.png (http://abload.de/image.php?img=resn0ur5.png)
Stromverbrauch laut der Angabe bei ca. 160W.

Ich hab hier noch keine signifikante Drosselung bei irgendeiner Compute-Anwendung gesehen (hatte auch die 980 Referenz). Ich möcht mir die Haare raufen, bei dem Mist, der im Netz kursiert...

Knuddelbearli
2015-01-04, 22:52:01
Quiet ist nicht soviel langsamer als wie Uber, dafür ist der Verbrauch deutlich niedriger. Da wär schon noch was drin, würde man es besser regeln.



da darfste dich bald auf einen netten Test vonseiten HT4U freuen ;-)

-/\-CruNcher-/\-
2015-01-04, 23:32:40
Kein Dünnpfiff, wenn man lesen kann.

http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index38.php

Und nochmal gepostet...

Luxmark 2.0 Room
Referenz GTX 980 liegt bei 921 Punkten. EVGA GTX 980 SC ACX 2.0 bei bei 1836 Punkten. Man liegt auch über 220W.

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-13.html

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html



Das ist auch, was Maxwell so gut macht. Gute Laststeuerung, vor allem bei Spielen. Bei GPGPU siehts anders aus, da geht die Effizienz zunichte, wenn das TDP-Limt dementsprechend eingestellt ist. Luxmark 2.0 zeigt gut, was passiert. Ein ungeregelter GM204 ist doppelt so schnell wie ein Geregelter.

Nochmal, Maxwell regelt verdammt gut. Man setzt eine Zieltemperatur oder TDP und das wird dann nicht überschritten. GM204 Stock aka GTX 980 schluckt nicht mehr als 200W, eher 185W, dann ist die Performance dementsprechend, wenn ein Lastszenario anliegt, welches definitiv mehr als 200W benötigen würde, niedriger. Wird das Limit hochgesetzt und geht der Boosttakt und die Spannung mit, wird man auch deutlich schneller sein. Luxmark ist ein hartes Beispiel, zwischen Stock GTX980 auf OC GTX980 von Performancegewinn etwa 100%.

Wenn ich Referenz vergleichen will, okay.

Luxmark 2.0 Room
Ref GTX 980 bei 921 Punkten bei 175W.
Quiet R9 290X bei 1279 Punkten bei 230W.

R9 290X ist 38% schneller und verbraucht 31% mehr Strom. Effizienz sehr nah beieinander.^^

Wenn dann sollte man Luxmark (OpenCL) mit Optix (CUDA) vergleichen

Raspo
2015-01-04, 23:56:25
Weil?

Black-Scorpion
2015-01-05, 10:03:03
Weil sie nur da mithalten können. NV behandelt alles was nicht ihren proprietären Mist entspricht wie den letzten Dreck.
Deshalb soll man Cuda mit OpenCL vergleichen. Wo käme man denn hin wenn man sich an einen Standard halten würde.

Skysnake
2015-01-05, 10:10:14
Bullshit. Dem Nutzer bringt das absolut nichts, wenn sein Programm OpenCL nutzt.

Wenn du CUDA vs OpenCL willst, dann musste aber auch eine AMD-OpenCL-biszumerbrechendurchoptimiert Version nutzen als Vergleich zu CUDA. Ansonsten ist das nämlich auch wieder nen unfairer Vergleich...