PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Timbaloo
2015-08-23, 18:46:35
Imho:
Q1 -> GP110 Tesla (zuerst exklusiv für Großprojekte)
Q2 -> GP104 Consumer
Q3 -> GP110 Consumer und Quadro

Eher immer Quartalsende.

AffenJack
2015-08-23, 18:52:31
Verschieb alles um 1 Quartal und ich gehe mit Timbaloo. GP100 kann man fast sicher von GTC 2016 Launch ausgehen, wie AnarchX schon schrieb. Das ist im April. Außer natürlich es kommen noch größere unerwartete Probleme, aber wenn A2 Stepping passt, dann sollte das klar gehen. Wenn nicht werden wir da zumindest nen Paperlaunch sehen gehe ich von aus.

Unicous
2015-08-23, 18:54:13
Ich gehe von Q1/Q2 Wechsel genau für GP104 aus.
Auf der Basis von?

Der Termin der GTC 2016 steht doch schon fest.

Korrigiere mich falls ich falsch liege, aber GK110 wurde auf der GTC 2012? auch nur "gezeigt".

AffenJack
2015-08-23, 18:58:39
Korrigiere mich falls ich falsch liege, aber GK110 wurde auf der GTC 2012? auch nur "gezeigt".

GK110 hatte sein Tapeout 2 Monate vor der GTC 2012. Bei GP100 werdens 10Monate sein. Wenns absolut Top läuft braucht man nur 6 Monate zum Produktionsbeginn, siehe GK104 und GM104. Mit einem respin passen 10Monate durchaus gut.

Unicous
2015-08-23, 19:18:45
Was ich meinte: Nur weil eine GTC wie jedes Jahr stattfindet, heißt das nicht, dass die Karte dann retail verfügbar sind.

Und du hast recht, ich habe mich beim tapeout vertan, 1 Jahr ist eher üblich bei CPUs, bei GPUs sind es eher 6+ Monate. 9 Monate kommt also doch hin. Dennoch bin ich nicht von TSMCs execution überzeugt und gehe von Mitte 2016 aus (Auslieferung an HPC-Kunden könnte früher starten).

ilibilly
2015-08-24, 08:40:04
Imho:
Q1 -> GP110 Tesla (zuerst exklusiv für Großprojekte)
Q2 -> GP104 Consumer
Q3 -> GP110 Consumer und Quadro

Eher immer Quartalsende.

So seh ich da auch,es müsste schon viel Druck von ati kommen um big Pascal früher zu bringen,davor wird mit gp104 der Markt abgegrast.

BlacKi
2015-08-24, 11:07:57
So seh ich da auch,es müsste schon viel Druck von ati kommen um big Pascal früher zu bringen,davor wird mit gp104 der Markt abgegrast.
naja, da für manche user amd/ati keine ernsthafte alternative mehr ist, sei es wegen gsync monitor oder p/w verältnisses, ist nvidia ähnlich wie intel auch sein eigener konkorurent. und da der nvidia markanteil recht hoch ist, sollte man das nicht ausser acht lassen.

und umso früher man neue hardware herausbringt, umso mehr kann man den early adopter preise hochreißen. siehe 980 zum start, 600€ und da war der euro/dollar kurs noch gut. das wären zum heutigen zeitpunkt 700€.

wenn der dollarkurs so bleiben würde, dürfte man wohl von einem preise von 700€ oder mehr von gp104 ausgehen.

ansich schon ziemlich bitter.

Timbaloo
2015-08-24, 11:17:42
OT:
naja, da für manche user amd/ati keine ernsthafte alternative mehr ist, sei es wegen gsync monitor oder p/w verältnisses, ist nvidia ähnlich wie intel auch sein eigener konkorurent.
In Sachen Perf/W hat AMD mit Fury Nano ja ein heisses Eisen im Feuer. Gsync stimme ich zu, das ist eine blöde Situation, aber ich denke der Teil der sich auf Gsync festgenagelt hat ist eher klein und tendenziell eh im NV-Lager unterwegs, von daher kein potentieller Kunde für AMD.

und umso früher man neue hardware herausbringt, umso mehr kann man den early adopter preise hochreißen. siehe 980 zum start, 600€ und da war der euro/dollar kurs noch gut. das wären zum heutigen zeitpunkt 700€.

wenn der dollarkurs so bleiben würde, dürfte man wohl von einem preise von 700€ oder mehr von gp104 ausgehen.

ansich schon ziemlich bitter.
Die hohen Preise von NV sind zumindest kurzfristig auch ein Vorteil für AMD. Wenn NV jetzt noch die Preise tiefer ansetzen würde, dann sähe es richtig düster für AMD aus. So können sie ihren geringen Marktanteil wenigstens noch mit einem gewissen Gewinn halten. Mittelfristig wird ihnen das nicht viel helfen, da NV dadurch logischerweise mehr Gewinn einspielt und die R&D-Kriegskasse entsprechend gefüllt wird.

Ailuros
2015-08-25, 09:09:05
Oh, Mancko weiß es schon wieder besser.

Es wird auf alle Fälle ein Performance-Chip. Hört, Hört. Denn obwohl Pascal explizit auf Computing ausgelegt ist (32 GB HBM, NVLINK) muss IBM dann eben noch ein paar Monate extra auf die Validierung warten, nachdem der Chip dann vom Band gelaufen ist. Währenddessen wartet die gesamte Prosumer, Workstation, etc. Community weiterhin eine gefühlte Ewigkeit auf den Nachfolger zu GK110/210.:rolleyes:

Wenn HBM von Samsung ab dem 1. Januar 2016 lieferbar ist, interessiert das einen Scheiß, solange es keinen Chip gibt der ihn nutzen kann. Bloß weil laut TSMC volume production von 16FF+ angelaufen ist, heißt das nicht, dass das erste Produkt Pascal heißt. Eher heißt das Produkt A9, oder vllt. 820. Es sieht nämlich eher so aus, das TSMC nicht genug Kunden für 16nmFF hat und die eher auf FF+ warten.

Und außerdem finde ich es putzig, wie jetzt alle auf einmal behaupten, AMD würde auf einmal exklusiv bei GF produzieren lassen, obwohl es dafür keinerlei Anhaltspunkte gibt. Nur weil AMD nicht auf irgendeiner Liste auftaucht, heißt das nicht im Umkehrschluss, dass sie nicht/nie mehr bei TSMC produzieren.

Fakt ist: AMD hatte laut eigener Aussage schon vor ein paar Wochen oder Monaten erste tapeouts in FinFET. Laut TheStilt, der eine sehr verlässliche Quelle ist, sind das auf jeden Fall GPUs. Von Nvidia weiß man, dass Big Pacal seinen tape out hatte, erinyes hatte es vor zwei Monaten verkündet, eine sehr gute Quelle wenn es um Nvidia geht.



https://forum.beyond3d.com/threads/nvidia-pascal-speculation-thread.55552/page-8#post-1848329

Vom tapeout zur mass production braucht man wenn nichts schief geht ein Jahr, selten weniger, meist mehr -> metal respin. Das mit dem Q1 finde ich dahingehend eine gewagte These, aber gut, bei GK110 war glaube ich ähnlich. Zuerst ganz wenige Chips für HPC/den Supercomputer Titan und dann deutlich später für den retail-Markt GFX Titan.

Erinyes zu zitieren ist ueberfluessig unter der Logik dass NV SEHR dringend einen neuen chip fuer HPC braucht. Alles was darunter liegt ist "subject to process yields and/or manufacturing costs" und natuerlich die "Kleinigkeit" dass alles "GP" im Codenamen eher dekorativ ist ;) Maxwell (in a relative sense) is here to stay ;)

Godmode
2015-08-25, 09:39:24
Erinyes zu zitieren ist ueberfluessig unter der Logik dass NV SEHR dringend einen neuen chip fuer HPC braucht. Alles was darunter liegt ist "subject to process yields and/or manufacturing costs" und natuerlich die "Kleinigkeit" dass alles "GP" im Codenamen eher dekorativ ist ;) Maxwell (in a relative sense) is here to stay ;)

Also bleibt es auch mit Pascal bei NV wieder langweilig. Bis auf HBM und mehr Units wird wohl nicht viel neues dabei sein?

Dural
2015-08-25, 09:40:07
NV hat doch schon längst kleine Pascal GPUs zuhause. Wann sie kommen ist doch eine Frage der Technik (Prozess / HBM)

Ailuros
2015-08-25, 09:45:20
Ja sie haben kaputte GP100 chips in kleinere Teile durchgesaegt und schmeissen damit rum weil sie nichts besseres zu tun haben.... :rolleyes:

Also bleibt es auch mit Pascal bei NV wieder langweilig. Bis auf HBM und mehr Units wird wohl nicht viel neues dabei sein?

"Langweilig" ist wohl relativ zu dem was jeder genau erwartet. Mir reicht es persoenlich wenn N mit einem gesunden Leistungsschub kommt.

Ravenhearth
2015-08-25, 10:28:35
Die doppelte Perf/W finde ich nicht gerade langweilig :freak:

BigKid
2015-08-25, 10:56:13
Die doppelte Perf/W finde ich nicht gerade langweilig :freak:
Seit ich wegen 2 Wohnsitzen und längeren Dienstreisen auf einen Gaming Notebook angewiesen bin finde ich das auch fast spannender reine Performance um jeden Preis...
Bei Laptops limitiert ja genau das... Watt... Entweder weil das Netztei/die Platine es nicht bringt oder weil die Hitze halt irgendwo hin muss...
Von daher war die 900er Reihe schonwieder ein ziemlicher Sprung...

Godmode
2015-08-25, 10:59:51
Das langweilig in diesem Zusammenhang nicht auf die Performance bezogen war, sollte eigentlich klar sein. Mir ging es darum, dass man wohl nichts bahnbrechendes neues ankündigen kann und Pascal nur ein Mawell Reloaded mit HBM sein wird. DP interessiert mich hier ebenfalls nicht.

Ravenhearth
2015-08-25, 11:08:07
Was für bahnbrechendes neues hättest du denn gerne?

AnnoDADDY
2015-08-25, 11:23:47
das frage ich mich auch grade, Maxwell ist doch bis auf DP schon ne sehr gute Architektur...

Ailuros
2015-08-25, 11:49:22
Was für bahnbrechendes neues hättest du denn gerne?

DX13? :P Spass beiseite, er meint wohl sehenswerte Effizienz-steigerungen durch die Architektur. Dafuer siehe erst VOLTA.

Skysnake
2015-08-27, 13:17:13
Wenn das so ist, nehme ich natürlich alles zurück. Ich kann es mir aber nicht vorstellen, dass die Speicherchips erst durch die Zwischenlager beim GPU-Hersteller durchmüssen.

Falls nicht:

Früher:
Boardpartner deckt sich mit gewissen Mengen GPUs und Speicherchips ein. Je nach dem, was der Markt will, werden den GPUs unterschiedliche Speicherchips zugewürfelt. Der Speicher kann auch für andere GPUs genutzt werden, sollte er "übrig" sein. => Hohe Flexibilität
Neu:
GPU-IHV verkauft fertige GPU-RAM-Kombinationen. Es muss also schon viel an einem früheren Zeitpunkt in der viele Wochen (oder Monate) dauernden Produktion festgelegt werden, welche Speichermengen gewünscht sind, was die Planungsunsicherheit erhöht und demzufolge die Preise steigen lassen sollte. Der Boardpartner kann nicht einfach sagen "Ok, die Karten mit mehr RAM gehen besser. packt die doppelte Menge drauf und kauft einfach noch nen Schwung Speicherchips nach."

Wie gesagt, sollte RAM mit GPU zusammen vom GPU_IHV verkauft werden ist der untere Teil meines Posts natürlich hinfällig.


Die Boardpartner bekommen wohl schon zumindest seit GDDR5 immer Packete aus GPU und RAM geliefert. Frag mich jetzt aber bitte nicht, ob die Boardpartner selbst die GPU<->RAM Kombinationen validieren können, oder wollen.

Es ist aber wohl annähernd fakt, dass diese den RAM eben nicht einzeln kaufen.

AnarchX
2015-08-28, 17:24:37
https://www.zauba.com/import-graphics-processor-integrated-hs-code.html

Zwei GPUs für je ~2700€.
WaKü-Teile für die Prototypen: https://www.zauba.com/import-SFCBGA-hs-code.html

Eventuell 2621 Pins und ein 55x55mm Package.


Die Boardpartner bekommen wohl schon zumindest seit GDDR5 immer Packete aus GPU und RAM geliefert. Frag mich jetzt aber bitte nicht, ob die Boardpartner selbst die GPU<->RAM Kombinationen validieren können, oder wollen.

Es ist aber wohl annähernd fakt, dass diese den RAM eben nicht einzeln kaufen.
Es gab wohl verschiedene Vertragsvarianten. Palit wurde ja nachgesagt, dass diese ihre niedrigen Preise durch die Eigenbeschaffung des Speicher realisieren konnten.
Ebenso soll es wohl auch Kombi-Pakete bei den GPUs gegeben haben, sodass der Hersteller welche High-End wollte, entsprechend Mainstream und Low-End mitkaufen musste.

Skysnake
2015-08-28, 17:35:48
Ja genaues weiß man leider nicht. Wie so oft halt in dieser Branche...

AffenJack
2015-09-02, 00:01:15
Ich poste das mal hier, weil ich von Nv auf jeden Fall nicht ein Full HBM Lineup erwarte. Bei AMD eher unsicher.

http://www.tomshardware.com/news/micron-launches-8gb-gddr5-modules,29974.html

Micron schmeißt also noch nächstes Jahr neuen Gddr5X Speicher mit mehr Bandbreite auf den Markt. Ich glaube kaum, dass sie das entwickelt hätten, wenn nicht einer der Beiden das Zeug verwenden wollte. Ich schätze da sehen wir erstmal den Low Cost Ram da HBM einfach nen gutes Stück teurer sein wird. Könnte mir vorstellen, dass alles unter GP204 kein HBM abkriegen wird.

Nakai
2015-09-02, 00:21:28
Ich bin sehr gespannt, wie gut NV ihre HBM-Implementierung hinkriegt.
Bis jetzt war AMD immer ein Stück vorraus bei Speichetechnologien. Ich sehe keine großen Hürden, wenn es darum geht die Technologie umzusetzen, außer dass man einen großen Batzen an Geld investieren muss.

GDDR5X würde ich eher bei NV als eine Option erwarten.

Rampage 2
2015-09-02, 04:20:10
Ich poste das mal hier, weil ich von Nv auf jeden Fall nicht ein Full HBM Lineup erwarte. Bei AMD eher unsicher.

http://www.tomshardware.com/news/micron-launches-8gb-gddr5-modules,29974.html

Nach Hynix und Samsung bietet nun also auch Micron 8Gbps-Speicher an - WARUM werden die Dinger nicht genutzt?

R2

dildo4u
2015-09-02, 11:00:12
Dort steht das Produkte damit erst Ende 2016 kommen NV will aber sicherlich vor dem Sommer mit Pascal launchen.

AffenJack
2015-09-02, 11:11:56
Dort steht das Produkte damit erst Ende 2016 kommen NV will aber sicherlich vor dem Sommer mit Pascal launchen.

Deswegen rede ich ja auch eher von den kleinen Pascals. Ich glaube da nicht an HBM bei denen. Kann sein, dass man wieder von groß nach klein launcht dieses mal, da man bisher nur von Big Pascal was gehört hat.

Nach Hynix und Samsung bietet nun also auch Micron 8Gbps-Speicher an - WARUM werden die Dinger nicht genutzt?

R2

Stromverbrauch steigt bei 8Gbps einfach zu stark, der Memory Controller muss damit auch stabil klarkommen. Verdoppelter prefetch ist da deutlich besser. Damit dann schön 10 Gbps oder 12 Gbps für nen kleineren Chip wäre in Ordnung.

Godmode
2015-09-02, 11:13:21
Nach Hynix und Samsung bietet nun also auch Micron 8Gbps-Speicher an - WARUM werden die Dinger nicht genutzt?

R2

Wer will schon noch Stromfressenden GDDR5 wenn man HBM haben kann. :)

Rampage 2
2015-09-02, 11:30:15
Wer will schon noch Stromfressenden GDDR5 wenn man HBM haben kann. :)

Ich spreche von einem Refresh aktueller Produkte - etwa so wie GTX 680 zu GTX 770. Und nein, es scheint nicht deutlich stromfressender zu sein als 7Gbps-Speicher - siehe den CB-Artikel zur 960, den ich verlinkt habe...

R2

HOT
2015-09-02, 11:40:52
Es geht dabei wohl weniger um die eigentlichen Speicher (sicher die brauchen auch Strom) sondern um die Speichercontroller. Der Hawaii-Speichercontroller soll so 30-50W allein verbraten.
Und man würde bei dickeren Chips sicherlich immer breitere Controller benötigen. Maxwell ist da ja sehr auf Kante gebaut - ich schätze, dass man das auch noch bitter merken wird.

Zudem spielen offenbar die Kosten auch eine Rolle bei HBM. GDDR5 soll schlicht in der Masse teurer sein mit den Konfigurationen, in denen man den bräuchte.
Und nein, NV wird nicht mal eben so ein Interposerdesign aus dem Boden stampfen, das wird Zeit brauchen. Und nein, es gibt kein komplettes Lineup mMn, das Risiko wär zu groß. Der GP100 ist NVs Interposer-Erstdesign, genau wie AMDs Fiji, deshalb beschränkt man sich auf den.

Ailuros
2015-09-02, 11:57:37
Deswegen rede ich ja auch eher von den kleinen Pascals. Ich glaube da nicht an HBM bei denen. Kann sein, dass man wieder von groß nach klein launcht dieses mal, da man bisher nur von Big Pascal was gehört hat.


Pascal sollte fuer HPC schon gestern erscheinen wie schon oefters erwaehnt. IMHO ist alles darunter zumindest in vergleichbarem Stadium mit GP100, aber es sind dann eher die Herstellungskosten fuer FinFET Prozesse die die eigentliche Planung diktieren werden. Unter einem Performance chip der naechsten "Generation" stellt man sich Leistung zumindest auf GM200 Nivaeu vor. Der uebliche Fehler ist dann wie immer dass viele an so und so viel weniger Quadratmillimeter denken unter 16FF und zur gleichen Zeit vergessen um wieviel teurer Herstellung ingesamt unter solchen Prozessen eigentlich ist.

Godmode
2015-09-02, 12:09:58
Ich spreche von einem Refresh aktueller Produkte - etwa so wie GTX 680 zu GTX 770. Und nein, es scheint nicht deutlich stromfressender zu sein als 7Gbps-Speicher - siehe den CB-Artikel zur 960, den ich verlinkt habe...

R2

Das wird dir wohl nur Nvidia beantworten könnten. IMHO machen Refreshes aber momentan nicht wirklich viel Sinn, da das Lineup recht gut aussieht und die Karten verkaufen sich laut den Umsatzzahlen auch noch immer sehr gut.

Pascal sollte fuer HPC schon gestern erscheinen wie schon oefters erwaehnt. IMHO ist alles darunter zumindest in vergleichbarem Stadium mit GP100, aber es sind dann eher die Herstellungskosten fuer FinFET Prozesse die die eigentliche Planung diktieren werden. Unter einem Performance chip der naechsten "Generation" stellt man sich Leistung zumindest auf GM200 Nivaeu vor. Der uebliche Fehler ist dann wie immer dass viele an so und so viel weniger Quadratmillimeter denken unter 16FF und zur gleichen Zeit vergessen um wieviel teurer Herstellung ingesamt unter solchen Prozessen eigentlich ist.

Wenn ich das jetzt richtig lese, wird GP104 verglichen mit GM204 wohl kleiner werden, was die Die-Fläche angeht. Bei gleicher Fläche wäre das Ding deutlich teurer für den Endkunden, oder die Marge für NV wäre schlechter. Beides ist eher unwahrscheinlich. Man kann die Mainstream xxx04 GPUs nicht mehr teurer machen, da der Preispunkt von 500 Euro schon sehr hoch liegt. Die Marge will man auch nicht verschlechtern, da der Markt eh schon am Schrumpfen ist. Ergo bleibt nur über, die Fläche des Siliziums zu verkleinern. Das sollte aber auch kein Problem sein, da der Sprung von 28nm auf 16nm doch einiges mehr Platz bieten sollte. IIRC war GK104 um knappe 100mm2 kleiner als GM204. Somit wäre ein ca. 300mm2 großer GP104 durchaus denkbar, bei trotzdem messbarer Mehrleistung gegenüber GM200.

Ich hoffe ich habe dich richtig verstanden.

Ailuros
2015-09-02, 12:45:33
Mir geht es weniger um die Flaeche per se als die eigentlichen Herstellungskosten. Aber um Dir auch richtig zu antworten: einen GM204 Nachfolger um sagen wir mal 25% kleiner zu gestalten deckt die eigentliche insgesamte Steigerung der Herstellungskosten von 28nm zu 16FF eben nicht ab: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10658173&postcount=1226

Die Loesung ist dann eventuell eben nicht unbedingt an einen noch kleineren die zu denken sondern so lange warten bis die yields anstaendigere Herstellungs-Kapazitaeten und -Kosten erlauben.

Hübie
2015-09-02, 13:03:42
Ich meine mich erinnern zu können dass ein 28nm-Wafer anfangs bei 19.000 $ lag. 16FF soll darüber liegen. Das nivelliert sich ja auf die Dauer jedoch und nVidia agiert zwar operativ, aber plant ja strategisch, was wohl in einer Mischkalkulation mündet. Das wird ja auch vertraglich reguliert. Also dürfte ein hypotethischer GP100 bei 400+ sqmm liegen damit die Rechnung stagniert.

Godmode
2015-09-02, 13:06:37
Ok, dann wird daraus ein Schuh. Die Frage ist nun, wie schnell werden die Kosten sinken?

Hübie
2015-09-02, 13:14:25
Das kann ich dir beim besten Willen nicht beantworten. :smile:

Ailuros
2015-09-02, 13:25:30
Ich meine mich erinnern zu können dass ein 28nm-Wafer anfangs bei 19.000 $ lag. 16FF soll darüber liegen. Das nivelliert sich ja auf die Dauer jedoch und nVidia agiert zwar operativ, aber plant ja strategisch, was wohl in einer Mischkalkulation mündet. Das wird ja auch vertraglich reguliert. Also dürfte ein hypotethischer GP100 bei 400+ sqmm liegen damit die Rechnung stagniert.

$19k fuer 28nm? Nicht dass ich wuesste. Schau oben in den link rein denn es geht bei heutigen Prozessen NICHT mehr nur steril um die Herstellungskosten. Sonst darf GP100 kosten was es will in der Herstellung; bei den Margen fuer Quadros und Teslas ist es es ziemlich wurscht (innerhalb von logischen Grenzen).

Nur zur Ernuechterung: 400mm2 mit 17Mrd. Transistoren wuerden einer 42.5 Mio/mm2 Packdichte entsprechen.... uhmmm errr kein Kommentar :freak:

Thunder99
2015-09-02, 13:48:08
Könnte mir vorstellen, dass dafür Pascal länger am Markt bleibt um die höheren Kosten zu kompensieren. Evt im Form von erst teildeaktivierten Chips um später die vollen zu bringen wie damals bei Fermi?

Hab zwar gelernt (Marketing :freak:) das im High-Tech Gewerbe die Produktlebenszyklen abnehmen bzw kürzer werden, aber was damals so gelehrt wird kann ja heute nicht mehr so stimmen bzw eingehalten werden weil es schlicht nicht mehr wirtschaftlich ist :confused:

Hübie
2015-09-02, 14:34:25
$19k fuer 28nm? Nicht dass ich wuesste. Schau oben in den link rein denn es geht bei heutigen Prozessen NICHT mehr nur steril um die Herstellungskosten. Sonst darf GP100 kosten was es will in der Herstellung; bei den Margen fuer Quadros und Teslas ist es es ziemlich wurscht (innerhalb von logischen Grenzen).

War ne Zahl aus der ramp up. Early '12 wenn ich mich recht erinnere. Aber kann mich genau so gut täuschen (altersbedingt:biggrin:)

Nur zur Ernuechterung: 400mm2 mit 17Mrd. Transistoren wuerden einer 42.5 Mio/mm2 Packdichte entsprechen.... uhmmm errr kein Kommentar :freak:

Deshalb schrieb ich ja: damit die Rechnung stagniert. Tut sie ja nicht.

Ailuros
2015-09-03, 10:18:37
Könnte mir vorstellen, dass dafür Pascal länger am Markt bleibt um die höheren Kosten zu kompensieren. Evt im Form von erst teildeaktivierten Chips um später die vollen zu bringen wie damals bei Fermi?

GF100/Fermi war kein taktischer Schachzug sondern ein hw bug im MC der spaeter im GF110 so gut wie moeglich beseitigt wurde. IHVs sind so oder so von der Herstellungstechnologie abhaengig. Dementsprechend ist Volta vor 10FF unmoeglich.


Hab zwar gelernt (Marketing :freak:) das im High-Tech Gewerbe die Produktlebenszyklen abnehmen bzw kürzer werden, aber was damals so gelehrt wird kann ja heute nicht mehr so stimmen bzw eingehalten werden weil es schlicht nicht mehr wirtschaftlich ist :confused:

Das Lehrmaterial war aus der Steinzeit oder wie? :P

War ne Zahl aus der ramp up. Early '12 wenn ich mich recht erinnere. Aber kann mich genau so gut täuschen (altersbedingt:biggrin:)

Ich kann mich persoenlich nie an zweistellige wafer Herstellungskosten erinnern, will aber nichts ausschliessen denn bis zum Punkt wo IHVs komplizierte GPU chips unter einem neuen Prozess herstellen dauert es auch meistens etliche Monate. Wenn ich es jetzt nicht falsch in Erinnerung habe war 28HP irgendwo bei 7-8k pro wafer als die ersten GPU chips in die Startloecher gingen.

Fuer GP100 und dessen Groesse spekuliert einfach in der absoluten Naehe einer schoen runden Zahl und man ist in einem ziemlich sicheren Bereich (mal sehen wer wieder brav abschreiben wird....).

Hübie
2015-09-03, 12:55:33
Ich glaube mittlerweile hab ich einfach eine falsche Währung im Kopf gehabt. Wobei Taiwan Dollar ja irgendwie mit 30 multipliziert werden müsste :biggrin: Vielleicht waren es 190.000 NTD. Egal. Meine Aussage ist ja das was zählt. Wurde letztes Jahr auf einer Keynote nicht mal davon gesprochen dass die anfänglichen Kosten pro Wafer für 16FF bei ~20% über 28nm liegen? Das wäre, ausgehend von 7500 $, ja beinahe eine schöne, runde Zahl :D

Godmode
2015-09-03, 13:28:19
500m2 ist schön rund genauso auch 600mm2. 500mm2 +/-10mm2 könnte gut passen, weil man vielleicht im neuen Prozess nicht gleich wieder die ganze Die-Size nutzen will und kann.

Skysnake
2015-09-03, 20:51:29
Die reinen Waferkosten machen doch immer weniger an den Gesamtkosten aus.

Die Kosten für EDA Tools, Masken und vor allem auch die Validierung der Chips steigt doch viel schneller an, als die Kosten für die Wafer/Produktion an sich.

aufkrawall
2015-09-03, 20:53:25
Kann Pascal überhaupt performant Async Compute ausführen, wenn nicht etwas vergleichbares wie ACEs in die Hardware wandert?
Würde das nicht Ailuros' Theorie widersprechen, dass es mit Pascal keine großen Änderungen bei den Shadern geben würde?

Hübie
2015-09-03, 21:13:53
Die ALU müssen auch nicht verändert werden. "Nur" das Threading / Scheduling. Wobei man hier wieder Effizienz opfern müsste.

Ailuros
2015-09-04, 10:48:44
Kann Pascal überhaupt performant Async Compute ausführen, wenn nicht etwas vergleichbares wie ACEs in die Hardware wandert?
Würde das nicht Ailuros' Theorie widersprechen, dass es mit Pascal keine großen Änderungen bei den Shadern geben würde?

Siehe Huebie's Antwort oben; sonst im Haarspalterei Modus hat die letzte Einzelheit Dave Baumann/AMD als Geruecht oeffentlich im B3D forum gepostet. Wie schon mal erwaehnt machen vergleichsmaessig kleine Aenderungen auch absolut Sinn, da Pascal quasi ein Zwischenschieber fuer Maxwell und VOLTA der letzten Minute war.

Dural
2015-09-07, 13:29:29
ist zwar schon alt, aber in dieser Info vom 29.10.2014 steht doch das die Produktion von Pascal für den März 2016 vorgesehen ist. ;D

http://www.3dincites.com/2014/10/putting-3d-integration-test/

Ailuros
2015-09-08, 08:47:19
Es hat auch keiner der weiss wo es lang geht etwas frueher als Q2 16' erwartet selbst fuer nur HPC. Nur Erinyes war dafuer etwas optimistischer, wobei er natuerlich nur die Monate vom tape out zur fruehesten moeglichen Produktion ausgerechnet hatte und nicht unbedingt alles ueberdachte.

Hübie
2015-09-08, 09:58:44
Zur GTC 2016 werden wir in jedem Falle mehr wissen, dessen bin ich mir sicher. Langweiliger als Maxwell kanns nicht werden ;D

PS: Wobei mich die Effizienz unter gleichem Prozess doch überraschte.

Ailuros
2015-09-08, 11:48:14
PS: Wobei mich die Effizienz unter gleichem Prozess doch überraschte.

Die zusaetzliche Effizienz kann man schwer bestreiten, aber wenn man es nuechtern analysiert ist es auch nichts wirklich besonderes oder unerwartetes. Bei default Frequenzen alleine liegt eine 980Ti um fast 15% hoeher als eine 780Ti, wenn man den ganzen dynamischen Frequenz-Hokuspokus von custom SKUs noch mitberechnet wird es noch bunter.

Godmode
2015-09-08, 12:06:04
Zur GTC 2016 werden wir in jedem Falle mehr wissen, dessen bin ich mir sicher. Langweiliger als Maxwell kanns nicht werden ;D

PS: Wobei mich die Effizienz unter gleichem Prozess doch überraschte.

Pascal wird was neue Features angeht wohl sehr langweilig werden. Auf Seiten der Leistung erwarte ich mir aber eine gute Steigerung zu GM200. Immerhin hat man nun viel mehr Platz auf dem Die und sehr viel mehr Bandbreite durch HBM.

basix
2015-09-16, 12:10:11
Mir geht es weniger um die Flaeche per se als die eigentlichen Herstellungskosten. Aber um Dir auch richtig zu antworten: einen GM204 Nachfolger um sagen wir mal 25% kleiner zu gestalten deckt die eigentliche insgesamte Steigerung der Herstellungskosten von 28nm zu 16FF eben nicht ab: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10658173&postcount=1226

Die Loesung ist dann eventuell eben nicht unbedingt an einen noch kleineren die zu denken sondern so lange warten bis die yields anstaendigere Herstellungs-Kapazitaeten und -Kosten erlauben.

Man sollte aber im Hinterkopf behalten, dass die Yields bei einem kleineren Chip immer besser sind als bei einem grösseren. Deshalb sollten bei -25% Fläche eher mehr Kostenreduktion rausschauen. 28nm hatte aber natürlich den Vorteil, dass er schon lange Reif war und die Yields dementsprechend hoch, was bei 16nm noch unsicher ist.

AnarchX
2015-09-16, 17:59:06
https://www.zauba.com/import-graphics-processor-integrated-hs-code.html

Zwei GPUs für je ~2700€.

Nochmal 7 GPUs zu ähnlichen Preisen:Date HS Code Description Origin Country Port of Discharge Unit Quantity Value (INR) Per Unit (INR)
14-Sep-2015 85423100 GRAPHICS PROCESSOR INTEGRATED CIRCUITS 433X3 Taiwan Banglore Air Cargo NOS 7 1,449,399 207,057

Godmode
2015-09-16, 18:10:57
Nochmal 7 GPUs zu ähnlichen Preisen:

Schön das es endlich weitergeht.

Was ich mich mittlerweile aber frage ist, wofür ich überhaupt einen GP100 Chip brauche? Mein TX SLI ist meistens unterfordert, weil die Spiele bieten zuwenig Optionen für Ultra-Highend. Eventuell kann ich dann ja mein SLI auflösen und gegen einen GP100 Chip ersetzen. Wie seht ihr das?

fondness
2015-09-16, 18:12:06
Eventuell kann ich dann ja mein SLI auflösen und gegen einen GP100 Chip ersetzen. Wie seht ihr das?

Hattest du das nicht schon mit der TITAN X vor? :D

Godmode
2015-09-16, 18:12:57
Hattest du das nicht schon mit der TITAN X vor? :D

Ja aber für 4k war das SLI dann doch ganz brauchbar. :)

Hübie
2015-09-16, 19:42:58
Übrigens glaube ich nicht dass Pascal langweiliger als Maxwell wird =)

Godmode
2015-09-16, 19:45:06
Hoffen wirs :)

Timbaloo
2015-09-16, 19:54:46
Was ich mich mittlerweile aber frage ist, wofür ich überhaupt einen GP100 Chip brauche? Mein TX SLI ist meistens unterfordert, weil die Spiele bieten zuwenig Optionen für Ultra-Highend. Eventuell kann ich dann ja mein SLI auflösen und gegen einen GP100 Chip ersetzen. Wie seht ihr das?
Wer ruft den Arzt? Ist offensichtlich ein besonders schwerer Fall von Midrange-Crisis. Ich gebe ihm noch maximal 10 Monate.

Hübie
2015-09-16, 19:59:15
X-D Ja unser godmode :biggrin: Nicht umsonst wurden so Sachen wie DSR / VSR eingeführt und nicht umsonst steigt die durchschnittliche Auflösung langsam von 1080p auf 1440p (jetzt mal egal ob virtuell oder reell).

Godmode
2015-09-16, 20:11:05
Wer ruft den Arzt? Ist offensichtlich ein besonders schwerer Fall von Midrange-Crisis. Ich gebe ihm noch maximal 10 Monate.

Das 3DC bringt einem immer wieder zum Lachen, darum bin ich wohl so gerne hier. ;D

X-D Ja unser godmode :biggrin: Nicht umsonst wurden so Sachen wie DSR / VSR eingeführt und nicht umsonst steigt die durchschnittliche Auflösung langsam von 1080p auf 1440p (jetzt mal egal ob virtuell oder reell).

Würde Nvidia endlich mal ihren Treiber in Ordnung bringen, könnte man ja bei einem 4K-Monitor mit SLI auch noch DSR benutzen, dass wäre richtig geil. So kann ich mit SLI nur 4K nutzen. Sie kümmern sich zu wenig um die Enthusiasten, daher ist es wahrscheinlich das sie in Zukunft von mir nicht mehr soviel Geld bekommen, wie die vergangenen Jahre.

On Topic: Man kann nur hoffen das mit Pascal alles wieder besser wird.

M4xw0lf
2015-09-16, 20:23:46
Das 3DC bringt einem immer wieder zum Lachen, darum bin ich wohl so gerne hier. ;D
Lauf, solange du noch kannst! :eek: :usad:

Hübie
2015-09-16, 22:05:10
Pascal is eigentlich ein Intermezzo, von daher erwarte ich erst mal nicht allzu viel. Ich denke das Volta dann eher einem SoC gleicht und wirklich viel neu "erfunden" wird. Ich lasse mich da aber gern überraschen.

Ailuros
2015-09-17, 09:20:22
Man sollte aber im Hinterkopf behalten, dass die Yields bei einem kleineren Chip immer besser sind als bei einem grösseren.

Unter dem gleichen Prozess ja. Zwischen 28nm und 16FF+ beim gleichen chip eben nicht.

Deshalb sollten bei -25% Fläche eher mehr Kostenreduktion rausschauen.

Und was sollen Dir diese pissat 25% gut machen wenn die Herstellungs-kosten und auch noch die Kosten von den ganzen tools insgesamt um 100% hoeher sind unter 16FF+?

28nm hatte aber natürlich den Vorteil, dass er schon lange Reif war und die Yields dementsprechend hoch, was bei 16nm noch unsicher ist.

Bogen nach oben zum ersten Paragraph und ja. Wenn Du fuer N chip sagen wir mal 150 operative chips von einem 28nm wafer heute bekommst, heisst es eben NICHT automatisch dass Du auch heute 300 operative chips von einem 16FF+ bekommst; und gerade da schlagen dann die doppelt so hohen Herstellungs-kosten fuer den FF Prozess ein.

Unter anderen Umstaenden wuerde es schon innerhalb dieses Jahres SKUs mit kleineren 16FF+ GPU chips geben. Dass es erst aber ab Q1 16' anfaengt hat schon seinen Grund.

----------------------------------------------------------------------------------------------------------

Sonst zum Thema: http://www.fudzilla.com/news/graphics/38771-samsung-will-not-make-pascal

Fudzilla eben; keine Ahnung warum die es jetzt erst mitbekommen haben, aber die Bude ist sowieso kein Parade-Beispiel fuer jeglichen online Journalismus.

horn 12
2015-09-17, 09:50:54
Wann sollte Pascal GP100 in etwa aufschlagen, Mitte 2016 oder doch erst Herbst 2016, also in einem Jahr
Die Pascal Mainstram Karten wohl Frühjahr bis Sommer ?

Thomas Gräf
2015-09-17, 10:16:37
horn Du wirst doch nicht etwa die fremde Frucht kosten wollen, wo ist denn Deine Gläubigkeit geblieben? ;)

Nakai
2015-09-17, 19:32:47
https://forum.beyond3d.com/threads/nvidia-pascal-speculation-thread.55552/page-13

Pascal = Maxwell + HBM + Finfet + MicedPrecision + NVLink

Ahja laut dem Graphen wird Pascal keine 100% gegenüber Maxwell erreichen, sondern etwas darunter. Ich spekuliere etwas zwischen 60~100%, je nach Usecase. Ergo ist das zwar nur PErf/W und Maxwell hat hierbei eine Verdopplung hingelegt laut Graph. Naja. Es ist eben nur eine Projektion.

fondness
2015-09-17, 19:43:48
Hat Maxwell eine verdoppelte Perf/Watt ggü. Kepler hingelegt? Wohl kaum. Der Graph ist Marketing und entsprechend sollte man ihn auch einordnen.

Hübie
2015-09-17, 20:02:20
Eigentlich nix neuer dabei. Also wieder warten. Die Resonanz hier ist auch recht zurückhaltend, dafür dass es nur noch <6 Monate sind.

Sunrise
2015-09-17, 20:15:22
Ihr solltet nicht vergessen, dass NV sein Maxwell-Pulver auf 28nm bereits verschossen hat, es ging aber einfach nicht anders. Die neue Fertigung wird natürlich dennoch einiges zusätzlich rausholen können, die Katze ist aber schon lange aus dem Sack. Wer Ailuros gut zugehört hatte, der weiß Bescheid.

Dennoch werden die NV GPUs im oberen Segment wieder attraktiver - und dieses Mal nicht nur exklusiv für Spieler. Ich bin mal gespannt, ob NVs HBM-Pläne nicht doch etwas zu aggressiv waren, denn die erste Korrektur fand ja bereits statt.

Troyan
2015-09-17, 20:33:32
Hat Maxwell eine verdoppelte Perf/Watt ggü. Kepler hingelegt? Wohl kaum. Der Graph ist Marketing und entsprechend sollte man ihn auch einordnen.

Es sind 85% von Maxwell gegenüber Kepler. Und das ohne HBM und 16nm.

Es werden locker wieder 85% von Pascal zu Maxwell dank HBM und 16nm.

fondness
2015-09-17, 20:35:33
Es sind 85% von Maxwell gegenüber Kepler. Und das ohne HBM und 16nm.

Es werden locker wieder 85% von Pascal zu Maxwell dank HBM und 16nm.

GM200 ist vielleicht 50% schneller als GK110 beim selben Verbrauch und da fehlt noch DP.

y33H@
2015-09-17, 20:41:34
Wo hat WTF-Tech denn die Slides her?

aufkrawall
2015-09-17, 20:42:11
Kommt drauf an, auf was man sich bezieht.
Bei Compute ist GM200 gerne mal mehr als doppelt so schnell wie GK110:
http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/24

Unicous
2015-09-17, 20:56:57
Auf den slides wird nur noch von 16 GB gesprochen? Wurde auf der GTC nicht (bis zu) 32GB versprochen , oder meinte man damit Dual-GPUs?:confused:

y33H@
2015-09-17, 21:00:26
Es hieß 32 GB, ja.

http://scr3.golem.de/screenshots/1503/GTC-2015-Pascal/thumb620/GTC-2015-03.png

Sunrise
2015-09-17, 21:06:19
Auf den slides wird nur noch von 16 GB gesprochen? Wurde auf der GTC nicht (bis zu) 32GB versprochen , oder meinte man damit Dual-GPUs?:confused:
Richtig, das meinte ich mit Korrektur. Es wurden von NV auch die erwarteten Bandbreiten angepasst, was aber inzwischen schon ein paar Monate her ist. Das Zweite ist jetzt kein Weltuntergang, das erste klingt wenig erfreulich.

Unicous
2015-09-17, 21:07:05
Hmmm, im Nachhinein kann man auch sagen: 16384:6144 ergibt auch ca. 2,7.;)

Jetzt frage ich mich ernsthaft: Hatte Nvidia explizit von 32GB gesprochen, oder haben die ganzen Seiten es nur interpoliert und folgerichtig auf die Titan X bezogen, während Nvidia sich bedeckt hielt?

AffenJack
2015-09-17, 21:07:17
Könnte mir vorstellen, dass 8 High Stacks zu spät kommen werden und man deshalb auf 16 Gb runter gehen musste.

@ Unicous, guck doch auf die Folie die oben geposted wurde, da steht ja 32 Gb.

Sunrise
2015-09-17, 21:09:21
Hmmm, im Nachhinein kann man auch sagen: 16384:6144 ergibt auch ca. 2,7.;)

Jetzt frage ich mich ernsthaft: Hatte Nvidia explizit von 32GB gesprochen, oder haben die ganzen Seiten es nur interpoliert und folgerichtig auf die Titan X bezogen, während Nvidia sich bedeckt hielt?
Bei der Präsentation von Pascal war ganz klar von 32GB die Rede, 64GB dann für Volta. Das scheint jetzt eher zweifelhaft. Pascal scheint auch nichtmehr allzu in weiter Ferne.

Timbaloo
2015-09-17, 21:14:37
Irgendwas muss ja für einen GP100-refresh übrig bleiben :)

Duplex
2015-09-17, 21:16:33
Eine doppelte GTX980 Ti in 16nm+ (Pascal mit HBM) wird locker 80-100% schneller.

maximus_hertus
2015-09-17, 21:21:45
Eine doppelte GTX980 Ti in 16nm+ (Pascal mit HBM) wird locker 80-100% schneller.

Die Frage ist aber, wann komt GP100. Also die Consumer-Version.

Ich würde es nichtmal für unmöglich betrachten, wenn wir Ende 2016 nur eine Titan und erst in 2017 die Non-Titan GP100 sehen.

Troyan
2015-09-17, 21:34:42
GM200 ist vielleicht 50% schneller als GK110 beim selben Verbrauch und da fehlt noch DP.

GM204 ist 85% schneller bei geringerem Verbrauch gegenüber GK104.

GM200 als Vergleich is sinnlos, da der Chip gerademal 9% größer ist - im Gegensatz zu den 33% von GM204.

Pascal wird dank 16nm wesentlich mehr Transistoren unterbringen als GM200 und somit auch wesentlich schneller werden als GM200 gegenüber GK110.

Dural
2015-09-17, 21:48:53
laut der folie hat maxwell auch keine 100% zu kepler. ich sehe da viel mehr rund 100% von maxwell zu pascal.

auf einer folie sind 32gb für dual gpu karten drauf, da passt die aussage von nv mit bis zu 32gb doch wider.

AnarchX
2015-09-21, 18:40:10
WaKü-Teile für die Prototypen: https://www.zauba.com/import-SFCBGA-hs-code.html

Eventuell 2621 Pins und ein 55x55mm Package.

Und nochmal eine Lieferung mit NV-typischem Bezeichnungsaufbau, mit einem 42.5x42.5mm Package, aber nur 1244 Pins:
IC (INTEGRATED CIRCUIT) EHS-FCBGA (CHF) (42.5*42.5) 1244 DEVICE:QVVGQ LOT NO:P6T674.000 / NOT FOR SALE
https://www.zauba.com/import-fcbga-device-hs-code.html
... für einen Tegra wäre das Package sicher etwas zu groß. Vielleicht ein ~150W HBM Chip ohne NV-Link.

Godmode
2015-09-21, 18:48:33
Das Package könnte ja generell viel einfacher werden, da man nach außen nur mehr Pins für PCIe, SLI, Power und die Display Anschlüsse hat.

maguumo
2015-09-21, 19:03:17
Das Fiji Package hat 2021(?) Pins. Hätte erwartet das man da mit GP100 in ähnliche Dimensionen kommen sollte sofern die GPU in etwa gleich groß ist, oder liege ich da falsch?

Nightspider
2015-09-21, 19:10:31
Also ich tippe mal darauf das GP104 rund 30% schneller sein wird als eine GTX980ti und GP100 doppelt so schnell sein wird.

Der Prozess macht einen riesigen Sprung und alleine durch HBM2 spart Nvidia Die-Area sowie Strom und kann dadurch noch mehr Energie auf den Chip verlagern.
Zudem wird man mit HBM2 sogar 1024GB/s erreichen.

Bei der 14/16nm Generation wird wohl die Abwärme wieder ein Problem werden, denn genug Einheiten kann man ja dank 50% kleinerem Prozess verbauen.

Eventuell wird man die Taktraten am Anfang eher konservativ halten das GP104 nur 10-15% über der GTX980ti liegt und GP100 "nur" 70-80% darüber.
Mit Wasserkühler lassen sich dann aber bestimmt wieder geniale Regionen erreichen, die dank HBM2 nicht mal Bandbreitenlimitiert sein werden. :)

Tamagothi
2015-09-21, 19:32:39
AMD hat gesagt das das 4096 bit HBM Interface in etwa so viel verbraucht wie ein 384 bit GDDR5 Interface. Also nix mit Strom Sparen.

Was bleibt ist der Flächenvorteil. Bin grade auch zu faul zum suchen wo es stand.

Edit: Plus die Geschwindigkeit Natürlich.

Godmode
2015-09-21, 19:41:39
AMD hat gesagt das das 4096 bit HBM Interface in etwa so viel verbraucht wie ein 384 bit GDDR5 Interface. Also nix mit Strom Sparen.

Was bleibt ist der Flächenvorteil. Bin grade auch zu faul zum suchen wo es stand.

Edit: Plus die Geschwindigkeit Natürlich.

Dann dividierst du die Bandbreite von 1024 GB/s durch 384/s GB und schon hast eine Ersparnis von Faktor 3.

Tamagothi
2015-09-21, 20:01:32
Ob Pascal die vollen 1024 GB/s hat und diese auch nutzen kann steht noch in den Sternen.

Aber schön das du mir zeigst wie man Rechnet.

Es bleibt trotzdem "in etwa" der gleiche Stromverbrauch wie in Maxwell hat.

Nakai
2015-09-21, 20:34:51
AMD hat gesagt das das 4096 bit HBM Interface in etwa so viel verbraucht wie ein 384 bit GDDR5 Interface. Also nix mit Strom Sparen.

Was bleibt ist der Flächenvorteil. Bin grade auch zu faul zum suchen wo es stand.

Edit: Plus die Geschwindigkeit Natürlich.

Erstmal werden nur die PHYs kleiner. Der Stromverbrauch wird um etwa 50~60W reduziert. Das ist schonmal "nett". 16FF+ liefert keine 100% Effizienzsteigerung, eher um die 60%. Bei NV kann man definitiv um die 60%+ auslegen. An die 100% glaub ich nicht, da HBM und Finfet nicht unproblematisch sind. Eventuell wird man nicht so ambitioniert sein. Das heißt auch, dass theoretisch ein netter Refresh möglich ist.

Ein hypothetischer GP104 mit 2 HBMs und 3000SPs+ würde ich so um die 300mm² einschätzen.
GP100 mit 4 HBMs und 4000~6000SPs wird mehr als 450mm² groß sein. Ich bin da sehr vorsichtig. GP100 muss auch wieder mehr DP bringen.^^

Ich sag mal 40 SMs mit 128SPs jeweils. Das sind 66% mehr SPs+DP und auch womöglich höheren Takt dank HBM. Den Rest kann sich jeder selber zusammendichten. Pro GPC würde ich mal 5 SMs einschätzen. Also 8 GPCs.

GP104 würde ich am ehesten als GM200 Shrink + HBM ansehen. Eventuell nur 4 GPCs, dann sollte man definitiv bei 300mm² liegen. Damit wäre man wohl etwa 10~20%+ GM200. GP104 sehe ich nicht vor 2016H2. GM200 muss noch auslaufen.

Ebenso sind alle Maxwell Chips doch noch ganz nett.^^

GM206 sieht gut aus fürs Midrange-Segment und GM204 ebenso. Die bleiben uns noch erhalten. GM107/8 muss ersetzt werden. Einen HBM LowCost-Chip?
Dann könnte man gleich aber noch GM206 erschlagen. Ein hypothetischer GP107/8 mit 8 SMs?

Ahja, NV legt ihre Produkte gut in den jeweiligen TDP-Regionen ab. Finfet bringt etwa 60%. ;)

GP104: GM204 16SMs x1.6 ~ 25 SMs
GP106: GM206 8 SMs x1.6 ~ 12-14 SMs
GP107: GM107 5 SMs x 1.6 ~ 8 SMs

Außer GP100, der ist etwas Anderes, wenn nur dieser HBM bekommt. Dann sind es eher 1.8x 40SMs+. Analog gilt das für die Anderen auch.

hasebaer
2015-09-21, 22:35:58
Es wird so kommen wie all die Jahre zuvor.
Neue Performance = altes High End mit 10 - 20% mehr Speed bei 160-180W.

HBM2 wird erstmal laut meinem Bauchgefühl, nur das auffangen, was der Sprung von 28 auf 16nm nicht mehr leisten kann, ggü. früheren Sprüngen und die Verluste der ersten 16nm Yield verringern,
in dem man mehr Spannung als sonst auf schlechte Chips geben kann und dennoch eine insgesamt bessere Effizienz ggü. dem alten Maxwell High End erreicht.

Thunder99
2015-09-21, 23:20:46
Also ich tippe mal darauf das GP104 rund 30% schneller sein wird als eine GTX980ti und GP100 doppelt so schnell sein wird.

Der Prozess macht einen riesigen Sprung und alleine durch HBM2 spart Nvidia Die-Area sowie Strom und kann dadurch noch mehr Energie auf den Chip verlagern.
Zudem wird man mit HBM2 sogar 1024GB/s erreichen.

Bei der 14/16nm Generation wird wohl die Abwärme wieder ein Problem werden, denn genug Einheiten kann man ja dank 50% kleinerem Prozess verbauen.

Eventuell wird man die Taktraten am Anfang eher konservativ halten das GP104 nur 10-15% über der GTX980ti liegt und GP100 "nur" 70-80% darüber.
Mit Wasserkühler lassen sich dann aber bestimmt wieder geniale Regionen erreichen, die dank HBM2 nicht mal Bandbreitenlimitiert sein werden. :)
Wäre nicht schlecht. Aber das man nicht Bandbreitenlimitiert sein wird dachte man bei Fiji auch und das Gegenteil wurde bewiesen! ;)

Das man HBM2 nicht oder wenig übertakten kann weiß man ja nicht. Aber würde mich nicht wundern.

Es wäre auf jeden Fall ein ordentlicher, sogar endlich mal richtig guter Sprung in der Performance wenn man beide Vorteile auch entsprechend umsetzten könnte. Mehr Fläche da Prozess deutlich kleiner ist sowie Watt Vorteil durch HBM(2).

Aber wer sagt denn das eine Grafikkarte immer um die 250W verbrauchen muss um am schnellsten zu sein? :) Effizientes Design (Maxwell) + HBM + FinFet könnte da mal in die andere Richtung gehen als nur immer 250-300W Boliden (inkl. OC)

Ailuros
2015-09-22, 08:36:51
Wenn ueberhaupt dann wird GP100 seine Bandbreite eher ab 4k mit obszoenen settings ausspielen koennen; sonst wird das Ding im Durschnitt nur so schnell wie sich manch erhoffen wenn NV mal wieder aufs Frequenz-gaspedal treten kann. Sonst bleibt der eigentliche Unterschied zu Maxwell um einen guten Schnitt hoeher als der zwischen Maxwell und Kepler. Alles stets unter mainstream 3D, HPC ist ein Kapitel fuer sich.

R.I.P.
2015-09-22, 09:22:24
Release Ende 2.Quartal also? Vorerst Profi Bereich? Habe ich das richtig verstanden? Consumer erst Ende 3. Quartal?
Sagt mal, ist man nicht verspätet dran?

Ailuros
2015-09-22, 09:40:46
Release Ende 2.Quartal also? Vorerst Profi Bereich? Habe ich das richtig verstanden? Consumer erst Ende 3. Quartal?
Sagt mal, ist man nicht verspätet dran?

Nicht wirklich; eine fruehere Vorstellung fuer desktop bei der chip-Groesse bzw. Herstellungspreis waere Selbstmord.

HOT
2015-09-22, 11:02:56
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten, von kleineren Chips ist bisher gar nichts zu hören, ich bin mir nicht mal sicher ob es die überhaupt gibt. Immerhin wär eine komplette Serie ohne HBM-Erfahrung und dann auch noch im neuen Prozess ein gewaltiges Risiko.

R.I.P.
2015-09-22, 11:27:14
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten, von kleineren Chips ist bisher gar nichts zu hören, ich bin mir nicht mal sicher ob es die überhaupt gibt. Immerhin wär eine komplette Serie ohne HBM-Erfahrung und dann auch noch im neuen Prozess ein gewaltiges Risiko.

Also doch ein kleiner zeitlicher Vorsprung von AMD? Ich habe die Roadmap von AMD nicht mehr ganz im Kopf, war da nicht von Sommer 2016 die Rede?

Sunrise
2015-09-22, 11:34:51
Also doch ein kleiner zeitlicher Vorsprung von AMD? Ich habe die Roadmap von AMD nicht mehr ganz im Kopf, war da nicht von Sommer 2016 die Rede?
AMD hat leider nicht immer die Execution aufgezeigt, die dafür nötig wäre, einen in diesem Fall sogar praktischen "Technologie-Vorsprung" auch zu nutzen. Wobei es mittlerweile ja doch wirklich so aussieht, als hätte AMD da bei den Nachfolgern aufs Gas getreten, weil sie die ganze Vorarbeit bereits erledigt haben. Sobald entweder 14nm LPP bzw. TSMCs 16nm FF+ läuft, kann AMD theoretisch genauso wie NV auch vorstellen. Die Tape Outs scheinen auf beiden Seiten für bestimmte GPUs schon längst erfolgt zu sein, hier wartet man auf vernünftige Ausbeute, bzw. verkauft (NV) zuerst im Profibereich, damit man mit deutlich höheren Margen diese Investitionen in neue Technologien auch vergütet bekommt.

NV erledigt das über Großkundenaufträge und kann auch erstmal nur diese bedienen, weil HBM bis min. Mitte nächstes Jahr scheinbar doch ein größerer Flaschenhals ist, und man dann natürlich erstmal auf (relativ zum Consumer-Markt) geringeren Mengen bauen kann, ohne in große Lieferschwierigkeit zu kommen. Großkunden verzeihen keine Verzögerung, die halten das wie der Imperator. Wenn du nicht liefern kannst oder du Probleme oder was auch immer hast, bekommst du ganz schnell die Quittung, davon kann NV bereits ein Lied singen.

KingBert
2015-09-22, 11:37:39
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten, von kleineren Chips ist bisher gar nichts zu hören
Genau. Nachdem NVIDIA nun in den letzten zwei Generationen immer den Performance-Chip zuerst und den BigChip im Abstand von 6 Monaten und mehr später gebracht hat, werden sie es jetzt plötzlich umgedreht machen :rolleyes:

Warum sollten sie das tun?

AffenJack
2015-09-22, 11:47:25
16FF+ liefert keine 100% Effizienzsteigerung, eher um die 60%. Bei NV kann man definitiv um die 60%+ auslegen. An die 100% glaub ich nicht, da HBM und Finfet nicht unproblematisch sind. Eventuell wird man nicht so ambitioniert sein. Das heißt auch, dass theoretisch ein netter Refresh möglich ist.


Wir haben noch nix außer Marketing in Bezug auf 16FF+ gesehn, woher kommst du auf deine 60%? 16FF+ wird ein größerer Prozesssprung als die ganzen letzten Sprünge vorher, wenn man TSMC glauben schenken kann. TSMC spricht von 60-70% Verbrauchsreduktion, somit deutlich mehr als 100% Eiffzienzsteigerung. Da das aber natürlich Marketingsprech ist und nur unter bestimmten Bedingungen zutrifft, würde ich einfach Nvs eigene Folien für die Effizienzzunahme nehmen.

HBM verringert den Verbrauch auch nicht sofort um 50-60W. Die Angaben basieren schließlich auf 8Gb mit 512Bit, was Nv beides nicht hat. Real ists wohl eher die Hälfte.

Godmode
2015-09-22, 12:16:55
Genau. Nachdem NVIDIA nun in den letzten zwei Generationen immer den Performance-Chip zuerst und den BigChip im Abstand von 6 Monaten und mehr später gebracht hat, werden sie es jetzt plötzlich umgedreht machen :rolleyes:

Warum sollten sie das tun?

Weil die Profimärkte nach GP100 lechzen. Das letzte DP Monster von NV ist GK110 und GK210. GM200 war ja nicht wirklich geeignet dafür. Die brauchen also dringend einen Nachfolger.

BigKid
2015-09-22, 12:18:05
Was meinen die Profis hier wie die Energie-Effizienz aussehen wird ?
Da ich auf absehbare Zeit auf einen mobilen Begleiter angwiesen bin.

Was meint ihr wie ein Nachfolger zur GTX980M aussehen wird ?
Performance und Strombedarf seitig ?

Ein Grund sich zu freuen weil Desktop und Laptop noch näher rücken (dahingehend bin ich vom der GT980M echt sehr angetan) - oder meint ihr die Schere geht eher wieder auf ?

Ailuros
2015-09-22, 12:37:46
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten, von kleineren Chips ist bisher gar nichts zu hören, ich bin mir nicht mal sicher ob es die überhaupt gibt. Immerhin wär eine komplette Serie ohne HBM-Erfahrung und dann auch noch im neuen Prozess ein gewaltiges Risiko.

Es gibt auch wirklich keine im strengen Sinn; was marketing danach macht ist ein anderer Kaffee errrr tschuldigung Maxwell :freak:

MilesEdgeworth
2015-09-22, 13:02:09
Es gibt auch wirklich keine im strengen Sinn; was marketing danach macht ist ein anderer Kaffee errrr tschuldigung Maxwell :freak:

Das spricht doch dann für ein geshrinktes Maxwell-Design und dazu ein neues Topmodell mit HBM? Das wäre jedenfalls ziemlich langweilig..

KingBert
2015-09-22, 13:12:24
Weil die Profimärkte nach GP100 lechzen. Das letzte DP Monster von NV ist GK110 und GK210. GM200 war ja nicht wirklich geeignet dafür. Die brauchen also dringend einen Nachfolger.
Sicherlich richtig. Aber NVIDIA hat keinen Druck, weil Fury ja auch kein DP-Monster ist. Also können sie sich auch durchaus Zeit lassen mit Pascal.

Macht auch im Profisektor keinen Sinn einen BigChip mit einem noch nicht reifen Fertigungsprozess zu fahren.

HOT
2015-09-22, 13:15:54
Genau. Nachdem NVIDIA nun in den letzten zwei Generationen immer den Performance-Chip zuerst und den BigChip im Abstand von 6 Monaten und mehr später gebracht hat, werden sie es jetzt plötzlich umgedreht machen :rolleyes:

Warum sollten sie das tun?
Aus dem gleichen Grund, warum AMD nur bei Fiji HBM einsetzt und nicht auch bei Tonga beispielsweise.

Das spricht doch dann für ein geshrinktes Maxwell-Design und dazu ein neues Topmodell mit HBM? Das wäre jedenfalls ziemlich langweilig..

Ich glaub nicht, dass da was geshrinkt wird. Das ist bei den neuen Prozessen einfach zu teuer mMn. Für mich hört sich das eher nach einer 1000-Serie an.
Also
GP100 -> Titan II (+ neuer Profikram)
GP100 salvage -> GTX1080TI (später)
GM200(B) -> GTX1080

Sicherlich richtig. Aber NVIDIA hat keinen Druck, weil Fury ja auch kein DP-Monster ist. Also können sie sich auch durchaus Zeit lassen mit Pascal.

Macht auch im Profisektor keinen Sinn einen BigChip mit einem noch nicht reifen Fertigungsprozess zu fahren.
Sehe ich anders. NV entschied sich dafür um auf jeden Fall die Führung im Profisektor zu erhalten. Man möchte keinesfalls noch mal so kalt erwischt werden wie vom Hawaii-Chip. Zudem ist die Auflage in dem Preisbereichen gering, was einen schlechteren Yield eher verschmerzbar macht. Ich denke, man hat Pascal deshalb eingeschoben, weil man damit einge Fliegen mit einer Klappe schlagen kann:
1.) man behält in jedem Fall die Führung
2.) man ist schnell am Markt, trotz neuem Prozess
3.) man erringt im Profimarkt auch bei DP die Führung zurück
4.) man sammelt Erfahrung mit HBM um spätere Designs zu erleichtern
5.) wenns schief geht ist nur ein Design betroffen

Ich glaube aber auch, dass NV keinen Druck hat, aber nicht nur wegen Fiji sondern weil Greenland mMn keine 500mm² sein wird. AMD hat Fiji natürlich nicht als Profichip geplant, weil man eh nur 4GB in Aussicht hatte, das hätte keinen Sinn gemacht.

AffenJack
2015-09-22, 13:52:12
Es gibt auch wirklich keine im strengen Sinn; was marketing danach macht ist ein anderer Kaffee errrr tschuldigung Maxwell :freak:

Nichtmal GP104? Wenigstens da habe ich mit HBM gerechnet. Beim Rest dachte ich mir schon, dass HBM zu teuer ist am Anfang.

Sunrise
2015-09-22, 14:08:42
HBM verringert den Verbrauch auch nicht sofort um 50-60W. Die Angaben basieren schließlich auf 8Gb mit 512Bit, was Nv beides nicht hat. Real ists wohl eher die Hälfte.
NV hat dafür allerdings extrem schnelle und wohl hoch-optimierte schmalbandigere Interfaces mit den nötigen Treibern (SerDes) usw. verbaut, ansonsten wären im Gegensatz zu AMD diese enorm hohen Takte nicht möglich.

Ob man jetzt ein konservatives 512bit Interface mit einem schnellen 384bit Interface vergleicht sollte eigentlich egal sein, denn über 30-40W sind wohl locker drin, denn HBM ermöglicht ja auch erst diese enormen Datendurchsätze die eine bis dahin übliche GDDR5-Anbindung nicht leisten kann.

Ein reiner Maxwell mit HBM würde wohl sämtliche Rekorde brechen. Aus Kosten- bzw. Kapazitätsgründen würden für die kleineren GPUs eine neue Fertigung und Maxwell völlig reichen. HBM zusätzlich würde alles zusammen nochmal deutlich teurer machen, was im preissensitiveren Bereichen nicht gewollt ist (aus nachvollziehbaren Gründen).

In 2-3 Jahren wird sich dann normalisiert haben aber anfangs ist das alles relativ exklusiv und erst dann gangbar wenn große Fertiger wie Hynix und Samsung ausgebaut haben und entsprechende Volumen liefern können, die man dann auch in Masse breit verkaufen kann.

Leonidas
2015-09-22, 15:22:48
AMD hat gesagt das das 4096 bit HBM Interface in etwa so viel verbraucht wie ein 384 bit GDDR5 Interface. Also nix mit Strom Sparen.


Ernsthaft? Das war mal als großer Vorteil von HBM angekündigt worden! Details bitte.

y33H@
2015-09-22, 15:44:28
AMD zB vergleicht 512 Bit mit 7 GBps GDDR5 mit 1,5 Volt. Klar sieht HBM dagegen sparsam aus ... man nehme 348 Bit und 7 GBps bei 1,35 Volt und allzuviel bleibt dann nicht mehr.

HOT
2015-09-22, 16:11:53
Das ist ja ne nette Theorie mit GDDR5 bei kleinen Pascal-Chips. Die Sache hat nur einen Haken: Hätte man einen solchen GP104, wäre der als Erstes gelauncht worden, denn das ist ja viel leichter zu finalisieren. Hat man aber nicht. Ich glaub nicht an GDDR5 bei GP1xx. Die werden wie die Arctic Islands alle HBM2 sein. Und die werden auch nicht unten anfangen sondern in der Mitte. Für unten hat man 28nm mit GDDR5, was weit billiger ist.

y33H@
2015-09-22, 16:19:16
Du erwartest HBM ab etwa einer "R7 470(X)" und einer Geforce GTX "1060 (Ti)" oder noch tiefer?

N0Thing
2015-09-22, 16:28:35
Ernsthaft? Das war mal als großer Vorteil von HBM angekündigt worden! Details bitte.

Der Vorteil kommt doch durch die geringere Leistungsaufnahme seitens der Speicherchips zu Stande, oder irre ich mich da?

KingBert
2015-09-22, 16:35:34
Hätte man einen solchen GP104, wäre der als Erstes gelauncht worden, denn das ist ja viel leichter zu finalisieren.
Es ist noch GAR KEIN GP, egal welcher, gelauncht worden.

Godmode
2015-09-22, 16:39:52
Der Vorteil kommt doch durch die geringere Leistungsaufnahme seitens der Speicherchips zu Stande, oder irre ich mich da?

IIRC sind es die Datenleitungen zu den Chips. Die Leitungen sind lang und mann muss ordentlich Spannung drauf geben, um noch ein ordentliches Signal darüber zu bewegen.

Es ist noch GAR KEIN GP, egal welcher, gelauncht worden.

Er meint in dem Fall wohl das Tape Out.

Sicherlich richtig. Aber NVIDIA hat keinen Druck, weil Fury ja auch kein DP-Monster ist. Also können sie sich auch durchaus Zeit lassen mit Pascal.

Macht auch im Profisektor keinen Sinn einen BigChip mit einem noch nicht reifen Fertigungsprozess zu fahren.

Das ist jetzt nur meine Meinung, aber der Druck kann auch von den HPC-Kunden kommen. Die könnten zb fordern: "Ihr müsst uns zum Datum XY 100.000 Stück liefern, weil dort wollen wir unseren neuen Cluster fertig stellen, sonst sehen wir uns nach einer anderen Lösung um."

Botcruscher
2015-09-22, 16:45:31
Weil die Profimärkte nach GP100 lechzen. Das letzte DP Monster von NV ist GK110 und GK210. GM200 war ja nicht wirklich geeignet dafür. Die brauchen also dringend einen Nachfolger.

In dem Fall würde man nur die Tesla bringen. NV verdient im Moment zwei mal. Der Performance-Chip wird mit Sicherheit zuerst kommen.

Godmode
2015-09-22, 16:49:26
In dem Fall würde man nur die Tesla bringen. NV verdient im Moment zwei mal. Der Performance-Chip wird mit Sicherheit zuerst kommen.

Genau davon ist doch die Rede? Wir gehen davon aus, dass GP100 zuerst für HPC kommt, dann später für Consumer. GP104 könnte theoretisch zwischen GP100 HPC und Consumer kommen, aber IIRC gabs davon ja noch kein Tapeout?

KingBert
2015-09-22, 17:01:58
Er meint in dem Fall wohl das Tape Out.
Das ist aber kein Launch.

Das ist jetzt nur meine Meinung, aber der Druck kann auch von den HPC-Kunden kommen. Die könnten zb fordern: "Ihr müsst uns zum Datum XY 100.000 Stück liefern, weil dort wollen wir unseren neuen Cluster fertig stellen, sonst sehen wir uns nach einer anderen Lösung um."
Ja, das ist möglich. Trotzdem halte ich die Zeit für die Validierung von GP100 - gerade für HPC - als deutlich länger an als für GP104. Es macht durchaus Sinn GP100 JETZT zum Tapeout zu schicken, die ersten Erkenntnisse direkt in GP104 fließen zu lassen und dann eventuell dort schon (abgesehen von einem Metalspin) im Gold-Status für Produktion zu sein.

Es ist ja jetzt nicht so, als müsse NVIDIA sich dringend beeilen. Die Produktpalette steht, AMD hat bis heute nichts, was ihnen gefährlich wird (egal welcher Markt) und die Maxwell-Karten können zwar kein DP, sind aber für CAD ein ziemlicher Knaller.

Ich wage zu behaupten, dass wir GP100 maximal als HPC-Version sehen, bevor GP104 in der GeForce erhältlich ist. Danach die normalen Tesla-Varianten von GP100.

HOT
2015-09-22, 17:30:53
Du erwartest HBM ab etwa einer "R7 470(X)" und einer Geforce GTX "1060 (Ti)" oder noch tiefer?
Ich erwarte HBM+14nm für die 470, 480 und 490. Alles darunter bleiben mMn vorerst alte Chips (Bonaire, CapVerde, Oland). Genauso bei GP100, GP(V)104, GP(V)106. Entsprechend werden eben Interposer, Interfaces und Menge kleiner. NV traue ich auch zu, dass sie zusätzlich einen GM207 bringen.
Es ist noch GAR KEIN GP, egal welcher, gelauncht worden.
WÄRE im Sinne von WIRD nicht WURDE. Ist halt nicht sauber formuliert, aber ich denke man kann schon sehen, was gemeint ist.
Also: Hätte man einen GP104 mit GDDR5 vorgesehen, hätte dieser Chip zuerst Tape-out gehabt und wär dann Mitte 2016 gestartet. Dem ist aber nicht so, es gab nur das Tape-out des GP100 (600mm² sehr wahrscheinlich) mit maximal-HBM-Interface und da es offenbar bisher kein GP104-Tape-out gab, wird das Zeitfenster für einen Launch eines solchen Chips vor 2017 langsam knapp, ergo wird man wohl die Entwicklung des GP100 abwarten, ob alles glatt läuft und dann eben einen GP104 mit HBM bringen oder eben direkt einen GV104.
AMD hat diesen Prototyp-zu-Serie-Schritt mit HBM mit Fiji (und ganz nebenbei für BigChips >550mm²) bereits erledigt, weshalb AMD direkt ne ganze Serie vorbereiten kann.

Hübie
2015-09-22, 17:45:42
HBM 2nd Gen wird in der nächsten Runde sicher nicht auf Mainstream-Karten zu sehen sein. Es gibt afaik auch keinen GP104 welcher ein tapeout hatte..

maguumo
2015-09-22, 18:10:46
Noch nicht, oder wir haben es nur nicht erfahren. Ich bezweifle das man da GM200 recyceln wird....

Tamagothi
2015-09-22, 18:11:48
Und was ist wenn Nvidia nur einen GP100 baut und der Rest mit Maxwell recycelt wird?

maguumo
2015-09-22, 18:23:48
Dann sähe das Line-Up komisch aus. Nichts neues für den mobilen Markt und GM200 als Performance Chip mit ungefähr dem gleichen Verbrauch wie GP100?

AffenJack
2015-09-22, 18:24:22
Recycelt, wie mans nimmt. Kommt drauf an, was man nun genau als Pascal definiert. Kann nen Pascal ohne HBM sein, je nachdem was da verändert wurde. Die unteren Chips dürften weder Gddr5 noch HBM haben. Ich gehe nach den Aussagen von THG von Gddr5X aus:
Micron expects availability of products using GDDR5X to start hitting the market in the second half of 2016.
http://www.tomshardware.com/news/micron-launches-8gb-gddr5-modules,29974.html

Verfügbarkeit H2 2016 ist eh der realistische Termin für Consumer 16nm und damit erste GDDR5X Produkte.

maguumo
2015-09-22, 18:26:52
Dafür braucht's dann trotzdem nen neuen Chip, ob der jetzt auf 16nm FF+ oder 28nm produziert wird ist ja erstmal egal.

HOT
2015-09-22, 18:38:46
Nein, brauchts eben nicht.
TitanII -> GP100 full
1080Ti -> GP100 salv
1080 -> GM200 full
1070Ti -> GM200 salv
1070 -> GM204 usw.

Bedenke, dass Pascal in der Produktion das doppelte eines GM200 kostet, dann passt das wunderbar. Und FL12_1 wird eh von Maxwell schon supportet, da gibts also kein Hindernis.
Microns GDDR5X ist mMn ne Totgebuhrt, die haben einfach auf das falsche Pferd gesetzt.

maguumo
2015-09-22, 18:42:53
Wie schon gesagt, dann hast du nichts neues für Notebooks und einen Performance Chip der genau so viel schluckt wie der High End Chip, das erscheint mir unrealistisch...

HOT
2015-09-22, 18:47:19
Offenbar nicht, sonst würde es einen GP104 geben. Und NV hat seine Tape-outs seit 2014 immer kommuniziert.

maguumo
2015-09-22, 18:52:12
Und du kannst garantieren das es den nicht geben wird? Sicher ist es eine Möglichkeit das der Maxwell Kram rebranded wird, das aber als sicher anzunehmen nur weil wir bis jetzt noch nichts von Tape-Outs außer GP100 gehört haben erscheint mir überzogen. Eventuell kommt der Tape Out noch, oder er war schon und wir haben einfach nichts davon gehört.

iuno
2015-09-22, 19:04:48
Was ist eigentlich mit der Gerüchteküche los? Galten große Chips immer als sehr unwahrscheinlich, wird mit einem relativ genau doppelten GM200 gerechnet, als ersten 16FF Chip von Nvidia überhaupt :confused:

Laut der Übersicht von AMD (http://www.3dcenter.org/news/14nm-und-10nm-fertigung-deutlich-kleiner-werdende-vorteile-bei-platzersparnis-und-kostenredukti) (zwar auf 14FF bezogen) sinkt der Platzbedarf nur um 35%. GM200 hat 600mm². Das verdoppelt abzüglich (großzügiger?) HBM-Einsparung ergäbe für mich immer noch >700mm² in 16FF :crazy: Wie soll das funktionieren?
Und passend zu der AMD-Übersicht: Verstehe ich die Grafik so richtig, dass nur funktionierende Chips gezählt werden (cost per transistor function)?
Dann wäre es doch nicht so abwegig, dass auch weitere Chips neben GP100 kommen. Wenn AMD Hawaii/Tonga/Pitcairn mit 14/16FF + HBM ersetzt, wird Nvidia sonst schlecht dastehen.
Woher stammt die Info, dass "Pascal" doppelt so teuer wie GM200 ist?

AffenJack
2015-09-22, 20:12:59
AMDs Übersicht mag vielleicht für GF gelten, auch wegen dem GateFirst GateLast wechsel, da könnte GFs 28nm Prozess einfach gut gewesen sein. Aber bei TSMC skaliert 20nm schon verdammt gut, wie man zb an Apple sieht. 16FF ist dann nochmal kleiner.

hasebaer
2015-09-22, 20:26:33
Nvidia hatte Tape-outs bekannt gegeben?

Godmode
2015-09-22, 20:26:38
Ich bin gespannt, ob die NV-Link Schnittstelle bei den Consumer Produkten nach außen geführt wird. An der Oberseite der Karte ist ja Platz für Brücken. Damit könnte man endlich etwas bessere Multi-GPU System basteln.

Tamagothi
2015-09-22, 20:48:57
Ich bin gespannt, ob die NV-Link Schnittstelle bei den Consumer Produkten nach außen geführt wird. An der Oberseite der Karte ist ja Platz für Brücken. Damit könnte man endlich etwas bessere Multi-GPU System basteln.

NVLink ist wirklich eine der entscheidendsten Technologien beim Summit-System. Dadurch entstehen Hochleistungsverbindungen zwischen den Nvidia-Grafikprozessoren und den IBM-Power-Prozessoren und es werden Datenströme von einem zum anderen Prozessor mit sehr, sehr hohen Geschwindigkeiten möglich.


Ich bin gespannt ob du mit einer IBM CPU spielen kannst :biggrin:

iuno
2015-09-22, 20:56:33
@AffenJack: war nicht auf golem eine Übersicht, nach der sich 16FF+ und 14FF quasi nichts schenken?

maguumo
2015-09-22, 20:56:44
Ich bin gespannt ob du mit einer IBM CPU spielen kannst :biggrin:
http://devblogs.nvidia.com/parallelforall/wp-content/uploads/sites/3/2014/11/nvlink_configurability-624x289.png

Tamagothi
2015-09-22, 21:06:04
Die Funktion ist mir zwar bekannt aber danke für das Bild.

Timbaloo
2015-09-22, 21:12:36
Dann verstehe ich deinen Einwurf mit IBM CPUs nicht.

Tamagothi
2015-09-22, 21:18:35
Weil vielleicht NV-Link im Consumer Markt nicht aufschlagen wird?

Wurde dafür gar nicht Entwickelt?

Sonder Mainboards benötigt wird?

y33H@
2015-09-22, 21:20:38
@AffenJack: war nicht auf golem eine Übersicht, nach der sich 16FF+ und 14FF quasi nichts schenken?Ja, die hängen sehr nach beieinander - u.a. da beide auf einem 20nm Backend basieren.

Timbaloo
2015-09-22, 21:22:09
Ja, viele Fragezeichen. Weiss ja niemand ob NV eine Consumer-Dual-Karte mit NVLink bauen will. Aber wenn sie eine bauen würden, würde sie sicher mit x64-CPUs laufen.

maguumo
2015-09-22, 21:38:19
Weil vielleicht NV-Link im Consumer Markt nicht aufschlagen wird?

Wurde dafür gar nicht Entwickelt?

Sonder Mainboards benötigt wird?
Godmodes Idee ging vermutlich eher in die Richtung das man die SLI Bridge dadurch ersetzt. Nicht über's Mainboard sondern weiterhin extern. Da sollte ein einzelner Link ja locker reichen. Mit ~1GB/s ist die SLI Bridge ja jetzt schon zu lahm, und warum sollte man sich die Mühe machen das ganze wie AMD mit xDMA über den PCIe Bus zu lösen wenn man jetzt sowieso das NVlink Interface in Hardware hat?

AffenJack
2015-09-22, 21:57:20
@AffenJack: war nicht auf golem eine Übersicht, nach der sich 16FF+ und 14FF quasi nichts schenken?

Ja, aber die 28nm Prozesse nicht. Da soll Gf angeblich nen größenvorteil wegen Gate-First gehabt haben. Dementsprechend wäre die Skalierung kleiner als von TSMCs Prozess.

Tamagothi
2015-09-22, 22:04:55
Ich Bezweifle stark das man es mit einer SL/NV-Link Brücke realisieren kann.

Selbst wenn die es schaffen bringt es gar nichts da SLI immer noch SLI bleibt und auch die 80 GB/s helfen dabei nicht.

Die Programierung vom Spiel und der Treiber sind das A und O an der Sache.( +DX12 Zukünftig)

Timbaloo
2015-09-22, 22:08:39
Es könnte SFR aber attraktiver machen.

maguumo
2015-09-22, 22:10:26
Natürlich bringt das was. Die aktuelle Brücke reicht nicht mehr aus um bei höheren Auflösungen/hohen FPS genug Daten zwischen den GPUs hin und herzuschaufeln, von daher wird da jetzt schon teilweise auf den PCIe Bus ausgewichen. Wenn man das vermeidet hat man schon mal einen Störfaktor weniger. AFR wird in absehbarer Zukunft noch nicht ersetzt werden.

Hübie
2015-09-22, 22:13:41
Sowohl, als auch. Du brauchst einerseits eine gute Logik im Controller und natürlich auch die Schnittstelle per Software. Ich sehe da aber keinen Grund, wieso es nicht gehen sollte.

Godmode
2015-09-22, 22:54:55
Natürlich bringt das was. Die aktuelle Brücke reicht nicht mehr aus um bei höheren Auflösungen/hohen FPS genug Daten zwischen den GPUs hin und herzuschaufeln, von daher wird da jetzt schon teilweise auf den PCIe Bus ausgewichen. Wenn man das vermeidet hat man schon mal einen Störfaktor weniger. AFR wird in absehbarer Zukunft noch nicht ersetzt werden.

Genau so war das gemeint. Der Brücke könnte man viel mehr Kontakte spendieren, etc.

Ein GP100 hätte dann eben zwei Interfaces, einmal PCIe unten und einmal NVLink oben. Ich gehe davon aus, dass der Chip selber beide Interfaces haben wird, weil extra Chips für NVLink und PCIe auflegen, wäre wohl etwas aufwendig. Das würde dann auch die hohe Anzahl an Pins vom Package, laut Zauba erklären.

http://devblogs.nvidia.com/parallelforall/wp-content/uploads/sites/3/2014/11/nvlink_configurability-624x289.png

Wenn das Bild akkurat ist, sieht man sogar, das so etwas vorgesehen sein wird. Eine 80GB/s breite Verbindung zwischen zwei GPUs wäre schon was feines. IIRC. limitiert ja momentan die Bandbreite für SLI+DSR+4K-Displays, das könnte wirklich Abhilfe schaffen.

maguumo
2015-09-22, 23:02:28
Damals als beim Hawaii Release xDMA erklärt wurde meine ich irgendwo gelesen zu haben das schon jetzt die Bandbreite der Bridge (<1GB/s wenn ich mich richtig erinnere?) bei Multi GPU Systemen und 4K (oder eben irgendwas mit >60FPS bei sub 4K Auflösung) limitiert und deswegen teilweise auf den PCIe Bus ausgewichen wird. Erscheint mir auch nicht unwahrscheinlich wenn man bedenkt das bei 4K ein Frame um die 22MB groß ist...

80GB/s wären für uns Gamer ja vermutlich sowieso nicht notwendig, da dürfte einer dieser Links erstmal locker reichen solange sie sich nicht irgendeinen neuen Rendering Modus ausdenken der von derart hoher Bandbreite zwischen den GPUs profitieren würde.

Godmode
2015-09-22, 23:05:56
Man brauch schon einiges an Bandbreite, nur für den Transfer der fertigen Bilder. Ich hab vor längerem schon mal ausgerechnet:

https://docs.google.com/spreadsheets/d/1cNClNHVPgJaMcrDt8FxaCnxPVXdY_ABz_vIKCTPHjCU/edit?usp=sharing

KingBert
2015-09-23, 09:01:21
Nvidia hatte Tape-outs bekannt gegeben?
Noch nie.

Aber HOT hofft eben, dass NVIDIA nächstes Jahr einen Total Fail hinlegt. Warum auch immer. Wahrscheinlich der letzte Strohhalm.

Dural
2015-09-23, 09:06:42
Euch ist aber schon aufgefallen das gerade zwei Chips unterwegs sind? 42x42mm und 55x55mm

Godmode
2015-09-23, 09:41:49
Nein ist mir nicht aufgefallen. Hast du dazu ein Bild oder einen Link?

Ailuros
2015-09-23, 09:41:54
Noch nie.

Aber HOT hofft eben, dass NVIDIA nächstes Jahr einen Total Fail hinlegt. Warum auch immer. Wahrscheinlich der letzte Strohhalm.

*grunz* :freak:

----------------------------------------------------------------

Spass beiseite fuer Affenjack u.a.: es wird schon seit einer Ewigkeit im Hintergrund gemurmelt dass HBM erst ab 2017 fuer mainstream vorgesehen ist. In letzter Zeit kommt es auch verstreut in der Presse an als quasi Ernuechterung; bleibt abzusehen was jemand genau mit "mainstream" versteht. Wobei man sogar erwaehnen sollte dass solche Projektionen relativ selten hinhauen oder um es besser zu illustrieren ist hypothetisch Q4 17' immer noch 2017 u.a.....

Ich hab aber eine andere Frage: wieso genau wuerde innerhalb 2016 HBM eine irgendwelche Notwendigkeit sein fuer einen performance chip?

KingBert
2015-09-23, 09:56:41
Ich hab aber eine andere Frage: wieso genau wuerde innerhalb 2016 HBM eine irgendwelche Notwendigkeit sein fuer einen performance chip?
Weil es doch so toll klingt und wie man an Fury sieht ja auch so toll funktioniert :freak:

Ich denke trotzdem nicht, dass man bei NVIDIA einen GM200 als "Performancechip" sieht. Ich erwarte definitiv einen GP104 in 16nm als Nachfolger für die 980/970. Ob dann mit HBM oder GDDR5 ist mir ehrlich gesagt egal, entscheidend ist die Performance, die hinten raus kommt.

Godmode
2015-09-23, 09:57:20
Solange GP100 HBM bekommt und das ist wohl zu 100% sicher, ist mir alles andere egal. Alles unter GP100 ist für mich Mainstream.

StefanV
2015-09-23, 11:41:53
Noch nicht, oder wir haben es nur nicht erfahren. Ich bezweifle das man da GM200 recyceln wird....
Ich nicht, sonst hätt man wohl Maxwell nicht gebracht...
Bedenke auch mal, wie lange Kepler durchhalten musste...

Von daher kann man durchaus davon ausgehen, das Maxwell auch noch das nächste Jahr durchhalten muss...
Warum sonst sollte man eine neue Reihe in 28nm noch mal auflegen?!

Hingegen würd ich bei AMD erwarten, dass man dort voll auf die Kacke haut und deutlich mehr 1xnm Chips bringt.
Allein schon aus dem Zustand, weil man bisher relativ wenig an dem 28nm Lineup geändert hat. Da kann man also durchaus erwarten, dass sich hier sehr viel tut und man 2-3 neue Chips sieht...

Dural
2015-09-23, 11:45:46
Nein ist mir nicht aufgefallen. Hast du dazu ein Bild oder einen Link?


Wenn ich AnarchX Zitieren darf:


Und nochmal eine Lieferung mit NV-typischem Bezeichnungsaufbau, mit einem 42.5x42.5mm Package, aber nur 1244 Pins:

https://www.zauba.com/import-fcbga-device-hs-code.html
... für einen Tegra wäre das Package sicher etwas zu groß. Vielleicht ein ~150W HBM Chip ohne NV-Link.


Spontan und ohne jegliches Hintergrundwissen würde ich auf GP100 und GP104 tippen. Was auch ziemlich viel Sinn ergibt wenn man es sich so überlegt.

KingBert
2015-09-23, 12:06:14
Ich nicht, sonst hätt man wohl Maxwell nicht gebracht...
Bedenke auch mal, wie lange Kepler durchhalten musste...
Kepler musste lange durchhalten, weil Maxwell ja erstmal entwickelt werden musste und so nicht geplant war in 28nm. Statt Maxwell hätte ja ein 20nm Chip kommen sollen.

Vor 9 Monaten haben gewisse Seiten noch behauptet, die 300er Reihe von AMD käme in 20nm:
http://wccftech.com/amd-nvidia-20nm-16nm-delayed/

Maxwell hat sich für NVIDIA extrem gelohnt. Den werden wir aber maximal noch als GM206 im unteren MidRange sehen, der Rest wird sicherlich durch neue Chips im neuen Fertigungsverfahren abgelöst werden. Alles andere macht keinen Sinn.

Dass AMD jetzt plötzlich auf die Kacke hauen soll, nachdem ihnen selbst das R&D fehlt drei jahre alte Chips endlich mal abzulösen, wage ich stark zu bezweifeln.

StefanV
2015-09-23, 15:39:34
Dass AMD jetzt plötzlich auf die Kacke hauen soll, nachdem ihnen selbst das R&D fehlt drei jahre alte Chips endlich mal abzulösen, wage ich stark zu bezweifeln.
Richtig, ist natürlich besser für 'ne Mid Range nVidia GraKa 500€ und mehr zu bezahlen als AMD mal zu gönnen, etwas zu verkaufen, was?!

Schon mal überlegt, dass man gerade deswegen alles auf 1xnm setzen könnte und sich da gerade ins Zeugs hängen könnte?!
Warum nicht?

Nicht, dass das schlecht für uns Kunden wäre...


Anyway, logisch betrachtet macht das sehr wohl sinn, die 'Refreshes' auf 28nm ausfallen zu lassen und voll auf 1xnm zu setzen und gleich noch 'nen paar mehr Dinge einbauen, die man so auf Lager hat...

Noch eine 28nm Generation lohnt sich einfach nicht, das wäre völliger Blödsinn, für AMD...

Mancko
2015-09-23, 18:32:54
Ich nicht, sonst hätt man wohl Maxwell nicht gebracht...
Bedenke auch mal, wie lange Kepler durchhalten musste...

Von daher kann man durchaus davon ausgehen, das Maxwell auch noch das nächste Jahr durchhalten muss...
Warum sonst sollte man eine neue Reihe in 28nm noch mal auflegen?!

Hingegen würd ich bei AMD erwarten, dass man dort voll auf die Kacke haut und deutlich mehr 1xnm Chips bringt.
Allein schon aus dem Zustand, weil man bisher relativ wenig an dem 28nm Lineup geändert hat. Da kann man also durchaus erwarten, dass sich hier sehr viel tut und man 2-3 neue Chips sieht...

AMDs R&D Budget ist gegenüber dem von Nvidia so heftig zusammengeschrumpft, dass es schon sehr naiv ist zu glauben, dass die einen auf die Kacke hauen und die anderen die Schmalspurlösung fahren. Wenn ich mir das R&D Budget bei AMD ansehen, dass muss man eher mal abwarten, was die überhaupt launchen werden.

Ailuros
2015-09-23, 19:45:49
AMDs R&D Budget ist gegenüber dem von Nvidia so heftig zusammengeschrumpft, dass es schon sehr naiv ist zu glauben, dass die einen auf die Kacke hauen und die anderen die Schmalspurlösung fahren. Wenn ich mir das R&D Budget bei AMD ansehen, dass muss man eher mal abwarten, was die überhaupt launchen werden.

In einem technischen Spekulations-thread ueber Pascal hat das obrige eigentlich nichts verloren, aber wenn die wohl bekannten gruenen Spammer und die wohl bekannten roten Spammer sich mal wieder sentimental austoben muessen, dann ist Deine Antwort darauf auch selbstverstaendlich; leider.

-----------------------------
Koennen wir einen Schuss Sachlichkeit wieder im thread erreichen oder muss jeder zweite Post irrelevanter fanatischer OT Kaese sein?

Godmode
2015-09-23, 20:14:02
In einem technischen Spekulations-thread ueber Pascal hat das obrige eigentlich nichts verloren, aber wenn die wohl bekannten gruenen Spammer und die wohl bekannten roten Spammer sich mal wieder sentimental austoben muessen, dann ist Deine Antwort darauf auch selbstverstaendlich; leider.

-----------------------------
Koennen wir einen Schuss Sachlichkeit wieder im thread erreichen oder muss jeder zweite Post irrelevanter fanatischer OT Kaese sein?

Da kannst ja gerne was zu den Verschiedenen Packages sagen. Unsere Thesen sehen so aus:

Das kleinere Package ist für GP104 ohne NV-Link. Das größere ist für GP100 mit NV-Link und PCIe Interface. Die Frage die uns wir gestellt haben ist, ob das NV-Link Interface auch bei den Consumer Karten nach außen geführt wird? Über größere Bridges könnte man dann zwei Karten mit je 4 NV-Links mit 80GB/s verbinden.

StefanV
2015-09-23, 20:33:23
Aber was brauchst du da für Connectoren?
Ist das wirklich praktikabel, das auszuführen und auch in der Spec vorgesehen??
Oder ist das nur ein 'Onboard' Interface, bei dem ein Offboard Verkehr gar nicht vorgesehen ist?

Godmode
2015-09-23, 21:12:05
Aber was brauchst du da für Connectoren?
Ist das wirklich praktikabel, das auszuführen und auch in der Spec vorgesehen??
Oder ist das nur ein 'Onboard' Interface, bei dem ein Offboard Verkehr gar nicht vorgesehen ist?

Das ist die Frage. Ich ging bisher davon aus, das NVLink auch über einen Slot ausgeführt wird. Andererseits könnte genau das das Problem sein. Eventuell kommen NVLink Schnittstellen wirklich nur auf Server-Nodes zum Einsatz, wo alles auf der selben Platine sitzt. Auf einer mGPU Karte wäre das natürlich auch recht einfach möglich.

ndrs
2015-09-23, 21:13:56
Wenn man sich mal an die anfänglichen Problem von PCIe3 (bei PCIe4 wird es aufgrund der doppelten Frequenzen bestimmt nicht einfacher) erinnert und dann die Bandbreiten vergleicht (PCIe3x16: 16GB/s), möchte ich mal stark bezweifeln, dass nV 80GB/s über einen SLI-ähnlichen Connector transportieren kann/will.

aufkrawall
2015-09-23, 21:37:25
Gab es abseits der Sandy-E Plattform noch weitere PCIe-Probleme?
Also mit echtem 3.0.

Godmode
2015-09-23, 21:39:28
Wenn man sich mal an die anfänglichen Problem von PCIe3 (bei PCIe4 wird es aufgrund der doppelten Frequenzen bestimmt nicht einfacher) erinnert und dann die Bandbreiten vergleicht (PCIe3x16: 16GB/s), möchte ich mal stark bezweifeln, dass nV 80GB/s über einen SLI-ähnlichen Connector transportieren kann/will.

Du hast wahrscheinlich recht. Wenn man bedenkt wie viele parallele Datenleitungen ein PCIe x16 Slot hat, müsste die Brücke schon verdammt "dick" sein und mit sehr hohen Taktraten betrieben werden und das könnte wirklich schwierig werden.

Achill
2015-09-23, 22:52:08
Es gab ja schon mal den NVIDIA NF200 Switch für PCIe 2.0 - aktuelle Boards nutzten ja PCIe Switchs von Avago Technologies (z.B. PLX PEX 8747 Switch).

Ich weiß nicht was die PLX switches so kosten/einbringen, aber die aktuellen Mainboards mit den Switches sind schon ordentlich teurer. Ich denke hier will NV ein (größeres) Stück vom Kuchen abhaben bzw. NV kann ggf. den Gamer überzeugen einen "einfachen" i5/i7 + MB mit Switch + bessere/zweite NV GPU anstatt eine Intel E/EP zu kaufen. Könnte also ein Angriff auf diese zwei Marktsegmente sein?

Der zweite Aspekt könnte die Reduktion der Notwendigkeit von vielen PCIe-Lanes für HPC sein, könnte NV damit einfache CPUs (z.B. sein ARM-Teilchen) + viele Pascal Titanen zu einen HPC zusammen stecken / anbieten ohne auf Intel/AMD/Whatever-CPUs angewiesen zu sein?

Skysnake
2015-09-23, 23:00:35
Ich bin gespannt, ob die NV-Link Schnittstelle bei den Consumer Produkten nach außen geführt wird. An der Oberseite der Karte ist ja Platz für Brücken. Damit könnte man endlich etwas bessere Multi-GPU System basteln.
Schon mal dir angeschaut, wie Konnektoren in der Regel für 20Gb/s aussehen?

Das wird wohl eher nicht über eine so simple SLI-Bridge funktionieren. Wenn gibt es NVLink wohl wenn dann auf Multi-GPU Boards, ansonsten kann ich mir das nur sehr schwer vorstellen. Dafür sind die Frequenzen einfach viel zu hoch.

Wenn maximal nutzt man maximal die halbe Frequenz.

Godmodes Idee ging vermutlich eher in die Richtung das man die SLI Bridge dadurch ersetzt. Nicht über's Mainboard sondern weiterhin extern. Da sollte ein einzelner Link ja locker reichen. Mit ~1GB/s ist die SLI Bridge ja jetzt schon zu lahm, und warum sollte man sich die Mühe machen das ganze wie AMD mit xDMA über den PCIe Bus zu lösen wenn man jetzt sowieso das NVlink Interface in Hardware hat?
Selbst ein Link ändert an den verdammt hohen Frequenzen nicht. Also ich erwarte keine derartige Verbindung im Consumerbereich. Außer eben bei Multi-GPU

Wenn man sich mal an die anfänglichen Problem von PCIe3 (bei PCIe4 wird es aufgrund der doppelten Frequenzen bestimmt nicht einfacher) erinnert und dann die Bandbreiten vergleicht (PCIe3x16: 16GB/s), möchte ich mal stark bezweifeln, dass nV 80GB/s über einen SLI-ähnlichen Connector transportieren kann/will.
Jup absolut. Dem kann ich mich nur anschließen

Gab es abseits der Sandy-E Plattform noch weitere PCIe-Probleme?
Also mit echtem 3.0.
Naja, GF100 hat auch Probleme gemacht. Da haben ja an sich nur die Desktop Karten 3.0 unterstützt. Man hat wohl die Fehlerraten usw einfach nicht eingehalten und konnte nur mit "Tricks" überhaupt 3.0 ans laufen bekommen.

Bei noch höheren Frequenzen wird es nicht gerade einfacher!

So ein Connector ist halt echt übel, was da an Signalqualität verloren geht.

Ich würde für PCI-E 4.0 auch durchaus neue Connectoren erwarten, oder das man wirklich nur noch maximal einen normalen PCI-Slot befeuern kann. Ich würde dann aber nicht zwingend 16x erwarten.

ndrs
2015-09-23, 23:22:41
Gab es abseits der Sandy-E Plattform noch weitere PCIe-Probleme?
Also mit echtem 3.0.
Verlange jetzt bitte keine Links von mir aber afaIr gab es anfänglich teilweise Mainboards die Grundsätzlich mGPU-fähig waren, bei denen aber nur der oberste Slot aufgrund seiner Nähe zur CPU 3.0-tauglich war. Die Leitungen waren einfach zu lang.

maguumo
2015-09-23, 23:31:19
Selbst ein Link ändert an den verdammt hohen Frequenzen nicht. Also ich erwarte keine derartige Verbindung im Consumerbereich. Außer eben bei Multi-GPU
Das zielte auch nicht auf die Frequenz ab, sondern darauf das man die Verbindung nur einfach, nicht vierfach ausführen müsste. PCB wird günstiger, man muss beim Binning nicht darauf Rücksicht nehmen das das NVLink Interface voll funktionsfähig ist, das war der Gedanke dahinter. 10GB/s sollten ja locker für DMA zwischen den GPUs reichen solange es "nur" um AFR/SFR geht. Wie die Konnektoren aussehen und mit welcher Frequenz NVLink überhaupt läuft weiß ich nicht, ich bin einfach mal (naiv) davon ausgegangen das man das weiterhin über eine Bridge lösen könnte. Ist es so problematisch das extern zu machen? Selbst mit einer harten Bridge? Im Serverbereich soll es ja soweit ich das verstanden habe auch über Steckverbindungen gehen, oder wird da tatsächlich das BGA Package auf die Mainboards gelötet?

Das (Consumer) Boards mit NVLink Interface für Multi GPU Systeme kommen halte ich für ausgeschlossen...

aufkrawall
2015-09-24, 00:22:14
Naja, GF100 hat auch Probleme gemacht. Da haben ja an sich nur die Desktop Karten 3.0 unterstützt.
?
GF100 war GTX 480/470, die haben nur 2.0 unterstützt.

Hübie
2015-09-24, 07:36:30
A) Asrock X79 Extreme 4 ist ein solches Board. Zu lange Leitungen. Viele haben daher einen repeater zwischen gesetzt.*
B) Eine Einzelverbindung hat effektiv 16 GB/s. Ein Teil des Vorteils kommt vom Protokoll selber. 80 GB/s ist eine vierfache Verbindung die effektiv auch "nur" 64 GB/s ausspuckt.**
C) ist eine Singlelink-Verbindung durchaus machbar und denkbar. Immerhin hat diese popelige SLi-Bridge schlappe 1 GB/s. Selbst 8 wären also enorm.
D) heißen zwei Packages nicht zwangsläufig mehr zwei Dies. Sowohl AMD als auch nVidia forcieren sich auf SoC. Was ist also wenn Tesla nicht mehr wie Geforce ist? ;)

*selbst erlebt :(
**geht eh nur mit custom CPU. Was bringt es mir 80 GB durchzuschaufeln wenn DMI nur 32 fressen kann. Und das auch nur theoretisch wenn man alle lanes zusammen schaltet.

Skysnake meint natürlich Kepler.

Skysnake
2015-09-24, 08:44:16
Danke Hübie!

Ja ich meinte eigentlich GK100... Gestern war ein brainfuck Tag, da habe ich das durcheinander gebracht.

Dural
2015-09-24, 10:32:34
Die GK100 GPUs waren im Gaming Bereich doch immer PCI-E 3.0, nur die Tesla (Quadro?) Karten waren davon betroffen oder habe ich da was falsch in Erinnerung?

Mit dem X79 Chipsatz soll es Probleme geben, jedoch gab es ein kleiner Patch direkt von NV der den PCI-E Bus auf 3.0 gesetzt hat. Und ich kann aus eigener Erfahrung sagen das der ohne Probleme Funktioniert hat.

Hübie
2015-09-24, 16:55:47
Es liegt nicht am Chipsatz selber. Eher am PCIE Controller in der CPU und dem Mainboard selber. nVidia hat mit GK104 ebenfalls nicht die korrekten Specs eingehalten. Vermutlich irgendeine clock skew zu niedrig etc. Da kann man nur spekulieren. Ich habe mich vor einiger Zeit damit beschäftigt. Intel sagt es ist nicht deren Schuld und nVidia sagt es sei Intel's Schuld. Asrock sagt es ist nicht möglich PCIE 3.0 auf SandyBridge-E zu nutzen, aber nannte keine Ursache.

Edit: Im Gegensatz zum Asrock hat mein ASUS genannte Verstärker bzw. Repeater verbaut und hier ging selbst mit den GK104 im SLi PCIE3.0 anstandslos. Auf dem Asrock nur der obere Slot. Das ist de Grund warum man es bei Xeon prinzipiell freigegeben hat. Da hat man idR nur einen PEG oder halt wieder Repeater. Hängt wohl auch mit Fehlerkorrektur und internen Takten zusammen. Das ist aber nur meine Vermutung.
Das Tool von nVidia ändert nur einen Registry Eintrag (RM_PCIELINKSPEED oder so ähnlich).

aufkrawall
2015-09-24, 17:17:04
Ich hab ja Sandy-E extra ausgenommen. Von GK104 (erste Consumer-Karte mit PCIe 3.0) mit Ivy Bridge sind mir null PCIe 3.0-Probleme bekannt.
Bei Sandy-E war doch quasi einfach nur der Takt verdoppelt, also nur hacky, gar kein echtes 3.0 (mit Latenzverbesserungen).

Skysnake
2015-09-24, 17:57:44
Bei PCI-E 3.0 ist erstmals RX-Equalization dazu gekommen. Man kann/muss also davon ausgehen, dass das Augen zu ist am Empfänger.

An sich gibt es eine Referenz für den RX-Equalizer, aber das ist eben keine Implementierung! Schon gar nicht unter Berücksichtigung der PVT-Variation!

Inzwischen gibt es Linktester, bei denen kannst du Modelle für den RX-Equalizer einbinden, die auf SPICE-Modellen beruhen, wenn ich das richtig verstanden habe.

Es darf sich jetzt jeder selbst überlegen, warum man so einen gewaltigen Hick-Hack macht, um den RX-Equalizer "richtig" zu modellieren...

Hübie
2015-09-24, 19:00:48
Ich hab ja Sandy-E extra ausgenommen. Von GK104 (erste Consumer-Karte mit PCIe 3.0) mit Ivy Bridge sind mir null PCIe 3.0-Probleme bekannt.
Bei Sandy-E war doch quasi einfach nur der Takt verdoppelt, also nur hacky, gar kein echtes 3.0 (mit Latenzverbesserungen).

PCIE3.0 nutzt ein anderes Protokoll bzw. eine andere Kodierung. Die Xeon auf SB-E Basis sind für dieses spezifiziert und müssen das entsprechend beherrschen. Ergo auch der Desktop. Ich vermute einfach einen Zusammenhang zwischen Mainboard und CPU.
@Skysnake: Was ist SPICE Modell?? :|

Wir sollten langsam wieder ontopic werden.

Performanceprognosen von NVLink gehen von 1,25 bis 2,5-fache Geschwindigkeit ggü. PCIE3.0. Witzigerweise schon 2014 gemessen :|

Skysnake
2015-09-24, 20:43:41
SPICE steht für Simulation Program with IC Emphasis, also einen Simulator.

Dazu gibt es dann Modelle für alle möglichen elementaren Bauteile, also Widerstand, Cap, Spulen, FET, BJ Transistoren, Dioden usw usw usw.

BSIM x ist z.B. eine Sammlung von Beschreibungen für Transistoren. (Von der Uni Berkley entwickelt btw ;))
Guckst du einfach mal hier rein: http://www-device.eecs.berkeley.edu/bsim/Files/BSIM4/BSIM460/doc/BSIM460_Manual.pdf
http://web.engr.oregonstate.edu/~moon/ece323/hspice98/files/chapter_16.pdf

Im Normalfall, machste dir da nicht wirklich soooo viele Gedanken drüber, wenn du einen Chip fertigen willst. Du verwendest "einfach" die Modelle, die die FAB dir zur Verfügung stellt. Nur wenn du halt ganz kranken scheis machen willst wie THz Schaltungen und so was, kann es sein, dass du andere Modelle nimmst, aber dann arbeitest du auch mit den FABs ganz eng zusammen. Das geht dann quasi in die Richtung von Prozessentwicklung auch.

Ist insgesamt ein ziemlich abgedrehtes Thema. Man hat dutzende von Parametern, die einen Transistore beschreiben heutzutage, wenn ich das richtig abschätzen kann.

mksn7
2015-09-25, 10:27:48
Performanceprognosen von NVLink gehen von 1,25 bis 2,5-fache Geschwindigkeit ggü. PCIE3.0. Witzigerweise schon 2014 gemessen :|

Für einen einzelnen NVLink gibts Zahlen von 16GB/s oder 20GB/s. PCIe macht theoretisch 12GB/s, die kriegt man aber meist nur zwischen zwei Chips auf einem Multi GPU Board à la K80. Mit PLX dazwischen eher so 10GB/s. In komplizierteren Setups, z.B. über zwei CPU Sockel hinweg werdens auch schnell deutlich weniger. Je nachdem wieviel von der theoretischen Leistung ein NVLink umsetzen kann, dürften es also schon so 50%-100% mehr sein. Mit mehr Links entsprechend mehr.

ndrs
2015-09-25, 13:41:10
PCIe macht theoretisch 12GB/s, die kriegt man aber meist nur zwischen zwei Chips auf einem Multi GPU Board à la K80. Mit PLX dazwischen eher so 10GB/s. In komplizierteren Setups, z.B. über zwei CPU Sockel hinweg werdens auch schnell deutlich weniger.
Das macht mich aber jetzt neugierig. Bei PCIe ist doch Frequenz und Codierung (16GT/s und 128/130 bei 3.0) fest vorgegeben. Woher sollen da die Schwankungen kommen, dass in der Praxis weniger erreicht wird? Das dürfte doch eigentlich nur an vor oder nachgelagerten Komponenten liegen, nicht an der PCIe-Schnittstelle selber, oder?

Skysnake
2015-09-25, 14:01:33
Es kommt darauf an, wie groß die Payload ist. Ich habe das hier inzwischen schon mehrfach gepostet.

Wenn du nur ein paar Byte überträgst pro Nachricht, aber eben verdammt viele Nachrichten, dann lastest du zwar den Link aus, aber kommst dennoch nicht auf sonderlich hohe Bandbreiten, glaub im schlimmsten Fall waren es 50% oder so.

Das liegt einfach am Overhead der PCI-E Pakete. Wie gesagt, ich habe das hier im Forum schon mehrfach meines Wissens mal verlinkt, musste einfach mal schauen.

Aber ich glaube das hat er gar nicht gemeint. Mir ist nämlich auch unklar, war er da gerade meint.

ndrs
2015-09-25, 16:44:41
Natürlich alles logisch und klar, was du schreibst. Aber:

Aber ich glaube das hat er gar nicht gemeint.
das ist auch meine Vermutung.

mksn7
2015-09-26, 10:23:46
Warum das auf Hardwareebene so ist weiß ich auch nicht. Das sind nur meine Messungen von cudaMemcpy von device to device mit Datenmengen im Gigabyte Bereich. Der p2pBandwidthTest im Cuda SDK macht genau das gleiche.

Dann kommt etwa raus:
Selbes Board (K80): 12GB/s
unterschiedlicher PCIe Slot (K40 nach K40): 10.6GB/s
Unterschiedlicher CPU-Sockel(via QPI): <7GB/s

Ähnliche Werte spuckt das Internet auch aus. Eventuell eine nvidia Besonderheit, dass die Bandbreite von der Latenz abhängt?

Weiter Vorteil von NVLink, sind die dedizierten Links, also auch in einem 4-GPU Setup, wo teilweise nur ein Link zwieschen zwei GPUs da sind, müssen sich die GPUs bei all-to-all Kommunikation den shared PCIe link nicht teilen.

Ich hab das alles mal gemessen, um eine Projektion der Performancevorteile von NVLink gegen PCIe für MultiGPU Sort zu machen. Jensen hat in irgendeiner Präsentation unter anderem Zahlen zu MultiGPU Sort Speedup auf den Slides gehabt, vielleicht waren das sogar meine Zahlen...

Skysnake
2015-09-26, 11:34:10
Das klingt aber durchaus seltsam.

Hast du daran gedacht, dass du pinned Memory verwendest?

Bei der Sache mit QPI kann es aber durchaus zutreffen. QPI ist keine so knallige Verbindung wie ich inzwischen erfahren habe. Man sollte aber an sich schon so bei 8-10GB/s rum kommen.

Was natürlich noch reinspielen kann ist, wenn man noch einen Switch/Splitter dazwischen hat. Der kann eventuell nicht die ganz großen Datenpackete verarbeiten, und damit nutzt man eben kleinere payloads.

Das ist halt immer! die große Unbekannte. Welche Payloads sind in welcher Konstellation wirklich möglich, und welche generiert die Hardware überhaupt?

Das kann durchaus sein, das nVidia nur bis zu gewissen Latenzen in der Lage ist, die größten Payloads zu verwenden, weil die Buffer zu klein sind, aber das wäre schon schwach.... Kann ich mir nicht ganz vorstellen.

Im Endeffekt müsste man halt mit einem Netzwerkanalyser rangehen und sich "einfach" mal die generierten Datenpackete anschauen :ugly:

Btw.
Ich hoffe mal, du hast dann aber auch NVLink vs. PCI-E4.0 gemacht und nicht NVLink vs. PCI-E3.0, denn 4.0 wird nicht so viel nach NVLink aufschlagen, und damit reduziert sich der Vorteil doch massiv....

AffenJack
2015-09-26, 12:05:08
Btw.
Ich hoffe mal, du hast dann aber auch NVLink vs. PCI-E4.0 gemacht und nicht NVLink vs. PCI-E3.0, denn 4.0 wird nicht so viel nach NVLink aufschlagen, und damit reduziert sich der Vorteil doch massiv....

Wann PCI-E4.0 aufschlägt weiß man doch noch gar nicht. Im Moment ist das ne Neverending Story. Sollte doch schon lange kommen und im Moment ist der Termin für die Veröffentlichung Ende 2016. Damit sollte es wohl Skylake-E bekommen. Aber auch mit Skylake-E wirds erst 2017, dann ist Nvlink 2 ja auch wieder um die Ecke.

Skysnake
2015-09-26, 19:08:35
Es gibt von IP-Herstellern seit längerem PCI-E 4.0 IP zu kaufen, und es gab z.B. bei SemiAccurate auch schon funktionierende PCI-E 4.0 Systeme zu sehen. Also Demosysteme.

Im Endeffekt fehlen also "nur" noch die finalen Spezifikationen (oder gibts die schon?) und eben Produkte. Wir haben aber noch >= 1 Jahr Zeit, bis wir uns ernsthaft Gedanken machen können über NVLink vs. PCI-E.

Und selbst wenn PCI-E 4.0 erst 2017 kommt, dann wird das sehr wahrscheinlich <1 Jahr auseinander liegen, und für diese überschaubare Zeitspanne halse ich mir jetzt warum genau eine propritäre Schnittstelle auf?

Novum
2015-09-26, 19:14:21
Ich dachte NVLink entspricht eher QPI oder Hypertransport mit Kohärenz und performanten Topologien. Ich glaube nicht, dass das außerhalb von HPC eine Rolle spielen wird.

Hübie
2015-09-26, 19:17:16
Für einen einzelnen NVLink gibts Zahlen von 16GB/s oder 20GB/s. PCIe macht theoretisch 12GB/s, die kriegt man aber meist nur zwischen zwei Chips auf einem Multi GPU Board à la K80. Mit PLX dazwischen eher so 10GB/s. In komplizierteren Setups, z.B. über zwei CPU Sockel hinweg werdens auch schnell deutlich weniger. Je nachdem wieviel von der theoretischen Leistung ein NVLink umsetzen kann, dürften es also schon so 50%-100% mehr sein. Mit mehr Links entsprechend mehr.

Eben nicht. 20 GB/s brutto sind 16 GB/s netto. Und das in praktischen Anwendungsfeldern. Bei PCIE ist es so wie Skysnake sagt. Viele kleinere Pakete lasten den Bus aus, aber kommen (logischerweise) nicht auf die theoretischen Bandbreiten. Jetzt ratet mal was in Spielen der Fall ist :biggrin:

@Novum: Ich selbst glaube auch nicht an eine Rolle außerhalb des HPC-Business.

Timbaloo
2015-09-26, 19:21:01
Und selbst wenn PCI-E 4.0 erst 2017 kommt, dann wird das sehr wahrscheinlich <1 Jahr auseinander liegen, und für diese überschaubare Zeitspanne halse ich mir jetzt warum genau eine propritäre Schnittstelle auf?
Naja, selbst PCIe 4.0 steht gegen NVlink reichlich alt aus. Zudem ist es ja nicht PCIe gegen NVlink sondern PCIe gegen PCIe+NVLink.

StefanV
2015-09-26, 20:04:34
Und das macht jetzt nVlink zu was genau??
Und wo ist jetzt genau der Sinn von nVLink??
Außer wieder die verdongelung der nV Hardware natürlich...

Skysnake
2015-09-26, 20:05:17
Und jetzt überleg mal bitte, mit was NVLink läuft. Mit Luft und Liebe?

Nö, du wirst ziemlich viel DIE-Space dafür opfern müssen...

Am Ende werden das eventuell sogar die gleichen PHYs sein wie für PCI-E 4.0. Würde mich zumindest nicht überraschen. Gut, man bekommt nochmals etwas mehr Speed eventuell raus, weil man eben z.B. strengere Spezifikationen für den Kanal annimmt, aber was bringst dir?

Die "Kosten" auf dem DIE haste so oder so. Externe Interfaces sind teuer. Man darf ja nicht annehmen, dass das Zeug umsonst ist. Und selbst WENN die Dinger viel effizienter sind als für PCI-E 4.0, dann werden Sie wohl kaum Kostengünstiger sein als für PCI-E 3.0

Damit schrumpft wie gesagt der Vorteil schon massiv runter. Ein Vorteil >20% wäre deutlich mehr als ich erwarte.

nVidia versteht halt wie man Marketing macht...

Timbaloo
2015-09-26, 20:19:20
Du meinst also die machen das rein aus Marketinggründen? Naja, danke für's Gespräch...

Hübie
2015-09-26, 20:44:30
Und jetzt überleg mal bitte, mit was NVLink läuft. Mit Luft und Liebe?

Nö, du wirst ziemlich viel DIE-Space dafür opfern müssen...

Am Ende werden das eventuell sogar die gleichen PHYs sein wie für PCI-E 4.0. Würde mich zumindest nicht überraschen. Gut, man bekommt nochmals etwas mehr Speed eventuell raus, weil man eben z.B. strengere Spezifikationen für den Kanal annimmt, aber was bringst dir?

Die "Kosten" auf dem DIE haste so oder so. Externe Interfaces sind teuer. Man darf ja nicht annehmen, dass das Zeug umsonst ist. Und selbst WENN die Dinger viel effizienter sind als für PCI-E 4.0, dann werden Sie wohl kaum Kostengünstiger sein als für PCI-E 3.0

Damit schrumpft wie gesagt der Vorteil schon massiv runter. Ein Vorteil >20% wäre deutlich mehr als ich erwarte.

nVidia versteht halt wie man Marketing macht...

NV-Link muss nicht über die CPU skalieren sondern durch die Anzahl von GPUs. Die Interkommunikation ist ja das Ziel. Ohne den Weg über die CPU. Wenn es die PHY des PCIE Interfaces sind umso besser. Spart kosten, aber eben nicht die Felxibilität. NV-Link ist selbstverständlich kein Hexenwerk. Properitär hat hier wieder den zeitlichen Vorteil. Der Fokus verschiebt sich mittlerweile von Latenz auf Durchsatz (CPU=Latenz, GPU=Durchsatz), weil man einfach durch Masse erschlagen kann. Klingt plumb, ist es auch. Du brauchst schon mehr Xeon Phi um das abzufedern und da weiß ich nicht ob es lohnenswert ist, da hier keine (schnelle) Möglichkeit besteht auch graphics auszugeben.


Und das StefanV aus langerweile und Unwissenheit wieder etwas kommentiert ist doch nix neues. Ändert aber nichts an der Lage: Kunde will, Unternehmen liefert. Wiedermal ohne PCI-SIG-Spec. Warum weiß ich nicht. Der Wille dazu wird wohl auf einer der beiden Seiten fehlen (welche das ist denken wir uns nun mal :freak:).

Mandalore
2015-09-27, 00:44:31
http://wccftech.com/nvidia-conducted-secret-meeting-press-york-city/



Das hier schon gelesen? Pascal oder DualMaxwell oder doch ne GTX 940 oder so xD

Timbaloo
2015-09-27, 00:59:08
wccf :rolleyes: Jedenfalls wird es kein Pascal werden.

Vorstellen könnte ich mir ein Nano-Konter. Das könnten die auf die schnelle zusammengebastelt haben. Aber wie gesagt, mit Pascal hat das sicher nichts zu tun.

Dural
2015-09-27, 01:30:01
nano konter? der wird es im desktop markt wohl kaum geben, für was auch. nv hat mit der 980 für notebooks ja schon perfekt reagiert und ich wette nv wird davon auch deutlich mehr stückzahlen absetzten als amd mit der nano.

das was bei nv und amd noch fehlt sind die dual gpu karten...

horn 12
2015-09-27, 09:45:44
Mann will wohl erneut, falls es echt eine Dual Karte laut dem Bericht werden sollte, vor AMD am Markt sein um dessen Preis erneut drücken zu können!

Durch die nun resultierende, weitaus bessere Lieferbarkeit von Fiji Pro/ Fiji Full Karten sollte der Preis nun etwas nachgeben und Karten um die 500+ bis knapp über 600 Euro realistisch erscheinen lassen!

Mancko
2015-09-27, 12:24:30
http://wccftech.com/nvidia-conducted-secret-meeting-press-york-city/



Das hier schon gelesen? Pascal oder DualMaxwell oder doch ne GTX 940 oder so xD

Wird kein Pascal sein. Ich tippe auf Dual 980/980Ti oder auf eine GTX660Ti. Pascal werden wir vermutlich Q2/2016 zum ersten Mal sehen.

Mancko
2015-09-27, 12:28:26
NV-Link muss nicht über die CPU skalieren sondern durch die Anzahl von GPUs. Die Interkommunikation ist ja das Ziel. Ohne den Weg über die CPU. Wenn es die PHY des PCIE Interfaces sind umso besser. Spart kosten, aber eben nicht die Felxibilität. NV-Link ist selbstverständlich kein Hexenwerk. Properitär hat hier wieder den zeitlichen Vorteil. Der Fokus verschiebt sich mittlerweile von Latenz auf Durchsatz (CPU=Latenz, GPU=Durchsatz), weil man einfach durch Masse erschlagen kann. Klingt plumb, ist es auch. Du brauchst schon mehr Xeon Phi um das abzufedern und da weiß ich nicht ob es lohnenswert ist, da hier keine (schnelle) Möglichkeit besteht auch graphics auszugeben.


Und das StefanV aus langerweile und Unwissenheit wieder etwas kommentiert ist doch nix neues. Ändert aber nichts an der Lage: Kunde will, Unternehmen liefert. Wiedermal ohne PCI-SIG-Spec. Warum weiß ich nicht. Der Wille dazu wird wohl auf einer der beiden Seiten fehlen (welche das ist denken wir uns nun mal :freak:).

NVLink sehe ich erstmal nur im professionellen Bereich. Da macht es m.E. derzeit für Nvidia am meißten Sinn, insbesondere auch wegen der IBM Kooperation. Im Consumerbereich erwarte ich mir da vorerst nix. Das wird dann höchstens irgendwann für Multi GPU Setups interessant. Ich finde es aber generell gut, dass sich hier was tut und ich sehe auch kein Problem darin, dass Nvidia hier eigene Wege geht. PCI-E gibt es ja trotzdem. Es ist halt hier und da einfach geschickter auch einfach mal eigene Wege zu gehen und zu machen und nicht lange zu diskutieren. Insbesondere bei den eigenen professionellen Kunden ist es doch völlig Wumpe wie man dort zum Ziel kommmt. Da werden ganze Serverfarmen in einem fertigen Setup gekauft. Da besteht kein Bedarf zu allem möglichen kompatibel zu sein und austauschen zu können. Die Systeme werden ne Weile genutzt und irgendwann komplett ersetzt.

Hübie
2015-09-27, 14:00:26
Pascal wird offenbar eine Iteration von Maxwell wobei die mixed precision wohl die auffälligste Änderung ist. Mittlerweile wissen wir ja auch dass dies nicht sehr schwierig ist. Daher schlussfolgere ich auch dass es kein vollständiges bottom to top lineup geben wird.

Das was da kommt ist mit hoher Wahrscheinlichkeit ein Dual GM204. Oder halt GM200. Letzteres würde wegen der Speicherbestückung logischer sein. Ersteres wegen der noch akzeptablen Effizienz.

maguumo
2015-09-27, 15:06:46
Niedrigen/akzeptablen Verbrauch (GM204 und 200 sind was Effizienz betrifft doch sowieso gleichauf?) kann man auch mit GM200 haben, muss man dann halt mit niedrigerem Takt/Powertarget betreiben, Maxwell skaliert da ja schön nach unten. Ich wage aber zu behaupten das das bei solchen Karten niemanden mehr interessiert solange es leise bleibt. Wenn Dual GPU kommt wohl mit zwei mal GM200, ist doch glaube ich sogar Pinkompatibel zu GK110? Dann könnte man das PCB der Titan Z evtl. recyceln. Dual GM204 wäre uninteressant.

Mal schauen ob es da dann auch bei Nvidia in einer AiO endet, der Luftkühler der Titan Z kam ja nicht wirklich gut weg...

Godmode
2015-09-27, 15:19:23
Etwas aufgeräumt.

bananenmann
2015-09-27, 16:30:07
Ich tippe auf eine 960ti mit abgespecktem GM204. Als Antwort auf AMDs kommenden 380X Tonga Vollausbau. Zwischen GTX960 und GTX970 klafft noch eine zu große Lücke, die sie damit bestimmt schließen wollen...

StefanV
2015-09-27, 16:52:02
Ich tippe auf eine 960ti mit abgespecktem GM204. Als Antwort auf AMDs kommenden 380X Tonga Vollausbau. Zwischen GTX960 und GTX970 klafft noch eine zu große Lücke, die sie damit bestimmt schließen wollen...
Ja, maximal.

Die letzte riesen große Ankündigung von nVidia, die alles verändern würde, was bisher da gewesen ist, war ja auch nicht sooo umwerfend...
Daher kann man eher kleinere Dinge erwarten - oder eben gar nichts (Ankündigung dessen, dass sie was ankündigen werden vielleicht?)

Ailuros
2015-09-27, 16:57:40
http://wccftech.com/nvidia-conducted-secret-meeting-press-york-city/



Das hier schon gelesen? Pascal oder DualMaxwell oder doch ne GTX 940 oder so xD

Wut? wccftech hat nirgends abschreiben koennen? Na wenn das kein SKANDAL ist..... :freak::biggrin:

Wer neugierig ist sollte sich einfach auf das daemliche Bildchen fuer das geheime meeting konzentrieren :P

Raff
2015-09-27, 17:01:48
Niedrigen/akzeptablen Verbrauch (GM204 und 200 sind was Effizienz betrifft doch sowieso gleichauf?) kann man auch mit GM200 haben, muss man dann halt mit niedrigerem Takt/Powertarget betreiben, Maxwell skaliert da ja schön nach unten.

Das hat soweit ich weiß niemand im Internet wirklich breitgetreten; bei der PCGH gab's immerhin am Rande eine Betrachtung. Dabei lassen sich hier sehr gute Resultate erzielen. Meine TX kann ich beispielsweise mit 962 Millivolt zu 1.100/4.001 MHz überreden. Die Power-Selbstdiagnostik spricht hierbei von Höchstwerten um 200 Watt. Hier liegt der Sweet Spot, selbst mit 908 Millivolt und gesenktem Takt kommt man kaum unter 190 Watt.

MfG,
Raff

aufkrawall
2015-09-27, 17:38:03
Was passiert in Spielen, wenn du ungedrosselt einen Takt von ~1350Mhz anpeilst und dann einfach das PT auf 185W stellst?

Raff
2015-09-27, 17:41:49
185 Watt reichen nicht für alle Spiele mit maximaler Pixellast, die Möhre drosselt dann den Takt.

MfG,
Raff

aufkrawall
2015-09-27, 17:48:51
Das ist klar. Die Frage ist nur, auf welches Niveau.

BlacKi
2015-09-30, 15:14:12
meint ihr gp104 wird nächstes jahr genauso teuer werden wie gm204 am anfang, knapp 600€?

ob gp104 schneller wird als gm200?

Godmode
2015-09-30, 15:15:51
meint ihr gp104 wird nächstes jahr genauso teuer werden wie gm204 am anfang, knapp 600€?

ob gp104 schneller wird als gm200?

Ja und Ja.

Teuerer geht ja fast nicht mehr, da 600€ schon extrem ist für einen Mainstream Chip. Um 600€ wird man wohl die Leistung einer Titan X +30% bekommen, ist mal meine Prognose. Wenn man 3000 ALUs in den GP104 quetscht und am Takt etwas dreht, dürfte man 30%+ auf eine Titan X recht einfach erreichen. Wenn wieder das HPC Zeugs weggelassen wird, könnte das Ding auch wirklich klein sein.

BlacKi
2015-09-30, 15:20:54
Ja und Ja.

Teuerer geht ja fast nicht mehr, da 600€ schon extrem ist für einen Mainstream Chip. Um 600€ wird man wohl die Leistung einer Titan X +30% bekommen, ist mal meine Prognose.
danke für deine einschätzung, also wird man für einen gm200 nächstes jahr kaum mehr als 400€ gebraucht bekommen. bitter...

Hübie
2015-09-30, 15:24:46
Gibt ein Maß dafür: Zeitpräferenzrate. Du musst entscheiden ob dir der zeitliche Vorteil der Leistung das Geld wert ist bzw. eben nicht wert ist. :)
That's life.

BlacKi
2015-09-30, 15:30:19
Gibt ein Maß dafür: Zeitpräferenzrate. Du musst entscheiden ob dir der zeitliche Vorteil der Leistung das Geld wert ist bzw. eben nicht wert ist. :)
That's life.
ich stell mir nur gerade die frage ob ich die 350-400€ wertverlust mit zusätzlichem wasserkühler bis pascal kommt für mich selbst rechfertigen kann...

bis 250€ wäre es ne überlegung wert, verliert sie mehr als 300€ bis nächstes jahr, dann hol ich mir wieder eine 970, dafür habe ich bereits einen wasserkühler. mit der performance war ich eigentlich zufrieden, nur leider jetzt defekt.

Hübie
2015-09-30, 15:31:45
Ich kenne deine Einkommens- und Auskommensverhältnisse nicht, also kannst du dir ne Liste machen und das selbst entscheiden. Das entsprechende Alter und den Grips ordne ich dir per se zu.

Edit: Darf ich erfahren was für eine 970 das war? Referenz-PCB? Was ist kaputt gegangen? Tausch die um. Sparst Geld.

BlacKi
2015-09-30, 15:33:56
Ich kenne deine Einkommens- und Auskommensverhältnisse nicht, also kannst du dir ne Liste machen und das selbst entscheiden. Das entsprechende Alter und den Grips ordne ich dir per se zu.

Edit: Darf ich erfahren was für eine 970 das war? Referenz-PCB? Was ist kaputt gegangen? Tausch die um. Sparst Geld.

erster post (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=567128)

tja, ich könnte mir 10 titan x leisten, aber was will ich mit 10 titan x.

auf der einen seite könnte ich eben die auflösung deutlich erhöhen, aber eigentlich täte es auch eine 970 bis pascal.

Hübie
2015-09-30, 15:39:41
Wenn du die nicht einschicken willst, kannst du mir die gerne zusenden. Ich schau mir die Karte an. Wenn die Schrott ist hast Pech. Wenn ich was machen kann, zahlst du Versand und fertig.

Ich habe schon mal 340 BGA "reballed", also durchaus ein Händchen dafür. Leider hat meine Frau danach die Karte aus versehen zerstört. :freak: Weiber! ;D

StefanV
2015-09-30, 17:44:46
meint ihr gp104 wird nächstes jahr genauso teuer werden wie gm204 am anfang, knapp 600€?

ob gp104 schneller wird als gm200?
Nope...

Ich würde am Anfang mit 750€ für GP104 rechnen.
nVidia kanns sich halt leisten und die Leute kaufen das auch ;)

aufkrawall
2015-09-30, 17:47:01
Der Preis geht nur, wenn AMD nicht rechtzeitig in die Puschen kommt.
Es besteht ja schon die realistische Möglichkeit, dass AMD bis dahin durch DX12 den Ruf aufpolieren kann.

Godmode
2015-09-30, 17:48:45
Nope...

Ich würde am Anfang mit 750€ für GP104 rechnen.
nVidia kanns sich halt leisten und die Leute kaufen das auch ;)

Irgendwann ist aber auch mal Schluss mit der Loyalität der Käufer. Die 980 verkaufte sich ja schon schlecht gegenüber der 970. Wenn man jetzt nochmal 150-200 drauflegt, zerstört man sich damit den eigenen Markt, IMHO.

maguumo
2015-09-30, 17:59:11
Wenn der Big Chip im gleichen Jahr kommt würde ich auch nicht mit einem derart hohen Preis rechnen, eher noch knapp unter 600. Wirklich teurer als eine 780Ti/980Ti darf auch der GP100 Salvage nicht werden, und zu dem braucht der Performance Chip einen gesunden preislichen Abstand. Den Preis von diesem darf man aber nicht zu schnell fallen lassen, das mögen die Kunden nicht...

AffenJack
2015-09-30, 19:11:11
Nvidias Standardpreis für High-End ist 650-699$ und ich denke da könnte sich auch GP104 als Vollausbau einordnen. Aber das kommt ganz drauf an, was AMD zu der Zeit haben wird. Reicht GP104 um mit dem erstmal größten Arctic Chip zu konkurieren, dann wirds teuer und GP100 wirds das erste halbe Jahr nur als Titan geben. Ist Arctic schneller als GP104, wird nen Salvage früher kommen.

fondness
2015-09-30, 20:02:06
Vor allem sieht es diesmal so aus, als kommt GP100 als erstens vor GP104. Während AMD wohl mit den kleineren Chips beginnt und vor Q4/2016 kaum einen Big-Chip bringt. DH GP100 wird lange konkurrenzlos sein und deshalb zu beginn sicher nicht billig.

Dural
2015-09-30, 20:11:29
da wäre ich mir nicht so sicher, könnte auch gut sein das im gaming bereich zuerst gp104 kommt.

prinz_valium
2015-09-30, 20:28:56
Nope...

Ich würde am Anfang mit 750€ für GP104 rechnen.
nVidia kanns sich halt leisten und die Leute kaufen das auch ;)

jup. dank der $ € kurse, sehen wir solche netten 1:1 umrechnungskurse nicht mehr
also 700 euro klingt leider gottes realtisch. wird halt wieder nicht gekauft...

Vor allem sieht es diesmal so aus, als kommt GP100 als erstens vor GP104. Während AMD wohl mit den kleineren Chips beginnt und vor Q4/2016 kaum einen Big-Chip bringt. DH GP100 wird lange konkurrenzlos sein und deshalb zu beginn sicher nicht billig.

wie kommst du drauf?
ein gp100 salvage part für 500 euro könnte man sich schon mal überlegen.
aber als ob wir das sofort bekommen. machen wir uns nicht lächerlich

aufkrawall
2015-09-30, 20:47:39
Die GP100s sind wegen DP und dem bisherigen GK210-Angebot doch viel zu wertvoll, um sie zu den Consumer-Margen zu verkaufen.

Agent117
2015-09-30, 21:30:32
Vlt gibt es diesmal ja auch gar keinen GP104 und man shrinkt einfach GM200.
Wenn man dann bei ca. 350mm² raus kommt und Pascal keine wichtigen neuen Features bietet böte sich das an. Die Taktbarkeit von TSMC 16nm FF müsste da aber auch mitmachen sonst ist man am Ende langsamer als GM200.

aufkrawall
2015-09-30, 21:49:14
Eine GPU ohne Async Compute Support in Hardware würde extrem abstinken gegen AMDs neue Gen.

Hübie
2015-09-30, 22:51:08
Irgendwann ist aber auch mal Schluss mit der Loyalität der Käufer. Die 980 verkaufte sich ja schon schlecht gegenüber der 970. Wenn man jetzt nochmal 150-200 drauflegt, zerstört man sich damit den eigenen Markt, IMHO.

nVidia muss etwa doppelt soviel GTX 970 absetzen, um auf die Marge der 980 zu kommen. Also nein. Die 980 lief exzellent. Und das wird dir jede Zahl bestätigen.
GP100 wird aus vielerlei Gründen nicht billig. Allen voran weil es mit Titan geklappt hat.

Godmode
2015-09-30, 23:21:21
nVidia muss etwa doppelt soviel GTX 970 absetzen, um auf die Marge der 980 zu kommen. Also nein. Die 980 lief exzellent. Und das wird dir jede Zahl bestätigen.
GP100 wird aus vielerlei Gründen nicht billig. Allen voran weil es mit Titan geklappt hat.

Wenn ich mich recht erinnere, wurden von der GTX 970 aber um einen hohen Faktor mehr Karten verkauft, als von der GTX 980.

Die Zahlen stammen von MF. Die meistverkaufte 970 wurde über 14.000 mal verkauft, meistverkaufte 980 aber nur 2.000 mal. Insgesamt 6.603 GTX 980 vs 48.030 GTX 970 und mickrige 490 bei der Titan X.

maximus_hertus
2015-09-30, 23:34:24
GP104 im Frühling - Top-Dog (20-30% schneller als GM200) 599 USD + Steuern, Salvage (etwas schneller als GM200) 399 USD + Steuern.
GP106 (etwas schneller als GM204 980/970) - 249 und 179 USD + Steuern

Das wäre meine Wette für den Frühling / Sommer 2016.

Im Sommer/Herbst 2016 kommt dann eine Dual-GP104 Karte, die dann einen etwas häheren Preis als 1000 USD ausprobiert, z.B. 1149 oder sowas. Quasi als Testlauf für GP100-Titan.

GP100 (Consumer) würde ich eher für Q4 2016, evtl. sogar erst für 2017 sehen.


Und die Loyalität der Käufer wurde doch noch gar nicht strapaziert. Glaube mir, da ist noch viel Luft nach oben, leider.

Jupiter
2015-09-30, 23:46:52
@Godmode
Laut der Steam Hardwarestatistik haben im August 4% eine GTX 970. Die GTX 980 haben etwa 1%.

Wie viele Karten das in etwa bei über 125 Millionen aktiven Nutzern sind kann sich jeder ausrechnen.


http://store.steampowered.com/hwsurvey/videocard/

Skysnake
2015-09-30, 23:57:41
Interessantes Video hier http://insidehpc.com/2015/09/video-nvlink-interconnect-for-gpus/

Nvidia hat also anscheinend noch keine funktionierende Hardware. Das wird also noch ne ganze Weile dauern bis da etwas kommt.

horn 12
2015-10-01, 00:09:06
Daher auch wahrscheinlich die Dual GPU Grafikkarte mit 2x GM 200/204 Chips!

AffenJack
2015-10-01, 00:27:25
Interessantes Video hier http://insidehpc.com/2015/09/video-nvlink-interconnect-for-gpus/

Nvidia hat also anscheinend noch keine funktionierende Hardware. Das wird also noch ne ganze Weile dauern bis da etwas kommt.

Und wo liest du das aus dem Video raus?

maguumo
2015-10-01, 00:30:13
Ich nehme an aus dem Q&A am Ende wo der Typ sagt das sie noch keine funktionierende Hardware haben um NVLink als CPU/GPU Interconnect zu testen. Ich würde erwarten das es von den neuen Power CPUs schon längst Samples gibt...

Thomas Gräf
2015-10-01, 00:40:33
@Godmode
Laut der Steam Hardwarestatistik haben im August 4% eine GTX 970. Die GTX 980 haben etwa 1%.

Wie viele Karten das in etwa bei über 125 Millionen aktiven Nutzern sind kann sich jeder ausrechnen.


http://store.steampowered.com/hwsurvey/videocard/

Das is ja überhaupt eine erschreckende Statistik. Demnach zokkt der allgemeine Steam User mit einer Intel GPU...wo sind denn all die Grakas gelandet wennich bei den Gamern?
Wenn diese Statistik relevant ist würde ich anstelle der IHV's mit der Herstellung von GPU's sofort aufhören.

AffenJack
2015-10-01, 00:52:43
Ich nehme an aus dem Q&A am Ende wo der Typ sagt das sie noch keine funktionierende Hardware haben um NVLink als CPU/GPU Interconnect zu testen. Ich würde erwarten das es von den neuen Power CPUs schon längst Samples gibt...

Ja nur heißt das noch lange nicht, dass Nvidia keine funktionierende Hardware hat. Laut Zauba sind die GPUs wohl erst im August oder September zurück gekommen. Da wird Nv das Ding auf alles mögliche testen, aber kaum zu IBM gehen und nach den ersten Vorseriensamples fragen um zu gucken, wieviel mehr Leistung Nvlink da nun bringt. Wenn das Ding halbwegs in Ordnung ist, dann kann man das machen, aber der wird sowieso nen Respin kriegen und ganz bestimmt nicht in A1 kommen.
Er sagt auch in etwa: "For Coral, there we have projections, the gpu-gpu that has been completed, but gpu cpu, we were still not able to test that with current hardware infrustructure."
Da kannste auch wennde willst reininterpretieren, dass sie Nvlink schon in Hardware getestet haben, nur noch nicht in Verbindung mit IBM. Also nach dem Interview ist man genauso schlau wie vorher.

iuno
2015-10-01, 01:42:40
Eine GPU ohne Async Compute Support in Hardware würde extrem abstinken gegen AMDs neue Gen.
Naja aber der Zug ist abgefahren oder?
Entweder gibt es einen GP104 der schon vorher geplant war oder es gibt halt keinen.
Und Pascal müsste auch überhaupt erstmal AC Funktionalität haben, was wir ja überhaupt nicht wissen.

Dural
2015-10-01, 09:16:33
würde mich sehr überraschen wenn er es nicht hätte. immerhin liegen zwischen Maxwell und Pascal ca. 2 Jahre und da haben die Garantiert noch was anderes gemacht als nur 16nm und HBM ;)

Godmode
2015-10-01, 09:24:52
Interessantes Video hier http://insidehpc.com/2015/09/video-nvlink-interconnect-for-gpus/

Nvidia hat also anscheinend noch keine funktionierende Hardware. Das wird also noch ne ganze Weile dauern bis da etwas kommt.

Zumindest für CPU-GPU NVLINK. GPU-GPU NVLINK dürften sie aber schon testen können.



GP100 (Consumer) würde ich eher für Q4 2016, evtl. sogar erst für 2017 sehen.


Und die Loyalität der Käufer wurde doch noch gar nicht strapaziert. Glaube mir, da ist noch viel Luft nach oben, leider.


2017 für den Consumer GP100 war auch immer meine Vermutung, aber ich glaube Ail meinte, dass er früher kommt. Ich will mich da jetzt aber nicht festnageln lassen, da ich es nicht mehr genau weiß.

Hübie
2015-10-01, 13:30:05
Vor ziemlich genau einem Jahr wurden erste Benchmarks mit NVLink gemacht. Also ja. Man hat Hardware. Pascal war zu diesem Zeitpunkt jedoch noch nicht verfügbar.
Die Steam-Statistik erfasst natürlich auch die iGPU welche ja nicht weg ist wenn man sich eine 970 etc. in den PC stopft. Oft bleibt diese aktiviert und wird sogar als Ausgang genutzt.

@Godmode: Ich sage nicht dass die 970 seltener verkauft wurde, sondern angesichts der Tatsache dass GM204 eh produziert wird exzellent läuft. ;)

Mancko
2015-10-03, 16:28:25
Zum Thema HBM 2 gibts bei Tweaktown ne Story. Ich glaube aber, dass dies Schmarrn ist. Aber wir sind ja im Spekulationsforum.

http://www.tweaktown.com/news/47773/amd-trouble-sourcing-hbm2-next-gen-video-cards/index.html

Timbaloo
2015-10-03, 16:56:39
Ohne Angabe von Gründen warum das so sein sollte/könnte ist das in der Tat Schmarrn.

Hübie
2015-10-03, 19:06:19
Liest sich so als würde nVidia, AMD die Speicher "weg kaufen". Aber nix stichhaltiges. Blah rumor, blah. =)