PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Ailuros
2016-03-02, 10:49:49
Was ist in Muenchen passiert?
Was gibt es da besonderes? Ein Supercomputer Projekt oder sowas oder verbaut BMW einfach das PX2?

Ich steh zwar momentan auch auf dem Schlauch, aber ich folge lieber Screemer's Ratschlag und tu so als ob ich es nie gelesen habe :biggrin:

Grabhopser
2016-03-02, 11:49:07
In München wird getestet und validiert, das war schon zu Elpida Zeiten so.

Nakai
2016-03-02, 13:03:59
1.) Ich dachte, GP104 wird um die 300mm^2 Die-Fläche beanspruchen und nicht bloss 250?

2.) Sind 12Gbps immernoch zu optimistisch für GDDR5X-Launchprodukte (GP104, GP106, ...)? Immerhin hat Micron ja kürzlich behauptet, dass sie selbst überrascht darüber waren, sich dem Endziel (14-16Gbps) so früh genähert zu haben... (jetzt schon lauffähige Chips mit 13Gbps)

3.) Gibt es irgendwelche Neuigkeiten/Konkretisierungen bzgl. des Launchtermins von GP104?

R2

Das war nur eine Hypothese. Es sind auch keine unlösbaren Probleme. Im Gegensatz zur Fertigungsverbesserung dank Finfet, ist es bei Speicher immer so eine Sache.

Wenn Finfet etwa eine Verdopplung hinlegt, wird ein ~250mm² Chip (Finfet) bei etwa ~500mm² (28nm) rauskommen. Da kommt GDDR5X ganz recht. Mit 10Gbps würde man schon ein gutes Stück vor den derzeitigen GDDR5s hinlegen, da diese sowieso nie voll ausgefahren werden bisher. Ich würde erstmal maximal 12Gbps für GDDR5X schätzen. Eher ein Stück darunter.

Wenn es noch andere Verbesserungen gibt, wie mehr Cache und bessere DCC
dann sollte man auch größere Chips mit mehr Transistoren befeuern können.
Wenn man GP104 auf über GM200 einschätzt, dann sind ein 256Bit SI mit etwas mehr als 10 Gbps schon notwendig, was wir wohl auch bekommen dürften.

Das ist aber auch nur ein Notpflaster, bis HBM2 auch weiter unten ankommt.

Rampage 2
2016-03-03, 01:23:42
Wieso jetzt ploetzlich ein hypothetischer GP104 weit ueber 400GB Bandbreite haben "muesste", muss mir jemand mal erklaeren.

12Gbps ergeben bei 256Bit SI weniger als 400GB;)

Ich will eh nur wissen, ob es realistisch ist dass NV/AMD gleich 12Gbps für ihre ersten GDDR5X-Produkte einsetzen.

R2

Hübie
2016-03-03, 01:53:35
10-12 halte ich durchaus für realistisch. Man muss sich natürlich noch etwas für spätere Generationen aufheben, also wird man die Salamischeibe nicht zu dick machen. ;)

ps: Korinthenkacker. :D

Ailuros
2016-03-03, 06:13:24
12Gbps ergeben bei 256Bit SI weniger als 400GB;)

Hier der ganze Satz gefaelligst:

Selbst 11Gbps entsprechen 352GB/s Bandbreite. Entspricht einer Steigerung gegenueber einer 980 SKU von 57% stets alles auf Papier. Wieso jetzt ploetzlich ein hypothetischer GP104 weit ueber 400GB Bandbreite haben "muesste", muss mir jemand mal erklaeren.

Ich hab nirgends 12 erwaehnt, aber die maximal theoretisch moeglichen 14Gbps entsprechen 448 GB/s. Wie schwer ist es eigentlich den obrigen Paragraphen zu verstehen?

Ich will eh nur wissen, ob es realistisch ist dass NV/AMD gleich 12Gbps für ihre ersten GDDR5X-Produkte einsetzen.

R2

Wenn erste testsamples 13 schaffen sollen, hab ich erstmal konservativ 11 eingeschaetzt welches ausreichen sollte.

scully1234
2016-03-04, 06:54:00
Die Notebookchips sind in den Juni gewandert

https://translate.google.de/translate?hl=de&sl=sv&tl=de&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F21820-nvidia-geforce-pascal-for-barbara-datorer-slapps-i-mitten-av-juni

Ailuros
2016-03-04, 07:02:45
Die Notebookchips sind in den Juni gewandert

https://translate.google.de/translate?hl=de&sl=sv&tl=de&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F21820-nvidia-geforce-pascal-for-barbara-datorer-slapps-i-mitten-av-juni

Na ich will mal hoffen dass es so laufen wird fuer NV.

Nakai
2016-03-04, 16:46:09
10-12 halte ich durchaus für realistisch. Man muss sich natürlich noch etwas für spätere Generationen aufheben, also wird man die Salamischeibe nicht zu dick machen. ;)

ps: Korinthenkacker. :D

GDDR5X spart zwar erstmal etwas Energie, wegen niedrigerer Spannung. Aber ich befürchte das wird sehr bald wieder aufgefressen werden durch einen höheren Takt. Nicht, dass dadurch einige Finfet-Vorteile sehr schnell wieder aufgefressen werden.

Da gestern das AMA-Event von AMD war:
Der Typ meinte, dass AMD den besseren Prozess verwenden. *hust*
Gut, 14 ist kleiner als 16, aber womöglich steckt der Teufel im Detail. So wie es derzeit aussieht und spekuliert wird, wird der GF-Prozess eine höhere Packdichte erreichen. Dafür wird wohl der Takt darunter leiden. Es wurde schon öfters gesagt, dass Finfet da sehr tricky ist und ich befürchte hier mehrere Probleme, welche von der grundlegenden Designphilosophie der Chips abhängt. ICh denke AMD geht eher in Richtung, wenig Takt, hohe Packdichte und mehr Cores. NV wird eher nicht an die Packdichte herankommen, dafür einen höheren Takt fahren.

Was zum Schluss besser ist? kA, womöglich ist beides nicht wirklich optimal. Ahja, das gilt nur, wenn es wirklich so kommt.

Jedenfalls dürfen wir uns freuen, wie die Fanboi-Wars in Zukunft ausfallen werden. Dass AMD hier mal besser dastehen sollte, kann nur gut für uns sein.

Hübie
2016-03-04, 17:19:00
Das ist Geschwätz was überhaupt keine Aussagekraft hat. Besser in welcher Hinsicht? AMD hat aktuell auch die höhere Packdichte. Das Ende vom Lied kennen wir. Besser weil 14<16? Okay. Anhand des Apple sah man ja dass es ebenfalls nur Zahlen sind. Auf dem Papier schlägt Samsung mit dem GF Prozess ja TSMC. Aber irgendwie liefen die TSMC Chips kontinuierlich mit weniger Spannung. Stromdichte ist halt ein großes Kriterium.

Natürlich freu ich mich wenn AMD endlich mal wieder die Krone hat. Aber auf Gelaber geb ich weniger als auf Gerüchte. ;)

Complicated
2016-03-04, 17:22:45
Wobei er "more advanced" sagte und nicht "besser". Und dass der 14nm fortschrittlicher ist kann man auf verschiedenen Ebenen zurecht behaupten.

y33H@
2016-03-04, 17:26:30
16FF+ hat auch Vorteile gegenüber 14LPP, allerdings hängt einfach viel zu viel vom jeweiligen Design ab.

Unicous
2016-03-04, 17:32:08
Ach Leute.:rolleyes:

More Advanced 14nm= 14nmLPP anstatt 14nm LPE.


Und sie werden mMn 16nmFF+ für Vega, oder wie auch immer der große Chip dann heißt wird, nutzen.

Hübie
2016-03-04, 17:50:27
Gibt's denn eine Zusammenfassung vom Geblubber? Kam überhaupt was bei heraus? Eher weniger, oder?

von Richthofen
2016-03-04, 20:14:54
Gibt's denn eine Zusammenfassung vom Geblubber? Kam überhaupt was bei heraus? Eher weniger, oder?

Hier gibt es die zusammenfassung von Antworten auf ein paar ausgewählte Fragen:
http://videocardz.com/58367/amd-radeon-r9-fury-x2-still-on-track-polaris-coming-mid-year

Für mich noch der interesanteste Punkt: DP 1.4 wird es nicht mehr in die künfige Generation schaffen. Polaris' bekommen DP 1.3.
Etwas OT hier.

scully1234
2016-03-05, 18:30:09
Illuminati und Code Knacker am Werk

http://wccftech.com/nvidia-pascal-debut-gtc-2016-launch-june/

OgrEGT
2016-03-06, 07:33:41
Naja... wer's glaubt...
Wer 1-mal äh 2-mal äh keine Ahnung wie oft, Holzschrauben in die Höhe hält dem glaubt man nimmer mehr... :freak:

scully1234
2016-03-09, 15:57:01
http://wccftech.com/nvidia-pascal-graphics-cards-spotted-in-shipping-record/

Godmode
2016-03-09, 16:57:15
Wäre schön wenn sie wirklich zur GTC was zeigen würden und das dann auch Zeitnah kaufbar wäre. In 4k bzw. mit Stereo 3D bin ich mit der Titan X immer am Limit :/

Was das 1100$ Ding wohl sein wird? Für GP100 kommt mir das fast zu wenig vor...:freak:

iuno
2016-03-09, 18:10:59
Als ob es den grossen Chip fuer Consumer zeitnah gibt ;)
Bin aber auch mal gespannt, was sie dann auf der gtc zeigen

AffenJack
2016-03-09, 18:18:02
auf der GDC wirds nix von Nvidia in Richtung Hardware geben. Das wird vollkommen Software vorenthalten sein. Neue Gameworks Features die DX12_1 nutzen. Auf der GTC wirds dann interessant.

iuno
2016-03-09, 18:27:17
klar, habe mich vertan :D

Hübie
2016-03-09, 18:33:22
4k ist halt noch nicht spruchreif. Gut dass ich dieses Jahr ins Ausland gehe und jetzt erst mal aussetzen kann. Nächstes Jahr sollte die Monitor-Situaion ebenso besser sein wie die Performance der GPUs. So muss ich keine Zwischenlösung ala SLi in Kauf nehmen. :D

AffenJack
2016-03-09, 18:51:44
klar, habe mich vertan :D

na gut:-)
Auf der GTC müssen sie eigentlich GP100 zeigen mit Transistorzahlen und Shaderanzahl. Das wurde auch bei GM200 und bei GK110 gemacht, obwohl das Monate vor GK110 Launch war. Das ist einfach deren wichtigste Konferenz. Wenn wir die Daten und Releasetermin für Tesla da nicht erfahren, läuft mit GP100 was sehr falsch.

scully1234
2016-03-10, 01:33:42
auf der GDC wirds nix von Nvidia in Richtung Hardware geben. .

Das dachte man 2015 auch, und dann kam aus dem Nichts der hier

http://www.heise.de/newsticker/meldung/GDC-Nvidia-stellt-Grafikkarte-Geforce-GTX-Titan-X-vor-2567420.html

Vielleicht gibt's dieses Jahr n kurzes Techtelmechtel mit Crytec, nur um Capsaicin die Aufmerksamkeit zu nehmen, obwohl Sweeney ja auch wieder vor Ort ist.

VR ist n riesen Thema imo ,was sehr viel Aufmerksamkeit erzeugt und potentielle Käufer fuer Highendgrafikkarten , das wissen beide Grafikkartenhersteller

Ailuros
2016-03-10, 07:53:50
na gut:-)
Auf der GTC müssen sie eigentlich GP100 zeigen mit Transistorzahlen und Shaderanzahl. Das wurde auch bei GM200 und bei GK110 gemacht, obwohl das Monate vor GK110 Launch war. Das ist einfach deren wichtigste Konferenz. Wenn wir die Daten und Releasetermin für Tesla da nicht erfahren, läuft mit GP100 was sehr falsch.

Hoffentlich ja fuer den paper launch; sonst ist auch die GTC Thematik hauptsaechlich auf GPGPU/deep yawnin.....errrr learning konzentriert: http://www.gputechconf.com/?referral=KEYNOTE

scully1234
2016-03-10, 10:16:46
4 Modelle und die teuerste bei 1100 Dollar mit 32gb HBM???


https://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.expreview.com%2F45992.html


By convention, there will be GP104 GP100 outside the core market for the game, the core size and specifications will be streamlined, but the price will be much lower, which is like the current GTX Titan X, GTX 980 Ti, GTX 980 and GTX 970 did.

y33H@
2016-03-10, 10:19:54
Errrm, das basiert auf ner Tweaktown-Meldung und die wiederum auf Zauba-Listungen :usad:

Hübie
2016-03-10, 10:22:28
Eher 16 GB und 1100$. 32 GB nur für Tesla / Quadro, aber 100%ig nicht für einen so lächerlichen Preis.

scully1234
2016-03-10, 10:24:34
Stimmt wohl aber wie kommen die auf nen Release von GP104 und GP 100

iuno
2016-03-10, 10:24:58
Das kommt von dem Zauba-Kram, ist also nichts neues.
Davon ab, hat Nvidia nicht quasi schon bestaetigt, dass GP100 (erstmal?) mit 16 GiB kommt?
Natuerlich ist spaeter (wenn 8Hi Stacks verfuegbar sind) auch eine Variante mit 32 GiB denkbar und wird imho auch kommen.

The_Invisible
2016-03-10, 12:22:02
Eher 16 GB und 1100$. 32 GB nur für Tesla / Quadro, aber 100%ig nicht für einen so lächerlichen Preis.

Zuerst wird halt bei 16GB gemolken und dann bei 32GB. Wobei ich mich frage was für einen Sinn eine 32GB Karte hat wenn der Mainstream dann mit 8GB herumkrebst. :D

Glaubt ihr es kommt ein 300-400EUR Pascal mit 8GB? Sollte ja langsam schon drinnen sein wenn auch 390/390x schon 8Gb haben.

Godmode
2016-03-10, 12:29:42
Zuerst wird halt bei 16GB gemolken und dann bei 32GB. Wobei ich mich frage was für einen Sinn eine 32GB Karte hat wenn der Mainstream dann mit 8GB herumkrebst. :D

Glaubt ihr es kommt ein 300-400EUR Pascal mit 8GB? Sollte ja langsam schon drinnen sein wenn auch 390/390x schon 8Gb haben.

Also im neuen TR habe ich eine VRAM Auslastung von 10 GB. Jaja ich weiß, Auslastung != was wirklich notwendig wäre. Wenn ich mir jetzt ein DX12 Spiel vorstelle, dass endlich ein brauchbares Multi-GPU Konzept mitbringt, wo auch mehr als 2 GPUs arbeiten können, dann könnten mehr als 16 GB VRAM schon brauchbar sein. Zb. könnte man mit 4 Pascal GPUs sicherlich so manches in 8k Rendern, also 4k mit 2x-4x DSR :)

Ich denke es wird GP104 mit 8 GB geben, als Nachfolger der 970/980. Ich würde aber GP104 eher teurer ansetzen, da es mit der 970 eine sehr gute P/L-Karte gab, die es bei NV normalerweise nicht in jeder Generation gibt.

scully1234
2016-03-10, 12:53:51
Wenn ich mir jetzt ein DX12 Spiel vorstelle, dass endlich ein brauchbares Multi-GPU Konzept mitbringt, wo auch mehr als 2 GPUs arbeiten können,

Brauchbar im Sinne von nahezu Latenzfrei waere schonmal ne Ansage Stichwort (VR SLI)

Dann koennte man sich mit GP104 @SLi ueber Wasser halten ,bis der dicke Brocken erscheint

Bleibt aber wohl Wunschdenken ohne Devs die das auch mitsupporten:rolleyes:

Die Titan X ist selbst in 2k @90 Frames nicht ideal ,und da braucht es ab April bekanntlich fuer Oculus und Vive Renderperformance

Palpatin
2016-03-10, 15:31:52
Ich denke es wird GP104 mit 8 GB geben, als Nachfolger der 970/980. Ich würde aber GP104 eher teurer ansetzen, da es mit der 970 eine sehr gute P/L-Karte gab, die es bei NV normalerweise nicht in jeder Generation gibt.
570 670 970 waren da alle ganz gut. Die 670 war zwar im Verhältnis teurer aber im Gegensatz zur 570 und 970 auch nicht im Speicher beschnitten und wirklich nur 10% langsamer als die 680. Bei der 570 und 970 verlangte NV zwar weniger man hatte aber auch stärkerer Einschränkungen zur großen Karte. Wird denk ich beim GP104 genau so werden. Leistung irgendwo im bereich 10-20% unterhalb des Flaggschiffs. Preis zwischen 300 und 400 Euro. Max 450.
Bleibt nur zu hoffen das es keine 7GB+1GB Karte wird :freak:.

Hübie
2016-03-10, 17:59:39
Ich hege ganz starke Zweifel, dass wir 32 GB mit Pascal im Consumer-Markt sehen. Wozu auch? :confused:

Ailuros
2016-03-10, 18:38:12
Ich hege ganz starke Zweifel, dass wir 32 GB mit Pascal im Consumer-Markt sehen. Wozu auch? :confused:

Ich erwarte es zwar auch nicht, aber wenn es je so weit kommen wuerde ist die Antwort wohl um einen $2999 MSRP zu gerechtfertigen :P

Hübie
2016-03-10, 19:12:32
X-D Hahaahaaa

Godmode
2016-03-10, 23:49:07
Mehr als 1.000€ zahlt fast niemand mehr. Sie würden das schon sehr kleine Marktsegment nur noch mehr verkleinern, ob das noch wirtschaftlich ist?

Hübie
2016-03-11, 00:17:57
Titan Z war ja ein Trittbrett um zu sehen wie weit man gehen kann. Aber nicht mal die CUDA-Nutzer waren so doof 500 Eier mehr auszugeben nur um einen Slot zu sparen. :D Zwei Titanen gab's da ja schon für 2000 $.

Ailuros
2016-03-11, 06:50:06
Mehr als 1.000€ zahlt fast niemand mehr. Sie würden das schon sehr kleine Marktsegment nur noch mehr verkleinern, ob das noch wirtschaftlich ist?

Es war doch nur ein Scherz. Ausser eine zeitgleiche Tesla GP100 kostet dann doppelt so viel, dann ist ein $3k Titan-Bums sogar ein "steal" im Vergleich.

Titan Z war ja ein Trittbrett um zu sehen wie weit man gehen kann. Aber nicht mal die CUDA-Nutzer waren so doof 500 Eier mehr auszugeben nur um einen Slot zu sparen. :D Zwei Titanen gab's da ja schon für 2000 $.

Godmode meinte wohl 1000/GPU, aber frag Ihn nochmal wie viel er fuer GPUs maximal ausgegeben hat :P

iuno
2016-03-11, 11:09:01
Computerbase via benchlife: http://www.computerbase.de/2016-03/nvidia-pascal-erste-grafikloesung-ab-ende-mai-mit-gddr5-speicher/

angeblich GP104 als "GeForce GTX 1080" mit 8 GiB GDDR5 mit 1x8 Pin (<=225 W); Nv beziffert die 980 (mit ebenfalls auf max. 225W ausgelegter Versorung) mit <=165 Watt.

Duplex
2016-03-11, 11:21:25
Ich tippe auf 1/3 mehr Performance gegenüber der GTX980 Ti bei >150w.

ShinyMcShine
2016-03-11, 11:26:55
Ich tippe auf 1/3 mehr Performance gegenüber der GTX980 Ti bei >150w.

Gekauft! :D Ich hoffe nur, dass die 1080 nicht "kastriert" ist. Das wird wahrscheinlich eher auf die 1070 zutreffen (ich mag einfach keine kastrierten GPUs :tongue:).

VG
Shiny

y33H@
2016-03-11, 11:35:03
Nv sagt angeblich <=165 Watt.Neee, NV sprach bei der GTX 980 mit 2x 6P von einer Typical Board Power von 165W. Da 1x 8P = 2x 6P könnte (!) das auch für GP104-Karte gelten, muss aber nicht.

radical83
2016-03-11, 11:35:54
angeblich GP104 als "GeForce GTX 1080" mit 8 GiB GDDR5 mit 1x8 Pin (<=225 W); Nv sagt angeblich <=165 Watt.

Die 165W beziehen sich mMn auf die 980 und nicht auf die neue Karte.
Ich zumindest sehe keine Angabe hierfür.

MiamiNice
2016-03-11, 11:40:19
Gekauft! :D Ich hoffe nur, dass die 1080 nicht "kastriert" ist. Das wird wahrscheinlich eher auf die 1070 zutreffen (ich mag einfach keine kastrierten GPUs :tongue:).

VG
Shiny

Dickes +1
Endlich kommt Bewegung rein, dachte ich muss die Rift mit der 780er bis Ende des Jahres befeuern. Gute News!

Palpatin
2016-03-11, 11:50:09
Ich tippe auf 1/3 mehr Performance gegenüber der GTX980 Ti bei >150w.
Naja vermutlich 20% weniger Bandbreite dafür deutlich schneller in DX 12. Richtig absetzen wird sie sich vermutlich erst in kommenden Games.

Duplex
2016-03-11, 11:54:16
Das wird wohl von der Performance ähnlich wie GF110 > GK104 ablaufen.

Frosty
2016-03-11, 11:56:05
kommt gp104 mit einem 256-bit interface oder wird der chip breiter angebunden?
wenn 256 bit, würde man dann nicht selbst mit 4000 mhz gddr5 chips ins bandbreitenlimit laufen?

iuno
2016-03-11, 11:59:18
Neee, NV sprach bei der GTX 980 mit 2x 6P von einer Typical Board Power von 165W. Da 1x 8P = 2x 6P könnte (!) das auch für GP104-Karte gelten, muss aber nicht.
Die 165W beziehen sich mMn auf die 980 und nicht auf die neue Karte.
Ich zumindest sehe keine Angabe hierfür.
oops sorry, wie ich das da zusammengeschrieben habe ist natuerlich Bloedsinn.
Klar gibt es von Nvidia noch keine Angaben zur 1080. Aber dass die ungefaehr in die aehnliche Kerbe schlaegt, waere logisch, ausser es gibt Taktprobleme. Dann waere auch wieder gut Puffer fuer OC da.

Palpatin
2016-03-11, 12:02:31
kommt gp104 mit einem 256-bit interface oder wird der chip breiter angebunden?
wenn 256 bit, würde man dann nicht selbst mit 4000 mhz gddr5 chips ins bandbreitenlimit laufen?
Wenn Mai und 8GB stimmten kanns eigentlich nur ein 256-Bit Interface mit GDDR5 sein.

iuno
2016-03-11, 12:08:03
Mai? Da wird das Teil vielleicht zum zweiten mal nach der GTC in die Hoehe gehalten, wie von Jensen gewohnt :ulol:
Egal welcher Speicher nachher benutzt wird, bei der 'Demo' wird GDDR5 rangeschraubt - literally

scnr

Bin gespannt ob das hinhaut. Bisher hiess es eher, Polaris waere frueher dran.
Der Speicher bleibt trotzdem interessant. Hat jemand mal getestet wie Maxwell auf Bandbreitenaenderungen reagiert?
ohne GDDR5X sind an 256 Bit mit 8 Gbps nur 256 GiB/s moeglich. GM200 hat 336, GM204 224. GP104 sollte GM200 schon erreichen. Sind 512 Bit gaenzlich ausgeschlossen? :ugly:
Oder gibt es noch Massnahmen um da weiterhin zu sparen? Gerade wo 4k "in" ist, kann man daran ja nicht sparen.

Palpatin
2016-03-11, 12:24:10
Abwarten, NV hat hier dazu gelernt. Wenn die 1080 im Mai Vorgestellt wird gehe ich auch davon aus das man sie im Mai kaufen können wird.

Kriton
2016-03-11, 12:27:41
Das glaube ich nicht. Es wird Marketing geben, damit die Leute nicht die neuen AMDs kaufen, mehr (zu diesem Zeitpunkt) nicht.

Dural
2016-03-11, 12:36:18
Was? Nv macht seit jahren keine paperlaunch mehr, ab und zu bei den titan / topdog modellen kam es vor das sie nicht lieferbar waren, aber sonst nicht. Bei einem gp104 mit gddr5 gibt es jetzt wirklich nichts was man da gross zum voraus vorstellen könnte

AMD ist da das krasse gegenteil, die konnten in letzter zeit kaum liefern.

Korvaun
2016-03-11, 12:46:47
Würde mir überlegen eine custom GTX1080 zu kaufen wenn:

- DX11 auf 980Ti-Niveau
- DX12 schneller als DX11 (z.b. durch async compute in Hardware)
- min 6GB, besser 8GB
- weniger Stromverbrauch als 980
- Preis max. 600€
- eher verfügbar als die entsprechende AMD Karte

Frosty
2016-03-11, 12:57:21
die gtx 980 war zwar eine gute karte, aber mit der gtx 970 hat nvidia bei mir bleibenden (negativen) eindruck hinterlassen.
ich greife definitiv zur "großen" polaris:) selbst wenn die nicht ganz an gp104 herankommen sollte.

TheAntitheist
2016-03-11, 13:00:36
die gtx 980 war zwar eine gute karte, aber mit der gtx 970 hat nvidia bei mir bleibenden (negativen) eindruck hinterlassen.
ich greife definitiv zur "großen" polaris:) selbst wenn die nicht ganz an gp104 herankommen sollte.
darum gehts hier nicht

Zettabit
2016-03-11, 13:09:45
Wenn man direkt am Releasetag kauft, hatte man bei NVIDIA in den letzten Generationen eigentlich nie ein Problem eine Karte zu ergattern. Da waren sie definitiv deutlich besser als AMD. Da warens ja eher Paperlaunches mit homöopathischen Mengen.

Kriton
2016-03-11, 13:14:06
Ich rede nicht von einem hard launch, genau darum geht es ja. :rolleyes: Oh, und Titan Z anyone?

Der_Korken
2016-03-11, 13:21:01
Im Polaris-Thread geht man vom totalen Pessimismus aus, ob Polaris 11 mit neuer Architektur, die viele alte Schwächen beheben könnte, und neuer Fertigung überhaupt an die Fury rankommt, weil Finfet so viel Stromverbrauch und schelchtes Taktpotenzial habe, wenn man dicht packt. Und hier träumt man von 980Ti +1/3 bei 150W Stromverbrauch :freak:

Troyan
2016-03-11, 13:23:21
Im Polaris-Thread geht man vom totalen Pessimismus aus, ob Polaris 11 mit neuer Architektur, die viele alte Schwächen beheben könnte, und neuer Fertigung überhaupt an die Fury rankommt, weil Finfet so viel Stromverbrauch und schelchtes Taktpotenzial habe, wenn man dicht packt. Und hier träumt man von 980Ti +1/3 bei 150W Stromverbrauch :freak:

GTX680 war 30% schneller bei 175W als die GTX580.

HOT
2016-03-11, 13:29:12
Zur GTX1080-Sepku: Ich glaube, dass das Gerücht um die 1080 im Mai stimmt. Das ist allerdings zu früh für GP104. Ich geh da jede Wette drauf ein, dass das kein Pascal ist sondern ein GM204 mit 8GB und mehr Takt im Referenzdesign.
Man kann das auch daran sehen, dass NV grad beinahe ne komplette Notebookserie neu auflegt und die weiterhin GT(X)9xxM(X) heißt und komplett auf alten Chips basiert. Sowas macht man nicht, wenn Pascal unmittelbar bevor steht.

iuno
2016-03-11, 13:29:28
@Troyan: Fermi war auch Muell, was du von Maxwell hoffentlich nicht sagen willst
Das ist zu früh für GP104. Ich wette, dass ist kein Pascal sondern ein GM204 mit 8GB und mehr Takt im Referenzdesign.
Den wuerden sie wohl kaum mit grossem Trara ankuendigen sondern einfach einfuehren, etwa so wie die GTX 980 (ohne M) mit 8 GiB fuer Notebooks.
Ich sehe auch den Sinn nicht. Die Situation, dass das "Topmodell" (Titan ausgenommen) weniger Speicher hat als das darunter, gibt es gerade bei AMD. Das ist einfach voelliger Unsinn.

edit zum edit: du glaubst ernsthaft, nachdem zuletzt AMD wieder mal wegen den Rebrands einstecken musste, macht Nvidia das 1:1 nach?

HOT
2016-03-11, 13:33:08
Fermi war auch Muell, was du von Maxwell hoffentlich nicht sagen willst
Mal sehen, wie das in 1/2 bis ein ganzes Jahr aussieht. Wenn man neue Titel (Division, Hitman DX11 usw.) nimmt braucht Maxwell schon ganz schön Takt, um überhaupt auf dem Niveau der Fury/Hawaii zu landen, natürlich sofern die CPU-Leistung stimmt. Nimmt man DX12 dazu wirds mMn echt dunkel für Maxwell mittelfristig.

Den wuerden sie wohl kaum mit grossem Trara ankuendigen sondern einfach einfuehren, etwa so wie die GTX 980 (ohne M) mit 8 GiB fuer Notebooks.
Ich sehe auch den Sinn nicht. Die Situation, dass das "Topmodell" (Titan ausgenommen) weniger Speicher hat als das darunter, gibt es gerade bei AMD. Das ist einfach voelliger Unsinn.

edit zum edit: du glaubst ernsthaft, nachdem zuletzt AMD wieder mal wegen den Rebrands einstecken musste, macht Nvidia das 1:1 nach?
Unsinn. Im Gegensatz zu AMD macht NV um so ziemlich alles ordentliche PR.
Guck dich doch mal auf den Hardwareseiten um, da werden fast überall 1300-1400MHz Maxwells gegen die AMD-Karten getestet und das passt grad noch so bei den neueren Spielen. Die GTX970 geht mittlerweile beinahe regelmäßig ggü. der 390 baden, Takt egal. Die AMD kommen erst ins Straucheln, wenn die CPU zu schlapp für den AMD-Treiber ist.

Pumpi74
2016-03-11, 13:41:39
Wenn die GTX 1080 (GP104) mit 8GB GDDR5 Vram kommt, dann hängt das ganze an einem 512bit Bus. Anders wäre mehr Leistung als GTX 980Ti garnicht zu kreieren. Es sei denn Nvidia Komprimiert die Speicherdaten nochmal 100% mehr, was doch sehr unwahrscheinlich ist....

iuno
2016-03-11, 13:49:26
@HOT: verstehe ich nicht ganz. Willst du mir damit sagen, dass du erwartest, Reviewer wuerden dann nur noch in Szenarien mit >4 GiB VRAM testen? Ist doch Unsinn. Oder was soll das sonst mit dem Thema zu tun haben?

Was sollen sie PR-maessig an einem Rebrand besser machen. Dass es was neues ist glaubt ihnen ausser ein paar die-hard fanboys keiner und die gabs bei AMD auch (nichts fuer ungut). Die "neue 980" muesste imho entweder von ihren 8 GiB deutlich profitieren oder gebinnt und ungewohenlich stark oc sein damit das ueberhaupt jemanden interessiert. Und das bedeutet auch dass es teurer wird und das passt fuer mich einfach schlecht zusammen wenn die 980 Ti mit 6 GiB noch ueber der 980 rum haengt.

Der_Korken
2016-03-11, 13:55:09
Wenn die Leistung in einigen neueren Spielen zur Normalität wird, d.h. wenn die Maxwell-Karten völlig an Boden verlieren, dann wäre 980Ti+30% vielleicht möglich - aber nicht, weil Pascal so gut ist, sondern Maxwell so schlecht. Versteht mich nicht falsch, ich fände es gut wenn sich auf dem Graka-Markt endlich mal wieder was tut, aber so wie die Erwartungen bezüglich Polaris gedrosselt wurden, wundert mich solcher Optimismus beim GP104 doch etwas.

iuno
2016-03-11, 13:57:29
Es hat halt jeder seine eigene Erwartungshaltung. Bei AMD war die zuletzt oft sehr hoch, wurde dann enttaeuscht und ist vielleicht deshalb jetzt niedriger angesetzt.
Wir wissen bisher sowieso nur, dass wir nichts wissen. Weder was die Fertigung noch die Architekturverbesserungen angeht und zwar auf beiden seiten. Manche erwarten auch von Polaris sehr viel. Die Erwartungen die zum jetzigen Zeitpunkt geaeussert werden sind aber sowieso nur Wusnchdenken.

Zettabit
2016-03-11, 14:04:21
Auf das HOT-Trolling muss man gar nicht eingehen.

Ein Rebrand der GM20x Chips macht zu diesem Zeitpunkt schlicht gar keinen Sinn.

NVIDIA hat schon immer versucht, möglichst lange möglichst viele Details geheim zu halten. Man denke mal zurück an Fermi, da dachte doch bis zum Launch jeder, dass die Karte gar kein Tessellation in Hardware beherrscht, sondern es per Shader emuliert (Charlie anyone? ;D).

Von daher abwarten, vielleicht erfahren wir was zu GTC.

Blediator16
2016-03-11, 14:14:39
Immer lustig, wenn man versucht aus alten launches die zukünftigen zu deuten. ;D

Höhnangst
2016-03-11, 14:29:30
Lame. Glaube nicht, dass ich auf die großen Chips mit HBM2 warte, wenn das erst gegen Jahresende (bestenfalls) was wird.

Aber ich könnte mich durchaus mit einer GTX 1080 anfreunden, die im Bereich einer 980 Ti wildert mit 8 GB GDDR5 Speicher und einem Verbrauch unter 200 W. Und wenn die Specs halbwegs stimmen, dann dürfte das hinkommen. Preispunkt werden dann wohl $ 599. Breitere Verfügbarkeit dann im Juni, wenn die Vorstellung erst Ende Mai ist. Ergibt ein rundes Bild für mich.

Allerdings kommt es auch drauf an, was AMD macht. Vielleicht haben die dieses Mal sogar ein besseres Produkt?

Dural
2016-03-11, 14:32:16
Naja wenn GP104 jetzt Anfang Sommer mit GDDR5 kommt, kann man schon jetzt drauf Wetten abschliessen wann die GDDR5X Version kommt ;)

Palpatin
2016-03-11, 15:08:15
Wenn die GTX 1080 (GP104) mit 8GB GDDR5 Vram kommt, dann hängt das ganze an einem 512bit Bus. Anders wäre mehr Leistung als GTX 980Ti garnicht zu kreieren. Es sei denn Nvidia Komprimiert die Speicherdaten nochmal 100% mehr, was doch sehr unwahrscheinlich ist....
Nein der Chip ist viel zu klein für ein 512bit Interface, außerdem hätten sie dann eher 384bit und 6GB genommen.
Die stärken werden 8GB, DX12, geringe Leistungsaufnahme und vermutlich 100 Dollar niedrigerer Launch-Preis sein.

Knuddelbearli
2016-03-11, 15:17:56
GTX680 war 30% schneller bei 175W als die GTX580.

In Fermi war auch von Anfang an der Wurm drinn außerdem wurde ein Haufen verbrauch frei da man sich vom doppelte ALU Takt verabschiedete

scully1234
2016-03-11, 15:38:51
Dickes +1
Endlich kommt Bewegung rein, dachte ich muss die Rift mit der 780er bis Ende des Jahres befeuern. Gute News!

Wenn ich mir die Performance bei Pcars so ansehe mit Titan X@1,4GHZ, glaube ich kaum das es der kleine GP104 schon richten wird fuer die VR Sparte


Hoffentlich kommt eine Titan Auskopplung von GP100 nicht wirklich erst ende des Jahres

Pumpi74
2016-03-11, 15:43:17
Nein der Chip ist viel zu klein für ein 512bit Interface....

In den GT200b hat man bei 470mm² DIE Fläche auch ein 512bit Interface drin gehabt. Der Chip war sehr Erfolgreich. Und viel kleiner darf GP104 nicht werden wenn sie die GTX 980Ti klar überbieten wollen.

Troyan
2016-03-11, 15:44:50
Mit 470mm^2 wäre die Karte annährend doppelt so schnell als eine GTX980TI. :D

AnnoDADDY
2016-03-11, 15:53:13
Wenn nicht gar mehr als das...

Pumpi74
2016-03-11, 15:59:24
Mit 470mm^2 wäre die Karte annährend doppelt so schnell als eine GTX980TI. :D

Wenn sich die effektive Leistung pro Fläche verdoppelt können wir uns alle genug freuen und mehr sollte man auch nicht erwarten. Das heißt bei 450mm² wären wir dann bei 50% mehr Leistung als GTX 980Ti..

Der_Korken
2016-03-11, 16:03:24
Das heißt bei 450mm² wären wir dann bei 50% mehr Leistung als GTX 980Ti..

Und bei den Preisen für 16nm und den schlechteren Yields wahrscheinlich auch mindestens 50% teurer ...

AnnoDADDY
2016-03-11, 16:07:51
Wenn wir von 40 zu 28nm bei NVIDIA gehen haben wir eine Steigerung um den Faktor 2,5 von gtx580 zu Titan X

Von 28 auf 16 ist die Steigerung nominell höher. Da kann man mehr als die 2fache Leistung je Fläche erwarten. Warum immer diese pessimistischen voraussagen? Gp100 soll 17mrd Transistoren haben. Wenn der Takt da halbwegs mitmacht hast du locker die zweifache Leistung.

Troyan
2016-03-11, 16:09:21
Der "richtige" GM200 Ersatz kommt auch mit knapp der dreifachen Bandbreite. GM200 schafft es im besten Fall auf 50% durch die Bandbreitenkompression gegenüber GK110.

Der_Korken
2016-03-11, 16:12:22
Wenn wir von 40 zu 28nm bei NVIDIA gehen haben wir eine Steigerung um den Faktor 2,5 von gtx580 zu Titan X

Nein. Wenn, dann muss man GTX580 und GTX680 vergleichen. Meinetwegen auch die GTX780. Zwischen GTX 580 und Titan X liegen afaik über 4 Jahre. Also wäre 2,5fache Titan X Leistung frühestens ab 2018 denkbar.

Und ob die Steigerung von 28 auf 16nm wirklich so viel höher ist, wird sich zeigen müssen. Den 20nm-Prozess haben beide Hersteller ausgelassen, weil er gegenüber 28nm keine brauchbaren Vorteile brachte.

Hübie
2016-03-11, 16:13:22
Das PHY skaliert nicht 1:1 sondern eher 0.8:1. Auch das internetwork skaliert nicht sehr stark. Und keiner hier weiß was die 17,8 Mrd alles beinhalten. Kann ja auch GP100 inkl Interposer und NVLINK sein.
"Nobody knows it, but you got a secret smile..." (schöner Song ;)).

scully1234
2016-03-11, 16:14:07
@Anno Daddy

12 TFLops SP werden fuer den GP100 spekuliert, das ist knapp das doppelte der Titan X

Ob der Slide aber letztendlich stimmt, und wieviel der Rechenleistung hinter der Software ankommt ,steht noch aus

Da GP104 aber nunmal nicht der Vollausbau ist ,wirst du auf eine Verdopplung wohl auch noch warten koennen

AnnoDADDY
2016-03-11, 16:17:50
Es ging mir ja auch um den flächenmäßigen Gewinn. Sicher ist von gm200 zu gp104 nicht mehr als 30% zu erwarten.

Ailuros
2016-03-11, 19:32:10
Das PHY skaliert nicht 1:1 sondern eher 0.8:1. Auch das internetwork skaliert nicht sehr stark. Und keiner hier weiß was die 17,8 Mrd alles beinhalten. Kann ja auch GP100 inkl Interposer und NVLINK sein.
"Nobody knows it, but you got a secret smile..." (schöner Song ;)).

Du bist uebrigens der einzige an den ich mich erinnern kann der 17,8 und nicht 17 erwaehnt. Es ist schon richtig so, aber Du solltest wohl etwas vorsichtiger mit Deinem Zeug in aller Oeffentlichkeit umgehen :wink:

scully1234
2016-03-12, 07:23:54
Ich find indirekte Zustimmung schoen ?:tongue:

Ist es eigentlich denkbar das die Fertigungsressourcen ausreichen, um neben dem auf der GTC vorzustellenden Tesla/Quadro Karten ,nicht doch auch eine kleine ,wenn auch exclusive Menge, an Titan Karten auf den Markt gelangen?

Oder ist der professionelle Bereich, so ausgehungert seit Kepler, das da vorlaeufig gar nix geht?


Ich mein selbst Resteverwertung waere ja schonmal ein Anfang,und allemal potenter wie GP104, und im Dezember dann eine ''Black/X'' oder wie auch immer ,fuer den Nachtisch

AnarchX
2016-03-12, 09:02:04
Es wird wohl erstmal interessant sein, ob Nvidia alle Profi-Kunden mit GP100 bedienen kann.
Die GPU ist ja nicht der einzig mögliche Engpass, HBM2 und Interposer(-Packaging) könnten da auch problematisch werden.

GP104 + Dual-GP104 sollte da vorerst die Enthusiasten bedienen können.

scully1234
2016-03-12, 09:18:17
Waere fuer letzteres Problem nicht auch GDDR 5 X ne Loesung im Geforce Sektor?

Oder hochtaktender GDDR 5 an nem 512 bit Interface?

Falls der salvage Part nicht doch auch vollends im professionellen Umfeld verarbeitet wird

Hübie
2016-03-12, 09:20:47
Wobei die Komponenten weniger kritisch sind, als die Hochzeit der ganzen Schose.
@Ailuros: Es ist genau so eine Zahl wie alle anderen auch. :D

AnarchX
2016-03-12, 09:24:04
Waere fuer letzteres Problem nicht auch GDDR 5 X ne Loesung im Geforce Sektor?

Oder hochtaktender GDDR 5 an nem 512 bit Interface?

GP100 hat ein 4096-Bit HBM Interface und kann keinen GDDR5(X) anbinden.

Falls der salvage Part nicht doch auch vollends im professionellen Umfeld verarbeitet wird
Das kommt noch dazu, bei den vorherigen Tesla ist man nicht immer gleich in die Vollen gegangen. Es wird wohl darauf ankommen, wie hoch der Druck durch Intels Knights Landing wird.

Pascal@HBM für Endkunden wird wohl eher ein Thema für 2017. Im Herbst/Winter bekommt GP104 vielleicht noch einen GDDR5X Refresh.

scully1234
2016-03-12, 09:27:48
Naja ne Hochzeit von 512bit gab es ja schon ab und an ,obwohl in heutiger Zeit bei dem ganzen Ecco Wahn ist das ja nicht mehr ''green''IT:usad:

GP100 hat ein 4096-Bit HBM Interface und kann keinen GDDR5(X) anbinden.

Achso das sind schon feste Specs

AnarchX
2016-03-12, 09:30:35
Achso das sind schon feste Specs
Mehrfach so von Nvidia offiziell bestätigt, dass man da noch ein >256-Bit GDDR5 Interface unterbringen kann, ist nahezu ausgeschloßen (siehe Fiji Die-Shot).

Hübie
2016-03-12, 09:42:45
Naja ne Hochzeit von 512bit gab es ja schon ab und an ,obwohl in heutiger Zeit bei dem ganzen Ecco Wahn ist das ja nicht mehr ''green''IT:usad:
Achso das sind schon feste Specs

Mit Hochzeit meinte ich den flip chip, Interposer und HBM.
AMD hatte anfangs ja nicht umsonst Lieferschwierigkeiten. Die Quote der Nacharbeiten war relativ hoch und selbst danach war die Ausbeute so lala. Mittlerweile haben Amkor, oder wer auch immer das assembling vornimmt, mehr Erfahrung gesammelt was sich durchaus bemerkbar macht. IBM hat ja ebenfalls fleißig R&D bzgl. der müBumps betrieben was jedem zu Gute kommen dürfte. Man muss sich ja immer fragen, wer an wen, was bezahlt (IHV zahlt z.B. auch defekte Dice an TSMC, solange nicht anders vereinbart). Die Lieferkette mit UMC etc. ist dann für einen jeglichen Anbieter noch mal doppelt so lang, was bedeutet doppelt soviel Münder stopfen.

scully1234
2016-03-12, 09:47:04
Was ist den mit diesem GP102 Phantom?

Ist der vielleicht ein abgespeckter GP100 mit nem SI fuer GDDR5?

AnarchX
2016-03-12, 09:50:15
Wahrscheinlicher eine GPU oberhalb von GP104 mit HBM, welche 2017 erscheint.

scully1234
2016-03-12, 10:24:36
GP104 + Dual-GP104 sollte da vorerst die Enthusiasten bedienen können.


Mmmh dieser GP104 ich weiss nicht vielleicht 30/40% oberhalb von der 980Ti mit viel Glueck, dazu dann noch n Bisschen Overclocking Bonus.

Die Prognosen waren da ja nicht so positiv fuer FinFET +was den Spielraum nach dem Binning betrifft

Das macht nicht jeden Enthusiasten froehlich:smile:

Hübie
2016-03-12, 10:32:25
Ein Skylake hat ebenfalls FinFet, und ist taktbereinigt dennoch schneller als SandyBridge. Will heißen: Takt sagt erst mal gar nix. Wer aufmerksam die Keynotes und Kongresse verfolgt, wird feststellen, dass die Zeiten längst vorbei sind, wo man durch den Prozess ordentlich was heraus holen konnte.
GP104 = GM200 * 1,3 halte ich für sehr optimistisch (best case). Schraube deine Erwartungen mal ein wenig zurück. Die ausgelieferten Custom Modelle des GM200 kommen bei 1320 MHz heraus mit Tendenz (Semivarianz) zum plus. Die meisten Reviews (auch die Launch-Analyse vom GM200 hier auf 3DC) beziehen sich auf die Referenzkarte welche äußerst selten in diese Region kommt. Das heißt also dass wir erst einmal definieren müssen, was du genau mit dieser Aussage meinst, worauf du dich beziehst. ;)
Wenn ein GP104 @stock die GM200 @stock bei nur 165 Watt knapp schlägt ist das Ziel erreicht (~30% höhere Effizienz, kleiner Die, modernes Featureset).

HOT
2016-03-12, 10:41:25
Auf das HOT-Trolling muss man gar nicht eingehen.

Ein Rebrand der GM20x Chips macht zu diesem Zeitpunkt schlicht gar keinen Sinn.

NVIDIA hat schon immer versucht, möglichst lange möglichst viele Details geheim zu halten. Man denke mal zurück an Fermi, da dachte doch bis zum Launch jeder, dass die Karte gar kein Tessellation in Hardware beherrscht, sondern es per Shader emuliert (Charlie anyone? ;D).

Von daher abwarten, vielleicht erfahren wir was zu GTC.
Trolling wäre es, wenn ich meine Aussage mit Cherry-Picking-Mist versehen hätte, was ich nicht habe. Jeder soll sich selbst ein Bild von Maxwell bei den derzeitigen Benchmarks machen, die sind ziemlich eindeutig - und ein bisschen auf die Taktraten achten dabei.
Und es wird eine riesen Enttäuschung in diesem Forum geben, wenn der 1080 ein GM204 mit 8GB GDDR5 und 225W TDP ist. Das Problem ist, dass NV gerade dabei ist eine komplette Serie aus Rebrands in den Notebook-Markt zu werfen - allerdings noch unter dem alten 900er-Nummernsystem. Das macht man nicht, wenn man neue Chips hat, das ist nämlich Unsinn. GP104 im Mai ist pure Träumerei aus meiner Sicht.

scully1234
2016-03-12, 10:42:10
Wenn ein GP104 @stock die GM200 @stock bei nur 165 Watt knapp schlägt ist das Ziel erreicht (~30% höhere Effizienz, kleiner Die, modernes Featureset).

Naja gehen wir jetzt mal von GTX 580 aus ,beim Wechsel auf die GTX 680 was den Wechsel Big Chip Fermi auf ''Midrange'' Chip Kepler vollzog ,hatte die 680 GTX auch noch mal gute 20/30% an Leistung zugelegt

Sicher nicht vergleichbar ,und ich sagte ja oben schon ''mit viel Glueck''

Was die Architekturverbesserungen mit ins Felde fuehren, muss man dann ja auch noch sehen

Zufriedenstellend ist das nicht , da schwingt das selbe Unbehagen mit wie damals beim Kauf der GTX 680, Kopfkino sagt es ist kein Vollausbau:smile:

Frosty
2016-03-12, 10:48:25
ich habe das nicht verfolgt, wie groß wird gp104 gegenüber dem "großen" polaris sein? auch so ~250mm² oder größer?

scully1234
2016-03-12, 10:52:08
300-350 mm2 soweit ich weiss

Hübie
2016-03-12, 10:53:39
Die Ausgangssituation Fermi <-> Kepler war eine völlig andere :smile:

scully1234
2016-03-12, 11:02:59
Jetzt lass uns mal bei hypothetischen 30% bleiben ,sonst wird das ganze noch desillusionierender als eh schon:biggrin:

iuno
2016-03-12, 11:09:43
Das Problem ist, dass NV gerade dabei ist eine komplette Serie aus Rebrands in den Notebook-Markt zu werfen - allerdings noch unter dem alten 900er-Nummernsystem.
Habe ich nicht mitbekommen, was wird denn "neu" (unter neuem Namen) releast?
Die mobilen Karten gibt es doch doch schon durchgaengig als 900er Serie mit Maxwell. Mir sind nur die "neuen" 980 (ohne M) fuer Notebooks bekannt, die aber auch wirklich neu sind, da nicht beschnitten.
300-350 mm2 soweit ich weiss
Woher kommt die Info ueber die Groesse eigentlich? Reine Schaetzungen oder gam es mal was Handfestes dazu?

Hübie
2016-03-12, 11:12:38
Jetzt lass uns mal bei hypothetischen 30% bleiben ,sonst wird das ganze noch desillusionierender als eh schon:biggrin:

Bisher kannte ich dich als highend-Käufer =) Das deckt GP104 nach meiner Definition nicht ab.

scully1234
2016-03-12, 11:16:32
Naja die Titan X ist schon zu lange im Stall, und jedes Gramm Rechenleistung zusätzlich gerne willkommen

Ich hab im April zwei VR Brillen in der Spur ,die ausgiebig getestet werden wollen:smile:



Woher kommt die Info ueber die Groesse eigentlich? Reine Schaetzungen oder gam es mal was Handfestes dazu?

Ich hab das vor kurzen beilaeufig gelesen ,ob das hier war oder bei Wcctech keine Ahnung

TheGood
2016-03-12, 11:19:53
Wenn ein GP104 @stock die GM200 @stock bei nur 165 Watt knapp schlägt ist das Ziel erreicht (~30% höhere Effizienz, kleiner Die, modernes Featureset).


Warum sollte man dafür 500 Euro ausgeben?

Hübie
2016-03-12, 11:28:03
Warum hat man 550 für die 980 ausgegeben? Mehr VRAM, weniger Verbrauch, 15-25% mehr Performance (je nach Spiel, Auflösung und Takt) sowie moderneres Featureset. Und die wenigsten dürften von 780 Ti auf 980 umgestiegen sein. Das trifft hier im Forum zwar zu, aber da "draußen" am Markt die absolute Ausnahme. ;)
Schau dir mal an wieviele den lächerlichen Steam-VR-Test nicht bestanden haben...

Sunrise
2016-03-12, 11:36:32
GP104 hat mit ziemlicher Sicherheit nur ein 256bit Interface, liegt um die TDP eines GM204, wird aber (trotz deutlich kleinerem Die, siehe GK104) viel schneller im Vollausbau und hat vor allem mehr (das Doppelte) VRAM. Alles andere ergibt wenig Sinn, wenn man eine GPU als Nachfolge für GM204 baut mit FinFETs.

Die GPU wird bei diesen Karten sehr teuer, aber durch das restliche Board (keine hohe TDP) schmalem Interface und billigem Speicher fängt man das größtenteils wieder auf. Das übt auch wieder enormen Druck auf AMD aus, die mit Polaris erstmal zeigen müssen, dass GCN nicht nur mächtig (fett), sondern auch effizient sein kann, sofern man die Architektur angepasst und die TDP aufgrund FinFET deutlich runterfahren kann.

Da muss AMD mit deutlich mehr kommen, als uns nur mit Framerate-Caps auf 60fps heiß zu machen.

Ich bin eher mal gespannt, wie NV das im richtigen Hochpreis-Segment regeln will, da werden eine ganze Menge GP100-Salvages anfallen, die dann wohl das 980Ti-Segment beerben sollten. Allerdings ist das zur Zeit noch vollkommen aus der Luft gegriffen. Denn GP100 wird wohl eine ganze Menge Abnehmer im professionellen Umfeld finden, die zuerst bedient werden wollen.

scully1234
2016-03-12, 11:41:01
Schau dir mal an wieviele den lächerlichen Steam-VR-Test nicht bestanden haben...

Da wird es sowieso selbst mit bestandenen Test noch ein paar lange Gesichter geben, wenn die Jungens merken was geht und was geht nicht;D

Leonidas
2016-03-13, 16:51:22
Ich bin eher mal gespannt, wie NV das im richtigen Hochpreis-Segment regeln will, da werden eine ganze Menge GP100-Salvages anfallen,



Gerade im Profi-Segment nimmt man es nicht so eng damit, auch Salvages einzusetzen - alles eine Frage des Preises, der Energieeffizienz und vor allem der insgesamten Systemkosten. Ob da ein Shader-Cluster fehlt, spielt keine große Rolle, wenn die insgesamte Aufgabe erfüllt wird.

NV könnte für Gamer mehr perfekte GP100 benötigen als für den Profi-Markt. Wenn GP100 überhaupt zu den Gamern kommt.

horn 12
2016-03-13, 19:12:15
@Nakai

Wie siehst Du bitte die Performance, Einschätzung der womöglichen GTX 1080?

Korvaun
2016-03-14, 08:11:02
@Nakai

Wie siehst Du bitte die Performance, Einschätzung der womöglichen GTX 1080?

Ganz grob: Leistung wie 980TI, mit 8GB, für 599.- €

Alles darüber wäre schön (besonders unter DX12), alles darunter wäre irgendwie sinnlos...

Zettabit
2016-03-14, 09:20:43
Das Problem ist, dass NV gerade dabei ist eine komplette Serie aus Rebrands in den Notebook-Markt zu werfen - allerdings noch unter dem alten 900er-Nummernsystem.
Hä? Inzwischen weißt du ja offensichtlich selbst nicht mehr, was du schreibst.

Wie soll eine "komplette Serie [...] Rebrands" heraus gebracht werden, wenn sie unter dem bisher bekannten Nummernschema läuft?

Man hat nur die bisher aus GM20x bestehende Notebookserie mit den Maxwell-Chips der ersten Generation nach unten abgerundet, das ist alles.

Das macht man nicht, wenn man neue Chips hat, das ist nämlich Unsinn. GP104 im Mai ist pure Träumerei aus meiner Sicht.
Doch, klar macht man das. Denn wenn man jetzt den Endspurt für die Performanceklasse macht - dann dauert es noch Minimum ein Jahr, bis man Chips in der Leistungsklasse eines GM108 hat

Aber träum schön weiter mit deiner GM204-GTX1080 ;D

Hübie
2016-03-14, 10:14:56
Notebooks hatten das 800er-Namensschema. Man weiß ja, dass die jedes Jahr etwas "neues" wollen. Genau wie OEM-Trottel.
Die Nomenklatur wird sich ausserdem ändern. Es wird nicht 1080 heißen.

Sunrise
2016-03-14, 10:40:59
Gerade im Profi-Segment nimmt man es nicht so eng damit, auch Salvages einzusetzen - alles eine Frage des Preises, der Energieeffizienz und vor allem der insgesamten Systemkosten. Ob da ein Shader-Cluster fehlt, spielt keine große Rolle, wenn die insgesamte Aufgabe erfüllt wird.

NV könnte für Gamer mehr perfekte GP100 benötigen als für den Profi-Markt. Wenn GP100 überhaupt zu den Gamern kommt.
Das stimmt, allerdings hast du den Rest meines Satzes weggelassen, denn ich meinte es so, dass die ganzen Salvages von GP100 (und davon wird es mehr als genug Nachfrage geben) wohl auch relativ schnell verfügbar werden.

Das heißt dann entweder, dass NV die auch im Profi-Markt verkauft (wie du erwähnst) oder aber man wird GP100 evtl. doch erstmal als abgespeckte Version für Spieler sehen, was ohne Fakten zu GP100 immernoch nicht ganz ausgeschlossen werden kann. Damit könnte man jedenfalls (bei 30% mehr Leistung durch die Bank) schonmal Kasse machen, bevor dann der richtige Top-Dog für Spieler kommt (GP102, wenn das Spekulierte bisher stimmt). Natürlich wäre es auch denkbar, dass NV, weil sie größere Mengen benötigen, die Salvage-GP100 eher im Profi-Markt verkauft (Grund: engere TDP-Grenzen) und dann für den Gamer-Markt etwas selektiert.

Vor April wird NV jedenfalls dicht machen, evtl. werden wir ja sogar überrascht (die Verfügbarkeit sollte aber frühestens AMDs Verfügbarkeit gleichkommen, damit die eigenen Margen nicht leiden und man noch genug abverkaufen kann).

Zettabit
2016-03-14, 10:47:53
Notebooks hatten das 800er-Namensschema.
Seit Okt. 2014 gab es den GM204 für Notebooks als GTX970M.

Hübie
2016-03-14, 10:55:55
Ja schon lange her. Durch die verschiedenen Märkte musste man halt das Namensschema verschieben. Das wollte ich damit ausdrücken. ;) Im Desktop hätte man Maxwell v2 ja 800er nennen müssen. Aber das würde sich mit Fermi / Kepler auf dem Notebook beißen.
Ich glaube es ist auch echt selten, dass Notebook, OEM und Desktop (Retail) die gleichen Zahlen verwenden - zumindest bei Grafikkarten.

Zettabit
2016-03-14, 10:59:46
Das stimmt. Aber dann wäre die 800er Reihe eine Mischung aus Maxwell, Kepler und Fermi geworden.

So ist es (auch Mobil) eindeutig: Die 900er ist Maxwell. Fertig.

Hübie
2016-03-14, 12:35:32
Da muss ich ja mal einwerfen dass Fermi tatsächlich von 400 bis 800 in den ollen gammeligen Notebooks herum hängt X-D Wusste ich nicht mal. War jetzt einfach mal neugierig und hab Wikipedia (https://de.wikipedia.org/wiki/Nvidia_Geforce_M) angeworfen. :eek: Also waren nur vier- fünf und neunhundert Deckungsgleich. :D

Okay b2t bitte :smile:
Denkt euch doch mal schöne Namen aus. Man hatte Ja schon 4000er, 8000er, 9000er, 2er, 3er ....also viel Platz für Zahlenspielchen ist da nicht mehr. AMD geht ja auch - zumindest im Highend - von Zahlen weg. Was nVidia mit Titan begann könnte also nach unten fortgeführt werden.

iuno
2016-03-14, 12:58:03
Daran glaube ich nicht. Ein Produkt in dem Bereich muss immer klar einzuordnen sein*. Man sieht sofort, dass eine 980 ueber einer 960 liegt. Die Titanen wurden ja nur dort rausgehoben, um zu verdeutlichen dass es das absolute Ueber-Geraet sein soll, an das die naechsten Jahre nichts ran kommt. Bei dem Status von Nvidia kann man sowas mal machen, die Titan hat so gleich jeder im Kopf. Bei einer ganzen Serie funktioniert das niemals.
AMD hat das halt nachgemacht, war damit maessig erfolgreich und sie sollten es imho auch mit der 400er Serie lieber wieder lassen. Einzig bei der Nano macht das vielleicht noch Sinn.

*natuerlich wird hier auch Taeuschung betrieben (vor allem bei den mobilen), aber innerhalb einer Generation kann man ja auch ohne naeher in die Materie einzusteigen schon immer recht eindeutig sagen, wie die Produkte positioniert sind.

Mancko
2016-03-14, 13:31:12
Man kann das auch daran sehen, dass NV grad beinahe ne komplette Notebookserie neu auflegt und die weiterhin GT(X)9xxM(X) heißt und komplett auf alten Chips basiert. Sowas macht man nicht, wenn Pascal unmittelbar bevor steht.

Die Rebrands wurden still und leise ohne großes Tamm Tamm eingeführt. Das klingt dann doch eher nach Abbau von Lagerbeständen. Im Endeffekt kann man so noch fröhlich das Ganze Zeug in den nächsten Monaten verkaufen. Es spricht aber gar nichts dagegen Mitte des Jahres dann diese Teile auslaufen zu lassen.

Dural
2016-03-14, 14:53:55
vor allem die desktop karten in der regel deutlich früher auf den markt kommen als die notebooks chips.

Hübie
2016-03-14, 15:09:55
Daran glaube ich nicht. Ein Produkt in dem Bereich muss immer klar einzuordnen sein*. Man sieht sofort, dass eine 980 ueber einer 960 liegt. Die Titanen wurden ja nur dort rausgehoben, um zu verdeutlichen dass es das absolute Ueber-Geraet sein soll, an das die naechsten Jahre nichts ran kommt. Bei dem Status von Nvidia kann man sowas mal machen, die Titan hat so gleich jeder im Kopf. Bei einer ganzen Serie funktioniert das niemals.
AMD hat das halt nachgemacht, war damit maessig erfolgreich und sie sollten es imho auch mit der 400er Serie lieber wieder lassen. Einzig bei der Nano macht das vielleicht noch Sinn.

*natuerlich wird hier auch Taeuschung betrieben (vor allem bei den mobilen), aber innerhalb einer Generation kann man ja auch ohne naeher in die Materie einzusteigen schon immer recht eindeutig sagen, wie die Produkte positioniert sind.

Na so richtige Abstufungen kann man damit nicht machen, das stimmt. Aber was bliebe dann noch? 1080 klingt zu sehr nach 1080p und das dürfte eindeutig nicht das Jagdrevier einer hypothetischen GP102-GPU sein. Selbst wenn man GP104 zunächst als Highend verkauft, wie seinerzeit GM204, dürfte es nicht zutreffend sein. Solche eine Assoziation will man sicher vermeiden.
Meine Gedanken mal ganz simpel ausgedrückt:
GM206 = 1080p med-high Details -> GP106 = 1080p high-max Details
GM204 = 1080p max Details -> GP104 = 1440p high Details
GM200 = 1440p max Details -> GP102 = 2160p high Details


Dann wirds noch so Spielerein für VR geben, die aber völlig unbedeutend auf dem Markt sind.

Zettabit
2016-03-14, 15:15:57
Gibt doch genug Möglichkeiten die Serie zu benennen.

Wie wäre es mit GeForce FX2? ;D

GeForce FX2 9990 Ultra - perfekt!

scully1234
2016-03-14, 15:22:17
Denkt euch doch mal schöne Namen aus. Man hatte Ja schon 4000er, 8000er, 9000er, 2er, 3er ....also viel Platz für Zahlenspielchen ist da nicht mehr. AMD geht ja auch - zumindest im Highend - von Zahlen weg. Was nVidia mit Titan begann könnte also nach unten fortgeführt werden.


Die griechische Goetter Nomenklatur ist ja noch nicht vollends ausgeschoepft bei Team Gruen


Ansonsten immer gern gesehen im deutschsprachigen Raum ''Geforce Wôðanaz'' :tongue:

Hübie
2016-03-14, 15:23:40
Ja nur woher soll der DAU wissen dass Zeus<Titan ist? :confused:

iuno
2016-03-14, 15:23:59
Also derselbe Grund, warum die kolporierte Xbox 720 jetzt one heisst? bitte nicht.

Heisst es dann
Nvidia GeForce GTX1
Nvidia GeForce GTX2
Nvidia GeForce GTX3

Beim Nvidia Tegra X1 haben sie es ja schon angefangen :P

Ich finde von diesem Modell, Karten auf Aufloesungen zu mappen sollte man sich sowieso verabschieden. Es ist ja nicht so, dass Spiele nicht anspruchsvoller werden, wenn die Hardware staerker wird. Keine Next-Gen Karte wird in einem Next-Gen Spiel in UHD 150 FPS reissen.
Ich glaube nicht, dass es ein Problem waere, hiesse die Karte GTX 1080. Aber die Marketing Leute koennen das natuerlich ganz anders sehen.

scully1234
2016-03-14, 15:37:36
Ich bin gespannt ob die die GDC wirklich so ueber die Buehne gehen lassen ohne wirklich wenigstens mal zu Teasern

MiamiNice
2016-03-15, 11:23:45
GeForce GTX1270
GeForce GTX1280

So wird da imho ein Schuh draus :)

€:

Vielleicht nicht ganz so logisch:
Nvidia GeForce NV170
Nvidia GeForce NV180

Mancko
2016-03-15, 20:15:17
Ich bin gespannt ob die die GDC wirklich so ueber die Buehne gehen lassen ohne wirklich wenigstens mal zu Teasern

Zu Hardware werden sie m.E. nicht viel sagen. Da wird man auf der GTC im April vermutlich eher etwas hören. Im Grunde hat Nvidia auch keine Veranlassung da groß was zu sagen. Sie verkaufen aktuell Maxwell hervorragend und mit jeder Meldung riskieren sie, dass Leute plötzlich anfangen zu warten. Schaut man sich an was AMD vom Stapel gelassen hat ist es auch nicht wirklich notwendig darauf zu antworten. Das war auch eher heiße Luft und deutet auch mehr darauf hin, dass vor Sommer gar nichts passieren wird und erst dann es so langsam mit Polaris losgeht aber eben auch ohne High End. Viel anders wird es bei Nvidia auch nicht aussehen.

Ich tippe darauf, dass wir von beiden maximal Performance Chips im Endverbrauchermarkt dieses Jahr sehen (natürlich beim obersten Modell zum üblichen High End Preis) und diese dann vermutlich auch nicht mit HBM2. Ist auch nicht notwendig. Die Bandbreite von HBM2 ist Overkill für die Performance Chips die da kommen werden. Das treibt nur die Kosten. Bei den großem Brocken sieht das anders aus. Da wird sich aber zumindest Nvidia erstmal auf den Profimarkt konzentrieren und vermutlich hier sogar auch eher mit Salvage Chips bzw. angezogener Handbremse um die Ausbeute zu erhöhen.

Timbaloo
2016-03-15, 20:37:30
Ich kann mir die Vierziffernbezeichner irgendwie nicht vorstellen. Das klingt irgendwie nicht passend. Ich würde fast drauf wetten, dass da was Neues kommt.

Thunder99
2016-03-15, 23:48:11
evt GTX X1xxx? Wie AMD damals :freak:

Godmode
2016-03-15, 23:50:52
Gibt es nichts gehaltvolleres, als die Namen zu erraten?

Thunder99
2016-03-15, 23:57:06
Was gibt es sonst noch spekulatives? Ob GDDR5 oder GDDR5X kommt wird sich zeigen in wie weit die Vorproduktion nvidia sich abgreifen kann für die Menge die sie benötigen

Godmode
2016-03-15, 23:58:18
Leider nicht sehr viel, ich hoffe auf die GTC.

scully1234
2016-03-16, 07:17:11
Gibt es nichts gehaltvolleres, als die Namen zu erraten?


Vielleicht heute Nacht???

Rendering Faster and Better With NVIDIA VRWorks™ VR in UE4 | 12:45 pm – 1:45 pm

Sweeny und das VR Gedoens waeren so der letzte Ansatz auf der GDC um noch was zu Pascal zu bringen

Obwohl nach der Pfeffer Shoten Veranstaltung sehe ich da ehrlich gesagt keine Notwendigkeit mehr

Aber der Quellcode zu einigen Gameworksbibliotheken ist ja auch schon mal was

http://videocardz.com/58535/nvidia-announces-gameworks-sdk-3-1

Duerfte wohl so einigen Blackboxkritikern nicht so ganz in die Argumentationslinie passen

Hübie
2016-03-16, 08:05:59
Ich bin wirklich mal gespannt wieviel VR am Ende des Jahres nun umgesetzt hat. Mich reizt das bisher noch nicht (zu dem Preis). Sony's PlayStation VR könnte für 400$ einen Umbruch bedeuten, aber das meiste ist noch Bastelbuden-Niveau mit anspruchslosen Spielen. Es wird also noch etwas Zeit ins Land ziehen eh VR spruchreif ist. Und ob es wohnzimmertauglich ist darf immer noch angezweifelt werden.
Geht's eigentlich nur mir so oder seid ihr auch genervt von VR hier, VR dort...? :confused: Man hat das Gefühl, dass man keine anderen Innovativen hat und einfach auf den Zug aufspringt. Getreu dem Motto: "Dabei ist alles."

scully1234
2016-03-16, 08:17:59
Geht's eigentlich nur mir so oder seid ihr auch genervt von VR hier, VR dort...? :confused: ."

Nicht unbedingt, das ist ''richtige Hardware voraus gesetzt'', und vernünftig umgesetzt, schon was anderes als dieser Hype von damals, oder der 3D Hype vor ein paar Jahren :smile:

Wenn AMD das mit 4K x 4k pro Auge wirklich umsetzen kann, auch ready fuer den produktiven Einsatz (Stichwort virtueller Desktop)
Aber Ausfuerungen dazu wuerden das eigentliche Thema hier sprengen

Hübie
2016-03-16, 08:21:14
Du glaubst doch selber nicht, dass man vernünftige Grafik mit der kommenden Generation in dieser Auflösung umsetzen kann. ;)

iuno
2016-03-16, 08:23:01
Man hat das Gefühl, dass man keine anderen Innovativen hat und einfach auf den Zug aufspringt. Getreu dem Motto: "Dabei sein ist alles."
ftfy ;p
Sehe es genauso, aber es ist auch klar, dass die Industrie immer auf solche Hype-Trains aufspringt. Bei den Pro-Karten ist das seit ein paar Jahren machine/deep learning, bei consumern halt 4k und VR.

scully1234
2016-03-16, 08:24:16
Doch doch allerdings nicht mit den derzeitigen Spezifikationen, das ist einfach ne Seifenblase von Oculus und Valve:smile:

Da sind aber Techniken im kommen die die GPU Last entscheident verringern werden

Eyetracking gekoppelt mit dem zu rendernden Material was das Auge erfassen kann z.B

Man rendert nicht mehr den ganzen Bildschirminhalt in voller Aufloesung sondern nur das worauf fokusiert wird

https://www.youtube.com/watch?time_continue=97&v=2HS2p2BmVsk

Hübie
2016-03-16, 08:30:55
ftfy ;p

Du kennst offenbar nicht Johanna... Das ist beinahe eine Bildungslücke :biggrin:

@scully1234: Wart mal ab. ;) Wir reden in 3 Jahren weiter. Mich nervt dieses Gesülze nur noch.

iuno
2016-03-16, 08:44:20
Da sind aber Techniken im kommen die die GPU Last entscheident verringern werden

Eyetracking gekoppelt mit dem zu rendernden Material was das Auge erfassen kann z.B

Man rendert nicht mehr den ganzen Bildschirminhalt in voller Aufloesung sondern nur das worauf fokusiert wird
Kleine Anmerkung: Fixation != Fokus
Fokus hat mit dem Scharfstellen und der Entfernung zu tun, Fixation eben mit dem Punkt, den man anschaut. Der Fokus aendert sich ja mit einem HMD nicht und liegt mithilfe der Linsen immer auf dem Display.
Zu fovealem Rendering gab es meine ich von Nvidia mal was, der Ansatz war auch "aussen herum" dynamisch die Aufloesung reduzieren. Wie man aber in Echtzeit unterhalb von einem HMD Eyetracking machen will, musst du mir erst noch erklaeren ;)

EDIT: Nvidia auf der Computex 2015: http://www.computerbase.de/2015-06/nvidia-maxwell-mehr-leistung-in-vr-spielen-durch-weniger-rendern/
Dabei geht es aber nicht wie ich in Erinnerung hatte um die Fixation sondern generell um die Verzerrung des Bildes durch die Linsen vor allem im Aussenbereich. Mit multi-resolution shading wollen sie also 'nur' konstant aeussere Pixel einsparen. Ist halt bloed wenn man die Augen bewegt und aussen alles unscharf ist, dann bringt der grosse viewport auch nix ;)

Du kennst offenbar nicht Johanna... Das ist beinahe eine Bildungslücke :biggrin:
Dann muss ich wohl nachsitzen :|

Calypso
2016-03-16, 08:45:21
also ich denke ja auch nicht, dass VR DER neue Hype ist, 3D Brillen waren dagegen preiswert und handlich und haben sich dennoch nicht durchgesetzt, da werden es die großen und teuren VR Teile denke ich noch schwieriger haben...

scully1234
2016-03-16, 08:48:23
Wie man aber in Echtzeit unterhalb von einem HMD Eyetracking machen will, musst du mir erst noch erklaeren ;)


Infrarotabtastung der Pupille im HDM selbst

http://www.roadtovr.com/hands-on-smi-proves-that-foveated-rendering-is-here-and-it-really-works/

Es gibt glaub ich fuer Games auch schon erste Angebote abseits von VR die funktionieren

da werden es die großen und teuren VR Teile denke ich noch schwieriger haben...

Gross ist relativ die Entwicklung geht ja weiter

Das ist die Firma ''wird vermutet'' (http://www.businesswire.com/news/home/20160106006599/en/)mit der AMD das 4x4 K Headset bauen will auf Basis von Microdisplays
http://www.roadtovr.com/emagin-announces-2kx2k-resolution-vr-headset-demoing-at-awe-2015/

Schon ein entscheidender Schritt vorwaerts in der Miniaturisierung

Hübie
2016-03-16, 08:54:16
also ich denke ja auch nicht, dass VR DER neue Hype ist, 3D Brillen waren dagegen preiswert und handlich und haben sich dennoch nicht durchgesetzt, da werden es die großen und teuren VR Teile denke ich noch schwieriger haben...

Hardware, Monitor, Brille und Software mussten stimmen. Ist jetzt nichts anderes.
Bei 95% der User ist es so, dass bei 300 Euro für eine Graka Schluß ist. Von denen noch mal gut zwei Drittel bei 200. Also kannst du frühestens 2020 mit VR am Massenmarkt rechnen.

@iuno: Google einfach mal Johanna DSDS und staune. Wobei ich mir sicher bin dass die Geld dafür bekommen hat. :freak:

ps: Das mit Echtzeit ist bei scully glaub ich nicht angekommen. :D

scully1234
2016-03-16, 09:05:26
ps: Das mit Echtzeit ist bei scully glaub ich nicht angekommen. :D

Doch schau mal in den Link von den Beta Testern:tongue:

The system was so accurate that, even when the box was a mere few pixels across at 100s of feet in the air, I was still able to hit it as a target and continue blasting it higher. Seriously impressive stuff.

Unity hat die Renderingpipeline auch noch mal signifikant auf wenige ms gedrueckt ,sodas beides im Einklang schon funktionieren kann, in den von Carmack geforderten 11,1ms

Hübie
2016-03-16, 09:28:11
Doch schau mal in den Link von den Beta Testern:tongue:

Nö. Lese doch mal richtig. ;)

Und über PSVR lese ich gerade dass man noch mal Kamera und Motion-Controller kaufen muss. Das heißt man kommt da auch bei 500 heraus.

scully1234
2016-03-16, 09:45:59
Nö. Lese doch mal richtig. ;)


Das ist die Meinung des Testers


There were a couple of questions that I had going into this demo.

One: Is the eye tracking to Foveated pipeline quick enough to track my eye, shifting that bullseye and concentric circles of lower detail fast enough for me not to detect it? The answer is ‘yes’, it can – and it really does work well.

Das ist denke ich mal schon bezogen auf einen Task in Real Time

Btt:
Aber was ist mit Pascal eigentlich das ist das Thema des Threads ich weiss imo wenig Infos oder hast du neue die du mit uns teilen moechtest/koenntest ec pp:biggrin:

scully1234
2016-03-17, 00:29:07
Was wird das wohl wenns fertig ist


https://twitter.com/FalconNW/status/709894657371561984?lang=de

Zufall oder Absicht das das Case das selbe ist was AMD fuer seine Dual Grafikkarten Präsentation nutzte

Nicht das da auch noch ,ne Dual Platine kommt, auf Maxwell Basis, und Nvidia da wen trollen moechte

Unicous
2016-03-17, 00:45:00
Falcon verbaut fast ausschließlich Nvidia und ist seit mehreren Jahren (auch Messe-)Partner. Erst seit Kurzem haben sie überhaupt wieder AMD-GPUs im Angebot. Von daher sehe ich da erst mal nur Zockstationen.:wink:

Blediator16
2016-03-17, 06:32:28
Mit der brandneuen gtx950 ohne extra stromanschluss

Korvaun
2016-03-17, 07:32:20
also ich denke ja auch nicht, dass VR DER neue Hype ist, 3D Brillen waren dagegen preiswert und handlich und haben sich dennoch nicht durchgesetzt, da werden es die großen und teuren VR Teile denke ich noch schwieriger haben...

Also 3D Brillen und VR-Brillen der neuen Generation ist aber ein himmelweiter Unterschied. JEDER wird VR haben und benutzen, wenn es denn preiswert genug wird, so geil ist der Scheiß ;)

Diese Generation sicher nicht, nächste auch nicht, aber ab ca. 2020 sollte die Technik so weit sein...

scully1234
2016-03-17, 08:25:59
x80 ,x80 TI???



http://imgur.com/kFj1kER

eher n Scherz oder:smile:

N0Thing
2016-03-17, 08:34:21
x80 ,x80 TI???



http://imgur.com/kFj1kER

eher n Scherz oder:smile:

Ich glaube kaum, dass Nvidia den GP100 mit zwei unterschiedlichen Speicherinterfaces bestückt. :D

HOT
2016-03-17, 09:24:31
Also 3D Brillen und VR-Brillen der neuen Generation ist aber ein himmelweiter Unterschied. JEDER wird VR haben und benutzen, wenn es denn preiswert genug wird, so geil ist der Scheiß ;)

Diese Generation sicher nicht, nächste auch nicht, aber ab ca. 2020 sollte die Technik so weit sein...
Selten so einen Unsinn gelesen. Erstens wird es niemals so billig sein, geht auch nicht, da du immer die doppelte Grafikleistung brauchen wirst und zweitens wird die Sickness immer noch massiv schöngeredet und unterschätzt, die ist weiterhin ein riesen Problem, das kaum lösbar scheint. Auch weitere rein praktische Probleme sind nicht lösbar (z.B. sowas banales wie Essen/Trinken während des Spielens). Ich glaub immer noch, dass VR der Flop des Jahrhunderts wird - keine Akzeptanz, stets viel zu hohe Kosten, und die, die es nutzen, nutzen das wahrscheinlich genauso oft wie Kinect bei der XBox oder so oft wie die Wii mit Hampelgames genutzt wird, so ungefähr ein Mal im Jahr wenns hoch kommt. Es ist einfach am Menschen vorbeidesignt, das ist das große Problem. Schon AR ist unfassbar nach Hinten losgegangen, VR wird es kaum anders ergehen.
Es gibt ein wirklich nützliches Einsatzgebiet für VR/AR, das ist Konstrktion und Design.

maximus_hertus
2016-03-17, 09:30:43
x80 ,x80 TI???



http://imgur.com/kFj1kER

eher n Scherz oder:smile:

Yep, einfach ein Fake / Spasstabelle.


@VR

Das war, ist und bleibt ein Nischenprodukt. Solange man etwas aufsetzen muss hat es imo keine Chance auf den Massenmarkt.

scully1234
2016-03-17, 09:47:37
Solange man etwas aufsetzen muss hat es imo keine Chance auf den Massenmarkt.

Stimmt beim Motoradfahren musst du auch nen schweren Helm aufsetzen ,niemand faehrt mehr Motorrad deswegen oder?

Ists vielleicht am Ende doch die Erfahrung und der Spassfaktor, der darueber entscheidet ob was ne Chance hat oder nicht, und nicht solche banalen Dinge wie ne Brille auf der Nase,die nicht mal auch nur annaehernd so unflexibel ist ,wie ein klobiger Helm auf dem Motorrad?

Korvaun
2016-03-17, 10:00:23
Selten so einen Unsinn gelesen. Erstens wird es niemals so billig sein, geht auch nicht, da du immer die doppelte Grafikleistung brauchen wirst und zweitens wird die Sickness immer noch massiv schöngeredet und unterschätzt, die ist weiterhin ein riesen Problem, das kaum lösbar scheint. Auch weitere rein praktische Probleme sind nicht lösbar (z.B. sowas banales wie Essen/Trinken während des Spielens). Ich glaub immer noch, dass VR der Flop des Jahrhunderts wird - keine Akzeptanz, stets viel zu hohe Kosten, und die, die es nutzen, nutzen das wahrscheinlich genauso oft wie Kinect bei der XBox oder so oft wie die Wii mit Hampelgames genutzt wird, so ungefähr ein Mal im Jahr wenns hoch kommt. Es ist einfach am Menschen vorbeidesignt, das ist das große Problem. Schon AR ist unfassbar nach Hinten losgegangen, VR wird es kaum anders ergehen.
Es gibt ein wirklich nützliches Einsatzgebiet für VR/AR, das ist Konstrktion und Design.

Traurig das du so ein Pessimist bist... wir sprechen dann in ein paar Jahren
nochmal über deine Vorhersage.

scully1234
2016-03-17, 10:07:51
Traurig das du so ein Pessimist bist... wir sprechen dann in ein paar Jahren
nochmal über deine Vorhersage.

Goggle schein wohl das Ganze etwas anders zu sehen, wie mancher hier, aber vielleicht haben die auch nur Lust knapp 600 Millionen zu verbrennen, in einer zum scheitern verurteilten Technologie

http://www.theverge.com/2014/10/21/7026889/magic-leap-google-leads-542-million-investment-in-augmented-reality-startup

Und Facebook,und Valve erst, alles Konzerne die nicht rechnen koennen, und noch nie Geld verdient haetten, in der Branche

Hübie
2016-03-17, 10:09:00
x80 ,x80 TI???



http://imgur.com/kFj1kER

eher n Scherz oder:smile:

Na ja da hat jemand einfach ein Tipp abgegeben und in eine Tabelle getan. Einiges stimmt schon, ganz sicher. Die Namen klingen auch erst mal plausibel. Ich lege nach wie vor meine Hand ins Feuer dass die nicht einfach 9x0 + 100 heißen werden. ;)

scully1234
2016-03-17, 10:14:21
Koennte fast Herr Sauter gewesen sein, aber der faelscht lieber GPU Z Screens,anstatt Exel Tabellen:biggrin:

Aber die Namen nur 3 stellig? Sonst haette er doch XX80 getippt

HOT
2016-03-17, 10:22:22
Goggle schein wohl das Ganze etwas anders zu sehen, wie mancher hier, aber vielleicht haben die auch nur Lust knapp 600 Millionen zu verbrennen, in einer zum scheitern verurteilten Technologie

http://www.theverge.com/2014/10/21/7026889/magic-leap-google-leads-542-million-investment-in-augmented-reality-startup

Und Facebook,und Valve erst, alles Konzerne die nicht rechnen koennen, und noch nie Geld verdient haetten, in der Branche
Du verkennst das was gewaltig. Die Konzerne wissen mittlerweile, dass VR ein Rohrkräpierer ist, aber die müssen den Trend mitmachen um ihre normalen Produkte zu verkaufen. Du musst mit der Mode gehen oder du bist weg, das gilt auch für die Elektronikbranche. Die Kunst ist, da nicht allezuviel Geld zu versenken und aber die Kosten im Hype schon weiter reinzubekommen, damit das danach vor sich hindümpeln kann. Ich stimme zu, VR war ist und bleibt Nische. Es gibt nur einen kurzen Hype zwischendruch.
Und den Motorradhelmvergleich - ich muss mich korrigieren, du hast mit dem Unsinn den Vogel abgeschossen.

Radeonfreak
2016-03-17, 10:22:49
Also 6GB empfinde ich als ein bisschen wenig für die kommende Generation. :frown:

y33H@
2016-03-17, 10:24:03
Bin unschuldig :P

scully1234
2016-03-17, 10:24:57
Zumal das 512 Bit Interface ja wohl schier nicht unterzubringen ist, wenn das HBM SI schon gesetzt ist

Bin unschuldig :P

Kann ja jeder sagen:tongue:

Hübie
2016-03-17, 10:32:57
Also 6GB empfinde ich als ein bisschen wenig für die kommende Generation. :frown:

Ein gutes Pferd springt nur so hoch wie es muss. Aber du musst der Tabelle nicht einfach alles abkaufen.:biggrin:

Edit: Besonders geil find ich das "NVIDIA Confidential" Hahahaaaa... X-D

scully1234
2016-03-17, 10:37:07
Verleiht der Tabelle mehr Wuerde:biggrin:

y33H@
2016-03-17, 11:36:05
Also the leaker suggest HBM2 would have memory bus 4096-bit, but it should be 8192-bit.Wieso sollten es bei vier HBM2-Stack den 8192 Bit sein?!

Botcruscher
2016-03-17, 11:38:57
... und wozu die gigantische Bandbreite?!

Ailuros
2016-03-17, 11:59:21
Wieso sollten es bei vier HBM2-Stack den 8192 Bit sein?!

Lass mir raten, es kommt von WhyCry ja? :freak:

iuno
2016-03-17, 12:24:11
Lass mir raten, es kommt von WhyCry ja? :freak:
Ja, in den Kommentaren zum Artikel wurde es ihm aber inzwischen schon erklaert.
Thanks for pointing that out. So I'm guessing the bandwidth is calculated as (memory clock * memory bus * 2) / 8 for hbm2.
ohne Worte

Godmode
2016-03-17, 12:33:03
Der Blödsinn vor dem Launch steigt mit jeder Generation exponentiell. :facepalm:

Hübie
2016-03-17, 12:43:45
Wer Videocards mit Z schreibt und damit eigentlich graphic-cards meint, der rechnet eben auch Bandbreite nur aus, statt die Technologie zu verinnerlichen. :D

iuno
2016-03-17, 12:45:41
Bestimmt haengt da an einer Pinnwand eine Formelsammlung:
DDR Bandwidth: ...
DDR2 Bandwidth: ...
DDR3 Bandwidth: ...
GDDR5 Bandwidth: ...
HBM Bandwidth: ...
HBM2 Bandwidth: ...
:lol:

Leonidas
2016-03-17, 13:31:17
Stimmt beim Motoradfahren musst du auch nen schweren Helm aufsetzen ,niemand faehrt mehr Motorrad deswegen oder?


Gegenargument: Fast alle verzichten auf den Helm beim Motorradfahren, wenn es denn nicht wirklich kontrolliert wird. Läßt sich dort, wo das usus ist, jederzeit auf der Straßen nachvollziehen.

iuno
2016-03-17, 13:37:07
VR geht aber (noch) nicht ohne 'Helm', Motorradfahren schon. Davon abgesehen glaube ich das nicht, das gilt vielleicht fuer Stecken von wenigen 100 M wo man keine hohen Geschwindigkeiten erreicht. Beim Skifahren ist der Helm ja z.B. auch keine Pflicht und trotzdem hat heute fast jeder einen.

Der Vergleich hinkt aber natuerlich sowieso

scully1234
2016-03-17, 13:48:11
Gegenargument: Fast alle verzichten auf den Helm beim Motorradfahren, wenn es denn nicht wirklich kontrolliert wird. Läßt sich dort, wo das usus ist, jederzeit auf der Straßen nachvollziehen.

Das mag wohl sein und das bestreitet auch niemand, trotzdem schreckt die Helmpflicht im Strassenverkehr niemanden davon ab Motorrad zu fahren, weil es naemlich eine Experience ist, die niemand mehr missen will, wenn er erstmal infiziert ist davon.

Das ist der Punkt den beide Erfahrungen gemein haben, und bei beiden duerfte dann sowas banales wie ein Helm, oder eine Simple VR Brille, nicht der No Go Faktor sein

Unzulaenglichkeiten wie derzeitige Renderperformance, geringe Aufloesung (fuer produktiven Einsatz) und Kabelbindung ,sind anfaenglich natuerlich noch gegeben, aber keine Huerde die nicht schon mit im Beta Stadium befindlichen Technologien, in den naechsten 2/3 Jahren angegangen werden koennten, im Rahmen eines marktvertraeglichen Preises.


AMD arbeitet zusammen mit eMagin (http://www.roadtovr.com/emagin-announces-2kx2k-resolution-vr-headset-demoing-at-awe-2015/) und einem unbekannnten VR Hersteller am Aufloesungsproblem und will 4+4K liefern

SMI (http://www.roadtovr.com/hands-on-smi-proves-that-foveated-rendering-is-here-and-it-really-works/) macht sich mit Eyetracing und foveated Rendering, an die Loesung der Performanceprobleme mit steigender Aufloesung

Nitero (https://www.youtube.com/watch?v=M065tVhG1q8) und Immersive Robotics (http://www.immrobotics.com/) arbeiten an der wireless Umsetzung

Nakai
2016-03-17, 16:17:04
Die Tabelle ist absoluter BS.

GP104 wird eher 256Bit GDDR5X besitzen, als ein 384Bit GDDR5 SI.

Und GP100 wird auf HBM2 setzen.

Was GP102 ist, werden wir bald erfahren.

Ich vermute langsam, dass NV GP100 ohne Display IOs etc, ausliefert und GP102 das hierfür übernimmt. GP100 könnte DP:SP-1:2 haben.

Eine waghalsige Theorie meinerseits ist, dass GP102 ein extra Chip mit Display PHYs und noch zusätzlicher Cuda-Cores ist. Ergo GP102+GP100 ist dann ein Titan XYZ.

GP104:
~4000SPs

GP100:
~4000SPs + HBM2 + hoher DP-Rate

GP102:
~2000 SPs + Display IO

Kurz ein Titan XYZ hätte 6000 SPs und dann tatsächlich die propagierte DP-Rate von 1:3.


Nein, vergesst das lieber wieder. ;D

iuno
2016-03-17, 16:25:52
Ich vermute langsam, dass NV GP100 ohne Display IOs etc, ausliefert und GP102 das hierfür übernimmt.
Das ist mir auch schon durch den Kopf gegangen, an den Rest glaube ich aber auch mit NVLink nicht.
Dann waere GP100 aber ausschliesslich fuer Tesla zu gebrauchen, nicht als GeForce Titan oder Quadro fuer Workstations. Ob sich das lohnt?
Und wenn man es genau nimmt, braucht Display und die Video Blocks auch fast keine Flaeche.

Sunrise
2016-03-17, 16:27:48
Die Tabelle ist absoluter BS.

GP104:
~4000SPs

GP102:
~2000 SPs + Display IO
Hä? Das ergibt mal garkeinen Sinn.

104 -> 102 -> 100 (von Mainstream/Performance bis HPC)

Wieso sollte GP102 plötzlich nur 2000 SPs haben? Weniger als GP104?

iuno
2016-03-17, 16:28:40
In seiner Theorie gibt es GP102 nicht als standalone sonder nur im Zusammenspiel mit GP100 -> 6k SPs.
Also gibt es wieder ansatzweise Sinn ;D

edit: jetzt habe ich auch noch einen typo gemacht, natuerlich 6k :D

Sunrise
2016-03-17, 16:29:48
In seiner Theorie gibt es GP102 nicht als standalone sonder nur im Zusammenspiel mit GP100 -> 5k SPs.
Also gibt es wieder ansatzweise Sinn ;D
Ich glaub jetzt hab ich nen Knick im Hirn...Vielen vielen Dank auch! ;D

Loeschzwerg
2016-03-17, 16:32:23
NVIO (http://www.xbitlabs.com/images/video/geforce-gtx200-theory/nvidia_gf_gtx_200_nvio.jpg) lässt grüßen :uwave: *sofern GP100 ohne IO*

Nakai
2016-03-17, 16:41:38
In seiner Theorie gibt es GP102 nicht als standalone sonder nur im Zusammenspiel mit GP100 -> 6k SPs.
Also gibt es wieder ansatzweise Sinn ;D

edit: jetzt habe ich auch noch einen typo gemacht, natuerlich 6k :D

Belassen wir es bei ansatzweise Sinn. Vom Namensschema ergibt es keinen Sinn, keine Sorge, das ist mir klar.;D

Hübie
2016-03-17, 19:04:03
Mal abgesehen von der Tatsache, dass man noch nicht weiß, welcher Chip welcher ist, liegt Nakai vielleicht gar nicht so verkehrt. Nur müsste man die beiden plausibel verheiraten. Dann eher: GP100 ist 102 ohne UVD, DISP und TMUs (oder eben umgekehrt).

Sunrise
2016-03-17, 19:17:48
Mal abgesehen von der Tatsache, dass man noch nicht weiß, welcher Chip welcher ist, liegt Nakai vielleicht gar nicht so verkehrt. Nur müsste man die beiden plausibel verheiraten. Dann eher: GP100 ist 102 ohne UVD, DISP und TMUs (oder eben umgekehrt).
Ich denke auch, dass sowas am Wahrscheinlichsten ist. Und zusätzlich könnte man den ganzen NVLink-Kram weglassen. Es würde mich immernoch sehr stark wundern, GP100 jemals für Spieler zu sehen.

Wenn GP102 wie von mir vermutet einfach nur wieder das 1,5fache von GP104 an Einheiten hat, dann haben wir wieder eine Konstellation wie bei GM204 vs. GM200 jetzt.

Hübie
2016-03-17, 19:18:47
Afaik ist NVLINK eh eher wie ein Modul.

N0Thing
2016-03-17, 19:51:45
Ich denke auch, dass sowas am Wahrscheinlichsten ist. Und zusätzlich könnte man den ganzen NVLink-Kram weglassen. Es würde mich immernoch sehr stark wundern, GP100 jemals für Spieler zu sehen.

Mich wunder bei dem Szenario der Umstand, dass es bisher als nicht wirtschaftlich machbar gegolten hat, wenn Nvdia einen fetten Chip nur für den HPC-Markt aufgelegt hätte. Das dies nun ausgerechnet bei der teuren FinFet-Fertigung sinnvoll sein soll, überrascht mich dann doch. Ist der Bedarf an entsprechenden Compute-Karten in den letzten Jahren dermaßen angestiegen?

scully1234
2016-03-17, 20:31:26
Mal abgesehen von der Tatsache, dass man noch nicht weiß, welcher Chip welcher ist, liegt Nakai vielleicht gar nicht so verkehrt. Nur müsste man die beiden plausibel verheiraten. Dann eher: GP100 ist 102 ohne UVD, DISP und TMUs (oder eben umgekehrt).


Dann waere die Hoffnung ,auf einen groesseren Chip dieses Jahr ,ja doch noch nicht ganz verloren:P

Falls TSMC die Ressourcen fuer 3 Lineups frei raeumen konnte fuer Nvidia ''an jeden kleinen Ast klammer''

Allerdings haette da Zauba ja auch mal was listen muessen /sollen/ duerfen:usad:

Flexarius
2016-03-17, 20:59:39
http://wccftech.com/nvidia-pascal-specs/
Angebliche Spec's der neuen Geforce

Hi gab es die Infos schon?

Timbaloo
2016-03-17, 21:05:08
Ja, und Fake, da GP100 mit HBM2- und GDDR5-Speicherinterface keinen Sinn ergibt.

Hübie
2016-03-17, 23:39:10
http://wccftech.com/nvidia-pascal-specs/
Angebliche Spec's der neuen Geforce

Hi gab es die Infos schon?

Wenigstens erwähnt er die gröbsten Schnitzer. Manchmal denk ich die lesen hier alle mit. :freak:

Godmode
2016-03-18, 02:07:17
Mich wunder bei dem Szenario der Umstand, dass es bisher als nicht wirtschaftlich machbar gegolten hat, wenn Nvdia einen fetten Chip nur für den HPC-Markt aufgelegt hätte. Das dies nun ausgerechnet bei der teuren FinFet-Fertigung sinnvoll sein soll, überrascht mich dann doch. Ist der Bedarf an entsprechenden Compute-Karten in den letzten Jahren dermaßen angestiegen?

Evetuell macht es genau wegen 16ff+ Sinn, weil dort größere Chips, unverhältnismäßig teuer sind?

Ailuros
2016-03-18, 06:52:12
Mich wunder bei dem Szenario der Umstand, dass es bisher als nicht wirtschaftlich machbar gegolten hat, wenn Nvdia einen fetten Chip nur für den HPC-Markt aufgelegt hätte. Das dies nun ausgerechnet bei der teuren FinFet-Fertigung sinnvoll sein soll, überrascht mich dann doch. Ist der Bedarf an entsprechenden Compute-Karten in den letzten Jahren dermaßen angestiegen?

Du kannst einen Monster-chip wie GP100 so oder so in nichts anderes als einen FF Prozess quetschen. Damit die Herstellungskosten eine Rolle spielen, muesste der Gewinn von Teslas + high end Quadros in der Region von allen R&D Kosten fuer einen solchen chip liegen.

Sonst wenn es nur um Herstellungskosten ginge koennten IHVs auch noch weiterhin warten bis FF Prozesse noch etwas billiger werden herzustellen. Der hauptsaechliche Drang von enthusiast bis zu mainstream ist aber Stromverbrauch.

Es ist eben auch kein Zufall dass wir erst jetzt Maxwell/ultra low end chips auf 28nm sehen.

Dural
2016-03-18, 09:35:12
Ihr habt wohl was verpasst!?
NV hat schon längst Fette HPC-Chips raus gebracht, GK210. Und ich bin mir ziemlich sicher das NV damit weiterfahren wird, da es einfach Sinn macht.

iuno
2016-03-18, 09:40:57
GK210 ist nur eine kleine Ueberarbeitung von GK110. Soweit ich weiss gibt es nur mehr Platz fuer Register und das Teil wurde auch nur als abgespeckte Variante auf der dual GPU Tesla verbaut oder? Das ist nicht zu vergleichen mit einem komplett eigen fuer Computing entwickelten Chip.
Das war auch imho mehr eine Notloesung um Kepler noch interessant zu halten, weil Maxwell einfach nicht dafuer taugt.

Dural
2016-03-18, 09:49:55
ja und, es ist trotzdem ein neues stück silizium.

welcher mehr aufwand? den HPC Chip musste man so wie so immer entwickeln, so wie die gamer varianten darunter.

der unterschied ist nur das man einen Chip mehr hat, und das könnte sich ziemlich schnell lohnen.

iuno
2016-03-18, 09:57:40
schon immer? Es gab keinen reinen HPC Chip, weder GK110 noch GF100/GF110 waren das, um mal die neuesten zu nennen. Das waren auch immer Gamer-Chips. Und GK210 kam wie gesagt nur nach, weil Maxwell untauglich war.
Das einzige ist vielleicht, dass der Top Chip auch mehr FP64 Leistung hatte. Stimmt, das braeuchte man bei einem kolporierten Gaming-Top-Chip GP102 nicht. Aber gfx und compute wachsen immer weiter zusammen. Und mit mixed precision weiss ich nicht ob sich da ein extra Chip lohnt.

Ob GK210 wirklich ein neuer Chip ist, damit waere ich mir nicht mal sicher, nach der Strategie wie Nvidia den GK110 verkauft hat. Vielleicht waren die Register da auch bei schon immer groesser/mehr :devil:

Ailuros
2016-03-18, 10:01:08
Ihr habt wohl was verpasst!?
NV hat schon längst Fette HPC-Chips raus gebracht, GK210. Und ich bin mir ziemlich sicher das NV damit weiterfahren wird, da es einfach Sinn macht.

Wir haben gar nichts verpasst. Du hasst eher verpasst dass der Aufwand bzw. R&D Kosten fuer einen GK210 diametrisch kleiner sind als bei einem vollen GP100. Dass soll nicht heissen dass der 210 keine Indizie ist, aber als Garantie sehe ich es noch lange nicht fuer gar nichts.

scully1234
2016-03-18, 11:32:20
Mal noch was anderes zum Speicherinterface ,so wie gesagt wurde gilt ein 4096 bit SI ja als gesetzt fuer den GP100

Ist es nicht vielleicht auch denkbar ,das bei Konstruktion des selben Nvidia einen Aufbau gefunden hat, der es ermoeglichen koennte am HBM SI, trotzdem GDDR5 zu verdrahten,ohne doppelt ausgelegtes SI?

Godmode
2016-03-18, 11:35:44
Mal noch was anderes zum Speicherinterface ,so wie gesagt wurde gilt ein 4096 bit SI ja als gesetzt fuer den GP100

Ist es nicht vielleicht auch denkbar ,das bei Konstruktion des selben Nvidia einen Aufbau gefunden hat, der es ermoeglichen koennte am HBM SI, trotzdem GDDR5 zu verdrahten?

Ich halte dass für sehr unwahrscheinlich, bin aber auch absoluter Laie, was Chipentwicklung angeht. Interessant fände ich, ob man dass SI in den Interposer (aktiver Interposer?) auslagern könnte? IIRC sind die Zufgriffsmuster bei HBM völlig anders als bei GDDR5/X, daher ist wohl auch diese Idee völliger Bullshit.

Aber merkt ihr das, wir kommen immer auf "schiefere" Theorieren. ^^

scully1234
2016-03-18, 11:37:32
Ich suche halt immer noch nach meiner Titan 2.0 fuer dieses Jahr:smile:

Gipsel
2016-03-18, 11:39:45
Ist es nicht vielleicht auch denkbar ,das bei Konstruktion des selben Nvidia einen Aufbau gefunden hat, der es ermoeglichen koennte am HBM SI, trotzdem GDDR5 zu verdrahten?Ein GDDR5-Speicherchip kann mit den tausenden Datenleitungen eines HBM-PHYs nicht das Geringste anfangen und andersrum kann ein HBM-PHY auch gar nicht die Signale treiben, die zur Ansteuerung von GDDR5 nötig sind. Es hat schon einen Grund, warum ein HBM-PHY für 1024 Datenleitungen eine etwa vergleichbare Größe aufweist wie ein GDDR5-PHY für nur 64 Datenleitungen. Das ist ziemlich inkompatibel zueinander und somit läuft das zwingend auf eine Verdopplung hinaus, wollte man beides anbinden können.

Godmode
2016-03-18, 11:43:16
Ich suche halt immer noch nach meiner Titan 2.0 fuer dieses Jahr:smile:

Ich bin da immer noch pessimistisch und sage es wird 2017. Das sage ich schon seit Anfang dieses Fadens.

N0Thing
2016-03-18, 14:56:18
Evetuell macht es genau wegen 16ff+ Sinn, weil dort größere Chips, unverhältnismäßig teuer sind?

Das widerspricht nur der Argumentation der Experten von früher. Da war man der Ansicht, dass die Kosten für R&D eines einzelnen HPC-Chips nicht wieder eingespielt werden können. Und mit FinFet steigen eben auch noch mal die Kosten für Produktion und Design deutlich stärker als zuvor.
Bisher konnte man die Entwicklungskosten auch wieder bei den Gamern einsammeln, speziell mit den Marketing-Stunts der Titan-Reihe, aber eben auch davor. Entweder hat sich Nvidia bisher den Hintern blutig verdient und es wäre auch schon vorher problemlos möglich gewesen, einen speziellen HPC-Chip zu kreieren und somit hätten sich die Experten geirrt, oder es haben sich jetzt die Rahmenbedingungen geändert. Also größere Absatzmengen und/oder höherer Preis und/oder geringere Kosten bei der Entwicklung (als Beispiel, vielleicht kann die Architektur besser auf unterschiedliche Chipgrößen skaliert werden, die einzelnen Chips müssen weniger von Hand designt werden).

Dural
2016-03-18, 19:12:30
Wie schon gesagt, die r&d bleibt doch nahezu gleich. Den wir haben seit gt200 ja "hpc chips", nur sind diese auch für gamer tauglich. Darunter haben wir reine gamer chips, also ab 104.

Nv fährt seit jahren schon die "zwei chip" strategie, es macht umso mehr sinn diese strategie noch zu erweitern. Da man eine menge transistoren einsparen kann, oder diese für mehr leistung einsetzten kann.

Das einzige was NV mehr geld kostet ist ein grösserer "104" (102) für den high-end gamer markt. Die kosten dürften aber sehr überschaubar sein. Wir werden zu einen zeitpunkt kommen wo ein theoretischer 102 chip im gaming bereich schneller sein wird als der 100, falls wir diesen nicht sogar schon erreicht haben.

N0Thing
2016-03-18, 19:24:20
Das einzige was NV mehr geld kostet ist ein grösserer "104" (102) für den high-end gamer markt. Die kosten dürften aber sehr überschaubar sein.

Dieses Szenario hatten wir schon mit Maxwell und da bisher alle Top Dogs auch an Gamer verkauft wurden, kann der 102 nur "mehr Geld kosten", wenn nvidia bisher mit dem Top Dog sein Geld vor allem im professionellen Bereich und nicht im Gaming Markt verdient hätte. Ich habe da so meine Zweifel.

Aber das wird wohl zu OT mit diesem Thema, zurück zu Nvidia Pascal - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision.

prinz_valium
2016-03-18, 19:26:02
es wird doch wie immer ablaufen

gp204 kommt als highend x80 im vollausbau und x70 im salvage part mit gddr(x) ram
für ~500 dollar
ein halbes (was verwundern würde), oder ein jahr später kommt dann der große pascal chip im vollausbau als titan und x80ti für ~1000 und ~500 dollar. dort sehen wir dann mit aller wahrscheinlichkeit hbm2, weil dieses speicherinterface einfach für HPC verwendet wird.


klingt doch alles logisch und einleuchtend.
die genauen specs sind dann nur noch das einzig interessant :)

Timbaloo
2016-03-18, 19:39:03
Wenn es nicht noch GP102 gäbe...

scully1234
2016-03-18, 19:46:31
http://cdn.videocardz.com/1/2016/03/NVIDAI-Pascal-at-8000-MHz.png
http://cdn.videocardz.com/1/2016/03/NVIDIA-Pascal-at-8000-MHz-2.png

http://videocardz.com/58625/nvidia-geforce-x80ti-and-geforce-x80-titan-specs-hit-the-web-or-do-they

wenn dann wohl ausschließlich ne mobile Variante, oder der Treiber hat nen Lock, oder schlicht mal wieder n Fake

BlacKi
2016-03-18, 19:59:11
es wird doch wie immer ablaufen
der ablauf den du von kepler und maxwell kennst nennst du immer? davor sind zuerst die großen chips released worden.

und wenn man maxwell 1.0 hernimmt gibts diesbezüglich garkeine regulären release abläufe.

mag sein das es so kommt wie bei kepler, dort hatte man schließlich ebenfalls einen neuen fertigungsprozess bei denen die chips anfangs teuer waren, aber da der gp100 ja bereits produziert wird und im sommer verkauft wird könnte man bereits jetzt schon mit dem sammeln teildeaktivierter chips anfangen und die resourcen für den big chip nutzen.

ich hab zwar keine ahnung, aber von kepler auf pascal zu schließen ist noch etwas früh.

Complicated
2016-03-18, 20:03:26
Der obere Screen zeigt ein System mit 2,2 GB System RAM und 8 GB GPU RAM.

scully1234
2016-03-18, 20:06:37
Sind beides aber Desktop Motherboards laut Screen nix Laptop, dann laufen die entweder (absichtlich) auf Sparflamme bei ~50% Leistung ,oder der Core Takt wird nicht korrekt erkannt

prinz_valium
2016-03-18, 20:40:41
der ablauf den du von kepler und maxwell kennst nennst du immer? davor sind zuerst die großen chips released worden.



jup das nenne ich "immer"
so wie es halt immer abgelaufen ist, seit neue prozesse teuer sind, von mobile chips zu erst besetze werden und man die enthusiast gamer so gut melken kann, weil sie bereitwillig solche preise zahlen.

oder glaubt jemand, dass nvida freiwillig auf geld und marge verzichten wird, nachdem sie rekord nach rekord quartal vermeldet haben?
gute zeiten für nvidia. schlechte zeiten für preis-/leistungs fanatiker, wie mich.

wenigstens werden ram und ssds günstiger :)

Hübie
2016-03-18, 21:23:18
Das widerspricht nur der Argumentation der Experten von früher. Da war man der Ansicht, dass die Kosten für R&D eines einzelnen HPC-Chips nicht wieder eingespielt werden können. Und mit FinFet steigen eben auch noch mal die Kosten für Produktion und Design deutlich stärker als zuvor.
Bisher konnte man die Entwicklungskosten auch wieder bei den Gamern einsammeln, speziell mit den Marketing-Stunts der Titan-Reihe, aber eben auch davor. Entweder hat sich Nvidia bisher den Hintern blutig verdient und es wäre auch schon vorher problemlos möglich gewesen, einen speziellen HPC-Chip zu kreieren und somit hätten sich die Experten geirrt, oder es haben sich jetzt die Rahmenbedingungen geändert. Also größere Absatzmengen und/oder höherer Preis und/oder geringere Kosten bei der Entwicklung (als Beispiel, vielleicht kann die Architektur besser auf unterschiedliche Chipgrößen skaliert werden, die einzelnen Chips müssen weniger von Hand designt werden).

Man hat 2012 angefangen eine neue Strategie zu fahren, weil sich die Rahmenbedingungen, wie du richtig erkannt hast, geändert haben. Es war ja auch mit Tesla ein ziemlich großes Risiko für NVIDIA, da man ohne die ganzen Anstrengungen und dem Personalmarketing genau so gut auf die Klappe hätte fliegen können.
Und noch immer ist man nicht in einer komfortablen Situation um die Kunden als Selbstläufer zu bezeichnen. Akquirieren muss man nach wie vor immer wieder. Der Plan sah ursprünglich auch mal anders aus (Maxwell mit Arm-Core für HPC), aber man wird ja nicht umsonst im 21. Jahrhundert nach hoher Flexibilität gefragt. ;)
Mein Tipp ist nach wie vor dass GP100 HPC only ist und im Grunde einem GP102 entspricht (ohne PCIE, UVD, DISP und TMUs).

Edit: Ich glaub Dural hat nicht mitbekommen, dass man mehrere Märkte bedienen muss um die Aktionäre zufrieden zu stellen. Denn ein Gewinn fängt ab einem Dollar oder sogar einem Cent an.

Mandalore
2016-03-18, 21:29:29
http://wccftech.com/nvidia-pascal-3dmark-11-entries-spotted/


Interessant wie ultraklein die GPU ist?!?!?!?!

Hübie
2016-03-18, 21:38:57
X-D Ich sag jetzt mal nix...

Mandalore
2016-03-18, 21:47:13
X-D Ich sag jetzt mal nix...

Whyyyyyyyyyyyy?

N0Thing
2016-03-18, 21:55:31
Test Chip sind wohl die Zauberworte.

Nakai
2016-03-18, 22:03:54
X-D Ich sag jetzt mal nix...

Wenn das mal wirklich zwei GPUs auf dem Package sind. ;D

Sieht stark nach einem MCM-Testmodul aus. GP102/100 ich hör dich trapsen.

€: Ahja, keine Displayausgänge. Ist wohl am ehesten ein Testboard und hat nicht viel mit einem fertigen Produkt zu tun.

AnarchX
2016-03-19, 10:46:18
http://cdn.videocardz.com/1/2016/03/NVIDAI-Pascal-at-8000-MHz.png
http://cdn.videocardz.com/1/2016/03/NVIDIA-Pascal-at-8000-MHz-2.png

http://videocardz.com/58625/nvidia-geforce-x80ti-and-geforce-x80-titan-specs-hit-the-web-or-do-they

wenn dann wohl ausschließlich ne mobile Variante, oder der Treiber hat nen Lock, oder schlicht mal wieder n Fake

Die Ergebnisse sind so bei Futuremark gelistet. Treiberversion und Benennung deuten da schon auf Testkarten hin.
Hat die 7680MiB Karte vielleicht ein 240-Bit Interface. ;D

http://wccftech.com/nvidia-pascal-3dmark-11-entries-spotted/

Interessant wie ultraklein die GPU ist?!?!?!?!
Ist das Bild weg? Per Google bekommt man da noch ein PCB mit Dual-GPU-Package zu sehen. AFAIR hatte das Aber NV schon mal gezeigt, das war doch ein NVLINK-Test-Board?

Tamagothi
2016-03-19, 10:50:41
Hat die 7680MiB Karte vielleicht ein 240-Bit Interface. ;D

Das ist die neue GTX 1070 -> 7,5GB + 0,5 GB ;D

Malabolge
2016-03-19, 11:49:01
Hat die 7680MiB Karte vielleicht ein 240-Bit Interface. ;D


Quatsch , das "bewährte";D 192+32 Interface der 970 !
(6144 + 1536 )=7680
(Das wären auf 32-Seite glatt eine VERDREIFACHUNG !) WOW :biggrin:
Pardon (mein Fehler !):
(6656 + 1024) =7680
Leider nur eine Verdoppelung (Hatte leider "Verdeppelung":cool: geschrieben - "Freundsche" Fehlleistung)
Never change a running System !

Und wenn wenn Ende dann eben doch (nur) 6144Mib verbaut sind ?
Oder die ROPS beschnitten wurden ?
Wenn Juckts ? AWESOME !:D

Die "Masse" wirds wieder kaufen wie "geschnitten" Brot

Hübie
2016-03-19, 13:27:50
Whyyyyyyyyyyyy?

Offensichtlich wurde die News noch einmal überarbeitet, da es schon sehr peinlich war ein altes Testboard mit zwei Chips zu sehen, welche mit Pascal soviel zu tun haben, wie eine Kuh mit Fahrrad fahren. :freak:

scully1234
2016-03-19, 14:00:51
Hat die 7680MiB Karte vielleicht ein 240-Bit Interface. ;D


Spricht ja prinzipiell nix dagegen ,wenn man das den Nerds entsprechend kommuniziert ,das wieder so zu handhaben wie bei der 970:biggrin:

Wenn der Preis dementsprechend passt ,und das Ding funktioniert ,geht's wieder in die Steam Top Ten damit, und mit Aufklaerung wie beim Dr. Sommer Team ,dann sogar mal ohne Shitstorm;D

Fusion_Power
2016-03-19, 15:02:28
es wird doch wie immer ablaufen

gp204 kommt als highend x80 im vollausbau und x70 im salvage part mit gddr(x) ram
für ~500 dollar
ein halbes (was verwundern würde), oder ein jahr später kommt dann der große pascal chip im vollausbau als titan und x80ti für ~1000 und ~500 dollar. dort sehen wir dann mit aller wahrscheinlichkeit hbm2, weil dieses speicherinterface einfach für HPC verwendet wird.


klingt doch alles logisch und einleuchtend.
die genauen specs sind dann nur noch das einzig interessant :)

Ich will aber was von der neuen Generation für ~150-200€ max. und am besten gleich... :D

Kriton
2016-03-19, 15:25:58
es wird doch wie immer ablaufen

gp204 kommt als highend x80 im vollausbau und x70 im salvage part mit gddr(x) ram
für ~500 dollar
ein halbes (was verwundern würde), oder ein jahr später kommt dann der große pascal chip im vollausbau als titan und x80ti für ~1000 und ~500 dollar. dort sehen wir dann mit aller wahrscheinlichkeit hbm2, weil dieses speicherinterface einfach für HPC verwendet wird.


"Immer" ist ein weiter Begriff. Nvidia hat das mit der 600er-Reihe begonnen.

Kriton
2016-03-19, 15:29:49
Offensichtlich wurde die News noch einmal überarbeitet, da es schon sehr peinlich war ein altes Testboard mit zwei Chips zu sehen, welche mit Pascal soviel zu tun haben, wie eine Kuh mit Fahrrad fahren. :freak:

http://www.onlinewahn.de/b22.jpg

Unicous
2016-03-19, 15:35:24
I approve this image. It describes WTF-Tech perfectly. (y)


Traurig, dass der Müll hier weiterhin gepostet wird.:frown:

Hübie
2016-03-19, 15:42:25
Hahahahaaaa... X-D Trotzdem noch mal klugscheißen: Das ist ein verdammter Roller und kein Fahrrad :P

prinz_valium
2016-03-19, 15:42:43
"Immer" ist ein weiter Begriff. Nvidia hat das mit der 600er-Reihe begonnen.
wurde schon geklärt
"wie immer in der letzen zeit"

Ich will aber was von der neuen Generation für ~150-200€ max. und am besten gleich... :D
wird mit sicherheit auch kleine chips geben
aber dann gibt es nur wohl nur etwas mehr als 970er leistung für den preis ;)

scully1234
2016-03-19, 15:58:30
Hahahahaaaa... X-D Trotzdem noch mal klugscheißen: Das ist ein verdammter Roller und kein Fahrrad :P

Das laesst sich aendern Majestaet :biggrin:

Fusion_Power
2016-03-19, 16:21:22
wird mit sicherheit auch kleine chips geben
aber dann gibt es nur wohl nur etwas mehr als 970er leistung für den preis ;)
Mehr brauch ich auch gar nicht. Aber dann halt in nem effizienteren (stromsparenden) Chip und vor allem mit mehr als 128Bit Speicheranbindung wie bei den <= 960ern derzeit. Die finde ich nämlich in ihrer Preisklasse recht mau.

scully1234
2016-03-19, 18:46:01
Skurrile Namensfindung:smile:

If the ending SKU number indicated the number of GPU shaders, the product lineup would look as follows:

GeForce PX 4096
GeForce PX 5120 Ti
GeForce PX Titan
GeForce PX Titan M
(http://fudzilla.com/news/graphics/40261-nvidia-leak-suggests-rather-dull-pascal-gpu-naming-scheme)

Complicated
2016-03-19, 19:02:01
Vor allem schlecht für das Rebranding wenn der Codename im Verkaufsname identifizierbar wäre ;)

Unicous
2016-03-19, 19:12:43
Skurrile Namensfindung:smile:

Dir ist aber schon klar, dass das der selbe "leak" hust* fake hust* ist, der schon die letzten Seiten besprochen wurde?:confused:

scully1234
2016-03-19, 19:47:51
Es geht nicht um den Slide selbst ,sondern um die neuen ''kreativen'' Namen fuer das Consumerprodukt

Oder ist da schonmal jemand auf den Gedanken gekommen die Shader als Basis zu nutzen

iuno
2016-03-19, 20:13:24
Ja, Nvidia hatte schon mal die Shaderanzahl als "Erweiterung" im namen einiger Karten, die eben als "Special Edition" (weniger beschnitten) raus kamen.
Ich finde das aber unsinnig. Wer will schon sagen "ich habe mir die PX 5120 Ti geholt"

edit: z.B. die "GeForce GTX 260 Core 216" oder die "GeForce GTX 560 Ti 448 Core" :D

Effe
2016-03-20, 00:37:23
Angeblicher Leak:
https://tech4gamers.com/nvidia-geforce-x80-x80ti-x80-titan-leaked-specifications/
NVIDIA GeForce X80

The successor of GeForce GTX 980 is equipped with GP104 GPU core which would consist of 4,096 CUDA Cores with 256 TMUs and 128 ROPs to a base frequency of 1000 MHz, which would be attached to a striking 6GB of GDDR5 memory running at 8000 MHz (no GDDR5X) with a memory interface of 384 bits give a bandwidth of 384 Gb / s reaching a yield of 8 TFLOPS with 175W TDP.
NVIDIA GeForce X80Ti

Yes, that would replace the GeForce GTX 980Ti. This model will feature the full GPU Core GP100 but castrated, which would consist of 5120 CUDA Cores with 320 TMUs and 160 ROPs to a base frequency of 1025 MHz, which would be united to 8 GB of GDDR5 memory @ 8000 MHz and memory interface of 512 bits give a bandwidth of 512 GB / s reaching 10.5 TFLOPS with 225W TDP.
NVIDIA GeForce Titan X80

GeForce Titan X80 will join the GTX Titan family as its name suggests, the GPU is equipped with Full Pascal GP100 GPU core, that translates to 6144 CUDA Cores with 384 TMUs and 192 ROPs to a base frequency of 1025 MHz, which would be attached to 16GB of HBM2 memory @ 1000 Hz together with a memory interface 1024 bits give a bandwidth of 1024 GB / s reaching 12.5 TFLOPS maintaining 225W TDP.

Obviously, this information is not official, so we expect to see more such rumors before the GTC in April, where Jen-Hsun has his ‘opening keynote’, and hopefully has something to say about Pascal.

Klingt nicht unplausibel. Fraglich ist, ob ein 256bit Interface nicht doch für einen GP104 ausreicht und NV wirklich mehr braucht. HBM für eine Titan XYZ ist auch nicht unwahrscheinlich.

Hübie
2016-03-20, 00:42:43
Schreibt jetzt jeder hier den Müll der Tabelle noch mal nieder? :confused:

Effe
2016-03-20, 00:44:33
Schreibt jetzt jeder hier den Müll der Tabelle noch mal nieder? :confused:
Ja. Es ist schließlich Frühling.

mczak
2016-03-20, 02:34:18
Was für ein lahmer Fake. Um etwas glaubwürdigere Zahlen hinzuwerfen wäre es hilfreich wenn der kreative Faker eine minime Ahnung von der generellen Architektur bei nvidia hätte. Dann wäre der auch nicht gezwungen bei den erfundenen Zahlen hilflos die ROPs einfach mitzuskalieren mit den Shader-Einheiten...
Zum Witz des doppelten Speicherinterfaces bei GP100 wurde ja schon genug gesagt.

Mortalvision
2016-03-20, 21:32:34
Weiß man schon etwas zu Async Shader und dx12 Kompatibilität in Hardware bei Pascal?

M4xw0lf
2016-03-20, 21:41:07
Weiß man schon etwas zu Async Shader und dx12 Kompatibilität in Hardware bei Pascal?
Soll das eine ernstgemeinte Frage sein? :uponder: