PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

HOT
2018-06-07, 09:08:31
Die 980 kam doch auch nur mit 4GB.

scully1234
2018-06-07, 09:09:18
Wer sich das schönreden möchte kann das gerne tun.
.
Du kannst dir ja derweil die Fake Preise der ersten Vega Charge schön reden;)

Und dann mal reflektiere wer seine Kunden mehr auf die Schippe nimmt beim regulären Preis...

Nvidias UVP ist gesunken nach der Einführung, was war nochmal mit Vegas Preis, nach dem anfänglichen Täuschungsmanöver?

Antwort nicht zwingend nötig , denn wir kennen den Verlauf

Linmoum
2018-06-07, 09:22:22
Ja den kennen wir und du blamierst dich deswegen auch ziemlich.

Hat hier auch nichts zu suchen, der Vega-Thread ist nebenan (oder oben). Hier geht's um Turing.

Die 980 kam doch auch nur mit 4GB.
Was für Turing aber auch nichts heißen muss. Aber ja, mehr als 8GB für GT104 sollte man nicht erwarten. Wer da mehr will muss wohl auf den Nachfolger warten oder zu 'nem späteren GT102 greifen. Oder 'ner Titan V. :P

maximus_hertus
2018-06-07, 09:24:54
Warum also viel Geld für neue, nur ähnlich schnelle (oder "langsame") Hardware ausgeben? ;)

Ich denke, hier lehnt sich niemand weit aus dem Fenster, wenn man einen potentiellen GT102 erst weit nach dem Turing-Launch irgendwann in den kommenden Monaten erwartet. Da dürfte es sehr wahrscheinlich erst einmal GT104 werden.

Ich behaupte mal, dass sich aus heutiger Sicht nur GT102 lohnen wird, wenn man wirklich spürbar bessere Performance will. Und GT104 in Form der XX80 leistungsmäßig in den Gefilden der 1080ti unterwegs sein wird. Also das, was man schon seit längerem bekommen kann.

Warum sollte nVidia an ihrem Schema rütteln? Eine GTX xx80 hat die Vorgänger (Top / Ti) Karte immer ein Stück weit abgehängt. Dabei bot man eine dramatisch bessere Energieeffizienz, oft mehr Speicher und der Abstand wurde sehr schnell deutlich größer.

Beispiel:

GTX 1080 schafft @ UHD mäßige 30 fps
Eine 1080 Ti legt dann auf rund 40-42 fps zu.
Eine 1180/2080 dürfte dann bei 48-50 fps liegen.

Das ist ein wesentlicher Unterschied. Bei UHD sind 5-10 fps zusätzlich sehr deutlich spürbar.

Warum sollte ich 550-700 Euro für eine Vanilla 1080 ausgeben, wenn ich eine rund 60-70% schnellere Karte für einen ähnlichen Preis bekomme? Bei gerade mal 4-8 Wochen Wartezeit.

Mangel76
2018-06-07, 09:29:07
Du kannst dir ja derweil die Fake Preise der ersten Vega Charge schön reden;)

Und dann mal reflektiere wer seine Kunden mehr auf die Schippe nimmt beim regulären Preis...

Nvidias UVP ist gesunken nach der Einführung, was war nochmal mit Vegas Preis, nach dem anfänglichen Täuschungsmanöver?

Antwort nicht zwingend nötig , denn wir kennen den Verlauf

Klar, Händleraufschläge wegen fehlender Verfügbarkeit sind natürlich das Gleiche wie Fake Preise von AMD. :facepalm:

Aber das ist hier echt OT!

basix
2018-06-07, 09:50:53
Wie definitiv ist eigentlich, dass Turing in 12nm kommt? TSMC fertigt anscheinend schon seit April 7nm Designs in Serie. Vega 20 gibt es ebenfalls schon dieses Jahr. Könnte man nicht das Spiel von GP104 wiederholen und viel früher als gedacht ein 7nm Design releasen? Da würde auch locker ein 300mm2 Chip reichen, um GP102 als auch Titan V zu schlagen. Das wäre doch ein Paukenschlag von Nvidia mit ebenfalls massig positiver PR.

Preise könnte man ebenfalls sehr hohe verlangen. GP104 Karten werden günstiger und GP102 Karten gehen EOL. Von GT104 könnte man mittels Salvage und Vollausbau auch eine entsprechende Abstufung der SKUs schaffen, damit zu GP104 keine zu grosse Lücke entsteht.

Screemer
2018-06-07, 09:55:41
Du kannst dir ja derweil die Fake Preise der ersten Vega Charge schön reden;)

Und dann mal reflektiere wer seine Kunden mehr auf die Schippe nimmt beim regulären Preis...

Nvidias UVP ist gesunken nach der Einführung, was war nochmal mit Vegas Preis, nach dem anfänglichen Täuschungsmanöver?

Antwort nicht zwingend nötig , denn wir kennen den Verlauf
Was hat das mit dem Thema zu tun? Dass die Bepreisung von Vega scheiße war und nach wie vor Großteils ist, steht doch völlig außer Frage. Wer die Karten damals zum UVP bekam, der hat ordentliche Leistung zu nem anständigen Preis bekommen. Alles danach war eher ein schlechter Witz. Ob das jetzt an AMD lag oder durch Händler wegen wahnsinnig schlechter Verfügbarkeit ausgelöst wurde ist außerdem der Frage. Imho hat AMD keinen Cent mehr durch die höheren Preise verdient. Nur weil du ein fanboy vor dem Herrn bist musst du den nicht bei allen anderen auch vermuten.

dargo
2018-06-07, 10:32:58
8Gb für die 1180 würd ich ein wenig mager finden. :( Das reicht jetzt schon kaum und wie soll es denn dann in 2 Jahren aussehen?
Ist doch Quatsch. Ich kenne hier kein Spiel welches in WQHD mehr als 8GB braucht. Und kommt mir jetzt bitte keiner mit dem Quark bei Final Fantasy oder Wolfenstein 2 wo ein größerer Pool gehalten wird den keiner kaum einer braucht. Ich kann mich noch ganz dunkel an die Aussage von gravitationsfeld erinnern. Streaming @max. bei Wolfenstein 2 soll durch den größeren Pool nur das Streaming an sich "schonender" für die CPU machen. Nur wer braucht das in der Praxis bei einer nativen Vulkan-Applikation? Zudem wird wohl keiner einen GT104 mit einem Celeron Prozessor kombinieren. :tongue: Soll heißen... die CPUs in der Praxis sind für das etwas anspruchsvollere Streaming eine Stufe tiefer schnell genug, erst recht bei Vulkan.

Für 4k wird auch ein GT104 imho zu langsam sein. Von daher sehe ich das mit 8GB nicht so eng.

PS: denkbar wäre auch etwas später ein GT104 mit 16GB mit entsprechendem Aufpreis. Wäre nicht das erste Mal, dass ein Chip mit zweifacher Speicherbestückung veröffentlicht wird. Nur wird die Masse eher mit 8GB beliefert.

AffenJack
2018-06-07, 11:40:25
PS: denkbar wäre auch etwas später ein GT104 mit 16GB mit entsprechendem Aufpreis. Wäre nicht das erste Mal, dass ein Chip mit zweifacher Speicherbestückung veröffentlicht wird. Nur wird die Masse eher mit 8GB beliefert.

Davon gehe ich auch aus. Samsung hat zb auch nur die 2GB module angekündigt und es ist nicht sicher, ob die die kleinen überhaupt herstellen. Hynix hat beide im Angebot. Da der Preis für 16 GB aber extrem teuer wird, gehe ich davon aus, dass wir beides sehen werden.

BlacKi
2018-06-07, 12:31:12
Du scheinst wirklich ein Problem damit zu haben den prozentualen Unterschied zwischen 540€ und 790€ zu errechnen.

Was du Mal wieder in meine Aussagen hineininterpretierst ist richtig lächerlich. Weder will ich NV niederbrennen noch mache ich nur die shareholder für die Einführungspreise verantwortlich.
die euro preise werden nicht am selben tag vom release gemacht, sondern wohl 1-3 wochen davor. anfang septemper 14 war der kurs noch viel besser als ende. da stehts dann 1.34 vs 1.10, das sind immernoch 20% + den fe zuschlag schon den du bei den customs nicht zahlen musstest und fertig.

selbst ohne de FE zuschlag hättest du locker 680€ zahlen müssen, wegen dem kurs und dem 2jährlichen 50$ aufpreis die bisher immer kamen. viele haben dann bei der fe zugeschlagen, weil sie somit schneller an ihre karte gekommen sind. so absolut ok ist, das sind halt die early adopter.

deine kommentare sind oft so bissig, das man meinen könnte das du sie niederbrennen willst.

Es wird weder einen 12GB GT104 noch einen 16GB GT102 geben. Das ergibt sich schon alleine aus dem SI.

ist gddr6 nicht mit der speicherbestückung flexibler?
Ich denke dennoch eher >8GB aber <16GB. Außerdem sind ja krumme Speicherbestückungen möglich. seit GDDR5X

Mancko
2018-06-07, 12:40:48
da muss ich widersprechen: selbst wenn ein konkurrenzprodukt nicht lieferbar ist können allein die daten am papier die absatzzahlen der erhältlichen produkte drücken. paperlaunches existieren aus genau diesem grund. wenn der durchschnittskäufer eine karte kauft ist er erstmal ein paar jahre weg vom markt. diese leute will man dazu bringen ein paar monate zu warten.

Diese Optionen hat Nvidia selber jederzeit insofern ist das für mich kein Argument und diese Option hat AMD schon mit Vega ziemlich ausgereizt. Die Presse wird da folgerichtigerweise extrem kritisch drauf schauen denn den Geduldsfaden mit "Months ahead" und ähnlichem Käse hat AMD schon mehr als ausgereizt vorerst. Die müssen jetzt erstmal liefern zu ihren Aussagen.

Aber ja sowas kann man machen. Hilft aber nix wenn der Konkurrent das auch machen kann und vor allem den Markt einfach mit großer Verfügbarkeit zumüllt. Hatte übrigens Nvidia schon einmal gemacht vor vielen Jahren. Da war man tatsächlich mal vom Prozess leicht hinten und hat dann einfach die alten Produkte auf dem günstigeren Prozess so massiv in den Markt reingepumpt dass AMD leider auf Grund der begrenzten Verfügbarkeit vom neuen Prozess nur PR mässig bisserl profitieren konnte aber eben nicht finanziell.

scully1234
2018-06-07, 12:55:47
Wenn AMD schon so vorschnell mit 7nm von TSMC winkt, und NVIDIA als TSMC Premium Kunde hinter Apple sich bedeckt hält, weiß man doch wie es um die Liefersittuation von marktverträglichen Mengen bestellt ist...
Man schmeißt halt mal wieder nen Papiertiger in den Ring

Wäre nicht verwunderlich wenn NVIDIA diesen noch vorher kontert mit einem 7nm GT102 auf Tesla/Quadro/Titan Basis , weil sie nunmal bessere Konditionen haben beim Auftragsfertiger durch ihre langjährige Partnerschaft

Dann hatte man zwar kurz mal die Aufmerksamkeit für Vega2.0 , nur den Stich macht letztendlich ein anderer

Mangel76
2018-06-07, 13:23:12
Wenn AMD schon so vorschnell mit 7nm von TSMC winkt, und NVIDIA als TSMC Premium Kunde hinter Apple sich bedeckt hält, weiß man doch wie es um die Liefersittuation von marktverträglichen Mengen bestellt ist...
Man schmeißt halt mal wieder nen Papiertiger in den Ring

Wäre nicht verwunderlich wenn NVIDIA diesen noch vorher kontert mit einem 7nm GT102 auf Tesla/Quadro/Titan Basis , weil sie nunmal bessere Konditionen haben beim Auftragsfertiger durch ihre langjährige Partnerschaft

Dann hatte man zwar kurz mal die Aufmerksamkeit für Vega2.0 , nur den Stich macht letztendlich ein anderer

Aber hat denn GT102 auch HR 64FP? Ich denke, V20 hat eine ganz andere Zielgruppe als GT102 mit wesentlich geringerer Stückzahl und daher auch zu früherem Zeitpunkt schon machbar. Da würde ich eher auf eine baldige Ablösung von GV100 in 7nm spekulieren, um dieses Riesen-Die loszuwerden.

Tesseract
2018-06-07, 13:37:20
Diese Optionen hat Nvidia selber jederzeit insofern ist das für mich kein Argument und diese Option hat AMD schon mit Vega ziemlich ausgereizt.

erstens haben sie nicht "jederzeit" die möglichkeit sowas zu launchen da man einen chip für den node umdesignen muss und der mehrere monate durch den designzyklus muss, zweitens ändert das nichts an der vom-kauf-abschreckenden situation sondern verstärkt diese nur noch. wenn beide vaporware bringen kaufen noch weniger leute karten.

Screemer
2018-06-07, 14:03:07
die euro preise werden nicht am selben tag vom release gemacht, sondern wohl 1-3 wochen davor. anfang septemper 14 war der kurs noch viel besser als ende. da stehts dann 1.34 vs 1.10, das sind immernoch 20% + den fe zuschlag schon den du bei den customs nicht zahlen musstest und fertig.

es scheint wirklich dein ernst zu sein, dass der preisanstieg seit gk104 von 380€, über 540€ (lass ich mir durch die knapp 30% größere diesize noch eingehen; straßenpreise eher niedriger) auf 790€ bei der 1080 über nur drei generationen, bei gp104 sogar mit abnahme der diesize zur vorgeneration, gerechtfertigt ist? und noch mal das sind eben keine 20%+7%($50 fe-aufschlag wtf?!) wie der wechselkurs suggerieren würde, sondern mehr als 45% innerhalb einer und sage und schreibe 105% innerhalb von zwei generationswechseln. ach ja ich muss das große ganze betrachten. das hatte ich ganz vergessen.

für mich steht fest, dass die turing generation sich in eben diesem preisbereich bewegen wird. war jetzt auch mein letzter post zu dem thema.

Rancor
2018-06-07, 14:06:27
Lass stecken Screemer. Die Diskussion hatte ich mit ihm auch schon mal. Da ist seine Brille einfach zu grün für ;)

gbm31
2018-06-07, 14:41:40
Die Frage ist halt, was ist schlechter fürs Geschäft?

- Volle Lager mit Pascal, der bei Lauch der neuen Generation "verramscht" werden muss? (natürlich nur im Vergleich zu den bisher hohen Mondpreisen)

- Warten bis Pascal sehr fürstlich entlohnt abverkauft ist, und mit Verspätung die neue Generation launchen

Die jetzige Situation würde bei entsprechenden deutlichen Vorteilen der neuen Generation (mind. +30% Performance zu 1080 (nonTi) und/oder weniger als 180W) erlauben, gleichzeitig beide Generationen laufen zu lassen, und die neue zu entsprechend höheren Preisen anzubieten. :eek:

BlacKi
2018-06-07, 14:50:49
es scheint wirklich dein ernst zu sein, dass der preisanstieg seit gk104 von 380€, über 540€ (lass ich mir durch die knapp 30% größere diesize noch eingehen; straßenpreise eher niedriger) auf 790€ bei der 1080 über nur drei generationen, bei gp104 sogar mit abnahme der diesize zur vorgeneration, gerechtfertigt ist? und noch mal das sind eben keine 20%+7%($50 fe-aufschlag wtf?!) wie der wechselkurs suggerieren würde, sondern mehr als 45% innerhalb einer und sage und schreibe 105% innerhalb von zwei generationswechseln. ach ja ich muss das große ganze betrachten. das hatte ich ganz vergessen.

für mich steht fest, dass die turing generation sich in eben diesem preisbereich bewegen wird. war jetzt auch mein letzter post zu dem thema.
scheinbar kannst du meiner erklärung einfach nicht folgen:
gtx980 preis + ca 50€ preisaufschlag + ca 110€ FE aufschlag x 0,8 wegen eurokurs, fertig hast du deinen gtx 1080 preis von 789€

die 980 hatte nur den regulären x80 preisaufschlag auf diee 680 und keinen kursverfall und kein FE aufschlag. deswegen blieb der preis stabil. nv interessiert sich nicht für europäische preise.

für alles was in dollar bezahlt wird können sich die preise für europäer ändern, wer das nicht akzeptieren kann und darüber diskutiert lebt in einer traumwelt.

ps: gtx 680 - 499€
https://geizhals.de/?phist=753702
http://www.computerbild.de/artikel/cbs-News-PC-Nvidia-Geforce-GTX-680-Kepler-Test-Review-7392495.html

Rampage 2
2018-06-07, 15:17:19
Es wird weder einen 12GB GT104 noch einen 16GB GT102 geben. Das ergibt sich schon alleine aus dem SI.

Wurde denn nicht oft genug erwähnt, dass GDDR6 (auch GDDR5X ?) auch krumme Bestückungen ermöglicht? Also bei 256 Bit SI gleich 12GB VRAM und bei 384 Bit satte 18GB VRAM...

Ich kann mir nicht vorstellen, dass GT104 nur 8GB spendiert bekommt - wer will es denn kaufen, wenn die 1080Ti gleich 11GB hat und wie will man sonst die 1080 und 1080Ti-Besitzer zum Umsteigen bewegen!? (an letzterer Zielgruppe wird NV sicherlich auch Interesse haben...)

Was ich mir aber vorstellen könnte, wäre, dass GT104 in 2 Versionen kommt - einmal mit 8 oder 12GB VRAM und einmal mit 16GB VRAM gegen Aufpreis...

Und was den Preis angeht, bleibe ich nach wie vor bei meinem Standpunkt:

FE: 799$
Customs: 650-700$

R2

AffenJack
2018-06-07, 15:29:56
Wurde denn nicht oft genug erwähnt, dass GDDR6 (auch GDDR5X ?) auch krumme Bestückungen ermöglicht? Also bei 256 Bit SI gleich 12GB VRAM und bei 384 Bit satte 18GB VRAM...

Was ich mir aber vorstellen könnte, wäre, dass GT104 in 2 Versionen kommt - einmal mit 8 oder 12GB VRAM und einmal mit 16GB VRAM gegen Aufpreis...


Es gibt niemanden der sowas produziert. Die Ramhersteller haben ihre Produkte seit Monaten angekündigt. Es ist äußerst unwahrscheinlich, dass sowas kommt.

Jo ich gehe auch von 2 Versionen aus. 8Gb für 599$ und 16Gb für 699$.

gnomi
2018-06-07, 15:57:46
Zwei Versionen einer Karte fände ich schlecht.
Mir gefällt, dass es immer exakt eine Nummer gibt.
Eventuell dann 1170/2070 leicht beschnitten und mit 8GB.
1180/2080 hoffentlich klar mehr.
680/980/1080 - jedes Mal wurde der Speicher verdoppelt...

dargo
2018-06-07, 17:09:24
ist gddr6 nicht mit der speicherbestückung flexibler?
Solange ich in der Praxis keine entsprechende Umsetzung sehe (GTX660 und GTX970 mit ihren kruden Design zähle ich dazu nicht) gehe ich von der üblichen Bestückung aus.

Der_Korken
2018-06-07, 17:22:56
Vielleicht bietet Turing auch was ähnliches wie den HBCC von AMD. In Zeiten teuren DRAMs und Spielen, die absurd viel Speicher allokieren, auf den sie aber dann gar nicht oder kaum zugreifen, wird Nvidia sicherlich auch auf die Idee gekommen sein, dass man hier viel einsparen kann.

Dural
2018-06-07, 17:42:07
Das kann NV doch schon längst, wurde bis jetzt im Gaming Bereich aber noch nie eingesetzt. Ich sehe ehrlich gesagt auch keinen Grund dazu, GDDR6 dürfte relativ billig sein, jedenfalls gegen HBM.

Edit:
Wenn GT104 wirklich 256Bit hat tippe ich ja fast auf 8GB für die 1180/2080, 16GB wären etwas viel! Den dann müssten die GT102 Ableger ja 24GB haben. Gut man muss aber auch sagen das im Bereich Speicher Menge die letzten Jahre kaum was ging, da würden 16GB auch nicht schaden.

dargo
2018-06-07, 17:47:46
Das kann NV doch schon längst, wurde bis jetzt im Gaming Bereich aber noch nie eingesetzt. Ich sehe ehrlich gesagt auch keinen Grund dazu, GDDR6 dürfte relativ billig sein, jedenfalls gegen HBM.

Nur würden dann 16GB GDDR6 mehr kosten als 8GB HBM2.
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Geforce-2018-Kosten-fuer-GDDR6-RAM-sollen-moderat-steigen-1256228/

Billig ist GDDR6 bei 8+GB gewiss nicht.

Timbaloo
2018-06-07, 18:23:04
Und da wir die Kosten für Interposer und Stacking bestens kennen....

Botcruscher
2018-06-07, 18:26:15
8 und 11GB reichen doch für die Masse und NV knausert da gerne. Konkurrenz ist ja nicht zu erwarten. Die Titan kann ja mehr bekommen.

BlacKi
2018-06-07, 18:39:07
8 und 11GB reichen doch für die Masse und NV knausert da gerne.
geknausert hat nv lediglich bei der titanx(p) die hätten normalerweise mit 24gb kommen sollen. seit gf104 hat sich die speichermenge bei jeder generation exakt verdoppelt. es war der speicherverbrauch der spiele der sich zwischendurch immer wieder mal verändert hat.

ich würde ja gerne sagen, das es diesmal wieder so kommt, aber die speicherkrise stellt es diesmal auf die probe ob sie ihre tradtion der verdopplung folgen.

reaperrr
2018-06-07, 18:40:33
8 und 11GB reichen doch für die Masse und NV knausert da gerne. Konkurrenz ist ja nicht zu erwarten. Die Titan kann ja mehr bekommen.
Sehe ich auch so. NV hat ja auch von der 980 keine 8GB-Version gebracht, obwohl das gegenüber den 390er Karten vereinzelt durchaus ein Nachteil war. Es gab damals schon mehr Spiele, die in höheren Auflösungen über 4GB brauchten, als es heute Spiele gibt, die über 8GB brauchen.

Die nehmen lieber erstmal die höhere Marge mit und heben sich die 16GB für den Refresh oder Nachfolger auf, wenn die Speicherpreise pro GB hoffentlich wieder etwas gesunken sind.

Daredevil
2018-06-07, 18:50:16
8gb reicht vielleicht für Polaris, aber nicht für eine 700€+ Karte.

robbitop
2018-06-07, 19:28:23
geknausert hat nv lediglich bei der titanx(p) die hätten normalerweise mit 24gb kommen sollen.
Und bei der GTX980. Mit ihren 4 GB damals schon ziemlich knapp IMO. Und mit GK104. 2 GB.

=Floi=
2018-06-07, 19:34:24
dehalb versteh ich das gerede nicht. es gibt nur 16gb 24gb. alles andere ist wieder ne sparerei und nichts für die dauer. die nachfolgekarten könnte man mit 8 12 vergessen.

Die leistung reicht bei der 780ti noch so oft, aber vram magel ruft stuttering hervor und macht alles kaputt.

nebenbei macht der aufpreis den braten auch nicht mehr fett. unter 1000€ wird es für die große karte eh nix mehr.

robbitop
2018-06-07, 19:41:25
Ohne signifikanten Wettbewerb wird es eh gekauft wie warme Semmeln.

Botcruscher
2018-06-07, 19:53:00
8gb reicht vielleicht für Polaris, aber nicht für eine 700€+ Karte.
20% auf die TI und bei euch ist doch eh kein halten mehr. Dazu hat NV noch ein Mittel um den Refresh aufzuwerten. 16GB sind zu teuer für die Marge.

Hübie
2018-06-07, 22:33:48
Nur würden dann 16GB GDDR6 mehr kosten als 8GB HBM2.
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Geforce-2018-Kosten-fuer-GDDR6-RAM-sollen-moderat-steigen-1256228/

Billig ist GDDR6 bei 8+GB gewiss nicht.

Deine Logik ist nicht schlüssig. VEGA RX64 hat 8 GB und kostet 750€. Was genau wäre jetzt schlecht wenn ein hypothetisches GDDR6-Produkt 16 GB hat und ebenfalls 750 kostet (weniger Marge für den Hersteller, aber da man nicht die Fertigungsnachteile hat ist es meiner Einschätzung nach ziemlich äquivalent, mit der Tatsache doppelten Speicher zu erhalten.*

8gb reicht vielleicht für Polaris, aber nicht für eine 700€+ Karte.

Erzähl das Vega :D Wobei die 1080 zeitweise auch in der Region war...

*Wer die Vega FE damals für die aufgerufenen 750€ gekauft hat, hat erst mal alles richtig gemacht. :D

reaperrr
2018-06-07, 23:42:44
8gb reicht vielleicht für Polaris, aber nicht für eine 700€+ Karte.
Die 1180 wird vermutlich auch nur 649 (customs) - 699 (FE) kosten :wink:

Wie gesagt, Nvidia hat es auch schon bei der 970/980 nicht für nötig befunden, mehr Speicher als nötig zu verbauen. Dass die 1180 teurer als damals die 980 wird ist nur der hohen Nachfrage und vielleicht etwas höheren Wafer- und Speicherchip-Preisen geschuldet.

dehalb versteh ich das gerede nicht. es gibt nur 16gb 24gb. alles andere ist wieder ne sparerei und nichts für die dauer. die nachfolgekarten könnte man mit 8 12 vergessen.

Die leistung reicht bei der 780ti noch so oft, aber vram magel ruft stuttering hervor und macht alles kaputt.
Und du glaubst, dass da bei Nvidia kein Kalkül hinter steckt?

Solange die Kunden nicht zur Konkurrenz wechseln, ist es doch ganz klar in NV's Interesse, wenn die Kunden wegen Speichermangel nächstes Jahr schon wieder aufrüsten müssen. Und es gibt eben genug, die das auch tun werden.

Linmoum
2018-06-08, 03:17:29
Die 1180 wird vermutlich auch nur 649 (customs) - 699 (FE) kosten :wink:
Zahlen wir in Deutschland mittelerweile keine MwSt. mehr? ;)

Wie gesagt, Nvidia hat es auch schon bei der 970/980 nicht für nötig befunden, mehr Speicher als nötig zu verbauen. Dass die 1180 teurer als damals die 980 wird ist nur der hohen Nachfrage und vielleicht etwas höheren Wafer- und Speicherchip-Preisen geschuldet.

Halte ich für naiv, den deutlich höheren Preis ausschließlich auf Nachfrage und Wafer-/Speicherpreise zu schieben. Man verlangt einen höheren Preis und schaut, wie der bei den Kunden ankommt. Preissekungen kann man immer noch vornehmen, aber wie man sieht, werden auch die hohen Preise brav bezahlt. Warum also weniger verlangen? Man ist in der komfortablen Situation, dass man einen hohen Preis verlangen kann. Aus Unternehmersicht wäre man schön blöd, dies nicht zu tun.

Und du glaubst, dass da bei Nvidia kein Kalkül hinter steckt?

Solange die Kunden nicht zur Konkurrenz wechseln, ist es doch ganz klar in NV's Interesse, wenn die Kunden wegen Speichermangel nächstes Jahr schon wieder aufrüsten müssen. Und es gibt eben genug, die das auch tun werden.
Natürlich steckt da was hinter, Nvidia spart nicht aus Zufall seit Generationen gerne am Speicher. Kostet einerseits weniger und andererseits spült es eben genauso neues Geld in die Kassen, wenn man aufgrund von Speichermangel früher aufrüsten muss (oder besser gesagt auch will, weil es einen nervt. Wer schiebt schon Regler von ganz rechts nach links? :D)

Allerdings denke ich auch nicht, dass man ein zweites Modell mit mehr Speicher nachschieben wird, wenn es nur 8GB werden. Mehr spendiert man dann einfach dem Nachfolger.

pixeljetstream
2018-06-08, 06:42:25
Linmoum, wenn reaperrr schon von "Nachfrage" als Grund schreibt, wieso widersprichst Du ihm mit einer Definition von Angebot/Nachfrage, die das gleiche ausdrückt? Er verweist doch explizit das Kosten sekundär sind.

scully1234
2018-06-08, 09:07:17
wenn man aufgrund von Speichermangel früher aufrüsten muss (oder besser gesagt auch will, weil es einen nervt.

Auch so ne Urban Legend

Komisch ich hab noch nie mich genötigt gefühlt einen Chip vorzeitig wegen Speichermangel zu entsorgen. Es war immer( und das auch vor der Titan Zeit)die Leistungsfähigkeit des Chips selber, die neues Kaufinteresse weckte

Vielleicht ist das ja bei Team Rot anders

robbitop
2018-06-08, 09:35:25
Die GTX970/980 Besitzer sehen das sicher anders. Leistung reicht für vieles noch aus, aber vram wird schon immer mal wieder knapp.
Bei AMD können die Fijii Besitzer sicher ein ähnliches Lied singen.

Linmoum
2018-06-08, 09:46:59
Ist immer ärgerlich, wenn man die Regler nach links schieben muss und das nicht daran liegt, dass die GPU-Leistung nicht mehr ausreicht.

Screemer
2018-06-08, 09:51:12
Mit solchem Gammel wie einer 970 oder 660 hat sich scully doch noch nie zufrieden gegeben. Wer unbeschränkte Mittel zur Verfügung hat oder Gaming als Hobby einfach hoch genug ranked, der kauft halt nur das "beste".

Troyan
2018-06-08, 10:01:44
Stimmt, eine Fury X für 650€ zum Beispiel. Gammelhardware zum Premiumpreis.

BlacKi
2018-06-08, 11:01:55
Die GTX970/980 Besitzer sehen das sicher anders. Leistung reicht für vieles noch aus, aber vram wird schon immer mal wieder knapp.
Bei AMD können die Fijii Besitzer sicher ein ähnliches Lied singen.
nimms mir nicht übel, aber die 980 ist fast 4 jahre alt, und die konkurenz von damals hätte die 8gb nicht angeboten wenn sie besser performt hätte als die 980.
anfangs war es fast eine 4k karte, dann eigentlich eine 1440p karte war und selbst für fhd ist die heut nicht mehr ausreichend. ihr könnt euch aber gerne weiter über die 4gb echauffieren, ich versuche meine auflösung zu halten und deshalb wäre sie so oder so 2016 rausgeflogen.

Screemer
2018-06-08, 11:28:48
Stimmt, eine Fury X für 650€ zum Beispiel. Gammelhardware zum Premiumpreis.
bin ich voll bei dir. mit 8gb wäre das allerdings ein anderes thema.
nimms mir nicht übel, aber die 980 ist fast 4 jahre alt, und die konkurenz von damals hätte die 8gb nicht angeboten wenn sie besser performt hätte als die 980.
anfangs war es fast eine 4k karte, dann eigentlich eine 1440p karte war und selbst für fhd ist die heut nicht mehr ausreichend. ihr könnt euch aber gerne weiter über die 4gb echauffieren, ich versuche meine auflösung zu halten und deshalb wäre sie so oder so 2016 rausgeflogen.
gleiches thema wie bei scully. ich frag mich immer warum hier jeder seine eigenen befindlichkeiten als den nabel der welt darstellt.

dargo
2018-06-08, 11:42:14
Deine Logik ist nicht schlüssig. VEGA RX64 hat 8 GB und kostet 750€.
Wo lebst du denn?
https://geizhals.de/?cat=gra16_512&xf=9809_14+10215+-+RX+Vega+64

RX Vega56 hat auch 8GB HBM2.
https://geizhals.de/?cat=gra16_512&xf=9809_14+8286+-+RX+Vega+56

Die Nano Edition gabs gestern (bereits ausverkauft) für 449€ mit 8GB HBM2. ;)
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Powercolor-RX-Vega-56-Nano-offiziell-und-ab-449-Euro-gelistet-1257961/


Erzähl das Vega :D
Vega hat HBCC. :rolleyes:


*Wer die Vega FE damals für die aufgerufenen 750€ gekauft hat, hat erst mal alles richtig gemacht. :D
Nein, hat er nicht. Zumindest nicht wenns ums Gaming geht.

Grendizer
2018-06-08, 11:54:37
bin ich voll bei dir. mit 8gb wäre das allerdings ein anderes thema.

gleiches thema wie bei scully. ich frag mich immer warum hier jeder seine eigenen befindlichkeiten als den nabel der welt darstellt.

Wir sind hier in einem Forum unterwegs, bei dem man davon ausgehen kann, das die Leute nicht so arm sind, das sie ihr zeug 5 Jahre nutzen müssen.

BlacKi
2018-06-08, 12:19:31
Wir sind hier in einem Forum unterwegs, bei dem man davon ausgehen kann, das die Leute nicht so arm sind, das sie ihr zeug 5 Jahre nutzen müssen.
es zeigen auch die umfragen immer schön, das ein großteil immer gleich wechselt. und das hat seinen grund, wenn man wechselt wenn man einen need hat, ist man meistens gearscht.

reaperrr
2018-06-08, 12:37:48
Zahlen wir in Deutschland mittelerweile keine MwSt. mehr? ;)
Die CPU-Preise liegen trotz MwSt konstant unter den offiziellen $-MSRPs.

Vor dem Ansturm durch die Miner war das je nach €uro-Kurs auch bei den GraKas im Normalfall so (jetzt mal von den FEs abgesehen).

=Floi=
2018-06-08, 15:00:00
Wir sind hier in einem Forum unterwegs, bei dem man davon ausgehen kann, das die Leute nicht so arm sind, das sie ihr zeug 5 Jahre nutzen müssen.

es gibt auch leute wie mich, welche nicht jeden monat ne neue gpu kaufen. Und vom geld her würde ich wahrscheinlich auch euch noch in die tasche stecken. :D Gerade, weil ich eben spare.


hab damals®© für 385€ ne 780ti gekauft und vor der performance her (1080p) würde sie reichen. Nur der vram ist das hauptthema nummer eins und darin versenke ich sehr viel einstellungszeit.
Hab sogar so viel power für 25/30% downsampling.

Zu wenig vram führt zu stuttering und das ist der spielspasskiller schlechthin.



Ich überspringe eigentlich immer gerne eine generation und kaufe den refresh, weil hier vieles besser gemacht wurde und nicht alles auf kante gebaut wurde.

Adam D.
2018-06-08, 15:19:53
es gibt auch leute wie mich, welche nicht jeden monat ne neue gpu kaufen. Und vom geld her würde ich wahrscheinlich auch euch noch in die tasche stecken. :D Gerade, weil ich eben spare.


hab damals®© für 385€ ne 780ti gekauft und vor der performance her (1080p) würde sie reichen. Nur der vram ist das hauptthema nummer eins und darin versenke ich sehr viel einstellungszeit.
Hab sogar so viel power für 25/30% downsampling.

Zu wenig vram führt zu stuttering und das ist der spielspasskiller schlechthin.



Ich überspringe eigentlich immer gerne eine generation und kaufe den refresh, weil hier vieles besser gemacht wurde und nicht alles auf kante gebaut wurde.
Hier wird von manchen Leuten auch hart pauschalisiert :freak: Ich musste jetzt auch hart sparen, um mir 'ne neue GPU leisten zu können (CPU etc. 5 Jahre alt, GPU 3). So lange wird die neue Karte auch halten müssen, ich hab jetzt einen UWQHD-Monitor und ehrlich gesagt kann man da schon befürchten, dass der 8GB-Speicher knapp werden. Ich hoffe mal, dass die 1080Ti nach Release etwas im Preis fallen, das wäre dann bestimmt 'ne ganz gute Option.

Hübie
2018-06-08, 15:20:07
Fermi: Meine hatte nur die 1,5 GB und war dann selbst mit SLi unbrauchbar.
Kepler: Ich hatte die mit zwei Mal 4 GB und auch hier wurde z.B. Alien: Colonial Marines in 4k zu lahm weil der VRAM überlief - Performance hätte gepasst.
Maxwell: Hier stieß ich noch nicht an Stottern durch die VRAM-Grenze, sondern weil die GPU zu lahm ist. :D

8 GB sollten beim aktuellen Kauf das absolute Minimum sein, wenn man nicht 08-15-casual gamer ist. Tendenz steigend. Vor allem mit kommenden Konsolen Generationen. HBCC hilft bei der page migration (kleine Seiten statt große Blöcke), aber stellt kein Allheilmittel dar.
Soviel mir bisher bekannt ist, sind es um die 3% Performance die man mal gewinnt, mal verliert.

gnomi
2018-06-08, 16:01:23
Viele Spiele tricksen auch beim Speicher. Hat die Karte zu wenig, wird einfach an der Qualität geregelt.
Das ist imho eher clever und spart einem dann schnell das Gejammer mancher Nutzer. (Stufe tiefer stellen oder Sperren ist unklug- dann lieber ein Enthusiast Extra Menü oder so :freak:)
In der neuen PCGH sind einige Messungen. AFAIR waren 8GB für WQHD selbst in den getesteten AAA Sachen bis auf Wolfenstein 2 bei den Frametimes unproblematisch.
In 4K gab es dann schon ein paar Ausnahmen.
Da diese Auflösung mit Einführung der HDR GSync Displays jetzt auch kommt, muss also eigentlich bereits jetzt mehr her. :wink:

Screemer
2018-06-08, 16:25:07
Wir sind hier in einem Forum unterwegs, bei dem man davon ausgehen kann, das die Leute nicht so arm sind, das sie ihr zeug 5 Jahre nutzen müssen.
klaro. wir hier sind der durchschnitt und was hat nutzen müssen mit nutzen können zu tun? ich glaub du kennst den querschnitt des forum ziemlich schlecht. hier sind nicht nur gutverdiener unterwegs auch wenn es für dich vielleicht den anschein macht.

Dural
2018-06-08, 19:12:57
Oha jetzt haben wir schon navi im q1, turing scheint ja immer wie interessanter zu werden!

Wenn nv noch was an der architektur gedreht hat, werden wir wohl 80-100% gegenüber pascal sehen.

Timbaloo
2018-06-08, 19:16:18
Oha jetzt haben wir schon navi im q1, turing scheint ja immer wie interessanter zu werden!

Wenn nv noch was an der architektur gedreht hat, werden wir wohl 80-100% gegenüber pascal sehen.
:confused:

PHuV
2018-06-08, 19:20:03
Oha jetzt haben wir schon navi im q1, turing scheint ja immer wie interessanter zu werden!

Wenn nv noch was an der architektur gedreht hat, werden wir wohl 80-100% gegenüber pascal sehen.
Im Leben nicht, wie stellst Du Dir das vor, woher das kommen soll?

Swissr
2018-06-08, 19:26:12
Muss wohl die Nvidia Fanboyvariante von Horn sein :D

dargo
2018-06-08, 19:28:14
Hehe... so behält man das Gleichgewicht im 3DC. :D

robbitop
2018-06-08, 19:31:46
nimms mir nicht übel, aber die 980 ist fast 4 jahre alt, und die konkurenz von damals hätte die 8gb nicht angeboten wenn sie besser performt hätte als die 980.
anfangs war es fast eine 4k karte, dann eigentlich eine 1440p karte war und selbst für fhd ist die heut nicht mehr ausreichend. ihr könnt euch aber gerne weiter über die 4gb echauffieren, ich versuche meine auflösung zu halten und deshalb wäre sie so oder so 2016 rausgeflogen.
Nicht jeder kauft ständig das Neuste. Es geht auch nicht um echaufieren, sondern um eine Feststellung. Zumindest meinerseits.
In meinem 2. PC (2. Wohnung) habe ich eine GTX970. Genau hier ist der VRAM bei soziemlich allen Spielen voll. Das war er auch schon vor 1 Jahr. Die Leistung reicht aber aus. Ärgerlich. Im 1. PC ist eine 1080ti.

BoMbY
2018-06-08, 22:24:49
Im Leben nicht, wie stellst Du Dir das vor, woher das kommen soll?

Wieso, 80-100% der Leistung von Pascal liegen total im Rahmen des möglichen?

Dural
2018-06-08, 22:38:07
Ihr habt halt immer noch nicht begriffen das die volta/ampere gaming generation storniert wurde... und mittlerweilen dürften 7nm zu 90% gesetzt sein, macht alleine schon ca. 60% aus...

Turing ist die zweite generation nach pascal + 7nm, alles unter 80% wäre ich ja schon fast entäuscht.

Adam D.
2018-06-08, 22:40:35
Ihr habt halt immer noch nicht begriffen das die volta/ampere gaming generation storniert wurde... und mittlerweilen dürften 7nm zu 90% gesetzt sein, macht alleine schon ca. 60% aus...

Turing ist die zweite generation nach pascal + 7nm, alles unter 80% wäre ich ja schon fast entäuscht.
Wenn GT102 2019 in 7nm kommt, dann vielleicht. Alles, was dieses Jahr erscheint, wird nie im Leben in Bereich um 80% auf GP102 drauflegen, never.

Dural
2018-06-08, 22:45:08
Lustig wie immer versucht wird alles umzu drehen, ich habe kein wort über gp102 verloren! Sondern nur über pascal zu turing als architektur.

Adam D.
2018-06-08, 22:47:40
Lustig wie immer versucht wird alles umzu drehen, ich habe kein wort über gp102 verloren! Sondern nur über pascal zu turing als architektur.
Zur 1060 oder was? :freak:

TheGood
2018-06-08, 23:09:40
ES ist wohl inzwischen klar dass Turing oder gtx1180 nur was für die Resterampe (im Sinne von schnellem EOL) ist und in weniger als einem Jahr schon wieder zum alten Eisen gehören wird. Nvidia wird seine Kunden offensichtlich gleich zweimal hintereinander bitten, Geld auszugeben.

JA das könnte man jetzt auch blumiger schreiben aber am Ende ist es doch so. die 7nm Produktion klopft schon an die Tuer und daher wird die 12 nm schnell abgelöst werden. Effektiv könnte man aber auch sagen dass Nvidia innerhalb eines Jahres zwei grosse Schritte machen könnte. Die gelackmeierten sind dann die jetzigen Turingkäufer. Die Frage ist ob Nvidia den gp102 direkt in 7nm herstellen wird, das wäre eigentlich die einzige richtige Lösung, den damit kann man erst so recht ohne grosse Gegenwehr massiv den Preis erhöhen.
Eigentlich ist das fast schon zu erwarten. Konkurrenz ist von AMD offensichtlich im High End nicht so schnell zu erwarten (wunder geschehen ja bekanntlich eher selten) und das ist die perfekte Basis für Nvidia weiter Geld zu scheffeln. Die Frage ist nur warum ist das ganze denn bisher genau so gelaufen?
Es könnte ja auch sein, sie haben mit TMSC keinen "Deal" für die 7nm abgekriegt. Wirklich vorstellen kann ich mir das aber nicht, auch wenn das dann eine mögliche Erklärung ist. Die Bessere Erklärung ist der Einbruch des Miningmarktes und sie somit, wider erwarten, massiv mehr Karten in den REtailmarkt stecken mussten, weil das prognostizierte Volumen der Miner überschätzt wurde.

PHuV
2018-06-09, 01:11:13
Wieso, 80-100% der Leistung von Pascal liegen total im Rahmen des möglichen?
Klar, Riesenchip bzw. Riesendie auf der Platine, der entsprechend gekühlt werden muß.... :rolleyes:

Nochmals, überlege mal bitte, woher die Leistungssteigerung kommen soll. Mehr Takt? Mehr ROPs? Mehr Shader?... Selbst eine TitanV liefert nicht das doppelte einer 1080 Ti in Spielen, siehe Mifcom miniBOSS i9-7980XE im Test: Titan V schlägt 1080 Ti in Spielen um bis zu 50 Prozent (https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/). Meistens ist es eine Steigerung von 25-30%. Woher sollen da nun plötzlich 100 % mehr Leistung rauskommen? Wir sprechen jetzt nicht von Mining-Leistung, nur Computerspiele. Für 100% müßte man 3 TitanVs im T-SLI laufen lassen (wenn das gehen würde).

Also, genaue Erklärung bitte von Dir.

BlacKi
2018-06-09, 02:05:22
ehm, also wenn man den 7nm prozess nimmt, einen rießigen Die produziert (up to 600mm²), gddr6 mit 18gbps chips verbaut, vl noch etwas am powertarget dreht, dann sind die 100% gp102 vs gv102 bestimmt drin. ich nehme an das turing als reine gamer gpu effizienter in spielen wird, aber wieviel das am ende seine wird, werden wir erst in ein paar monaten sehen.

Gipsel
2018-06-09, 08:55:06
Was hat eigentlich die ganze HBCC-Diskussion hier im Thread verloren? Die wäre woanders wohl besser aufgehoben.

Edit:
Mal in den Vega-Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11716175#post11716175) verschoben.

horn 12
2018-06-09, 09:08:30
Der Turing Vorteil scheint sich nach einem halben Jahr in Luft aufzuloesen, falls Navi echt schon Maerz bis Mai 2019 kommen sollte.
Daher denke ich kommt Turing echt auch in 7nm und wird abermals verschoben werden.
Die PERFORMANCE von Turing JETZT! wird unzureichend sein da mitzuhalten!

Linmoum
2018-06-09, 09:14:26
Ersteres und letzteres ist quatsch, wenn Navi Midrange ist. Da bietet Turing dann mehr Leistung und kommt natürlich in 12nm. Vielleicht gibt's nächstes Jahr noch 'nen Shrink auf 7nm.

Gipsel
2018-06-09, 09:18:14
Vielleicht bietet Turing auch was ähnliches wie den HBCC von AMD. In Zeiten teuren DRAMs und Spielen, die absurd viel Speicher allokieren, auf den sie aber dann gar nicht oder kaum zugreifen, wird Nvidia sicherlich auch auf die Idee gekommen sein, dass man hier viel einsparen kann.Das kann NV doch schon längst, wurde bis jetzt im Gaming Bereich aber noch nie eingesetzt.
Nein, das kann nV nicht, auch nicht bei den Tesla-Karten. Es wird zwar virtueller Speicher unterstützt, es gibt aber keine Paging Engine in Hardware wie bei AMD. Und Letzteres ist das entscheidende Feature für den HBCC.

HOT
2018-06-09, 09:19:01
Ersteres und letzteres ist quatsch, wenn Navi Midrange ist. Da bietet Turing dann mehr Leistung und kommt natürlich in 12nm. Vielleicht gibt's nächstes Jahr noch 'nen Shrink auf 7nm.
Navi ist bei 7nm Mainstream. NV hat aber 12nm und das erst ab August. Die Generation wird sicherlich wieder 1 1/2 Jahre aktuell bleiben, also ist NVs 7nm nicht vor 2020 wahrscheinlich. Allerhöchstens zum Weihnachtsgeschäft 2019.

Troyan
2018-06-09, 09:24:33
Nein, das kann nV nicht, auch nicht bei den Tesla-Karten. Es wird zwar virtueller Speicher unterstützt, es gibt aber keine Paging Engine in Hardware wie bei AMD. Und Letzteres ist das entscheidende Feature für den HBCC.

Jede Pascal-Karte hat eine "Paging Engine".

Gipsel
2018-06-09, 09:26:47
Jede Pascal-Karte hat eine "Paging Engine".Treiber-/OS-assistiert vielleicht, nicht mit kompletter Verwaltung auf der GPU. Die "Page Migration Engine" ist für das HBCC-Feature nicht genug ;).
Auf jeder unter WDDM2 laufender Karte kann das OS wohl Paging durchführen. Aber da kannst Du Dir gerne mal Dargos Messungen zu anschauen.

Edit:
Bin in dem Punkt vielleicht auch gerade nicht auf dem letzten Stand. Eventuell geht es bei Pascal unter CUDA so wie bei AMD in Spielen (bzw. überall). Fakt ist, daß nV das Feature für Spiele im Moment nicht bietet, AMD aber schon.

Troyan
2018-06-09, 09:34:14
Natürlich wird das ganze bei Pascal von der GPU verwaltet. WTF?!

Im Gegensatz zu AMD kann man das ganze auch programmieren und aktiv in seinem Code verwenden.

Gipsel
2018-06-09, 09:38:52
Nur unter CUDA. In Spielen ist da nix. Ist es also nicht so universal?

Troyan
2018-06-09, 09:41:30
Und auch nur unter Linux (außer Windows wurde geupdated) und Zugriff auf den CPU-Speicher gibt auch nur mit NVLink und Power8/9.So what? Die GPU hat ebenfalls eine "Page Migration Engine" und das ganze wird von der Hardware ausgeführt. Wobei Cuda ja nicht 100% richtig ist, da die Quadro V100 über NVLink ebenfalls den Speicher als einen behandeln kann.

Das nVidia nicht so ein Quatsch wie HBCC umgesetzt hat, ist ja kein Argument, dass sie über keine Hardwareengine für Paging verfügen.

horn 12
2018-06-09, 09:42:38
NUN, Navi ist Mitrange und sollte wohl etwa RX 64 Performance fuer 150 bis 180 Watt erreichen.
GTX 2x70 muesste dann mindestens 50% schneller sein und somit Knapp GTX 1080TI erzielen
wenn schon VEGA 64 zwischen GTX 1080 und 1080TI.

GTX 2x80 dann etwa 20% ueber einer GTX 1080TI (maximal)
Somit ware nur GTX 2x80 wirklich hoeher anzusiedeln.

PS:
Zudem denke Turing kommt nicht gross ueber 30 bis 40% raus!

Gipsel
2018-06-09, 09:49:14
Und auch nur unter Linux (außer Windows wurde geupdated) und Zugriff auf den CPU-Speicher gibt auch nur mit NVLink und Power8/9.So what?Da es um einen Spielekontext ging, zeigt Deine Liste mit diesen Einschränkungen sehr schön, warum es eben kein gleichwertiges Feature zu HBCC ist, welches der Der_Korken für Turing eventuell gerne hätte. :rolleyes:
Aber danke für die Bestätigung! :)

Troyan
2018-06-09, 10:27:54
Da es um einen Spielekontext ging, zeigt Deine Liste mit diesen Einschränkungen sehr schön, warum es eben kein gleichwertiges Feature zu HBCC ist, welches der Der_Korken für Turing eventuell gerne hätte. :rolleyes:
Aber danke für die Bestätigung! :)

Logik at best: Weil nVidia etwas nicht umsetzt, können sie es natürlich nicht.

Du hast doch vor drei Postings behauptet, dass nVidia keine "Paging Engine" in Hardware in der GPU hätte. Und ich habe dich mit "Doch haben sie" bestätigt? Lmao.

Gipsel
2018-06-09, 10:39:29
Logik at best: Weil nVidia etwas nicht umsetzt, können sie es natürlich nicht.
Es gibt das Feature bei nV ganz offensichtlich bisher so nicht. Könnten sie es z.B. bei Turing umsetzen? Bestimmt. Kommt es eventuell noch für Pascal? Ziemlich sicher nicht. Frag doch nV, warum es nur unter CUDA funktioniert! Technische Einschränkung oder Unwille? Ist hier auch egal, es geht schlicht nicht.
Und eventuell ändert sich das mit Turing.

MartinRiggs
2018-06-09, 11:21:57
Der Turing Vorteil scheint sich nach einem halben Jahr in Luft aufzuloesen, falls Navi echt schon Maerz bis Mai 2019 kommen sollte.
Daher denke ich kommt Turing echt auch in 7nm und wird abermals verschoben werden.
Die PERFORMANCE von Turing JETZT! wird unzureichend sein da mitzuhalten!
Kannst du es nicht einfach mal lassen, du hast keine Glaskugel und schon Vega war nicht der Überflieger den du in deiner kleinen Knetgummiwelt gerne gehabt hättest

Mancko
2018-06-09, 11:36:13
Können wir die ganze HBCC Diskussion bitte lassen. Das Thema wird von einigen als viel zu wichtig angenommen. Wichtig sind Themen die für 2 bis 3 Jahre für die GPU ziehen. Danach muss man eh den Aufrüstdruck hoch halten auf den Kunden. Das ist doch klar.

Das Feature bringt doch heute überhaupt keinen nennenswerten Vorteil. Das aufgebohrte Frontend und das Verwerfen nicht sichtbarer Teile dagegen bei Nvidia seit Maxwell bringt sofort etwas und nicht erst in irgendwelchen künstlichen Szenarien nach einer Besitzdauer von 5 Jahren oder mehr.

Korvaun
2018-06-09, 13:04:32
Ist es eigentlich ausgeschlossen das Turing in 7nm erscheint?

Ich meine, wenn selbst AMD schon lauffähige 7nm GPU/CPU hat und die 7nm Massenproduktion schon seit April(?) läuft, wäre es unmöglich das nV Ende August Turing in 7nm vorstellt? Würde mich aktuell nicht sonderlich überraschen ehrlich gesagt, nV hatte eigentlich immer guten Zugriff auf TSMCs neueste Prozesse...

HOT
2018-06-09, 13:37:02
Wär ziemlich unmöglich jo. V20 ist nur Kleinserie und die restliche Produktion wird von Apple+Qualcomm in Beschlag genommen. Ich bezweifle ernsthaft, dass TSMC die Mengen an GPUs liefern könnte, die NV benötigt.
AMD scheint sich mit Zen ja auch bei TSMC einen Vorzug gesichert zu haben, der ist aber ebenfalls nicht vor 2019 nicht zu erwarten.
NV wird sicher Ampere auch in 7nm fertigen Anfang 2019, aber Consumer wird vor Ende 2019 definitiv nix, das ist pure Träumerei. Und die "kleinen" Turings in 7nm zu bringen ist auch unsinnig, bringt NV keinen Vorteil und ist nur teuer. Wir wissen zu diesem Zeitpunkt nicht mal, ob NV überhaupt gedenkt GP107 und 108, die ja bei Samsung gefertigt werden, abzulösen. Wär auch denkbar, dass man sich wie bei Maxwell2 bei Turing auf GT106-102 beschränkt, erst recht, wenn die Generation eh nicht lange vorhält. GT102 wird sicherlich kaum mehr als ein Jahr laufen.

BlacKi
2018-06-09, 13:39:43
Ist es eigentlich ausgeschlossen das Turing in 7nm erscheint?

im vega fred steht, das die ausbeute im 7nm verfahren sehr gering sei. https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11716148#post11716148

HOT
2018-06-09, 13:46:23
Und das ist sicher Schwachsinn, sonst hätte man den Chip nicht vorgezogen...

pixeljetstream
2018-06-09, 13:48:00
In dem Zusammenhang an die unterschiedlichen Chipgrößen denken: Smartphone soc ist klein im Vergleich zu GPU. Die sind leichter rentabel.

Mancko
2018-06-09, 15:27:28
Ist es eigentlich ausgeschlossen das Turing in 7nm erscheint?

Ich meine, wenn selbst AMD schon lauffähige 7nm GPU/CPU hat und die 7nm Massenproduktion schon seit April(?) läuft, wäre es unmöglich das nV Ende August Turing in 7nm vorstellt? Würde mich aktuell nicht sonderlich überraschen ehrlich gesagt, nV hatte eigentlich immer guten Zugriff auf TSMCs neueste Prozesse...

Wird auch mit ziemlicher Sicherheit in 7nm kommen. Nvidia hat schon öfters mal über mehrere Fertigungsprozesse ausgeliefert. Die Ganze Palette von ganz unten bis ganz oben inklusive Laptop GPUs kann man sowieso nicht auf einmal launchen. Das ist immer verteilt.

Daher mein Tipp:

Das was heute die 1080 und 1070 ist kommt auf 12nm in 2018. Vielleicht noch im weiteren Verlauf das was die 1060 ist.

Low End also das was heute GP107/108 sind kommt auf 7nm in 2019. Das gleiche gilt für die gesamte Laptop Palette. Auch der Nachfolger von GP102 kommt in 2019 auf 7nm und im weiteren Verlauf dann nochmal ein Refresh für die 12nm Produkte Mitte 2019.

=Floi=
2018-06-09, 15:45:02
Ihr habt halt immer noch nicht begriffen das die volta/ampere gaming generation storniert wurde... und mittlerweilen dürften 7nm zu 90% gesetzt sein, macht alleine schon ca. 60% aus...

Turing ist die zweite generation nach pascal + 7nm, alles unter 80% wäre ich ja schon fast entäuscht.


bei den 7nm bin ich ja noch bei dir. da denke ich auch, dass hier nv es schon bringen wird. Ging ja früher auch immer mit den neuen fertigungsverfahren.
Bei der leistung kann ich dir aber nicht zustimmen. NV wird den fortschritt in das powerbudget investieren um auf bei einem refresh noch genug luft zu haben.
Hier kann man einfach nicht alles raushauen. 7nm muss auch für die nächste generation in 2 jahren noch herhalten.

Sunrise
2018-06-09, 19:42:49
Und das ist sicher Schwachsinn, sonst hätte man den Chip nicht vorgezogen...
NV hat ein 815mm^2 Monster auf 12nm produziert, mit 4x HBM2...die Ausbeute ist da ziemlich egal, bei den Preisen die NV dafür aufruft.

Da gehts um Anforderungen und schnellstmöglicher Auslieferung für wichtige Kunden, die jeden Preis zahlen.

Das ist relativ zu GPUs mit ca. 300mm^2 auf 7nm mit ebenfalls 4x HBM2 sehr vergleichbar. Eventuell nicht ganz so am Rande der Machbarkeit, aber die Ausbeute will ich aktuell auch nicht wissen.

BoMbY
2018-06-09, 19:50:55
Nochmals, überlege mal bitte, woher die Leistungssteigerung kommen soll.

Ich sagte mit Absicht 'von', nicht 'über' oder dergleichen ...

HOT
2018-06-09, 19:56:43
NV hat ein 815mm^2 Monster auf 12nm produziert, mit 4x HBM2...die Ausbeute ist da ziemlich egal, bei den Preisen die NV dafür aufruft.

Da gehts um Anforderungen und schnellstmöglicher Auslieferung für wichtige Kunden, die jeden Preis zahlen.

Das ist relativ zu GPUs mit ca. 300mm^2 auf 7nm mit ebenfalls 4x HBM2 sehr vergleichbar. Eventuell nicht ganz so am Rande der Machbarkeit, aber die Ausbeute will ich aktuell auch nicht wissen.
Das Teil ist nur 300mm² groß. Auch in 7nm ist das keine besondere Chipgröße. Wie kommt man auf so einen Unsinn? Das ist nicht mal im Ansatz mit GV100 vergleichbar und hat auch nicht die Marktpräsenz eines GV100 - das ist einfach vollkommen idiotisch da irgendwelche Vergleiche zu ziehen. Wenn das Ding jetzt 500-600mm² hätte, hätt ich gesagt - hm -schwierig in dem frühen Stadium aber so? Es spricht nichts für einen schlechten Yield, das wird immer wieder nur gerne behauptet, weil keiner weiss, wie der Yield wirklich ist. Das halten die Hersteller schön unterm Deckel. Auch die Story, dass der GP104 einen ach so schlechten Yield hatte war mMn völlig abstruser BS.

Langlay
2018-06-09, 19:59:37
ehm, also wenn man den 7nm prozess nimmt, einen rießigen Die produziert (up to 600mm²), gddr6 mit 18gbps chips verbaut, vl noch etwas am powertarget dreht, dann sind die 100% gp102 vs gv102 bestimmt drin. ich nehme an das turing als reine gamer gpu effizienter in spielen wird, aber wieviel das am ende seine wird, werden wir erst in ein paar monaten sehen.


https://abload.de/img/yieldgkqcd.jpg

Also die Graka möchte ich nicht bezahlen in einem frischen Prozess. Und die 0.3 Fehler pro cm² ist noch eher konservativ. Beim 14nm Prozess lag die Fehlerquote am Anfang wohl bei 0.5 Fehler pro cm². Was dann in ~10% Yield endet.

Sunrise
2018-06-09, 20:13:46
Das Teil ist nur 300mm² groß. Auch in 7nm ist das keine besondere Chipgröße. Wie kommt man auf so einen Unsinn? Das ist nicht mal im Ansatz mit GV100 vergleichbar und hat auch nicht die Marktpräsenz eines GV100 - das ist einfach vollkommen idiotisch da irgendwelche Vergleiche zu ziehen. Wenn das Ding jetzt 500-600mm² hätte, hätt ich gesagt - hm -schwierig in dem frühen Stadium aber so? Es spricht nichts für einen schlechten Yield, das wird immer wieder nur gerne behauptet, weil keiner weiss, wie der Yield wirklich ist. Das halten die Hersteller schön unterm Deckel. Auch die Story, dass der GP104 einen ach so schlechten Yield hatte war mMn völlig abstruser BS.
Wenn du tatsächlich glaubst, dass bei >= 300mm^2 auf einem noch extrem neuen Prozess der Yield gut ist, dann würde ich mir mal einen Reality Check verpassen. Tahiti hatte damals laut AMD anfangs sehr schlechte Yields, das hatte sich im Laufe der Zeit aber mehr als ausgezahlt, weil Tahiti ein extrem gutes Design und Langlebigkeit hatte. Die Ausbeute ist in diesem Bereich vollkommen wurscht, es geht hier erstmal darum, Hawaii endlich abzulösen und für wichtige Kunden wieder eine High-End-GPU für den Profimarkt anbieten zu können.

BlacKi
2018-06-09, 20:58:43
https://abload.de/img/yieldgkqcd.jpg

Also die Graka möchte ich nicht bezahlen in einem frischen Prozess. Und die 0.3 Fehler pro cm² ist noch eher konservativ. Beim 14nm Prozess lag die Fehlerquote am Anfang wohl bei 0.5 Fehler pro cm². Was dann in ~10% Yield endet.
sehr nice.

was wohl ein wafer in 7nm so kostet:biggrin: die marge wäre wohl deutlich kleiner für nv, aber 19stück sind doch ausreichend?^^

die sollen sie einfach für 2k pro karte verkaufen, die käufer gäbe es sicherlich:wink:

Langlay
2018-06-09, 22:42:17
Ich würde vermuten, wenn dann wird das der Nachfolger zur Titan V zum gleichen Preispunkt.


Aber für einen Chip mit knapp 330mm² sieht die Sache garnet so schlecht aus. Also GTX1180/2080.

https://abload.de/img/yieldahph9.jpg

Igor TH
2018-06-12, 15:00:13
Nur mal als Randinfo:
Die Briefings der Boardpartner für die neuen Karten liefen bzw. laufen bereits. Die BoM ist durch, also darf jetzt jeder selbst rechnen (die Zeitfenster hatte ich ja schon in meiner News erklärt) :)

Dummerweise bin ich diesmal gleich mit geNDA't worden, ich kann also diesmal keine genauen Infos rüberwursteln. Aber mein Kumpel scharrt schon mit den Füßen, obwohl er noch nichts weiß. Aber wie ich Wccftech so kenne, braucht er auch nicht mehr lange ;)

https://i.imgur.com/aVJpQcY.jpg

Adam D.
2018-06-12, 15:15:02
Danke für die Infos, gute News für Gamer, dann kommt im Spätsommer endlich etwas Bewegung in den Markt und wir können uns wappnen für das Gamergeddon im Frühjahr 2019 ;D

Ex3cut3r
2018-06-12, 15:17:14
Also doch dieses Jahr....mal sehen, wie teuer Spaß ist, eine 2070 oder 2080 für 3440x1440 wäre schon besser als meine 1070 aktuell.

BoMbY
2018-06-12, 16:12:35
Nur mal als Randinfo:
Die Briefings der Boardpartner für die neuen Karten liefen bzw. laufen bereits. Die BoM ist durch, also darf jetzt jeder selbst rechnen (die Zeitfenster hatte ich ja schon in meiner News erklärt) :)

Und wie lange dauert es in der Regel von der BoM bis zum Cancel?

Ampere ist fix, Q2 2018 auch. Die Ersten fangen ja jetzt schon mit der BoM an. ;)

Schnäppchenjäger
2018-06-12, 17:12:31
Nur mal als Randinfo:
Die Briefings der Boardpartner für die neuen Karten liefen bzw. laufen bereits. Die BoM ist durch, also darf jetzt jeder selbst rechnen (die Zeitfenster hatte ich ja schon in meiner News erklärt) :)

Dummerweise bin ich diesmal gleich mit geNDA't worden, ich kann also diesmal keine genauen Infos rüberwursteln. Aber mein Kumpel scharrt schon mit den Füßen, obwohl er noch nichts weiß. Aber wie ich Wccftech so kenne, braucht er auch nicht mehr lange ;)

https://i.imgur.com/aVJpQcY.jpgWoher du das wisse? :tongue: Arbeitet dein Freund im Vertrieb oder sowas?

Igor TH
2018-06-12, 17:45:21
Woher du das wisse? :tongue: Arbeitet dein Freund im Vertrieb oder sowas?R&D einschließlich Platinenlayout... Nvidia schult die Ingenieure, keine Vertriebler.

Und der Typ auf dem Bild ist nicht meine Quelle, sondern ein geschätzter Mitbewerber um das heißeste Gerücht und ein netter Kumpel.

Und wie lange dauert es in der Regel von der BoM bis zum Cancel?
https://www.tomshw.de/2018/06/12/nvidia-geforce-gtx-2080-1180-oder-was-wir-ueber-turing-nicht-wissen-update/

Hübie
2018-06-12, 19:16:28
Sollten sich diese Informationen jedoch bewahrheiten, werden auf AMDs Grafikkartensparte sicher schwere Zeiten zukommen. Der einzige Rettungsanker dürfte dann ein angemessenere Straßenpreis sein, denn Nvidia wird mit Sicherheit nicht zum Preisdrücker werden.

Die Karten kommen pünktlich zu meinem Burzeltag - bzw. 14 Tage danach. Damn! :freak: :freak:
Ich brauche aber schon so GP102 +30%. Mal sehen.

Schnäppchenjäger
2018-06-12, 19:20:56
R&D einschließlich Platinenlayout... Nvidia schult die Ingenieure, keine Vertriebler.

Und der Typ auf dem Bild ist nicht meine Quelle, sondern ein geschätzter Mitbewerber um das heißeste Gerücht und ein netter Kumpel.


https://www.tomshw.de/2018/06/12/nvidia-geforce-gtx-2080-1180-oder-was-wir-ueber-turing-nicht-wissen-update/Du machst Research&Development? :eek: Oder der Kumpel und "Mitbewerber um das heißeste Gerücht"? :wink:

=Floi=
2018-06-12, 19:59:23
Bist du neu hier?

Adam D.
2018-06-12, 20:14:21
Performance höher bei ähnlicher Leistungsaufnahme im Vergleich zum direkten Vorgängermodell (sich verdichtentes Gerücht)

Das stand doch im Ursprungsartikel noch nicht drin, oder?

Ich wunder mich echt, wie viel Mehrperformance man in 12nm bei ~180W TDP unterbringen kann...

Fliwatut
2018-06-12, 20:43:40
Ob es schon/noch Sinn macht, jetzt eine qualifizierte 1080ti von EVGA zu kaufen und am Step-Up teilzunehmen? Oder wird man da ewig hingehalten, ehe man eine neue Karte bekommt?

Hübie
2018-06-12, 21:03:24
Das kommt ganz auf den Preis drauf an, Fliwatut. ;)

@Adam D.: Vor etwa einem halben Jahr trug man mir zu, dass der Sprung ähnlich wie bei Kepler vs. Maxwell sein würde, weil man ja nicht nur den Prozess verändert, sondern eben genau überlegt wie man sich Datentransfers sparen oder diese zumindest effizienter bzw. effektiver machen kann.
Hier mal ein Beispiel aus 2016: Balanced charge-recycling bus in 16nm FinFET CMOS at 1.7-to-2.6Gbps per wire with clock forwarding and low-crosstalk contraflow wiring (https://ieeexplore.ieee.org/document/7417954/)

NV hat da echt krasse Sachen am Laufen.

basix
2018-06-12, 21:43:51
Das kommt ganz auf den Preis drauf an, Fliwatut. ;)

@Adam D.: Vor etwa einem halben Jahr trug man mir zu, dass der Sprung ähnlich wie bei Kepler vs. Maxwell sein würde, weil man ja nicht nur den Prozess verändert, sondern eben genau überlegt wie man sich Datentransfers sparen oder diese zumindest effizienter bzw. effektiver machen kann.
Hier mal ein Beispiel aus 2016: Balanced charge-recycling bus in 16nm FinFET CMOS at 1.7-to-2.6Gbps per wire with clock forwarding and low-crosstalk contraflow wiring (https://ieeexplore.ieee.org/document/7417954/)

NV hat da echt krasse Sachen am Laufen.

War das von dir verlinkte Paper nicht schon beim Pascal Launch ein Thema?

Fliwatut
2018-06-12, 21:55:42
Das kommt ganz auf den Preis drauf an, Fliwatut. ;)
825,- €... Das Risiko ist, ob die neuen Karten dann auch wirklich in 90 Tagen kommen.

=Floi=
2018-06-12, 21:56:40
dann wartest hald 180 tage?!
wo liegt das problem? Die neue karte wird schon nicht schlechter werden.

Screemer
2018-06-12, 21:59:15
Weil man am stepup Programm von evga nur teilnehmen kann, wenn man die Karte in den letzten 90 Tagen gekauft hat.

Igor TH
2018-06-12, 22:17:24
Du machst Research&Development? :eek: Oder der Kumpel und "Mitbewerber um das heißeste Gerücht"? :wink:

Der Typ sagt Dir echt nichts? Dessen Seite ist doch weltweit die Gerüchteschleuder Nummer Eins. Aber auch ihn lasse ich vorerst dumm sterben :D

Ich leiste in einem gewissen Maße auch technische Zuarbeit, sonst könnte ich mir solche Abenteuer wie TH gar nicht leisten. Bei Turing ist es allerdings so, dass ich nun mal beruflich auch die kenne, die gerade an den elektrischen Finessen bei den Boardpartnern rumtüfteln.

Man darf sich schon einmal auf einen neue Art eines ganz bestimmten Videoausgangs freuen und auch beim Takt und dessen Handhabung hat NV grundlegend etwas geändert. Und nun dürfen alle wieder rätseln :D

horn 12
2018-06-12, 22:24:49
Preislich 549 und 799 Euro
und GTX 1080TI minus 10% und GTX 1080 TI plus ca. 15 bis 20% so die Quelle aus der Heimat.
Nur Wattmaessig wird man AMD richtig den Arsch versohlen, da jenen hoeren und Sehen vergehen.
150 bis 175 Watt!

Also echt um die 45 bis 50% Mehrperformance
Haette ich nicht fuer moeglich gehalten, echt jetzt
So viel zur Glaubwuerdigkeit der Lederjacke :-)

GT 2080TI also gut 40% ueber eine GTX 1080TI nach meiner Spekulation...

Swissr
2018-06-12, 22:26:16
Hmm, HDMI 2.1 mit FreeSync Support auch Abwärtskompatibel für bestehende Monitore?

Man wird ja wohl noch träumen dürfen ;-)

Timbaloo
2018-06-12, 22:27:21
und auch beim Takt und dessen Handhabung hat NV grundlegend etwas geändert. Und nun dürfen alle wieder rätseln :D
Return of the Hotclock? ;D

horn 12
2018-06-12, 22:28:58
Igor, wirklich wahr kein leichtes Unterfangen fuer AMD diesesmal!

Screemer
2018-06-12, 22:29:01
5ghz shadertakt for over 9000 1337nes.

Sam Pau
2018-06-12, 22:54:34
Hmm, HDMI 2.1 mit FreeSync Support auch Abwärtskompatibel für bestehende Monitore?

Man wird ja wohl noch träumen dürfen ;-)

Das wäre echt genial, aber ob es richtig unterstützt oder nur stiefmütterlich behandelt wird ist auch noch eine zusätzliche Frage.

BlacKi
2018-06-12, 22:59:49
Man darf sich schon einmal auf einen neue Art eines ganz bestimmten Videoausgangs freuen und auch beim Takt und dessen Handhabung hat NV grundlegend etwas geändert. Und nun dürfen alle wieder rätseln :D
sooooooo gemein:biggrin:

Fliwatut
2018-06-12, 23:20:37
Weil man am stepup Programm von evga nur teilnehmen kann, wenn man die Karte in den letzten 90 Tagen gekauft hat.
Genau. Wenn ich die Karte morgen kaufe, muss die neue Generation spätestens am 11. September 2018 von EVGA verkauft werden. Ob das klappt? Kann auch eine Founders Edition sein, ich will dann eh mit Wasser kühlen.

Adam D.
2018-06-12, 23:46:40
Genau. Wenn ich die Karte morgen kaufe, muss die neue Generation spätestens am 11. September 2018 von EVGA verkauft werden. Ob das klappt? Kann auch eine Founders Edition sein, ich will dann eh mit Wasser kühlen.
Aber die FE wird doch von NV vertrieben, nimmt die EVGA trotzdem? Die FE taucht bestimmt irgendwann im August auf, da biste safe.

Fliwatut
2018-06-12, 23:50:36
EVGA hat soweit ich weiß bisher auch immer eine FE rausgebracht, die 1080 FE von EVGA erschien am 11.5.2016.

Hübie
2018-06-13, 00:49:18
Hmm, HDMI 2.1 mit FreeSync Support auch Abwärtskompatibel für bestehende Monitore?

Man wird ja wohl noch träumen dürfen ;-)

Eher etwas dass den Big F**kin' Displays zuspielt. :wink:

Return of the Hotclock? ;D

Zumindest geht Takt nicht, wie die Spannung, quadratisch in den Verbrauch bzw. der Verlustleistung mit ein. Den Rest kann man sich denken.

Sunrise
2018-06-13, 00:54:26
...Man darf sich schon einmal auf einen neue Art eines ganz bestimmten Videoausgangs freuen und auch beim Takt und dessen Handhabung hat NV grundlegend etwas geändert. Und nun dürfen alle wieder rätseln :D
NV wird wie gewohnt (siehe Pascal), wieder ganz vorne mit dabei sein und der erste der Industrie sein, mit dem neuen Videoausgang, mit zusätzlich noch mehr Speed & Features der Hardware-Encoder/Decoder, auch hier siehe Pascal. Bin ich nahe dran? ;)

Wenn der Hotclock zurückkehrt, hat AMD in der Tat ein Problem...klingt als ob man da wieder ziemlich viel Spielraum hat.

=Floi=
2018-06-13, 01:15:22
Return of the Hotclock? ;D


GF110 1,58TF
GK110B 5,10TF

Was das ohne die hotclock-domain für ein sprung war. Auch energietechnisch ist der heutige weg wesentlich effizienter.
Mich fasziniert da auch der mut bei GF110 bei null anzufangen und alles zu hinterfragen.

Schnäppchenjäger
2018-06-13, 02:07:22
Man darf sich schon einmal auf einen neue Art eines ganz bestimmten Videoausgangs freuen und auch beim Takt und dessen Handhabung hat NV grundlegend etwas geändert. Und nun dürfen alle wieder rätseln :D
Ich wette du redest von HDMI. Auch wenn Displayport zukunftsfähiger ist, denke ich nicht, dass man da soviel dran rumtüfteln müsste :freak:

StefanV
2018-06-13, 02:18:06
Support von VESA Adaptive Sync?

gravitationsfeld
2018-06-13, 04:23:30
Der Typ sagt Dir echt nichts? Dessen Seite ist doch weltweit die Gerüchteschleuder Nummer Eins. Aber auch ihn lasse ich vorerst dumm sterben :D

Ich leiste in einem gewissen Maße auch technische Zuarbeit, sonst könnte ich mir solche Abenteuer wie TH gar nicht leisten. Bei Turing ist es allerdings so, dass ich nun mal beruflich auch die kenne, die gerade an den elektrischen Finessen bei den Boardpartnern rumtüfteln.

Man darf sich schon einmal auf einen neue Art eines ganz bestimmten Videoausgangs freuen und auch beim Takt und dessen Handhabung hat NV grundlegend etwas geändert. Und nun dürfen alle wieder rätseln :D
Die groesste Katze ist noch nicht mal ansatzweise aus dem Sack :popcorn:

horn 12
2018-06-13, 06:40:13
Nun, kaufbare Karten im September da kann AMD gern kontern Anfang des Jahres 2019
Erwarte circa RX Vega 64 Performance (Somit knappe GT 2070)
ebenso fuer 150 Watt.

Heftig wird dann fuer AMD aber die GT 2080 und GT 2080TI, letztere wird wohl nicht vor der Cebit 2019 kommen... oder gar noch spaeter.

Hübie
2018-06-13, 07:07:16
Mensch horn12, hör doch endlich damit auf. V64 interessiert hier niemanden und die Performance gibt's schon für 180-200 Watt.

gbm31
2018-06-13, 07:42:03
angeblich 30. Juli (https://www.tweaktown.com/news/62196/nvidias-next-gen-gtx-1180-rumors-999-1499-aug-sept/index.html)

horn 12
2018-06-13, 08:00:40
Fuer den Preis eine "Todgeburt", wenn dies stimmen sollte!
Mining Wahn treibt Nvidia zu Extrem Preisen an!

Und falls dies stimmen sollte mueste gar GTX 1180 Stolze 30 bis 40% schneller als GTX 1080TI werden.

Linmoum
2018-06-13, 08:22:48
Natürlich wird eine XX80 nicht über 1000$ kosten und selbst die halte ich für zu hoch gegriffen.

Swissr
2018-06-13, 08:53:30
Ganz furchtbarer Artikel, allein der vorletzte Absatz:
"NVIDIA is the only company on the planet capable of making graphics cards fast enough to handle 4K 120/144Hz" ;D

Igor TH
2018-06-13, 09:18:38
Die groesste Katze ist noch nicht mal ansatzweise aus dem Sack :popcorn:Die Performance ist ein Raub- und keine Hauskatze. :P

pilzsammler2002
2018-06-13, 09:26:40
Die Performance ist ein Raub- und keine Hauskatze. :P
Katze ist Katze :freak:
Das mit den Anschlüssen würde gut dazu passen das die BFGD verschoben wurden :)

Igor TH
2018-06-13, 09:33:07
Katze ist Katze :freak: und Sack ist Sack? Nun ja...

AffenJack
2018-06-13, 09:35:10
Die Performance ist ein Raub- und keine Hauskatze. :P

Bei Gravi erwarte ich da eher die Sicht aus der Entwicklerperspektive und daher interessanten neuen Features und nicht nur Performance. Ich bin gespannt.

BlacKi
2018-06-13, 09:39:51
Ganz furchtbarer Artikel, allein der vorletzte Absatz:
"NVIDIA is the only company on the planet capable of making graphics cards fast enough to handle 4K 120/144Hz" ;D
um das abzuschätzen? wieviel schneller wäre das? doppelt so schnell?:redface:

BigKid
2018-06-13, 09:46:31
Die Performance ist ein Raub- und keine Hauskatze. :P
Was jetzt heissen könnte: Unerwartet wenig oder unerwartet hoch...
Aufgrund der Formulierung denke ich aber eher letzteres....

Igor TH
2018-06-13, 10:11:29
Ich hätte etwas weniger erwartet. Aber man kann ja nicht alles haben ;D

TobiWahnKenobi
2018-06-13, 10:13:25
so so.. es wird also so schnell wie titan v, kostet die hälfte und kann wieder SLi.. krasser shice..


(..)

mfg
tobi

BlacKi
2018-06-13, 10:14:54
Ich hätte etwas weniger erwartet. Aber man kann ja nicht alles haben ;D
ach shit, das kann alles heißen^^ für mich würde das etwas über die 60% auf die 1080 bedeuten.

Swissr
2018-06-13, 10:22:45
Igor, hör bitte mit diesen Aussagen auf. Ich fühle mich gehypt :biggrin:

Mit welcher Mehrperformance würdet ihr zufriedengestellt sein?
Für mich wäre 1080TI +25% toll.

AffenJack
2018-06-13, 10:24:00
ach shit, das kann alles heißen^^ für mich würde das etwas über die 60% auf die 1080 bedeuten.

An soviel glaube ich nur, wenn man einen "GT103" baut. Also auf GT102 diese Gen verzichtet und dafür GT104 größer ausfallen lässt.

BlacKi
2018-06-13, 10:28:04
Mit welcher Mehrperformance würdet ihr zufriedengestellt sein?
Für mich wäre 1080TI +25% toll.
10-20% wäre zu erwarten, alles darüber wären nice.

PHuV
2018-06-13, 10:37:47
Natürlich wird eine XX80 nicht über 1000$ kosten und selbst die halte ich für zu hoch gegriffen.
Nvidia kann sich das sehr wohl erlauben, und sie werden es mit hoher Wahrscheinlichkeit probieren. Preise dann senken, falls doch es nicht so geht, geht immer. Aber ich wette, die Dinger werden sich wieder verkaufen wie warme Semmeln, und die Lager werden ratzfast leer sein.

Daher sehe ich die Preise realistisch, besonders für die 16 GB Variante angesichts der aktuellen GDDR6 Preise.

BlacKi
2018-06-13, 10:53:37
wenn sich die namen komplett ändern könnte ich mir auch andere preisgestaltungen vorstellen.

Leonidas
2018-06-13, 11:30:12
Und wie lange dauert es in der Regel von der BoM bis zum Cancel?


Sehr gut hier erklärt:
https://www.3dcenter.org/news/der-release-fahrplan-der-herstellerdesigns-zur-radeon-rx-vega

Igor TH
2018-06-13, 11:38:40
@Leonidas:
Das ist Vega. Ich habe es hier noch einmal mehr im Detail (incl. Green Light) und außerdem bereits erklärt + verlinkt ;)
https://www.tomshw.de/2018/06/12/nvidia-geforce-gtx-2080-1180-oder-was-wir-ueber-turing-nicht-wissen-update/

Tergo
2018-06-13, 11:49:55
Geht es bei diesem Schedule eigentlich um die Veröffentlichung der Partner-Karten oder der neuen Generation im Allgemeinen? Wenn die Partner-Karten nämlich schon im August/September erscheinen, müsste Nvidia ja die Ankündigung spätestens Ende Juli machen.

inspectah
2018-06-13, 12:16:08
Nur mal als Randinfo:
Die Briefings der Boardpartner für die neuen Karten liefen bzw. laufen bereits. Die BoM ist durch, also darf jetzt jeder selbst rechnen (die Zeitfenster hatte ich ja schon in meiner News erklärt) :)

Dummerweise bin ich diesmal gleich mit geNDA't worden, ich kann also diesmal keine genauen Infos rüberwursteln. Aber mein Kumpel scharrt schon mit den Füßen, obwohl er noch nichts weiß. Aber wie ich Wccftech so kenne, braucht er auch nicht mehr lange ;)

https://i.imgur.com/aVJpQcY.jpg
Igor, du erinnerst mich an John Goodman in Big Lebowski. :biggrin:

N0rG
2018-06-13, 12:29:17
7nm, 2,5ghz, 300mm2... was spricht eigentlich dagegen? Die volume production in 7 nm soll ja schon im april gestartet worden sein bei TSMC. Und ein Chip um 300mm2 wäre ja auch in einem jungen Prozess durchaus herstellbar.

Screemer
2018-06-13, 12:48:39
@Leonidas:
Das ist Vega. Ich habe es hier noch einmal mehr im Detail (incl. Green Light) und außerdem bereits erklärt + verlinkt ;)
https://www.tomshw.de/2018/06/12/nvidia-geforce-gtx-2080-1180-oder-was-wir-ueber-turing-nicht-wissen-update/
und der zeitliche ablauf entspricht bis auf 1-2 wochen genau deinem verlinkten. warum musst du gleich wieder rumblaffen?

BlacKi
2018-06-13, 12:56:00
und der zeitliche ablauf entspricht bis auf 1-2 wochen genau deinem verlinkten. warum musst du gleich wieder rumblaffen?
ich glaube nicht das das er damit irgendwas anderes ausdrücken wollte als das mit seiner auflistung auf nv bezogen genauer ist.

BoMbY
2018-06-13, 13:05:31
Sehr gut hier erklärt:
https://www.3dcenter.org/news/der-release-fahrplan-der-herstellerdesigns-zur-radeon-rx-vega

Ich glaube Ihr versteht das Wort "Cancel" nicht? Meine Frage bezog sich darauf was aus der, laut Igor, angeblich schon gestarteten Produktionkette von Ampere geworden ist, deren Karten diesen Monat in den Läden stehen sollen?

BigKid
2018-06-13, 13:32:42
Ich glaube Ihr versteht das Wort "Cancel" nicht? Meine Frage bezog sich darauf was aus der, laut Igor, angeblich schon gestarteten Produktionkette von Ampere geworden ist, deren Karten diesen Monat in den Läden stehen sollen?
Die stehen irgendwo in einem Lagerhaus und minen :^) - das war auch der Grund warum mining so plötzlich unrentabel wurde (also zumindest bei den Strompreisen in Deutschland...) ...
Und um sich selbst keine Konkurrenz zu machen hat NV beschlossen noch ne Ehrenrunde zu drehen und für alle anderen Karten aufzulegen, die schlechter minen ...
Das Ganze kann man dann sogar noch Image-Trächtig als Engagement für alle Gamer dieser Welt verkaufen...

*wohabichnochgleichmeinenaluhuthingelegt*

TobiWahnKenobi
2018-06-13, 13:57:12
die werden geshreddert und gehen zum reassamblen an AMD.


(..)

mfg
tobi

Leonidas
2018-06-13, 14:04:49
und der zeitliche ablauf entspricht bis auf 1-2 wochen genau deinem verlinkten. warum musst du gleich wieder rumblaffen?


ich glaube nicht das das er damit irgendwas anderes ausdrücken wollte als das mit seiner auflistung auf nv bezogen genauer ist.


Denke ich auch. Insofern ist der Hinweis auf die genauere NV-Aufstellung überhaupt nicht falsch.




Ich glaube Ihr versteht das Wort "Cancel" nicht? Meine Frage bezog sich darauf was aus der, laut Igor, angeblich schon gestarteten Produktionkette von Ampere geworden ist, deren Karten diesen Monat in den Läden stehen sollen?


Wurde schon verstanden. Aber ich hab die Frage im Sinne des normalen beantwortet. Zu den früheren Gerüchten: Nun ja, wir lagen falsch. War nicht das erste mal, wird nicht das letzte Mal sein. Die Hersteller mauern, schließen alle Leaks und setzen (mutmaßlich) falsche Leaks in die Welt.

Kehaar
2018-06-13, 14:13:57
Ich mach mal meine persönliche Speku fest ... um nach der Veröffentlichung zu sehen, was davon stimmte :freak: :

allgemein: 10nm, HDMI 2.1, VESA Adaptive Sync, Tensor Cores, weitere Secret Sauce für Raytracing, so was wie AMDs HBCC
1180: 3584 ALUs, 256 Bit 8 GB 16 Gbps GDDR6, 1800 MHz mit Boost auf 2000 MHz, 150 W, 1080 Ti + 25%, 799$
1170: 2560 ALUs, 256 Bit 8 GB 12 Gbps GDDR6, 1700 MHz mit Boost auf 1900 MHz, 120 W, 1080 Ti - 10%, 549$

Adam D.
2018-06-13, 14:26:00
Ich spekuliere mal mit Blick auf Performance und Preis: 1080 (400-500€) - 1170 (500-600€) - 1080 Ti (600-700€) - 1180 (700€++++)

horn 12
2018-06-13, 14:35:28
kehaar

Koenntest da fast ins Schwarze treffen
Obwohl ich denke 16GB DDR6 sehen wir spaeter auch noch fuer >1000 Euro

Dies wuerde AMD arg zu schaffen machen, da gibt es nichts schoenzureden!
Dies von einem AMD Verfechter

r3ptil3
2018-06-13, 14:41:53
kehaar

Koenntest da fast ins Schwarze treffen
Obwohl ich denke 16GB DDR6 sehen wir spaeter auch noch fuer >1000 Euro

Dies wuerde AMD arg zu schaffen machen, da gibt es nichts schoenzureden!
Dies von einem AMD Verfechter

Das hat mit AMD gar nicht mehr viel gross zu tun.
AMD wird die nächsten Jahre im High-End-Markt sowieso keinen Anschluss mehr finden und bis dahin ist dann auch Intel da und das ist dann ein ganz anderes Kaliber - darauf kann man sich freuen.

ShinyMcShine
2018-06-13, 14:44:33
Ich mach mal meine persönliche Speku fest ... um nach der Veröffentlichung zu sehen, was davon stimmte :freak: :

allgemein: 10nm, HDMI 2.1, VESA Adaptive Sync, Tensor Cores, weitere Secret Sauce für Raytracing, so was wie AMDs HBCC
1180: 3584 ALUs, 256 Bit 8 GB 16 Gbps GDDR6, 1800 MHz mit Boost auf 2000 MHz, 150 W, 1080 Ti + 25%, 799$
1170: 2560 ALUs, 256 Bit 8 GB 12 Gbps GDDR6, 1700 MHz mit Boost auf 1900 MHz, 120 W, 1080 Ti - 10%, 549$

Halte ich für fraglich, ob sich nVidia hier von GSync abwendet...

Kehaar
2018-06-13, 14:46:37
Obwohl ich denke 16GB DDR6 sehen wir spaeter auch noch fuer >1000 Euro
Ich bleibe vorerst bei 8 GB. Erstmal ist GDDR6 teurer. Dann ist AMD kein Gegner, der mit mehr RAM wirksam kontern könnte. Also kann sich Nvidia den "Mehr-RAM" für die größeren Karten (mit einem evtl. GT102), einen Refresh oder die nächste Generation aufheben.

TwoBeers
2018-06-13, 14:51:51
Wenn sie wirklich Adaptive Sync bieten werden, dann gibt es wirklich so gar keinen Grund mehr AMD zu kaufen (zumindest im High-End).
Wäre schon ein Knallerfeature. Irgendwie wünsche es mir, damit die Auswahl größer wird, und irgendwie auch nicht, weil ich dann wahrscheinlich keine AMD Grafikkarte kaufen werde.

Grendizer
2018-06-13, 14:51:56
Naja Intel letzten dedizierten Grafikkartenversuche sind so lange auch nicht her und haben zum Glück in Intel Xeon Phi eine Verwendung gefunden um nicht als komplett gescheitert zu enden.

Intel kann auch kolossale Flops produzieren (Itanium :eek:)

Grendizer
2018-06-13, 14:54:43
Wenn sie wirklich Adaptive Sync bieten werden, dann gibt es wirklich so gar keinen Grund mehr AMD zu kaufen (zumindest im High-End).
Wäre schon ein Knallerfeature. Irgendwie wünsche es mir, damit die Auswahl größer wird, und irgendwie auch nicht, weil ich dann wahrscheinlich keine AMD Grafikkarte kaufen werde.


Ich denke mir das die Leute die Geld für eine Turing haben, auch kein Problem für den Mehrpreis eines Gsync Monitors haben. Ein Monitor ist doch auch eine Investition auf 5-7 Jahre.... also 2-3 Grafikkarten. Wenn man den Mehrpreis auf die Laufzeit umrechnet ist das ein Witz. Ich verstehe immer noch nicht, warum da so ein Geschiss drum gemacht wird, auch wenn ein entsprechender Monitor eben keine 400 Euro, sondern 750 Euro kostet.

basix
2018-06-13, 14:57:03
Halte ich für fraglich, ob sich nVidia hier von GSync abwendet...

Vermutlich nicht. Zu hoffen wäre es aber. Dann kann man mit G-Sync immer noch irgendein Alleinstellungsmerkmal beibehalten. z.B. HDR Support oder was auch immer...

Ich denke mir das die Leute die Geld für eine Turing haben, auch kein Problem für den Mehrpreis eines Gsync Monitors haben. Ein Monitor ist doch auch eine Investition auf 5-7 Jahre.... also 2-3 Grafikkarten. Wenn man den Mehrpreis auf die Laufzeit umrechnet ist das ein Witz. Ich verstehe immer noch nicht, warum da so ein Geschiss drum gemacht wird, auch wenn ein entsprechender Monitor eben keine 400 Euro, sondern 750 Euro kostet.

Das Hauptproblem liegt darin, dass man dann innerhalb dieser 5-7 Jahre faktisch an Nvidia gebunden ist, wenn man nicht auf das Feature verzichten will oder einen zweiten entsprechenden Monitor hat. Das ist das Problem. Der (unnötige) Mehrpreis ist das andere.

Leonidas
2018-06-13, 15:17:21
Das Hauptproblem liegt darin, dass man dann innerhalb dieser 5-7 Jahre faktisch an Nvidia gebunden ist.


... was wiederum für NV eher der Anreiz ist, bei G-Sync zu bleiben.

Ich glaub da nicht an einen Meinungswechsel bei NV, dafür muß wirklich erstmal die Hölle zufrieren. Naja, erneut zufrieren angesichts mancher Nachrichten dieser Tage.

Käsetoast
2018-06-13, 15:20:18
Ich denke NVIDIA hat den Sync Kampf so gesehen "verloren". Inzwischen kommen sie da eigentlich kaum noch rum jetzt wo etwa z.B. jeder kommende Fernseher von Samsung das VESA Sync kriegen soll. Mit dem ganzen HDR Kram ist ihr G-Sync ja immer noch eine Ecke besser, so dass sich denke ich auch wenn sie Adaptive Sync anbieten G-Sync immer noch genauso gut vermarkten lässt...

Mich würde es riesig freuen, wenn NVIDIA ab Turing tatsächlich auch Freesync Monitore entsprechend ansteuern kann. Eigentlich können sie sich da halt aber nicht mehr viel länger rauswinden wenn das jetzt wie gesagt auch bei den Fernsehern durch die Bank voll einschlägt. Die G-Sync Lösung bleibt dann halt als "Premium Lösung" bestehen...

nordic_pegasus
2018-06-13, 15:20:25
Ich denke mir das die Leute die Geld für eine Turing haben, auch kein Problem für den Mehrpreis eines Gsync Monitors haben. Ein Monitor ist doch auch eine Investition auf 5-7 Jahre.... also 2-3 Grafikkarten. Wenn man den Mehrpreis auf die Laufzeit umrechnet ist das ein Witz. Ich verstehe immer noch nicht, warum da so ein Geschiss drum gemacht wird, auch wenn ein entsprechender Monitor eben keine 400 Euro, sondern 750 Euro kostet.

das Problem ist, dass HDMI 2.1 und "Variable Refresh Rate" das Killer-Feature der 2019er TV Modelle sein wird. Und wenn hier neben den Konsolen nur AMD Grafikkarten dies unterstützen, sieht das für Nvidia ziemlich blöd aus.

Neben diesen Big F*** Gaming Displays (mit Preisen jenseits der 5.000€) gibt es nichts im Monitor/TV Bereich mit Gsync. Von OLED ganz zu schweigen.

Ex3cut3r
2018-06-13, 15:36:46
Ich denke mal Adaptive Sync Unterstützung ist klar. G-Sync bleibt aber Premium Lösung. Ich werde mir wahrscheinlich eine 2070 gönnen, wenn die aber nur 8GB VRAM hat, dann nicht, habe schon seit 2 Jahren mit der 1070 8GB drin, psychologisch kein Upgrade. 12 oder aber besser 16 GB wären angemessen.

Kepler 680 - 2GB, 2012
Maxwell 980 - 4GB, 2014
Pascal 1080 - 8GB, 2016
Turing 2080 - 16GB please, 2018

matty2580
2018-06-13, 15:47:27
Ihr solltet aber auch die aktuellen Speicherpreise bei der Diskussion berücksichtigen, die noch länger so bleiben werden. 16GB VRAM wurden die GPU also stark verteuern.

Diese News soll wohl sehr nahe dran sein:
https://www.tweaktown.com/news/62196/nvidias-next-gen-gtx-1180-rumors-999-1499-aug-sept/index.html
Nur soll noch etwas fehlen.

Adam D.
2018-06-13, 15:53:31
Ihr solltet aber auch die aktuellen Speicherpreise bei der Diskussion berücksichtigen, die noch länger so bleiben werden. 16GB VRAM wurden die GPU also stark verteuern.

Diese News soll wohl sehr nahe dran sein:
https://www.tweaktown.com/news/62196/nvidias-next-gen-gtx-1180-rumors-999-1499-aug-sept/index.html
Nur soll noch etwas fehlen.
Der Artikel tut so dermaßen weh :freak: Nach dessen Logik ist Pascal auch schon "f*****g fast", weil er den Top-Dog der letzten Generation schlägt. Wer das nicht bringt, muss keine neue Generation launchen. Und die paar Prozent mehr ggb. TXP werden bestimmt nicht plötzlich 4k/144Hz möglich machen - auch übertaktet mit 16Gb GDDR6 nicht.

matty2580
2018-06-13, 15:56:06
Fragen bitte an Igor, falls er dir antworten sollte. ^^

Die letzte News von Tweak Town sieht schon recht ordentlich aus, wenn ich das mal so sagen darf. Aber es fehlt noch bissl was. :D
40% sind es nicht :)

N0Thing
2018-06-13, 15:56:18
Halte ich für fraglich, ob sich nVidia hier von GSync abwendet...

Kann ich mir auch nicht vorstellen, auch wenn ich es mir wünschen würde. Sie haben Adaptive Sync bisher nicht gebracht, warum sollten sie jetzt umschwenken, wenn sie den Markt noch stärker dominieren werden als zuvor? Zudem bringen sie gerade jetzt neue Monitore für einen abartigen Preis auf den Markt, warum sich selbst in die Parade fahren?

Käsetoast
2018-06-13, 16:30:05
Sie haben Adaptive Sync bisher nicht gebracht, warum sollten sie jetzt umschwenken, wenn sie den Markt noch stärker dominieren werden als zuvor?
Weil es im neuen HDMI Standard vorgesehen ist und Fernseher das jetzt durch die Bank unterstützen werden (bei Monitoren wird dann irgendwann wahrscheinlich breitflächig nachgezogen, wenn die sich auch mit dem modernsten HDMI Anschluss dem Endkunden anbiedern wollen). Da wird es irgendwann sehr merkwürdig wenn der Kunde merkt, dass eine zig Jahre alte PS4 am Fernseher etwas bietet, das eine NVIDIA 1000 $ Grafikkarte im Jahre 2018 / 2019 nicht unterstützt. Ich denke die damit verbundene schlechte Publicity kann NVIDIA nicht auf sich sitzen lassen und ist damit gezwungen das jetzt dann auch zu unterstützen. Mit der wahrscheinlich geringen Präsenz von AMD am Grafikkartenmarkt kann man das dann sicherlich auch als Errungenschaft abfeiern lassen... ;)

Screemer
2018-06-13, 16:33:08
ich glaube nicht das das er damit irgendwas anderes ausdrücken wollte als das mit seiner auflistung auf nv bezogen genauer ist.
ok. für mich las sich das sehr rüde. kam vielleicht auch in dem moment falsch an. sorry, wenns nicht so gemeint war!

N0Thing
2018-06-13, 17:13:00
Weil es im neuen HDMI Standard vorgesehen ist und Fernseher das jetzt durch die Bank unterstützen werden (bei Monitoren wird dann irgendwann wahrscheinlich breitflächig nachgezogen, wenn die sich auch mit dem modernsten HDMI Anschluss dem Endkunden anbiedern wollen).

Ich hatte es als optionales Features wie bei Display Port im Hinterkopf, aber VRR scheint nun wirklich fest im Standard implementiert worden zu sein, sehr schön. Aber neue Geräte braucht es dann trotzdem noch.

Loeschzwerg
2018-06-13, 17:14:13
Naja Intel letzten dedizierten Grafikkartenversuche sind so lange auch nicht her und haben zum Glück in Intel Xeon Phi eine Verwendung gefunden um nicht als komplett gescheitert zu enden.

Lesen ;) http://tomforsyth1000.github.io/blog.wiki.html#[[Why%20didn't%20Larrabee%20fail%3F]]

Grendizer
2018-06-13, 17:17:25
Lesen ;) http://tomforsyth1000.github.io/blog.wiki.html#[[Why%20didn't%20Larrabee%20fail%3F]]

Ja.... ich sagte ja das man zum Glück eine Verwertung gefunden hat, die das Ding erfolgreich gemacht hat. Initial war was anderes geplant, historisch umdeuten kann man das Ergebnis wenn man wo anders erfolgreich ist immer

Der Wirkstoff Sildenafil zur Behandlung von Bluthochdruck und Angina Pectoris ist auch nicht so wirklich bekannt geworden.... Das Mittel Vigra war dann doch ein Erfolg *g*

Loeschzwerg
2018-06-13, 17:21:43
Umdeuten... es war schon immer eine bescheidene Idee x86 Kerne für Grafik zu verwenden, also kann das initial gar nicht der Plan gewesen sein. Aber ist OT.

inspectah
2018-06-13, 20:20:50
Fernseher mit HDMI 2.1 sind erst mit den 2019er Lineups zu erwarten, zumindest bei den großen Herstellern mit den State-of-the-Art Panels.
So gesehen hätte Nvidia noch ein weiteres Jahr Zeit darauf und auf VRR zu verzichten.
Allerspätestens aber wenn die PS5 2020/2021 mit HDMI 2.1 und VRR erscheint, werden sie nicht drum rum kommen es auch zu unterstützen.

Ich denke wenn HDMI 2.1 eine gewisse Marktdurchdringung erreicht hat wird auch Freesync vom Markt verschwinden, weil es eine einheitliche Lösung für Alle gibt.

cat
2018-06-13, 20:44:52
Kennt sich hier jemand sogut mit GPU-Design aus, als das man mir sagen könnte ob für mehr Takt so wie bei CPU auch hier tendenziell die Pipeline verlängert werden müsste ?

Der Cache-Umbau in Volta hat ja einen Level Null Cache nah an den Cores gebracht und gleichzeitig das Scheduling usw. um die Dispach-Einheiten vereinfacht.

Turing wird evtl. in eine ähnliche Richtung gehen.

Ich bin mir auch ziemlich sicher, dass es Tensor-Cores gibt, damit im Consumer-Bereich entsprechende Ziel-HW für die aktuellen Software-Ziele kaufbar wird.

Die FP16 Funktionalität wandert komplett in die Tensor-Cores, wie bei Volta
(Tensor-Cores / FP32 / INT32)
Diese einzelnen Pipelines könnten eigene Clocks bekommen und z.B Clock-Gating nutzen.

Igors Andeutungen machen für mich perfekt Sinn.

Das endet beim Erscheinen der schnellsten Navi mit einem Vorsprung Nvidias mit **mindestens** 50% Perf und gleichzeitig 100% Energie-Effizienz. Das wird böse.

F4USt
2018-06-13, 20:45:33
VVR könnte bei den TV-Herstellern auch ein "Premiumfeature" werden. Ottonormalo braucht sowas beim Fernsehen ja eher nicht.

Mit der Marktdurchdringung wird es dann wohl dauern...

Überhaupt sind die Features von HDMI 2.1 doch optional, soweit ich weiß.

LadyWhirlwind
2018-06-13, 20:53:34
Schlussendlich wird es von der Marktdurchdringung abhängen ob Nvidia mitmacht oder nicht (oder die Welt geht unter....). Sind entsprechende Geräte weit verbreitet und Gsync verkauft sich schlecht, dann wird Nvidia nichts anderes übrig bleiben.

Wenns allerdings nur bei Premium-Geräten ein Thema ist, kann Nvidia mit Gsync wohl noch lange gut Umsatz machen.

F4USt
2018-06-13, 21:16:55
Wurde bestimmt schon gefragt.

Könnte nVidia nicht auch gleich mit 7nm um die Ecke kommen?

Die Flächenersparnis wäre ja groß (65% ?)

AMD hat doch auch bereits einen Chip präsentiert, wenn natürlich auch für einen anderen Markt.

Adam D.
2018-06-13, 21:21:19
Wurde bestimmt schon gefragt.

Könnte nVidia nicht auch gleich mit 7nm um die Ecke kommen?

Die Flächenersparnis wäre ja groß (65% ?)

AMD hat doch auch bereits einen Chip präsentiert, wenn natürlich auch für einen anderen Markt.
AMD hat eine Karte gezeigt, die in Einzelstücken Ende des Jahres in 7nm kommt. Einfach mal im Thread hier suchen, dass Turing in 7nm kommt, ist ausgeschlossen - in den Mengen kann keine Fab aktuell für Nvidia produzieren.

gravitationsfeld
2018-06-13, 21:21:42
Umdeuten... es war schon immer eine bescheidene Idee x86 Kerne für Grafik zu verwenden, also kann das initial gar nicht der Plan gewesen sein. Aber ist OT.
Doch, das war die Idee. Sonst haetten sie nicht mehrere Teams gehabt die angefangen hatten Software-Rasterizer dafuer zu schreiben und TMUs in die Chips gebaut.

Digidi
2018-06-13, 21:44:47
Die Performance ist ein Raub- und keine Hauskatze. :P

So wie diese Raubkatze?
https://www.youtube.com/watch?v=WY6kgISv4fM
:P

Wohl wieder zu sehr bei der Lederjacke gelauscht!

Troyan
2018-06-13, 21:57:44
80% mehr Leistung ist doch in Ordnung. Gut, dass ist nur doppelt soviel wie Vega, aber als PC-Spieler kann man eben nicht alles haben. Lmao.

Digidi
2018-06-13, 22:45:52
80% mehr Leistung ist doch in Ordnung. Gut, dass ist nur doppelt soviel wie Vega, aber als PC-Spieler kann man eben nicht alles haben. Lmao.

Befindest du Dich in einem Dauertraum?

BlacKi
2018-06-13, 22:50:38
Überhaupt sind die Features von HDMI 2.1 doch optional, soweit ich weiß.
vl bedingt hdmi2.1 es, wenn man VRR nutzt das man async nutzbar machen muss. dann wäre async mindest ab hdmi2.1 nvidia rdy. auf jeden fall wäre das der bringer. vl kommen deshalb manche monitore so verspätet weil man unbedingt 2.1 drin haben wil.

Swissr
2018-06-13, 23:36:51
So wie diese Raubkatze?
https://www.youtube.com/watch?v=WY6kgISv4fM
:P

Wohl wieder zu sehr bei der Lederjacke gelauscht!

Mal wieder am trollen oder zu blöd für Mathe? Knapp 30 Prozent schneller als die doppelt so teure semiprofi Karte war nicht viel? Aber klar, wenn ich 30 Prozent mehr Gehalt als du bekomme, verdiene ich dann nicht ne Menge mehr?!

scully1234
2018-06-13, 23:40:39
So wie diese Raubkatze?
https://www.youtube.com/watch?v=WY6kgISv4fM
:P

Wohl wieder zu sehr bei der Lederjacke gelauscht!

Wir sehen wohl unsere Felle davon schwimmen, das du Igors Aussage zerpflücken möchtest;D

Digidi
2018-06-13, 23:50:30
Wir sehen wohl unsere Felle davon schwimmen, das du Igors Aussage zerpflücken möchtest;D
Igor hat auch immer richtig gelegen ;)

Dural
2018-06-14, 00:10:06
95% das es 7nm sind ;)

Hübie
2018-06-14, 01:23:23
AMD hat eine Karte gezeigt, die in Einzelstücken Ende des Jahres in 7nm kommt. Einfach mal im Thread hier suchen, dass Turing in 7nm kommt, ist ausgeschlossen - in den Mengen kann keine Fab aktuell für Nvidia produzieren.

Ausschließen würde ich mal gar nichts, denn ASML präsentierte bereits letztes Jahr die Produktivität ihrer NXE 3400 Plattform.

Rampage 2
2018-06-14, 02:37:49
Vermutlich nicht. Zu hoffen wäre es aber. Dann kann man mit G-Sync immer noch irgendein Alleinstellungsmerkmal beibehalten. z.B. HDR Support oder was auch immer...


WARUM bietet Samsung keine G-Sync Monitore an? Alle deren Gaming-Monitore sind "nur" Freesync - das nützt einem Nvidia-User aber leider nichts... (es sei denn, NV ändert das mit Turing, was aber aller Wahrscheinlichkeit nach nicht der Fall sein wird:frown:)

R2

Adam D.
2018-06-14, 02:43:12
Ausschließen würde ich mal gar nichts, denn ASML präsentierte bereits letztes Jahr die Produktivität ihrer NXE 3400 Plattform.
Ich hab das vielleicht zu stark formuliert, ich bin zu sehr Laie, um das wirklich einschätzen zu können und hab mich eher auf die Stimmen hier im Thread bezogen.

Die Entscheidung wäre aber für Nvidia wirklich sehr risikoreich gewesen, irgendwie passt das nicht zu dieser Firma, insbesondere angesichts der mangelhaften Konkurrenzkonstellation am Markt. Ist doch bequemer, jetzt mit 12nm erwartbare Leistung safe zu liefern und 2019 noch viel Potential für einen Refresh o.ä. zu haben.

Ravenhearth
2018-06-14, 03:08:59
95% das es 7nm sind ;)
;D

gravitationsfeld
2018-06-14, 05:04:41
WARUM bietet Samsung keine G-Sync Monitore an? Alle deren Gaming-Monitore sind "nur" Freesync - das nützt einem Nvidia-User aber leider nichts... (es sei denn, NV ändert das mit Turing, was aber aller Wahrscheinlichkeit nach nicht der Fall sein wird:frown:)

R2
Weil sie die NVIDIA-Zeche nicht bezahlen wollen.

rentex
2018-06-14, 05:41:21
Hdmi 2.1 wird glaube ich nicht auf Turing kommen. Die ersten Produkte sind erst fürs Ende/Anfang 2018/2019 geplant.

Leonidas
2018-06-14, 07:28:19
Naja, Turing wird Ende 2018 bis Anfang 2019 ausgerollt. Und bleibt dann ja mindestens 1 Jahr. Wieso nicht was einbauen, was man als Werbefeature bringen kann? Noch dazu wo man von der Konkurrenz (AMD) erfahrungsgemäß erwarten darf, bei solchen Checklistenfeatures immer ganz vorn dabei zu sein. Also: Turing in 2019 ohne HDMI 2.1 - und Navi mit HDMI 2.1? Leichte Entscheidung des Managments.

Was nicht sagt, das das so kommt oder das überhaupt HDMI 2.1 gemeint ist. Aber die höchsten Wahrscheinlichkeiten hat es schon.

Kriegsgeier
2018-06-14, 07:41:28
Könnte es sein, dass etwas drahtloses statt HDMI 2.1 kommt? Für VR...

HOT
2018-06-14, 08:25:14
95% das es 7nm sind ;)
Ich glaubs auch mittlerweile, obwohl ich ein wehementer Verfechter dagegen war.
Ich werf mal ne ganz verwegene Spekulation in den Raum: Ich würd mich auch nicht wundern, wenn man den Chip gar nicht bei TSMC baut, sondern evtl. bei Samsung in 8LPP. Die haben viel Kapazität, NV könnte sich dafür entschieden haben, als Qualcomm absprang. Denn NV wird es egal sein, ob die Maske bei Samsung komplexer ist, der Chip wird ja sicherlich 2 Jahre laufen.

rentex
2018-06-14, 08:30:22
Naja, Turing wird Ende 2018 bis Anfang 2019 ausgerollt. Und bleibt dann ja mindestens 1 Jahr. Wieso nicht was einbauen, was man als Werbefeature bringen kann? Noch dazu wo man von der Konkurrenz (AMD) erfahrungsgemäß erwarten darf, bei solchen Checklistenfeatures immer ganz vorn dabei zu sein. Also: Turing in 2019 ohne HDMI 2.1 - und Navi mit HDMI 2.1? Leichte Entscheidung des Managments.

Was nicht sagt, das das so kommt oder das überhaupt HDMI 2.1 gemeint ist. Aber die höchsten Wahrscheinlichkeiten hat es schon.


Da aber die nötige HW und die Verabschiedung des Standards recht spät bereitgestellt worden ist (Spätsommer 2017/anfang des Jahres) wäre es bei der Entwicklung von Turing/Ampere nicht berücksichtigt.
Ausser Nvidia hat sich frühere Entwürfe zur Vorlage genommen (wie es Apple manchmal tat).

horn 12
2018-06-14, 08:40:57
Nun, dann waren 70 bis 80% zum Vorgänger möglich und AMD wäre komplett angeschissen!

Dural
2018-06-14, 09:25:01
Ich glaubs auch mittlerweile, obwohl ich ein wehementer Verfechter dagegen war.
Ich werf mal ne ganz verwegene Spekulation in den Raum: Ich würd mich auch nicht wundern, wenn man den Chip gar nicht bei TSMC baut, sondern evtl. bei Samsung in 8LPP. Die haben viel Kapazität, NV könnte sich dafür entschieden haben, als Qualcomm absprang. Denn NV wird es egal sein, ob die Maske bei Samsung komplexer ist, der Chip wird ja sicherlich 2 Jahre laufen.

Das lustige an der Geschichte ist ja, 12nm ist gar nicht für GPUs vorgesehen, sondern für SoC. :freak:

GV100 wurde in einer Kleinserie in einem angepassten 12nm Fertigung Hergestellt. Ich konnte keine aktuelle Informationen finden das GPUs für 12nm geplant sind. Bis auf die Gerüchte mit Turing natürlich.

Zeitpunkt, und alle Informationen sprechen klar für 7nm und gegen 12nm.

BoMbY
2018-06-14, 09:28:09
Nun, dann waren 70 bis 80% zum Vorgänger möglich und AMD wäre komplett angeschissen!

Nein, NVidia wäre komplett angeschissen, weil die sich nur selbst Konkurrenz machen ...

Dural
2018-06-14, 09:30:01
vorerst wird es eh nur ein GT104 geben, wann und ob ein GT102 kommt... :confused:

Edit:
Und alle die 1000.- für Blödsinn hielten, ich wäre mir da mittlerweile nicht mehr so sicher... NV wird sich die Hände reiben für einen ca. 300mm2 Chip glatt einen Tausender verlangen zu können dafür wird man aber sicher auch 16GB bekommen :freak:

Aber ich sehe das Marketing schon: 4GB mehr Speicher, 10-20% mehr Leistung für XXX.- weniger als Titan :freak::freak::freak:

sys64738
2018-06-14, 10:30:58
Weil sie die NVIDIA-Zeche nicht bezahlen wollen.
Kann doch Samsung egal sein, bezahlt doch sowieso der Kunde.

BlacKi
2018-06-14, 10:41:42
Kann doch Samsung egal sein, bezahlt doch sowieso der Kunde.
glaube nicht das er das damit meinte.

Weil sie die NVIDIA-Zeche nicht bezahlen wollen.
aber was zum geier meint er damit?

Dural
2018-06-14, 10:53:46
Samsung ist nicht gerade NVs bester Freund, verständlich da NV Samsung ja vor Gericht gezogen hat.

BlacKi
2018-06-14, 10:57:27
die ziehen sich ständig gegeneinander vor gericht. war da mal was besonders schmerzhaftes?

scully1234
2018-06-14, 11:42:18
95% das es 7nm sind ;)

Ab der Titan u darüber ,wo sich das Risiko des frischen Prozess (Deffektraten, Waferkosten)auch auszahlt vielleicht, für den günstigen Mainstream sicher nicht

Da könnte man erstmal nur salvage GT102 für den ersten Titan Chip Binnen, und später wenn der Mainstream die Zweitauflage Turing in 7 nm bekommt, nochmals den Vollausbau GT102 nachschieben, und hätte so jedesmal ein Volles Portfolio

Nuvirus
2018-06-14, 11:48:26
Ich könnte mir beides also 7nm oder 12nm gut vorstellen.

Nvidia hätte ja einiges davon wenn Sie jetzt super Karten bringen, sie sind allein können hohe Preise verlangen und mit starker Performance können Sie auch mehr Leute zum Aufrüsten bewegen die jetzt schon ne sehr gute Karte haben.

Gibt's eigl schon nähere Infos zum Speicherinterface und Menge des RAMs?

8gb für die größte Variante fände ich schon sehr enttäuschend für die 70er könnte man das evtl noch akzeptieren wenn der Preis ok ist.

HOT
2018-06-14, 11:51:47
vorerst wird es eh nur ein GT104 geben, wann und ob ein GT102 kommt... :confused:

Edit:
Und alle die 1000.- für Blödsinn hielten, ich wäre mir da mittlerweile nicht mehr so sicher... NV wird sich die Hände reiben für einen ca. 300mm2 Chip glatt einen Tausender verlangen zu können dafür wird man aber sicher auch 16GB bekommen :freak:

Aber ich sehe das Marketing schon: 4GB mehr Speicher, 10-20% mehr Leistung für XXX.- weniger als Titan :freak::freak::freak:

1000€ werden es sicherlich nicht sein. Nach den Preissteigerungen bei Maxwell und Pascal würd ich da wieder mit 100-200€ mehr rechnen als letzte Generation, also 650€ für die 1170 und 900€ für die 1180. Zudem wird NV sicherlich 16GBit Chips verbauen, denn 8GB war 2016 schon aktuell, jetzt nochmals 8GB zu bringen würde doch einiges an Käufern kosten, die das für den Preis einfach nicht einsehen werden. Die nächste Generation wie Starfield, StarCitizen und Cyberpunk steht quasi vor der Tür und das wird 8GB in WQHD echt knapp werden. Bethesda will offenbar schon jetzt die alte Konsolengeneration beim neuen Franchise vor die Tür setzen:
https://www.gamestar.de/artikel/starfield-neues-bethesda-rollenspiel-kommt-eventuell-nicht-mehr-fuer-aktuelle-konsolen,3331051.html

mksn7
2018-06-14, 12:01:41
Kennt sich hier jemand sogut mit GPU-Design aus, als das man mir sagen könnte ob für mehr Takt so wie bei CPU auch hier tendenziell die Pipeline verlängert werden müsste ?


Volta hat sogar gerade erst die FPU latenzen reduziert, AFAIR von 6 auf 4 cycles. Eventuell reduziert das auch die Taktbarkeit etwas, das sieht man bei V100 nicht so, weil die nicht sehr hoch getaktet sind. Könnte bei Turing ja anders sein.

Oder aber die neue angegebene Latenz ist in Instruction Issues angegeben. Die sind ja jetzt nur noch halb so oft, dann hätte sich die latenz in cycles eher von 6 auf 8 erhöht. Wär wieder super für energy oder area. Das so zu erzählen wär schon ein typischer NVIDIA technical marketing stunt.

Mit der gleichen Begründung könnte man auch sagen GCN hat 1 cycle Latenz.


Der Cache-Umbau in Volta hat ja einen Level Null Cache nah an den Cores gebracht und gleichzeitig das Scheduling usw. um die Dispach-Einheiten vereinfacht.


Das einzige was ich mal als Level Null Cache bezeichnet gehört hab ist ein Registercache, wo in den Instruktionen eincodiert wird dass ein beschriebenes Register gleich wieder benutzt wird. Gibts aber schon seit Maxwell. Ansonsten hat sich der L1 Cache von Pascal zu Volta geändert, der ist jetzt viermal so schnell wie vorher und fast so schnell wie der Shared Memory.

Ich denke auch dass wir die scheduler und cache Änderungen bei Turing auch wieder sehen.

cat
2018-06-14, 12:10:06
https://img.techpowerup.org/180614/nvidia-volta-gv100-tesla-v100-2.jpg
https://img.techpowerup.org/180614/nvidia-volta-gv100-tesla-v100-3.jpg

cat
2018-06-14, 12:15:08
Das mit dem besseren L1 ist mir bekannt.
https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9aL1kvNzA1MDIyL29yaWdpbmFsLzIwNS5KUEc=

scully1234
2018-06-14, 13:36:20
Eventuell reduziert das auch die Taktbarkeit etwas, das sieht man bei V100 nicht so.

Der große V100 taktet auch bis 2 GHZ , das selbe Transistor Limit wie GP102 und GP104 davor

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11704074&postcount=420

horn 12
2018-06-14, 13:53:46
2,05 bis 2,15 Ghz erwarte ich bei Turing, zumindest bei den Custom Versionen.
Jene sollten die GTX 1080 TI wohl um bis zu 25% überbieten können.

@Igor ging wohl von GTX 1080TI circa aus, vielleicht 5 bis 10% mehr als jene.

Grendizer
2018-06-14, 13:57:20
gelöscht,

Monsta
2018-06-14, 14:14:10
Falls die nen Gt104 wirklich für nen 1000er freilassen, werden die nicht viele
1080er Besitzer die idR 600€ für ne Karte bezahlen zum wechseln bewegen.

Aber vielleicht liege ich damit auch total falsch.

AffenJack
2018-06-14, 14:25:12
Falls die nen Gt104 wirklich für nen 1000er freilassen, werden die nicht viele
1080er Besitzer die idR 600€ für ne Karte bezahlen zum wechseln bewegen.

Aber vielleicht liege ich damit auch total falsch.

Sie wird auch nicht 1k kosten. Ist nur das gleiche Gelaber, wie bei der 980TI und 1080Ti. Bei der 980Ti waren auch alle der Meinung, dass sie für 700-800$ kommt. Die 1080Ti sollte auch für 899-999$ kommen. Jedes Jahr das gleiche Spiel. Wenn sie mehr asl 10% auf die 1080Ti drauf legt, dann werden es die üblichen 50$ mehr pro Gen bei Nvidia oder vielleicht 100$ wegen dem Rampreis. Also 749-799$ für die 16Gb 1180. Bessere Customs natürlich ne Stück drüber.

cat
2018-06-14, 14:29:42
die 10-15% gelten ja für einen GTX 1080-Nachfolger,
ein GTX 1080 Ti-Nachfolger wird nochmal 30-40% dadrauf packen.

Godmode
2018-06-14, 14:32:04
@7nm: Nvidia war bei neuen Prozessen meist eher konservativ. IIRC, haben sie einzig bei NV30, auf einen kleineren Prozess als AMD gesetzt.

12nm klingt für mich am logischsten.

Kriton
2018-06-14, 14:33:44
Die Preisthematik ist auch Psychologie. Deutlich höhere Preise in Umlauf bringen, dann darunter bleiben, schon halten es viele für ein Schnäppchen, auch wenn es teurer geworden ist. Hat in der Vergangenheit auch funktioniert.

Hübie
2018-06-14, 14:49:33
Iirc hat man instruction fetch bei Volta auf 5 cycles reduziert, aber so generell die Latenzen der Caches weiß ich nicht aus dem Kopf.

Auf die Schnelle:
http://www.abload.de/thumb/pmxb2.jpg (http://www.abload.de/image.php?img=pmxb2.jpg)

Die Broadcast latency steigt mit der Chipgröße/-komplexität an. Der Rest sieht nach weniger aus.

Adam D.
2018-06-14, 15:19:43
If what I heard is correct too, then we are looking at a huge jump that exceeds the Titan V in performance, and that is only the non-Ti variant.

;D Erinnert mich irgendwie an Vega...

https://wccftech.com/nvidia-next-gen-geforce-rumors-hdmi-2-1-gpu-boost-clock-rtx-support-more/

mksn7
2018-06-14, 15:39:23
Der große V100 taktet auch bis 2 GHZ , das selbe Transistor Limit wie GP102 und GP104 davor

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11704074&postcount=420

Ah ok. Hatte nur an die Teslas gedacht, die kommen ja nur mit vergleichsweise gemächlichen 1.48GHz.

Nochmal ah ok: Für instructions gibt es tatsächlich einen neuen L0. Instruction caches hab ich nicht so im Blick, der instruction fetch taucht bei meinen Applications nie als Limiter auf.

Der L1D ist da schon viel öfter ein Limiter. Ich muss nochmal drauf herumreiten dass der echt viermal schneller geworden ist, 128 statt 32 B/cycle! Da fangen caches an regelrecht Spaß zu machen auf GPUs...

HOT
2018-06-14, 16:10:38
Ein GV100 wär in 7nm 400mm² groß ca. Wenn man jetzt also mit 7(8) nm rechnet, dann wären >4096 Shader mMn die wahrscheinlichste Variante. Damit käme man auf knapp 300mm² und könnte dann noch bis 2 GHz takten bei 150-180W. Mit so einem Chip dürfte man GV100 gut schlagen.

Ravenhearth
2018-06-14, 16:34:11
Ein GV100 wär in 7nm 400mm² groß ca. Wenn man jetzt also mit 7(8) nm rechnet, dann wären >4096 Shader mMn die wahrscheinlichste Variante. Damit käme man auf knapp 300mm² und könnte dann noch bis 2 GHz takten bei 150-180W. Mit so einem Chip dürfte man GV100 gut schlagen.
8LPP liegt jedoch viel näher an 10LPP als an 7nm; der Prozess soll ggü. 10LPP etwa 10% Flächenersparnis und 10% weniger Leistungsaufnahme bieten. Für 7nm ist es auch einfach noch etwas zu früh, egal von welcher Foundry. Samsung halte ich für Turning davon abgesehen sowieso für unwahrscheinlich. Meiner Meinung nach kommt Turing von TSMC, entweder in 12nm oder 10nm.

BoMbY
2018-06-14, 16:50:46
Nein, nein. Das sind bestimmt 5nm und 3000 MHz bei 125 W Stromverbrauch und mind. 200% schneller als Pascal. Und natürlich 32 GB GDDR6 nicht zu vergessen. Also mindestens, und außerdem kommt das bestimmt schon nächste Woche raus.

Jetzt drehen wieder alle Spekulationen vollkommen frei, und am Ende wird das Ding vermutlich wieder um mindestens drei Monate nach hinten geschoben, und ist der Rede kaum Wert.

HOT
2018-06-14, 17:54:11
8LPP liegt jedoch viel näher an 10LPP als an 7nm; der Prozess soll ggü. 10LPP etwa 10% Flächenersparnis und 10% weniger Leistungsaufnahme bieten. Für 7nm ist es auch einfach noch etwas zu früh, egal von welcher Foundry. Samsung halte ich für Turning davon abgesehen sowieso für unwahrscheinlich. Meiner Meinung nach kommt Turing von TSMC, entweder in 12nm oder 10nm.
Na, NV hat die kleinen Pascals auch schon bei Samsung untergebracht. Ich find das jetzt nicht so abwegig. Man könnte auch 10LPU verwenden, dar ist mehr high-performance als TSMCs N10. Aber du hast recht, TSMCs N7 ist definitiv besser.

scully1234
2018-06-14, 20:38:29
und am Ende wird das Ding vermutlich wieder um mindestens drei Monate nach hinten geschoben, und ist der Rede kaum Wert.
Du musst das irgendwie mit dem Vega Launch verwechseln,das du versuchst solche Parallelen zu ziehen;)

Dural
2018-06-14, 23:34:23
Er wollte das bestimmt im navi thread schreiben :P

Ach ja, laut tsmc ist im q4 2018 jeder fünfte chip der ausgeliefert wird schon in 7nm...

scully1234
2018-06-14, 23:37:35
Ach ja, laut tsmc ist im q4 2018 jeder fünfte chip der ausgeliefert wird schon in 7nm...

Das wäre schon recht viel ,wo steht das denn?

Apple hat ja angeblich dieses Jahr weniger Kapazitäten gebucht, nach dem eher schleppenden Verkauf des letztjährigen Iphone

TheGood
2018-06-15, 00:08:43
Das HDMI 2.1 ist doch nur ein Checklisten Features welches 90% der User nicht die Bohne interessiert.
DAs mag für leute ok sein die ne Titan oder ne 1080ti kaufen gerade noch so, aber am Ende braucht die Mehrheit das zeugs doch schlichtweg nicht. Daher verstehe ich den Hype darum einfach nicht...

Natürlich ist es gut, aber mehr dann auch nicht.

basix
2018-06-15, 00:26:58
Das HDMI 2.1 ist doch nur ein Checklisten Features welches 90% der User nicht die Bohne interessiert.
DAs mag für leute ok sein die ne Titan oder ne 1080ti kaufen gerade noch so, aber am Ende braucht die Mehrheit das zeugs doch schlichtweg nicht. Daher verstehe ich den Hype darum einfach nicht...

Natürlich ist es gut, aber mehr dann auch nicht.

Mich interessiert es sehr wohl. 4k / 120 fps unkomprimiert inkl. HDR. Dazu noch VRR etc. Dann gibt es endlich mal auch passende Monitore dazu. 4k60 sind für mich ein No-Go für einen neuen Monitor. Und sind wir ehrlich: Mit den kommenden 7nm Chips wird 4k pillepalle. Turing wird wohl bis hinunter zur 70er SKU auch nicht schlecht passen für viele Spiele in 4k.

=Floi=
2018-06-15, 00:27:08
Es geht auch mit 2D. Umgedreht ist es doch auch blöd, wenn man den passenden 4k monitor hat und ichn nicht richtig ansteuern kann.

N0Thing
2018-06-15, 02:03:38
Apple hat ja angeblich dieses Jahr weniger Kapazitäten gebucht, nach dem eher schleppenden Verkauf des letztjährigen Iphone

Diese Gerüchte haben sich doch als falsch erwiesen. Apple hat im Q2 2018 mehr iPhones verkauft als in Q2 2017 oder 2016. Im Q1 war die Anzahl der Verkäufe zwar leicht niedriger als im Jahr davor, allerdings hat man mehr Umsatz gemacht, was dem höheren Preis des iPhone X geschuldet ist, so schlecht verkauft sich dieses Modell also auch nicht.
Auf mehr freie Plätze bei TSMC durch unerwartet fehlende Apple-Aufträge würde ich nicht wetten.

https://www.mobilegeeks.de/artikel/apple-quartalszahlen-weniger-verkaufte-iphones-mehr-kohle/ / https://www.apple.com/newsroom/pdfs/Q1_FY18_Data_Summary.pdf
https://www.giga.de/unternehmen/apple/news/apple-quartalsergebnis-endlich-klartext-zu-den-iphone-x-verkaufszahlen/ / https://www.apple.com/newsroom/pdfs/Q2_FY18_Data_Summary.pdf


Aber wenn Nvidia eh mit 7nm geplant hat, werden sie auch entsprechende Kapazitäten gekauft haben.

Leonidas
2018-06-15, 07:24:39
Mich irritiert, dass (angeblich/möglicherweise) eine neue Generation kommen soll, aber Nvidia vorher noch eine "neue" 1050 mit 3 GB-Speicher bringt.


Ein Nachfolger der 1050 dürfte erst 2019 aufschlagen, insofern geht das gut in Ordnung. NV braucht die 1050/3GB vor allem *jetzt*, weil ansonsten zu viele Verkäufe der 1050 wegen deren nur 2 GB Speicher scheitern (bzw. zu AMD gehen).

Die 1050/3GB ist im übrigen schon von einem Hersteller angekündigt, dürfte sicherlich bald lieferbar sein. Dürfte sowieso primär nach China & Co. gehen.





Glaubst du, Nvidia lügt die Presse und seine Käufer an?
Die sind aktuell in so einer positiven Lagen, dass sie zwar Geheimniskrämerei und Trollerei betreiben können, was das Zeug hält, aber wenn man sagt "A Long Time" und eine Woche später die neuen Karten vorstellt, wird man unweigerlich viele Kunden verärgern, aus der Sicht des Marktführers ist die negative Publicity doch völlig unnötig.


Die Frage ist folgendermaßen: Wie stark wird das thematisiert werden, wenn Turing im August herauskommt? Ist gegenüber dem Juni doch ein gewisser Scham-Abstand. Und wird das die Diskussion über Turing dominieren können? Letzteres ist stark anzuzweifeln.

NV kann also ruhig "lügen". Niemand wird es NV am Tag X wirklich übel nehmen. Am Tag X reden wir über Turing, nicht über NVs Pressearbeit.





Fakt ist, dass die 1080 FE damals mit einer UVP von 789€ an den Start ging.


Wegen schwankender Wechselkurse würde ich diese Diskussion besser auf Dollar-Basis führen. Theoretisch gesehen kann es passieren, das NV mit höheren US-Preisen kommt und das bei uns in Euroland als gleicher oder niedrigerer Preispunkt herauskommt.





Ist es eigentlich ausgeschlossen das Turing in 7nm erscheint?

Ich meine, wenn selbst AMD schon lauffähige 7nm GPU/CPU hat und die 7nm Massenproduktion schon seit April(?) läuft, wäre es unmöglich das nV Ende August Turing in 7nm vorstellt? Würde mich aktuell nicht sonderlich überraschen ehrlich gesagt, nV hatte eigentlich immer guten Zugriff auf TSMCs neueste Prozesse...


"Unmöglich" überhaupt nicht. Aber trotzdem unwahrscheinlich, weil:
1. AMDs lauffähige 7nm-GPU ist als Kleinserie geplant. Damit auch kein kalkulieren, ob denn überhaut genügend Chips für den Massenmarkt produzierbar sind.
2. Massenproduktion von 7nm bei TSMC gilt für Smartphone-SoCs. Üblicherweise sagt man: Differenz 1 Jahr zwischen SoCs und PC-Chips. Geltend ab Verkaufsstart der ersten fertigen Geräte(nicht Chips!) nach dem neuen Fertigungsverfahren. Verkaufsstart der ersten Handys mit 7nm-Chips wird in diesem Herbst sein ...

mboeller
2018-06-15, 08:30:05
2. Massenproduktion von 7nm bei TSMC gilt für Smartphone-SoCs. Üblicherweise sagt man: Differenz 1 Jahr zwischen SoCs und PC-Chips. Geltend ab Verkaufsstart der ersten fertigen Geräte(nicht Chips!) nach dem neuen Fertigungsverfahren. Verkaufsstart der ersten Handys mit 7nm-Chips wird in diesem Herbst sein ...


AMD hat doch auch schon lauffähige(?) Zen2. Und die Massenfertigung für SoC hat im April 2018 gestartet. Mit Herbst 2019 bist du deshalb IMHO um min. 1/2 Jahr zu spät dran.

und die Vega20 Kleinserie läuft anscheinend wesentlich besser als geplant. Ursprünglich sollten die im Herbst (also Q4/18) für die ersten Tests zum Kunden raus gehen und nicht bereits jetzt.

Piefkee
2018-06-15, 09:02:59
AMD hat doch auch schon lauffähige(?) Zen2. Und die Massenfertigung für SoC hat im April 2018 gestartet. Mit Herbst 2019 bist du deshalb IMHO um min. 1/2 Jahr zu spät dran.

und die Vega20 Kleinserie läuft anscheinend wesentlich besser als geplant. Ursprünglich sollten die im Herbst (also Q4/18) für die ersten Tests zum Kunden raus gehen und nicht bereits jetzt.


SoC < CPU < GPU

Nvidia wird mit sicherheit nicht im August,September eine GPU Mainstream Serie bringen, wenn nicht nicht mal Handychip geschweige den CPU vom Band laufen. GPU in Massenproduktion sehen wir erst Mitte 2019.


On September 25, 2015, Apple Inc. released the iPhone 6S and iPhone 6S Plus, which are equipped with "desktop-class" A9 chips[24] that are fabricated in both 14 nm by Samsung and 16 nm by TSMC (Taiwan Semiconductor Manufacturing Company).

In May 2016, Nvidia released its GeForce 10 series GPUs based on the Pascal architecture, which incorporates TSMC's 16 nm FinFET technology and Samsung's 14 nm FinFET technology.[25][26]

In June 2016, AMD released its Radeon RX 400 GPUs based on the Polaris architecture, which incorporates 14 nm FinFET technology from Samsung. The technology was licensed to GlobalFoundries for dual sourcing. [27]