Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
Fetza
2018-06-23, 02:44:02
Gib mir eine GTX 1070 (Vanilla, keine Ti) für 299 Euro und die Dinger gehen weg wie sonst was. Die würden Verkaufserlöse erzielen wie es AMD mit noch keiner einzigen Radeon Karte geschafft hat.
Der "Markt" hat keine Lust 2 Jahre nach Launch noch fast 500 Euro für gute 1070 (Ti) Customs zu bezahlen.
Folgendes Abverkaufsangebot würde wohl einschlagen wie eine Bombe:
1070: 299-329 Euro
1070 Ti: 349 Euro
1080: 429-449 Euro
Das sind meiner Meinung nach alles Mondpreise für alte Hardware. Es müsste so aussehen:
1070: 230 Euro
1070 TI: 270 Euro
1080: 320 Euro
1080TI: 450 Euro
Höhere Preise würde doch jetzt noch höchstens ein uniformierter Nutzer kaufen. Jeder der sich hobbymäßig mit Hardware beschäftigt weiß, dass er jetzt nur Altware bekommt, die einzig über den Preis weiterhin attraktiv sein könnte.
Leonidas
2018-06-23, 05:30:20
Ja, sehe ich auch als besseren Ansatzpunkt. Aber nach wie vor: Zu diesen Preisen macht kaum jemand Verlust. Viel mehr dürfte der Herstellerungswert dieser Karten sind sein.
Grendizer
2018-06-23, 08:03:23
Da die Vega 56 und 64 Leistungs und verbrauchstechnisch nicht besser sind, wir es für nVidia gar keinen Grund geben die Karten so billig abzuverkaufen.
Solange man z.B. mit der 1070 75 Euro unter einer Vega 56 (also bei 325) Euro ausgehend von 400 für die UVP des Referenzkarte ist die Karte doch schon einigermaßen attraktiv. 230 Euro halte ich für komplett unrealistisch.
AMDoderNvidia
2018-06-23, 09:46:37
Könnt Ihr mal bitte aufhören, über diese Ausverkaufspreise zu reden? Da krieg ich ja fast die Krise, weil es (noch) nicht soweit ist. Für 300-350€ für eine GTX 1080... und ich wäre dabei :D
rentex
2018-06-23, 10:18:56
Denen scheint langweilig zu sein...bis das eintritt dauert es noch ne Weile, aber träumen dürfen sie ja ;-)
Süß, was für Preise sich hier erträumt werden. Und das nur wegen einer nicht bestätigten Meldung. Spart lieber schon mal das Geld für die realen Preise an!
Troyan
2018-06-24, 10:19:33
https://twitter.com/nvidia/status/1010545517405835264
Thunder99
2018-06-24, 10:38:26
Damit ist schon mal der Name bestätigt ;D
y33H@
2018-06-24, 10:40:01
Link kaputt.
Locuza
2018-06-24, 10:45:32
Funktioniert bei mir, ist nur ein Happy Birthday Tweet für Turing:
Happy Birthday to Alan Turing, the remarkable pioneer of #computerscience. https://nvda.ws/2yyKQfM #onthisday
Das kann man jetzt als Teaser interpretieren.
rentex
2018-06-24, 11:07:12
Der Seher...
scully1234
2018-06-24, 11:51:41
Funktioniert bei mir, ist nur ein Happy Birthday Tweet für Turing:
Das kann man jetzt als Teaser interpretieren.
So früh Ende Juni wenn er doch erst im August/September vorgestellt werden soll... ?
Vielleicht hat man auch gezielt die Sache mit der Verspätung gestreut
Erfahrungsgemäß geht die Promotion doch erst kurz vor Release los bei Nvidia, sonst macht man sich den Abverkauf der alten Generation ja zu Nichte
Hübie
2018-06-24, 14:42:33
Gab es zu Tesla, Fermi, Kepler oder Pascal Geburtstagsgezwitscher? ;D
Adam D.
2018-06-24, 15:19:47
Gab es zu Tesla, Fermi, Kepler oder Pascal Geburtstagsgezwitscher? ;D
Ich versteh hier das Vorgehen aber nicht so ganz. Vor zwei Wochen noch "a long time", jetzt der Teaser :confused:
AMDoderNvidia
2018-06-24, 15:26:04
Tja, das ist die inverse Zeitdilatation - ein Phänomen, beschrieben von A. Einstein, um mal bei den Naturwissenschaftlern hier zu bleiben :D
Menace
2018-06-24, 15:26:26
Mir gefällt die Namensgebung und nvidia war was Grafikkartenveröffentlichungen angeht immer recht positiv.
Aber vielleicht wollten sie nicht einfach noch 1 Jahr warten, bis sie den Geburtstagsgruß raushauen; das zumindest ist ja ein fixes Datum.
scully1234
2018-06-24, 16:34:44
Ich versteh hier das Vorgehen aber nicht so ganz. Vor zwei Wochen noch "a long time", jetzt der Teaser :confused:
Warum?
Würdest du nicht involvierten Kaufinteressenten auf die Nase binden, das es bald ein neues Produkt zum selben Preis wie Pascal gibt, während du versuchst die Lager zu leeren?
Das ist aus Unternehmersicht angebracht damit zu warten, wenn man sich die Margen nicht versauen möchte
"long Time ago" kann auch ein Bluff gewesen sein, um eben zu verhindern ,das der Umsatz wegbricht
Adam D.
2018-06-24, 17:47:40
Warum?
Würdest du nicht involvierten Kaufinteressenten auf die Nase binden, das es bald ein neues Produkt zum selben Preis wie Pascal gibt, während du versuchst die Lager zu leeren?
Das ist aus Unternehmersicht angebracht damit zu warten, wenn man sich die Margen nicht versauen möchte
"long Time ago" kann auch ein Bluff gewesen sein, um eben zu verhindern ,das der Umsatz wegbricht
Ich sehe keine Preisanpassung, von Abverkauf kann also kaum die Rede sein. Ich versteh schon, dass es auch wichtig ist, den Hype zu schüren, aber vor zwei Wochen noch klar zu sagen: kauft Pascal, da kommt nix; und jetzt: freut euch, bald kommt was. Das Timing ist schon extrem merkwürdig...
Denn jeder halbwegs interessierte Käufer wird nach dem Tweet jetzt warten.
"We can only see a short distance ahead, but we can see plenty there that needs to be done."
Wenn du in den Tweet gerade so ein zeitbezogenes Zitat einbaust, ist das doch marketingtechnisch wunderbar uneindeutig eindeutig, dass es wohl kaum mehr besonders lange bis zur Vorstellung dauern kann.
AffenJack
2018-06-24, 18:19:11
..., aber vor zwei Wochen noch klar zu sagen: kauft Pascal, da kommt nix; und jetzt: freut euch, bald kommt was. Das Timing ist schon extrem merkwürdig...
Man muss einfach mal die Aussage vor 2 Wochen einordnen. Da stellt Nvidia andere Dinge vor und die Journalisten stellen haufenweise Fragen zu Produkten, die in der Präsentation nicht erwähnt wurden und hier nicht das Thema sind. Dann haben sie einfach ne Antwort gekriegt, damit sie endlich ruhig halten. Hätte er auch nur irgendwas angedeutet, dann hätten die Leute ihn weiter mit Fragen zu Turing gelöchert.
Hübie
2018-06-24, 22:07:44
Iirc war die offizielle Wortwahl "foreseeable future".
Adam D.
2018-06-24, 23:13:09
Iirc war die offizielle Wortwahl "foreseeable future".
Ich will jetzt nicht kleinlich sein, aber der Wortlaut war: "it's a long time from now" (https://youtu.be/RabDYLr-LNg)
Der Tweet selber hätte mich gar nicht so gewundert, aber das gewählte Zitat macht mich einfach stutzig :conf2:
Troyan
2018-06-24, 23:19:34
Warum? 3 Monate sind eine "lange Zeit".
Hübie
2018-06-25, 07:51:47
Ich will jetzt nicht kleinlich sein, aber der Wortlaut war: "it's a long time from now" (https://youtu.be/RabDYLr-LNg)
Der Tweet selber hätte mich gar nicht so gewundert, aber das gewählte Zitat macht mich einfach stutzig :conf2:
Oh, entschuldige. Ich bezog mich auf den conference call zu den Jahres- bzw. Quartalszahlen.
Adam D.
2018-06-25, 17:52:53
Weitere Gerüchte (wie immer Vorsicht bei der Quelle):
I have received confirmation that NVIDIA GeForce Add-in-Board partners will be getting shipments of NVIDIA’s next-generation graphics cards based on the Turing architecture sometime in Early August.
https://wccftech.com/exclusive-nvidia-turing-gpu-seeding-early-september/
Leonidas
2018-06-25, 17:59:02
Überschrift: early September
Text: early August
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/46800-micron-beginnt-die-massenproduktion-von-gddr6.html
Alle 8Gbit, also gibts weiterhin nur 8GB, 14GT/s sind für die 1180 wahrscheinlich. Micron sind zudem die ersten Produzenten und werden sicherlich damit den passenden RAM zuerst liefern. Neben der Meldung, dass NV bei TSMCs 7nm-Präsentation nicht genannt wurde, lässt außerdem vermuten, dass wir wirklich bei 12nm (oder irgendein Samsung-Prozess) bleibt und weiterhin 8GB verbauen wird. Die ursprüngliche Annahme war also weiterhin richtig. Der große Sprung bleibt damit erst mal aus.
AffenJack
2018-06-25, 18:04:28
Dass Micron nur 8 GB hat war schon lange angekündigt, die sind da hintendran. Hynix und Samsung haben beide 16GB. Dewesen macht für mich 1180 mit 16Gb und 1170 mit 8Gb am meisten Sinn oder 2 Versionen der 1180 mit 8 oder 16GB.
Nein Micron ist nicht hinten dran, die sind die ersten. Zudem gibts zwar hochtrabende Pläne, aber die werden alle mit 8GBit starten und auch nicht mehr als 14GT/s liefern. Die 16GBit und mehr GT/s wirds sicherlich erst nächstes Jahr geben. Aber der springende Punkt ist, wenn die Ende August launchen wollten müssen sie den Micron-RAM nehmen, da die anderen noch später verfügbar sind.
AffenJack
2018-06-25, 18:25:40
https://www.anandtech.com/show/12338/samsung-starts-mass-production-of-gddr6-memory
Samsung ist schon seit Monaten bereit und wartet wohl einzig und alleine darauf, dass wer den Ram haben will.
https://www.anandtech.com/show/12338/samsung-starts-mass-production-of-gddr6-memory
Samsung ist schon seit Monaten bereit und wartet wohl einzig und alleine darauf, dass wer den Ram haben will.
Micron ist der erste, weil NV bei Micron bestellt hat, so einfach ist das. Da kann man noch so viel schwadronieren, dass Samsung könnte. Ein anderes Produkt, wofür man den Speicher braucht gibts halt nicht.
Nuvirus
2018-06-26, 02:24:26
Nachdem sich Nvidia so viel Zeit nehmen konnte, haltet ihr es für möglich das Nvidia auch direkt nen 1060 Chip Nachfolger bringt oder kommt der dann direkt in 7nm wenn sich da Kosten sparen lassen und man den Chip nicht 2x auflegen muss
Korvaun
2018-06-26, 07:15:01
So früh Ende Juni wenn er doch erst im August/September vorgestellt werden soll... ?
Vielleicht hat man auch gezielt die Sache mit der Verspätung gestreut
Erfahrungsgemäß geht die Promotion doch erst kurz vor Release los bei Nvidia, sonst macht man sich den Abverkauf der alten Generation ja zu Nichte
Naja, der Typ hat nunmal am 23.6. Geburtstag, wenn man also zu Geburtstag gratulieren will (und das als Miniteaser ansieht) gehts halt an keinem anderen Tag, egal ob die neuen Karten nächste Woche oder erst im September kommen... ;)
Kriegsgeier
2018-06-26, 08:29:04
GeForce GTX 2080
Only a day after controversial non-disclosure agreement leaks, engineering board of next-generation architecture graphics card smiles for the camera.
NVIDIA Turing
Quelle: https://videocardz.com/76659/nvidias-next-gen-graphics-card-with-gddr6-smiles-for-camera
Piefkee
2018-06-26, 08:33:54
GeForce GTX 2080
Only a day after controversial non-disclosure agreement leaks, engineering board of next-generation architecture graphics card smiles for the camera.
NVIDIA Turing
Quelle: https://videocardz.com/76659/nvidias-next-gen-graphics-card-with-gddr6-smiles-for-camera
This board lacks actual GPU, which appears to be rather large (add 12GB memory and we have a new enthusiast SKU)
At Reddit, you may find the very first picture of NVIDIA’s GDDR6-based graphics card. This is a prototyping board, absolutely not a finished product. This board comes with three 8-pin power connectors, 12-modules of Micron’s GDDR6 memory and something that looks like an NVLink.
Also wie schon von den meisten vermutet in 12nm...
Kriegsgeier
2018-06-26, 08:36:50
Wie meinst du das? Wegen der Größe des Chip? Sowie maximal bestückbaren Speicher von 12 GB?
BoMbY
2018-06-26, 08:44:14
3x 8-Pin? 525W? ;D
Piefkee
2018-06-26, 08:45:12
Wie meinst du das? Wegen der Größe des Chip? Sowie maximal bestückbaren Speicher von 12 GB?
Also das PCB ist schon rießig. Würde 7nm daher vorsichtig ausschließen. 12nm oder 10nm sollten hinkommen, wobei ich denke es wird auf 12nm hinauslaufen
Loeschzwerg
2018-06-26, 08:52:33
Bring-Up-Board... die sehen immer so aus. Edit: Das Package ist aber schon mal ordentlich groß, dürfte also für die "große" GPU sein.
Ah, 384 Bit. Damit packt man natürlich entsprechende Bandbreiten mit 12GB. Aber sicherlich auch den Stromverbrauch.
Die 1170 hat dann sicherlich wieder 11GB bei einem fehlenden Kanal.
AffenJack
2018-06-26, 10:15:39
Das wird die Titan/Ti sein, nicht die 1170 oder 1180.
Timbaloo
2018-06-26, 10:20:35
GT10"3" @ 12nm in 2018. Komplettes Lineup @ 7nm in 2019.
Edit: Meinte natürlich GT10"3" nicht GP10"3"
Leonidas
2018-06-26, 10:28:17
Kann jemand die Speichermodule so identizieren, das es sicher ist, das dort jeweils 1GByte bzw. 8Gbit verbaut sind?
AffenJack
2018-06-26, 10:44:30
Kann jemand die Speichermodule so identizieren, das es sicher ist, das dort jeweils 1GByte bzw. 8Gbit verbaut sind?
Ist Micron D9WCW, daher ja ist sicher:
https://www.micron.com/parts/dram/gddr6/mt61k256m32je-14
Locuza
2018-06-26, 10:44:41
Dafür ist die Artikelnummer leider zu unscharf, aber man sieht das Micron-Logo auf jedem Baustein, welche jedenfalls offiziell bisher nur 1GB große Bausteine mit bis zu 14Gbps in Produktion gestartet haben.
Edit: Jep, D9WCW kommt hin, klasse Fund von AffenJack.
Das wird die Titan/Ti sein, nicht die 1170 oder 1180.
Vielleicht ist das Ding sogar als Einzelstück geplant um Pascal zu ergänzen und gar nicht zu ersetzen.
Mangel76
2018-06-26, 11:08:34
Vielleicht ist das Ding sogar als Einzelstück geplant um Pascal zu ergänzen und gar nicht zu ersetzen.
Die Idee hatte ich auch schon. Ist auch ein schlechter Zeitpunkt für ne neue komplette Generation - 12nm schon bald überholt, aber 7nm noch zu teuer für große Stückzahlen im Mainstreambereich. Warum nicht jetzt nur oben etwas drüber setzen, vielleicht sogar in 7nm, aber zu einem Preis, der die Nachfrage gering hält und die noch teure Produktion finanziert. Nächstes Jahr, wenn 7nm günstiger geworden ist, bringt man dann die Massenprodukte. So müsste man nicht bald schon wieder 12nm-Produkte ablösen und würde mit dem Top-Produkt die Spannung hochhalten.
Man könnte also wirklich auch deshalb den Namen so ausgesucht haben, 1180 für Salvage und 1180Ti. Beide als Ersatz für entsprechende Chips, die 1080 und GP102 läuft halt aus, GP104 bleibt als 1070Ti bestehen und stärker gesalvaged auch als 1060, dazu gabs ja entsprechende Meldungen, GP104 im GP106-Package. Die 1070 würd dann ebenfalls ersatzlos auslaufen, ist auch zu nah an der 1070Ti. Könnte ein denkbares Scenario sein.
Also:
1185 (GTxxx)
1180 (GTxxx)
1070 Ti (GP104)
1060 (GP106/104)
1050 Ti (GP107)
1050 (GP107)
1030 (GP108)
Piefkee
2018-06-26, 12:00:00
Man könnte also wirklich auch deshalb den Namen so ausgesucht haben, 1180 für Salvage und 1180Ti. Beide als Ersatz für entsprechende Chips, die 1080 und GP102 läuft halt aus, GP104 bleibt als 1070Ti bestehen und stärker gesalvaged auch als 1060, dazu gabs ja entsprechende Meldungen, GP104 im GP106-Package. Die 1070 würd dann ebenfalls ersatzlos auslaufen, ist auch zu nah an der 1070Ti. Könnte ein denkbares Scenario sein.
Sorry aber das ist sowas sinnlos...aber wirklich
Nö, absolut nicht. Dann hätte man für mehr als ein Jahr einen Chip, der das Lineup ergänzt und könnte dann in 2019 mit einem kompletten 7nm-Lineup neu anfangen.
Adam D.
2018-06-26, 12:14:24
Nö, absolut nicht. Dann hätte man für mehr als ein Jahr einen Chip, der das Lineup ergänzt und könnte dann in 2019 mit einem kompletten 7nm-Lineup neu anfangen.
Außerdem würde es zwei Gerüchte erklären: (1) das kolportierte Namensschema mit 1185 o.ä., um eine deutlichere Abgrenzung von Pascal zu zeigen und (2) die absurden Preise, die in der Gerüchteküche kursieren.
Piefkee
2018-06-26, 12:39:00
https://www.techpowerup.com/img/6uws0zn3v0cXaOSk.jpg
https://www.techpowerup.com/245501/nvidia-gv102-prototype-board-with-gddr6-spotted-up-to-525-w-power-delivery-gtx-1180-ti#g245501-3
BlacKi
2018-06-26, 12:59:03
whaaaaaaaaaat?
lol die nächste titan kommt^^
mboeller
2018-06-26, 13:11:29
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11724963&postcount=1664 (Seite 84 vom Thread)
Ohne hier im Thread richtig mitzulesen.
Meine Interpretation:
Turing/Volta kommt nur für professionelle Nutzer.
Die Gamer-Fraktion bekommt nur eine Highend-Karte wie bei der Titan(X) zu einem horrenden Preis.
:)
BlacKi
2018-06-26, 13:14:11
Die Gamer-Fraktion bekommt nur eine Highend-Karte wie bei der Titan(X) zu einem horrenden Preis.
:)
bis zur 1180ti 2019 ja.
Fragman
2018-06-26, 13:22:08
12gig fuer eine neue titan waeren aber arm.
Maorga
2018-06-26, 13:23:18
Die Lötpunkte sagen doch nichts über die DIE Größe aus.
BlacKi
2018-06-26, 13:26:48
ungefähr schon.
https://www.pcgamesn.com/sites/default/files/Geforce%20mx150.png
Kriegsgeier
2018-06-26, 13:36:33
12gig fuer eine neue titan waeren aber arm.
Ich denke bei 12nm MUSS NVIDIA so zusagen eine Ti für die 30-40% Leistungssteigerung gegenüber 1080Ti rausbringen...
Monster Chip mit 386 Bit / 12 GB --> Nachfolger für GTX 1080
2080Ti kommt dann in 7nm!
Maorga
2018-06-26, 13:44:19
Oder auch nicht
https://thepcenthusiast.com/wp-content/uploads/2016/09/PNY-GTX-1060-Review-13.jpg
Piefkee
2018-06-26, 13:48:33
Die Lötpunkte sagen doch nichts über die DIE Größe aus.
Die äußeren Lötpunkte sagen nichts aus. Die inneren die sehr nahe aneinander liegen lassen aber schon Grundlage für die Größe des Die geben. Sollte auf +-50mm^2 so passen. Auf jedenfall größer als 600mm^2
Ok ich modifizier meine Liste mal:
Titan V (5,1k Shader)
1100 (GTxxx) (5,1k Shader + RT-Support)
1090 (GTxxx) (4,6k Shader + RT-Support)
1080Ti (GP102)
1070Ti (GP104)
1060 (GP106/104)
Bei dem Chip ergibt die frühzeitige Vorstellung der professionellen Variante durchaus Sinn.
Kriegsgeier
2018-06-26, 14:11:05
jetzt wird auch klar warum ein Insider hier von überragender Leistungssteigerung zu 1080Ti gesprochen hat! Klar - wir kriegen also die 1180Ti vorgezogen ;)
1180 non Ti kommt womöglich sogar später ;)
Edgecrusher86
2018-06-26, 14:19:49
Ja, mit einem GP102 Ersatz zwischen 600-700mm² in 12nm habe ich schon gerechnet. Vor allem, da die Preise ja sowieso deutlich ansteigen dürften.
Ich rechne mit 800-900€ für den 104er und 900-1000€ für die Ti (FE). Enthusiasten Tis werden auf bis zu 1500€ klettern (eine KP Ti liegt ja bei ~ 1300€).
Ob überhaupt noch eine weitere "Gamer-TITAN" kommt, halte ich für sehr fraglich. Es sieht für mich eher aus, dass die Serie nun komplett abgegrenzt wird zur Lite-Reihe im Pro-Bereich.
Es muss ja nicht zwangsläufig bei 12GB mit 8Gb bleiben - man kann das ja verteilen wie damals etwa bei der GTX TITAN X mit 4Gb:
https://abload.de/thumb/image_03sads8y.jpg (http://abload.de/image.php?img=image_03sads8y.jpg)
https://abload.de/img/image_03sads8y.jpg
Für eine "GTX 1180" wären 12GB sicher in Ordnung bis zur 7nm(+) Generation in 2-3 Jahren, für alles darüber recht sparsam - würde es doch einem Gleichstand seit grob 3,5 Jahren im Desktop-Highend-Markt gleich kommen.
Zur Fertigung: Es würde mich nicht überraschen, wenn bis Q1 '19 der Enthusiasten bis Gamer Markt (GT102-106) in 12nm bedient werden und später die kleineren Modelle (<=1150 Ti) in 7nm kämen (im H2/19).
MiamiNice
2018-06-26, 14:20:27
1180TI in paar Monaten?
Shut up and take my money!
BlacKi
2018-06-26, 14:26:42
quatsch, besser^^ ne 1500€ titanx mit erneut 12gb anno 2015^^
Son Müll will doch keiner haben. Die bringen eh nächstes Jahr einen 7nm Gx104-Chip, der sowieso besser ist als alles, was in 12nm machbar ist. Deshalb lohnt sich hier einfach keine neue Generation. Daher gibts jetzt nur ein Ultra-High-End-Variante und fertig.
https://www.techpowerup.com/245501/nvidia-gv102-prototype-board-with-gddr6-spotted-up-to-525-w-power-delivery-gtx-1180-ti
GV102, könnte zeitlich gut zum Tapeout passen. Dann gibts halt nur keinen GV104/106. Die hat man einfach gecancelt, nur der große hat halt als Turing überlebt.
Ex3cut3r
2018-06-26, 15:40:16
7nm?! Nächstes Jahr? ich denke eher nicht...und wenn ja für die Titan/1180Ti sonst alles eher 12nm
Was soll daran so ungewöhnlich sein? NV wird 7nm natürlich zum frühest sinnvollen Zeitpunkt anbieten wollen. Schließlich steht neben AMD jetzt ja auch Intel mit GPUs in den Startlöchern. Es ist eher unwahrscheinlich, dass wir 2019 keine 7nm-Produkte von NV sehen werden.
Fragman
2018-06-26, 16:19:07
ist halt die frage ob sie gezwungen sein werden, 7nm produkte fuer spieler zu bringen. turing wird einen grossen sprung machen zur 1080, da muss amd, selbst mit 7nm, erstmal rankommen.
Kein Problem. Um die 676mm² zu erreichen bei wahrscheinlich 300W TDP braucht man in 7nm etwas >300mm² mit 180W TDP. Und Speicher kann man statt der 14GT/s dann eben 18GT/s an 256Bit nehmen. Der nächste 104er knackt das Teil schon problemlos.
dildo4u
2018-06-26, 16:27:48
Titan V ist schon 40% Effizienter als Pascal,es gibt kein Grund 7nm Vorzeitig zu bringen.
https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/3/#diagramm-sniper-elite-4-directx-12-mit-async-compute
Das reicht um 1080 Ti Performance in 150 Watt zu stecken bzw bessere Performance bei 180 zu erzielen.
Titan V ist auch recht niedrig getaktet. Das bringt auch bei Pascal ne Menge, eine 1080ti auf 50% PT (125W) taktet immernoch auf ~1300 hoch.
BlacKi
2018-06-26, 17:45:30
ich glaub auch, der chip mit 600mm²+ wird bei 2ghz ordendlich schlucken. deutlich mehr als titanv schon alleine wegen dem anderen speicher. aber die performance wird hrhrhr heeeftig^^
Titan V ist schon 40% Effizienter als Pascal,es gibt kein Grund 7nm Vorzeitig zu bringen.
https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/3/#diagramm-sniper-elite-4-directx-12-mit-async-compute
Das reicht um 1080 Ti Performance in 150 Watt zu stecken bzw bessere Performance bei 180 zu erzielen.
GV100 befindet sich sehr nach am Sweetspot, daher die bessere Effizienz. Die 50% sind purer Markteting-BS. Das ist eher ne MaxQ, nur dass sie dank 12nm etwas mehr Takt packt. Um > TitanV-Performance in 180W zu packen brauchst du definitiv 7nm.
Geächteter
2018-06-26, 18:31:49
ist halt die frage ob sie gezwungen sein werden, 7nm produkte fuer spieler zu bringen. turing wird einen grossen sprung machen zur 1080, da muss amd, selbst mit 7nm, erstmal rankommen.
TSMC-7-nm muss erstmal noch serienreif für komplexe Chips werden, sonst können weder AMD noch NV was in 7 nm bringen. Dass das noch dauern wird, kann man auch daran sehen, dass sie jetzt wohl was in 12 nm versuchen, um die Zeit bisschen zu verkürzen, trotz dass 12 nm nicht viel Mehr-Effizienz bringt. Bei AMD lässt sich wohl damit überhaupt nix an mehr reißen, was vertretbar und kein Marktkrepierer wäre und lässt es gleich bleiben. Vor 2020 würde ich lieber nicht mit 7 nm rechnen, nicht dass die Enttäuschung 2019 zu groß wird.
Kriegsgeier
2018-06-26, 19:46:26
Ich rechne schon Ende dieses Jahres mit einem 7nm Produkt von AMD!
Linmoum
2018-06-26, 19:53:37
Gut, das hat AMD ja bereits auf der Computex offiziell angekündigt, dass Vega20 in 7nm noch dieses Jahr launchen wird. Bei nVidia wird's sicherlich auch noch in diesem Jahr etwas geben, allerdings eben nicht für den Consumer-Markt.
Sunrise
2018-06-27, 00:06:22
Wie schon geschrieben, wenn man ordentlich Geld schaufeln will, baut man vorerst alles noch auf 12nm. Billiger Platz, bessere Eigenschaften und GDDR6 ist vollkommen ausreichend, das weiß auch NV. Dieses ganze 7nm-Geschwätz ist genau für ein Produkt relevant, das bereits eine GPU mit 815mm^2 hat und derzeit auch noch mit HBM2 auf einem Interposer Platz nimmt.
AMD wäre ohne 7nm garnicht erst in der Lage konkurrenzfähiger zu werden und im HPC benötigt man umso mehr Platz. AMD hat garkeine andere Wahl.
Klar kommt auch NV mit 7nm, aber wen interessiert das, wenn TSMC nicht genug Kapazität für hohe Volumen für alle liefern kann, der Preis zum Brechen hoch ist und die Yield bei entsprechener Größe noch schlecht. Richtig, das interessiert keine Sau.
Turing legt ja mindestens 30% zu, und wird auch wieder gekauft, mangels Alternativen. Passt doch alles.
Dural
2018-06-27, 00:37:49
Ich bin überrascht das es hier so viele 7nm experten gibt.
Die aussagen von TSMC das 7nm besser läuft als gedacht und man agressiv das volumen steigern möchte wird gekonnt verschwiegen.
Und noch mal zum vergleich: die massenfertigung von 16nm startete im juni, 11 monate später standen die ersten pascal karten im regal, in 16nm+
Die massenfertigung von 7nm startete im april... laut tsmc läuft 7nm besser als 16nm damals... nehmen wir trotzdem 11monate in der milchmädchenrechnung und wir landen für 7nm im märz 2019, 7nm+ könnte tatsächlich erst etwas später kommen.
Falls turing in 12nm kommt war das für ende 2018 garantiert so nie geplant, und turing wurde massiv nach hinten verschoben.
Rampage 2
2018-06-27, 00:44:37
Habe ich das alles jetzt richtig verstanden?
Es wird einen GT102 mit nur 12GB VRAM geben und einen GT104 gar nicht oder aber mit nur 8GB VRAM - korrekt?
Wenn das wahr ist, dann kann NV sich Turing sonstwohin stecken - der VRAM reicht in beiden Fällen (102 und 104) nicht:upicard:
R2
=Floi=
2018-06-27, 00:58:13
es gibt bis jetzt noch gar nichts und das war ein test board. Das teil kann auch 1 jahr alt sein.
Hört doch mit dem albernen spekulieren auf. Das hat alles wenig rückhalt.
Für mich zählt, was am release tag rauskommt.
Ob dann gut oder schlecht entscheidet sich dann.
Troyan
2018-06-27, 01:00:23
Die ersten 16nm Produkte kamen im September 2015. Und die ersten 16nm GPUs im Juni in beschränkter Masse.
Leonidas
2018-06-27, 06:56:26
Die massenfertigung von 7nm startete im april... laut tsmc läuft 7nm besser als 16nm damals... nehmen wir trotzdem 11monate in der milchmädchenrechnung und wir landen für 7nm im märz 2019, 7nm+ könnte tatsächlich erst etwas später kommen.
Das laut TSMC 7nm besser als 16nm läuft, bedeutet nur, das man früher in die Massenfertigung als erwartet gehen konnte. Die Zeitdifferenz zwischen Smartphone-SoCs und PC-Chips verändert dies aber nicht entscheidend.
Jene Zeitdifferenz bezieht sich im übrigen auf kaufbare Produkte. Ab Zeitpunkt kaufbarer Smartphones mit 7nm-Chip wären üblicherweise 3-4 Quartale draufzuhauen.
Das sagt nicht aus, das Frühjahr 2019 nicht möglich wäre. Ich wollte nur die Faktenlage zurechtrücken.
Korvaun
2018-06-27, 07:48:18
Ich denke hier kommen mehrere Sachen zusammen:
- nV hat sich Zeit gelassen da sie wenig/keine Konkurrenz haben und durch das Mining eh alles verkloppen konnten was möglich war.
- Miningboom ist schneller und stärker abgeflaut als gehofft und nV sitzt jetzt noch auf zu vielen Karten.
- 7nm läuft besser als erwartet und ist somit möglicherweise früher als gedacht sinnvoll einsetzbar.
Im schlechtesten Falle für nV kommen so die 12nm Karten erst Sept/Okt. und 7nm Karten (Navi) von AMD dann schon im Frühjahr 2019. nV hatte wohl eher geplant mit 12nm Frühjahr 2018 und 7nm dann benutzbar ab 2H2019, was ja schön gepasst hätte...
Korvaun
2018-06-27, 08:11:02
Das laut TSMC 7nm besser als 16nm läuft, bedeutet nur, das man früher in die Massenfertigung als erwartet gehen konnte. Die Zeitdifferenz zwischen Smartphone-SoCs und PC-Chips verändert dies aber nicht entscheidend.
Jene Zeitdifferenz bezieht sich im übrigen auf kaufbare Produkte. Ab Zeitpunkt kaufbarer Smartphones mit 7nm-Chip wären üblicherweise 3-4 Quartale draufzuhauen.
Das sagt nicht aus, das Frühjahr 2019 nicht möglich wäre. Ich wollte nur die Faktenlage zurechtrücken.
Bedeutet aber wahrscheinlich auch das aggressiver die Produktion hochgefahren wird und der Yield schon besser ist bzw. auch schneller ansteigt. Das könnte dann zu mehr Kapazitäten als gedacht für GPUs führen und auch eine schnelle breite Verfügbarkeit bedeuten. Noch dazu hört man ja in letzter Zeit das sich Smartphones nicht mehr soo dolle verkaufen in den "HighEnd Märkten" Europa/USA d.h. 7nm Smartphones brauchen dann nicht jeden letzten Fitzel an Kapazität der Produktion wenn die Hersteller ihre Bestellungen entsprechend anpassen.
Sunrise
2018-06-27, 08:54:21
Ich denke hier kommen mehrere Sachen zusammen:
- nV hat sich Zeit gelassen da sie wenig/keine Konkurrenz haben und durch das Mining eh alles verkloppen konnten was möglich war.
Das wird jedesmal wieder (seitdem ich hier registriert bin, und das ist schon eine ganze Weile) gesagt, aber kein IHV lässt sich Zeit, das hängt immer an zählbaren Faktoren. Mit 12nm hat NV die gleiche Basis wie bei Volta und die Kapazität ist deutlich größer. Der Faktor Mining beeinflusst das sicher etwas, denn bei extrem hoher Nachfrage kann NV auf 12nm um das Vielfache mehr produzieren als es auf 7nm möglich ist und da wird dann auch am Ende deutlich mehr verdient. Zudem sind sie nicht von Faktoren wie z.B. Apple oder Bitmain abhängig, die sicher ausnahmslos die komplette Produktpalette auf 7nm umstellen werden und das sind solche Massen an Wafern, da ist NV ein Witz. Also nimmt sich NV eben als einer der wenigen weiterhin 12nm. Ich verstehe nicht, warum das überhaupt in Frage gestellt wird. Auf 7nm (Zukunftsmusik) erwarte ich regelrecht, dass NV hier alles vernichtet, eine "bessere" Wortwahl ist nicht passend.
Im schlechtesten Falle für nV kommen so die 12nm Karten erst Sept/Okt. und 7nm Karten (Navi) von AMD dann schon im Frühjahr 2019. nV hatte wohl eher geplant mit 12nm Frühjahr 2018 und 7nm dann benutzbar ab 2H2019, was ja schön gepasst hätte...
Bis 2H2019 passt es ja locker weiterhin, ich sehe da absolut keinen Konflikt in irgendwelcher Art und Weise. Erst im HPC, dann der Rest. Was AMD macht ist egal, da Turing ja den Abstand weiter vergrößern wird und es wohl erstmal um VEGA gehen wird. Außer wir haben da irgendwas verpasst, sehe ich noch keinen Navi am Horizont. Bei ca. der Leistung einer 1080 ist NV sowieso schon zwei Schritte weiter. Der Multi-Chip-Ansatz von Navi muss sich auch erstmal beweisen, vor allem da es bei AMD an Software-Entwicklern krankt, da würde ich keine Wunder erwarten.
Und welch Wunder, Turing kommt evtl. auch mit SLi Dual-GPU... da kann AMD absolut nichts dagegen setzen.
Ich erwarte ja auch eher zwei neue Produkt- bzw. Chipgenerationen, mit nicht zwangsweise der gleichen Basis, aber der Hintergrund ist momentan noch etwas verworren. Details kommen sicher bald.
pixeljetstream
2018-06-27, 09:28:40
Das wird jedesmal wieder (seitdem ich hier registriert bin, und das ist schon eine ganze Weile) gesagt, aber kein IHV lässt sich Zeit, das hängt immer an zählbaren Faktoren.
+1, frage mich auch immer woher diese Ideen kommen, komplett mangelndes Verständnis für diese Industrie. Wer rastet rostet. Gerade ein Unternehmen wie NV was rein auf den Wert von hi-tech angewiesen ist, kann es sich nicht leisten da irgendwas zurückzuhalten.
Da kommt nix in 7nm. Wie gesagt, wurde bei TSMC NV nicht bei den Erstkunden genannt und es ist auch nicht plausibel, erst recht nicht mit 676mm² ohne HBM.
Ich hab da ne Theorie: NV plante sicherlich GV104 mit GDDR5X zum Jahresanfang zu bringen, GV106 ca. April/Mai und GV102 so im Juli/August. Jedoch wurde NV der GV100 förmlich aus den Händen gerissen, sodass man lieber GV104/6 gecancelt hat und lieber sämtliche 12FFN-Ressourcen für GV100 genutzt hat, erst GV102 blieb übrig, um Pascal nach oben hin zu ergänzen - und das ist Turing.
Kriegsgeier
2018-06-27, 10:07:03
Da kommt nix in 7nm. Wie gesagt, wurde bei TSMC NV nicht bei den Erstkunden genannt und es ist auch nicht plausibel, erst recht nicht mit 676mm² ohne HBM.
Ich hab da ne Theorie: NV plante sicherlich GV104 mit GDDR5X zum Jahresanfang zu bringen, GV106 ca. April/Mai und GV102 so im Juli/August. Jedoch wurde NV der GV100 förmlich aus den Händen gerissen, sodass man lieber GV104/6 gecancelt hat und lieber sämtliche 12FFN-Ressourcen für GV100 genutzt hat, erst GV102 blieb übrig, um Pascal nach oben hin zu ergänzen - und das ist Turing.
Klingt sehr plausibel! Könnte wirklich so sein!
Deshalb war hier ein Insider auch von der Leistung überascht. Wir kriegen wohl direkt eine neue 1180Ti! Und keine einfache 1180!
Sunrise
2018-06-27, 10:17:14
Man muss sich einfach ansehen, dass viele derzeit auf einer 1070/1080 oder einer 1080Ti sitzen und was Neues wollen (4K, HDR usw.). Wenn dann nach der Sommerpause geliefert wird, stimmt auch der Zeitpunkt perfekt (Herbst- und Wintermonate). Ist ähnlich wie damals, als im Prinzip jeder vom aktuellen High-End auf das nächste gesprungen ist, weil es zwischendurch regelrecht nach mehr Leistung dürstet. Und ein PC Gamer ist kein PC Gamer wenn ihm nicht mindestens das Wasser im Mund zusammenläuft bei fetten GPUs bzw. Boards. Natürlich zählt was hinten rauskommt und NV weiß das auch, wegen 20% fangen die sicher nicht an.
Also, bald ist es wieder soweit. Getreu dem Motto: "Wenn man heute kaufen kann, warum erst morgen kaufen?" ;)
Daredevil
2018-06-27, 10:23:08
Schon allein der erste Satz ist halt falsch, eine 1070, 1080 oder sogar 1080ti ist kein Mainstream. Im Forum sind es viele, aber Gesamt gesehen ein winzig kleiner Anteil. Es warten nicht Millionen Menschen auf eine 800€ Karte, weil diese Millionen nichtmal das doppelte verdienen alleine.
Sunrise
2018-06-27, 10:44:52
Schon allein der erste Satz ist halt falsch, eine 1070, 1080 oder sogar 1080ti ist kein Mainstream. Im Forum sind es viele, aber Gesamt gesehen ein winzig kleiner Anteil. Es warten nicht Millionen Menschen auf eine 800€ Karte, weil diese Millionen nichtmal das doppelte verdienen alleine.
3DCenter ist aber kein Mainstream, das ist in der Tat falsch. Hier sitzen die Leute, die schon vor Jahren jedesmal das Beste wollten und weiterhin wollen.
Die 1080Ti kam vor über einem Jahr und die 1080 ist auch schon nichtmehr ganz taufrisch. Da muss mal wieder was Neues her.
Der Mainstream wird auch bedient, keine Sorge, aber was interessiert mich der Mainstream? Richtig, als PC-Enthusiast herzlich wenig. Die Preise sind generell keine Einladung für jeden, das ist mir durchaus bewusst. Viele High-End-Käufer waren natürlich gemeint, daher ja auch der Bezug zur 1080 und 1080Ti.
Daredevil
2018-06-27, 11:05:39
Hab mich falsch ausgedrückt, sorry. :)
Meinte 1070+ ist kein Mainstream für das große ganze im Markt, hier im Forum aber vielleicht schon.
Nur sagt ein Steam Survey halt was ganz anderes. Das Forum wartet, die Welt aber nicht. ^^
Ich möchte auch gerne mehr. Mein Mining Rig hat noch einen HighEnd Slot Platz und das Budget ist hoch.
Die 1080Ti ist nur etwas über ein Jahr alt. Die lower-Mainstream sogar knapp ein Jahr oder weniger (1030). Das heißt, da wird NV jetzt sowieso nix ersetzen. Einzig GP104 ist uralt, die anderen eben noch nicht. Da vertut man sich leicht. Und anstatt GP104 zu ersetzen, gabs halt die 1070Ti, die ja sicherlich noch bis 350€ fallen wird (also in den oberen Mainstream fallen wird) - mit GDDR5 kein Problem und die erst im November 1 wird. Das war sicherlich als günstiges Ersatzprodukt für die 1080 so geplant. Die 1080Ti kann jetzt auf 500-550€ fallen, darüber kann man dann für 700€+ ne 1090 bringen (Turing salvage) und für die ganz Dullen die 1100 für ca. 1200€, die dann mit steigender Stückzahl sukzessive auf unter 1000€ fallen wird. Das wird sich auch verkaufen. Grad die 1090 wird weggehen wie warme Semmeln.
Die 1070 und 1080 passen dann einfach nicht mehr ins Preisgefüge und könnten einfach EOL gehen - die 1080 ist denen sicher auch zu teuer in der Produktion. Für stärkeren Salvage für GP104 hat man ja das GP104 @ GP106-Package geschaffen. Da könnte man sogar noch ne 1060 Ti draus machen.
nordic_pegasus
2018-06-27, 12:44:20
12gig fuer eine neue titan waeren aber arm.
angenommen dieses PCB gehört tatsächlich zu einem GT102 Chip. Woran erkennt man denn, dass nicht beidseitig Speicher verbaut wird? 24x 1 GByte GDDR6 wären doch durchaus möglich für eine TitanTuring. Und die 1180Ti dann halt mit 22GB. Wahrscheinlich kommt auch wieder erst eine teil-deaktivierte TitanTuring(1) und dann später die 1180Ti plus TitanTuring(2) mit Vollausbau mit vielleicht 16 GB/s Chips statt 14 GB/s. Wenn man dann noch zuerst die 1180 released, kann Nvidia dreifach bei den Nerds abkassieren.
Gibt auch keine Titan mit dem Chip. Man könnte vielmehr ne Titan V2 mit 16 oder 32GB auflegen mit mehr Takt, 350W TDP und WaKü.
Edit: Was mir noch einfällt: Wenn tatsächlich nur ein Chip kommt, passt auch Jensens Aussage wieder, dass die nächste Generation "a very long time" benötigt. Er meinte dann nämlich 7nm damit.
Und die 1180Ti dann halt mit 22GB.
Ganz ehrlich, wer braucht heute 22 GB? Ich mit meiner Titan X (Pascal) bin nur einmal bei 11,5 GB VRAM mit CoD AW2 gekommen, sonst dümple ich meistens bei 6-8 GB rum.
Der vram soll ja nicht nur heute reichen sondern wenn möglich auch noch in 2 Jahren. Aber ich gebe Dir recht, 22GB sind mehr als ich erwarte in 2 Jahren zu brauchen. 18GB wären optimal, aber dann müsste man schon 1,5 GB Module haben um auf die 384 Bit zu kommen. Wären dann 16,5GB bei 352Bit.
Hübie
2018-06-27, 17:33:26
Volta ist nicht 40% effizienter als Pascal. Woher denn auch? Es sind um die 10-15% wenn wir 225 Watt für beide ansetzen. Jetzt überlegen wir uns mal was Turing braucht um die 55-65% drauf zu legen, die GP102 auf GM200 drauf legte (welcher wiederum 55% auf GK110 packte). Auf jeden Fall einen anderen Prozess, bei gleicher oder geringerer Anzahl an ALUs mehr Takt, besseres power management und den X-factor.
TobiWahnKenobi
2018-06-27, 17:56:25
eine ausgefahrene TV nimmt 300W; eine ausgefahre TXp auch.. erstere hat 40-50% höhere frames.. da ist volta sicher 40% effizienter.. nimm als beispiel einen schnullermark oder den krempel von unigine..
(..)
mfg
tobi
Wenn man das Ganze auf die Chipgröße und Takt normalisiert bleiben aber nur noch die ~10% Effizienzvorteil durch den neuen Prozess übrig. Also kann man sagen je größer der neue Chip wird desto mehr kann bei einer gewissen Leistung rausgeholt werden.
Hübie
2018-06-27, 18:52:01
eine ausgefahrene TV nimmt 300W; eine ausgefahre TXp auch.. erstere hat 40-50% höhere frames.. da ist volta sicher 40% effizienter.. nimm als beispiel einen schnullermark oder den krempel von unigine..
(..)
mfg
tobi
Kannst mir gerne gegenteiliges zeigen. Ich sehe in den Tests (sei es computerbase, hardwareluxx oder gamersnexus) eben das was ich schrieb.
Voll ausgefahren deutet für mich schon mal auf offenes PT hin, was eh redicilous per se ist (abnehmender Grenznutzen).
mac_skull
2018-06-27, 19:35:23
Wie "sicher" ist jetzt eigentlich, dass es sich bei dem geleakten Board tatsächlich um den nächsten Gaming-Chip handelt? Könnte es nicht auch einfach eine Quadro-Lösung sein und die Gaming-Karte als 1080er Ersatz sieht ganz anders aus, bzw. ist deutlich kleiner?
Ex3cut3r
2018-06-27, 19:56:15
Ich verstehe nicht wieso jetzt alle aus dem Leak Bild einen GT104 auschließen, das Test Board einfach ein Vorlauf einer kommenden Titan für 2019. Der GT104 ist natürlich 2-3 Monate vor Release viel weiter, die Testphase ist schon längst vorbei, nur gab es davon kein geleaktes Bild.
rentex
2018-06-27, 19:56:39
Behaupte mal, das da nix sicher ist...
Adam D.
2018-06-27, 20:53:43
Ich verstehe nicht wieso jetzt alle aus dem Leak Bild einen GT104 auschließen, das Test Board einfach ein Vorlauf einer kommenden Titan für 2019. Der GT104 ist natürlich 2-3 Monate vor Release viel weiter, die Testphase ist schon längst vorbei, nur gab es davon kein geleaktes Bild.
Wir wissen ja nicht mal, von wann das Bild genau ist. Wenn es aktuell aufgenommen wurde und die Karte in diesem frühen Teststadium steckt, brauchen wir in den nächsten Monaten auf keine Karte zu warten. Auch wenn ich HOTs Spekulationen oft sehr nachvollziehbar finde, ist das extrem viel abgeleitet aus EINEM Bild (zu dem wir keinerlei Kontext haben).
Der_Korken
2018-06-27, 21:30:27
Bei den GV100 vs GP102 Vergleichen sollte man auch den HBM nicht unterschlagen. Fiji hat damals gegenüber Hawaii auch ~40% mehr Flops bei gleichem Verbrauch im gleichen Prozess und fast gleicher Architektur geschafft, indem das hungrige 512bit-Interface und die 16 Speicherchips durch einen Interposer mit 4 HBM-Stacks ersetzt wurden. Klar hat Fiji in der Praxis keine 40% Mehrleistung daraus gezogen, aber der Einwand sollte trotzdem klar sein. Ein GV100 mit 512bit GDDR5X würde deutlich mehr verbrauchen als jetzt. Das sollte man auch für Turing berücksichtigen.
Gipsel
2018-06-27, 21:33:35
Schon allein der erste Satz ist halt falsch, eine 1070, 1080 oder sogar 1080ti ist kein Mainstream.Es gibt halt eine deutliche Abweichung zwischen der Markteinteilung hier und woanders (z.B. seitens der Hersteller). Da bezeichnet Mainstream nämlich das zweitniedrigste Segment.
Entry Level sind oft alte GPU-Modelle, Mainstream meist das kleinste aktuelle Modell, dann kommt Performance (das ist so das 1060er Level), dann High End (1080er) und darüber dann Enthusiast (1080Ti/Titan). Bei Pascal kann nV nun sogar alle Segmente mit GP10#-Chips besetzen. Entry Level wird also (auch) über den GP108 bedient, GP107 ist Mainstream, GP106 Performance, GP104 High End und schließlich GP100/102 Enthusiast.
Nur mal so nebenbei.
VooDoo7mx
2018-06-27, 21:48:43
Ich verstehe nicht wieso jetzt alle aus dem Leak Bild einen GT104 auschließen, das Test Board einfach ein Vorlauf einer kommenden Titan für 2019. Der GT104 ist natürlich 2-3 Monate vor Release viel weiter, die Testphase ist schon längst vorbei, nur gab es davon kein geleaktes Bild.
Und das alles weißt du woher?
nVidia könnte genauso auch dieses Jahr exklusiv eine neue Titan für $2000 launchen und die anderen Chips und Geforce Produke erst 2019.
Es gibt absolut 0 Informationen was genau und in welcher Reihenfolge wo rauskommt. Da gibt es doch kein festgeschriebenes Gesetz aus einer nVidia Bibel.
Die bisherigen Indizien deuten eher darauf hin, dass nVidia zu erst den BigChip launcht. Der Leak von den Testboard mit dicker 676mm², Leute die was wissen (wie Igor) sprechen von einen großen Performancesprung und Tweaktown die mit AIBs auf der Computex gesprcohen haben, behauptend as es zum launch 2 SKUs für $999 und $1499 geben wird.
So wie es aussieht, wird nVidia erst mal den großen Turing im August/September zu ebenso großen Preisen launchen und damit das Pascal Angebot nach oben abrunden. Die Titan Xp fliegt aus den Programm und der Rest bleibt alles zu unveränderten Preisen da.
$1499 GT102 24GiB GDDR6 (neue Titan?)
$999 salvage GT102 12GiB GDDR6
$699 GTX 1080Ti
$549 GTX 1080
$449 GTX 1070Ti
$399 GTX 1070
$299 GTX 1060
NeoVx
2018-06-27, 22:23:17
$1499 GT102 24GiB GDDR6 (neue Titan?)
$999 salvage GT102 12GiB GDDR6
$699 GTX 1080Ti
$549 GTX 1080
$449 GTX 1070Ti
$399 GTX 1070
$299 GTX 1060
GTX 590 549€
GTX 580 399€
GTX 570 299€
GTX 560 200€
GTX 550ti 140€
;D;D;D;D;D:P
TobiWahnKenobi
2018-06-27, 22:43:59
Kannst mir gerne gegenteiliges zeigen. Ich sehe in den Tests (sei es computerbase, hardwareluxx oder gamersnexus) eben das was ich schrieb.
Voll ausgefahren deutet für mich schon mal auf offenes PT hin, was eh redicilous per se ist (abnehmender Grenznutzen).
voll ausgefahren heißt wakü und maximiertes powerlimit. da landen beide bei 300W und 2GHz takt.
https://abload.de/img/tv_2g_i7_5100_sp_4k_olbjjh.jpg
8700K @5.1GHz, 32GiB DDR4 3200 C16-16-16-36 1T, Titan V @2GHz, FW 398.11
zum vergleich: GP102 schafft da etwa 10.000P, eher weniger..
bin nur mitm hendi online und nicht zuhause.
(..)
mfg
tobi
Monsta
2018-06-27, 23:01:38
voll ausgefahren heißt wakü und maximiertes powerlimit. da landen beide bei 300W und 2GHz takt.
https://abload.de/img/tv_2g_i7_5100_sp_4k_olbjjh.jpg
8700K @5.1GHz, 32GiB DDR4 3200 C16-16-16-36 1T, Titan V @2GHz, FW 398.11
zum vergleich: GP102 schafft da etwa 10.000P, eher weniger..
bin nur mitm hendi online und nicht zuhause.
(..)
mfg
tobi
Ich finde einen Effizienzvergleich sollte Stock oder am Sweetspot stattfinden.
An der Kotzgrenze ist ein vergleich zwischen 2 Architekturen sinnlos.
Zumal Der_Korken vollkommen recht hat mit dem Hinweis das man eine GDDR5X Karte nicht wirklich mit einer HBM Karte vergleichen kann, da bei letzterer einfach mehr von den 300W für die GPU übrig bleibt.
=Floi=
2018-06-28, 00:14:17
Da kommt nix in 7nm. Wie gesagt, wurde bei TSMC NV nicht bei den Erstkunden genannt und es ist auch nicht plausibel, erst recht nicht mit 676mm² ohne HBM.
gerade 7nm macht doch doppelt sinn
warum die warterei?! 12nm könnte man längst bringen.
676mm2 (schön, dass du das als gesichert ansiehst. :rolleyes: ) Machen im volumen segment noch weniger sinn. 600mm2 war immer das max. für normale karten und die wird man weiterhin beibehalten.
Die akrten werden 2 jahre aktuell bleiben und auch da machen die 7nm gleich mehr sinn. Es gibt keinen refesh mehr und irgendwann kommt navi auch ums eck.
Huang ist viel zu leistungsgeil um auch nur ein wenig nachzugeben. Die wollen on top sein und das bleibt man nicht mit 12nm auf 2 jahre.
edit
Ich finde einen Effizienzvergleich sollte Stock oder am Sweetspot stattfinden.
An der Kotzgrenze ist ein vergleich zwischen 2 Architekturen sinnlos.
bei der RX 580er war das auch egal.
Bei der 5800er ging nv auch ans limit.
Wenn es so verkauft wird und es keine profile gibt sollte es so auch zählen weil es ben die zu kaufende karte ist. Nicht schön, aber die realität.
Hübie
2018-06-28, 00:46:07
voll ausgefahren heißt wakü und maximiertes powerlimit. da landen beide bei 300W und 2GHz takt.
https://abload.de/img/tv_2g_i7_5100_sp_4k_olbjjh.jpg
8700K @5.1GHz, 32GiB DDR4 3200 C16-16-16-36 1T, Titan V @2GHz, FW 398.11
zum vergleich: GP102 schafft da etwa 10.000P, eher weniger..
bin nur mitm hendi online und nicht zuhause.
(..)
mfg
tobi
Das sind 40% mehr min, 30% mehr avg und 20% mehr max fps ggü. eine Txp. Ich beziehe mich grundsätzlich jedoch auch auf Spiele im Durchschnitt. Battlefront 2 scheint bspw. so ziemlich linear mit dem core count zu skalieren. Also ja die 40% sind sicher hier und da auch mal drin, aber ich spreche vom Durchschnitt. Deine Ex-Pascal lief sicher weit vom optimalen Betrieb entfernt (abnehmender Grenznutzen halt).
dargo
2018-06-28, 06:24:28
Ich verstehe nicht wieso jetzt alle aus dem Leak Bild einen GT104 auschließen, das Test Board einfach ein Vorlauf einer kommenden Titan für 2019. Der GT104 ist natürlich 2-3 Monate vor Release viel weiter, die Testphase ist schon längst vorbei, nur gab es davon kein geleaktes Bild.
Man weiß noch gar nichts. Ich könnte mir durchaus vorstellen, dass NV in 12nm dieses Jahr eine Gamer-GPU bringt die einfach nur schneller als GP102 ist und alles darunter auf 2019 verschoben wurde bis 7nm bessere Ausbeute liefert. Oder es gibt noch Lieferschwierigkeiten bei GDDR6 für ein Massenvolumen welches man mit einem GT104 erwartet und man verspricht sich, dass es in ca. einem Jahr besser wird.
horn 12
2018-06-28, 07:28:15
Ähnlich wie bei HBM² und gerade dort wurde AMD an die Wand genagelt, gerade deshalb weil man sich für HBM entschied!
Grendizer
2018-06-28, 09:12:13
Ähnlich wie bei HBM² und gerade dort wurde AMD an die Wand genagelt, gerade deshalb weil man sich für HBM entschied!
Ja das Problem bei AMD war aber, das man Vega gelaunched hat und sie danach nie wirklich breit verfügbar war (als Vega 56)
nVidia scheint da dann einen anderen Weg zu gehen und verzögert den Launch halt solange bis es paßt.
Daredevil
2018-06-28, 09:49:05
Woher nimmst du die "Tatsache", dass sie nie breit verfügbar war?
Sie wurde halt nur schnell gekauft und die Produktion war danach total mit der Nachfrage überfahren, zu dem hohen Preis wollte sie dann niemand mehr haben.
Ich hab im Mining Discord jemanden, der hat 140 Vegas in seiner Halle stehen, wenn man die hier ins Forum streuen würde, hätte man hier statistisch auch eine "Breite Verfügung", nur war der anscheinend schneller und konsequenter. :D
Wenn Nvidia n guten Preis macht, können die auch Millionen Karten auf den Markt schmeißen. Die werden sofort weggepflückt, wenn die Hashrate stimmt. Das ist zwar traurig, aber halt wahr.
Grendizer
2018-06-28, 10:00:30
Woher nimmst du die "Tatsache", dass sie nie breit verfügbar war?
Sie wurde halt nur schnell gekauft und die Produktion war danach total mit der Nachfrage überfahren, zu dem hohen Preis wollte sie dann niemand mehr haben.
Ich hab im Mining Discord jemanden, der hat 140 Vegas in seiner Halle stehen, wenn man die hier ins Forum streuen würde, hätte man hier statistisch auch eine "Breite Verfügung", nur war der anscheinend schneller und konsequenter. :D
Wenn Nvidia n guten Preis macht, können die auch Millionen Karten auf den Markt schmeißen. Die werden sofort weggepflückt, wenn die Hashrate stimmt. Das ist zwar traurig, aber halt wahr.
Haarspalter... dann eben. Die Karte war im deutschen Einzelhandel nie breit verfügbar. Vor allem Mindfactory und Alternate hatten dauerhaft Kontingente . Bei der Vega 56 waren aber auch die relativ rar.
TobiWahnKenobi
2018-06-28, 10:14:26
Das sind 40% mehr min, 30% mehr avg und 20% mehr max fps ggü. eine Txp. Ich beziehe mich grundsätzlich jedoch auch auf Spiele im Durchschnitt. Battlefront 2 scheint bspw. so ziemlich linear mit dem core count zu skalieren. Also ja die 40% sind sicher hier und da auch mal drin, aber ich spreche vom Durchschnitt. Deine Ex-Pascal lief sicher weit vom optimalen Betrieb entfernt (abnehmender Grenznutzen halt).
in battlefront2 hatte ich mit einer TXp um die 80fps.. die selben frames hatte ich mit zwei TX (Pascal). erst mit der TV sehe ich da dauerhaft dreistellige frameraten. muss aber zugeben, dass ich das spiel nicht wirklich spiele.
ich muss das jetzt grob aus dem kopf machen, weil ich nicht nachschauen kann; bin wie gesagt nicht @home.
in far cry 5 wurden aus 50 minframes (TXP) durch die die TV 75. da haben wir ja noch die ergebnisse im thread: Far Cry 5 Benchmark Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587513&highlight=far+cry+benchmark&page=2)
dieser aufschlag in den frames war schon recht global. also quer über meine titel festgestellt. wäre es eher die ausnahme gewesen, hätte ich die karte wieder zurückgeschickt; der preis war zu ungeil (musste 1000€ auf meine TXen draufpacken).
takttechnisch verhielten sich alle meine pascalkarten identisch. ich habe eine 1050Ti und hatte eine 1060, zwei 1070 und drei titanen. die hatten alle einen grundboost von 1860MHz. und da landet auch TV, wenn man kein offset einstellt.
dieses einstellen auf 2GHz ist doch eher fürs auge; von 1.86G auf 2.0G ist jetzt nicht so der performanceprung, der aus unspielbar dann flüssig macht. unspielbar gibt es übrigens nicht, aber das ist keine überraschung.
(..)
mfg
tobi
Grendizer
2018-06-28, 12:21:49
Warum GDDR6 wohl eine gute Wahl war:
http://www.pcgameshardware.de/RAM-Hardware-154108/News/AMD-Vega-Nvidia-Volta-Samsung-HBM2-Produktion-1259666/
BlacKi
2018-06-28, 12:40:45
als ob sie eine wahl gehabt hätten^^
BoMbY
2018-06-28, 14:14:31
Die Verfügbarkeit von GDDR6 dürfte im Moment eher schlechter sein als die von HBM2.
Daredevil
2018-06-28, 14:15:45
HBM2 wird halt bei sehr vielen Produkten verkauft, GDDR6 noch nirgendwo. ^^
Screemer
2018-06-28, 14:16:45
ich bin mir ziemlich sicher, dass da auch unzählige hbm-packages für stratix draufgehen.
Nvidia Turing: GTX 1180 & Co. kommen im Herbst laut Lenovo (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Turing-GTX-1180-Veroeffentlichungstermin-1259743/)
Ein Lenovo-Mitarbeiter hat sich auf der E3 2018 ganz offensichtlich ein bisschen verplappert. Was Nvidia eigentlich noch gar nicht öffentlich kommunizieren möchte, erzählte er beiläufig bei einer Produktpräsentation: Die neuen Grafikkarten mit dem gemunkelten Codenamen Turing sollen innerhalb der 11er-Serie erscheinen. Das vorläufige Topmodell heiße Geforce GTX 1180
https://i.imgur.com/b0DFaUQ.jpg
Wer hat mich nochmal angemeckert, weil ich prognostizierte, die Karte wird 1180 heißen?
Ex3cut3r
2018-06-28, 19:57:13
Und was ist jetzt mit dem NDA? Muss er mit Strafen rechnen? ;D
GTX 1180 für 800€
GTX 1170 für 550€
Eine 1170 zum mitnehmen bitte.
Sunrise
2018-06-28, 20:18:35
Ich denke damit ist jetzt alles gesagt, oder?
- 12nm confirmed
- >1080Ti-Leistung bei etwa 250W (viel OC-Spielraum!)
- ca. 670mm^2
- höhere Preise (u.a. GDDR6, größerer Die -> Marge soll min. gleich bleiben)
- 7nm incoming
Das entspricht exakt dem Gerücht, dass zwei Chipgenerationen kommen werden, auf jedoch unterschiedlichen (Marktsegment) Produkten. To be continued.
Adam D.
2018-06-28, 20:24:05
Ich denke damit ist jetzt alles gesagt, oder?
- 12nm confirmed
- >1080Ti-Leistung bei etwa 250W (viel OC-Spielraum!)
- ca. 670mm^2
- höhere Preise (u.a. GDDR6, keine Konkurrenz)
- 7nm incoming
Das entspricht exakt dem Gerücht, dass zwei Chipgenerationen kommen werden, auf jedoch unterschiedlichen (Marktsegment) Produkten. To be continued.
Ich würde das Bild vom Testboard und die Lenovo-Aussagen nicht zusammenbringen. Ersteres wird keine 1180, Nvidia bringt doch keine 670mm2 in den "Mainstream".
Thunder99
2018-06-28, 20:24:54
Eher 12nm und dann 7nm in 2019 als 1185 :confused:
Aber das ist wirklich die größte Unbekannte. Bei 12nm wenig schneller als TXP ansonsten deutlich schneller bei 7nm
horn 12
2018-06-28, 20:32:21
Da es mehr als 40% werden ist die Karte wohl etwa 15 bis 25% schneller als das derzeitige Top Modell GTX 1080TI
und da hat Igor sich selbst ein Tor geschossen.
Sunrise
2018-06-28, 20:34:23
Ich würde das Bild vom Testboard und die Lenovo-Aussagen nicht zusammenbringen. Ersteres wird keine 1180, Nvidia bringt doch keine 670mm2 in den "Mainstream".
>1080Ti ist aber klares High-End, zumindest vorerst. Und um die 1080Ti klar zu schlagen müssen wir min. mit einem 20-30% größeren Die rechnen, 12nm wird dann dafür sorgen, dass einerseits die Taktraten steigen können und der Verbrauch nicht in entsprechendem Maße mitsteigt.
Ich denke damit ist jetzt alles gesagt, oder?
- >1080Ti-Leistung bei etwa 250W (viel OC-Spielraum!)
Das entspricht exakt dem Gerücht, dass zwei Chipgenerationen kommen werden, auf jedoch unterschiedlichen (Marktsegment) Produkten. To be continued.
Das glaube ich eher nicht, das wäre schon wirklich schwach, und wäre IHMO angesichts des Preises kein Kaufanreiz.
Sunrise
2018-06-28, 20:37:06
Das glaube ich eher nicht, das wäre schon wirklich schwach.
Inwiefern ist das schwach? Das entspricht exakt einer neuen GT104+X eben wie GP104 relativ zu 980Ti. Da kaufen dann sogar 1080Ti-Besitzer, weil auch mehr VRAM vorhanden ist.
Für noch mehr Leistung benötigt NV entweder weitere extreme Arch-Verbesserungen oder 7nm.
Adam D.
2018-06-28, 20:38:01
>1080Ti ist aber klares High-End, zumindest vorerst. Und um die 1080Ti klar zu schlagen müssen wir min. mit einem 20-30% größeren Die rechnen, 12nm wird dann dafür sorgen, dass einerseits die Taktraten steigen können und der Verbrauch nicht in entsprechendem Maße mitsteigt.
Was heißt schon "klar schlagen"? Nvidia wird nie im Leben den Nachfolger von GP104 im Bereich von 600-700mm2 einordnen, wo soll denn dann bitte GT102 landen?
Sunrise
2018-06-28, 20:40:50
Was heißt schon "klar schlagen"? Nvidia wird nie im Leben den Nachfolger von GP104 im Bereich von 600-700mm2 einordnen, wo soll denn dann bitte GT102 landen?
Es gibt keine andere Lösung die Leistung in dem spekulierten Maße zu erhöhen, außer auf 7nm zu gehen. 12nm ist relativ zu 7nm spottbillig und in Masse produzierbar, perfekt für eine GT104 (aka. 1170 und 1180).
Ansonsten ergibt auch der Verplapperer keinen Sinn. Er sprach klar von einer 1180 als Topmodell (vorerst, ähnlich GP104, GP102 kam erst Monate später).
Adam D.
2018-06-28, 20:55:34
Es gibt keine andere Lösung die Leistung in dem spekulierten Maße zu erhöhen, außer auf 7nm zu gehen. 12nm ist relativ zu 7nm spottbillig und in Masse produzierbar, perfekt für eine GT104 (aka. 1170 und 1180).
Ansonsten ergibt auch der Verplapperer keinen Sinn. Er sprach klar von einer 1180 als Topmodell (vorerst, ähnlich GP104, GP102 kam erst Monate später).
Wenn GT104 GP102 schlagen soll, braucht es doch keinen 670mm2-Die?? :freak: Die Karte auf dem Reddit-Bild ist Monate von einer Veröffentlichung entfernt und hat mit GT104 nix zu tun. Kleinere Prozessveränderungen, schnellerer Speicher, Architekturverbesserung, etwas größerer Die und eine 1180 schlägt GT 102 um 10-20%, die 1170 landet ca. auf 1080 Ti (die man dann auslaufen lässt) und nächstes Jahr gibt's dann mit 7nm einen richtigen Sprung.
Sunrise
2018-06-28, 21:07:06
Wenn GT104 GP102 schlagen soll, braucht es doch keinen 670mm2-Die?? :freak: Die Karte auf dem Reddit-Bild ist Monate von einer Veröffentlichung entfernt und hat mit GT104 nix zu tun. Kleinere Prozessveränderungen, schnellerer Speicher, Architekturverbesserung, etwas größerer Die und eine 1180 schlägt GT 102 um 10-20%, die 1170 landet ca. auf 1080 Ti (die man dann auslaufen lässt) und nächstes Jahr gibt's dann mit 7nm einen richtigen Sprung.
Eine x80 ist GX104
Eine x80Ti ist GX102
Wenn es vorerst kein 7nm gibt, erreichst du mit 1180 (GX104) nur über einen beträchtlich größeren Die >1080Ti-Leistung, selbst mit Arch-Verbesserungen. GDDR6 wird benötigt, weil das Ding ansonsten an der Bandbreite verhundert.
Adam D.
2018-06-28, 21:40:28
Eine x80 ist GX104
Eine x80Ti ist GX102
Wenn es vorerst kein 7nm gibt, erreichst du mit 1180 (GX104) nur über einen beträchtlich größeren Die >1080Ti-Leistung, selbst mit Arch-Verbesserungen. GDDR6 wird benötigt, weil das Ding ansonsten an der Bandbreite verhundert.
Ist mir schon klar, aber die kolportierten 670mm2 sind NIE IM LEBEN GT104. Never ever. Wie groß wird GP102 in 12nm sein? Knapp unter 400mm2? Mehr wird GT104 auch nicht spendiert bekommen.
Sunrise
2018-06-28, 22:26:06
Ist mir schon klar, aber die kolportierten 670mm2 sind NIE IM LEBEN GT104. Never ever. Wie groß wird GP102 in 12nm sein? Knapp unter 400mm2? Mehr wird GT104 auch nicht spendiert bekommen.
Wie erklärt sich dann deiner Meinung nach die Namensbezeichnung? Darum ging es mir ja. Warum sollte eine 1180 plötzlich eine x02-GPU bekommen? Die 780Ti, 980Ti und 1080Ti hatten eine. War das schon jemals der Fall? Nicht, dass ich mich erinnere...
Und wenn du bei sagen wir 10-20% besserer Arch-Performance pro Takt nochmal 10-20% mehr Einheiten reinpackst, die Taktraten erhöhst, kommen wir auf über 1080Ti-Leistung. Und das ist dann eben logischerweise ein größerer Die als GP102, der ja keine Tensor-Cores und Co. mit am Bord hatte.
Adam D.
2018-06-28, 22:33:24
Wie erklärt sich dann deiner Meinung nach die Namensbezeichnung? Darum ging es mir ja. Warum sollte eine 1180 plötzlich eine x02-GPU bekommen? Die 780Ti, 980Ti und 1080Ti hatten eine. War das schon jemals der Fall? Nicht, dass ich mich erinnere...
Achso, jetzt kapier ich, worauf du hinaus willst, wir haben aneinander vorbeigeredet.
Die Testkarte auf dem Reddit-Bild ist wahrscheinlich GT102, der wahrscheinlich irgendwann Q1/19 auftaucht. Wenn der Lenovo-Mitarbeiter von 1180 spricht, dann wäre es extrem seltsam, wenn er damit GT102 meint. Viel wahrscheinlich ist, dass das GT104 ist. Alles in 12nm, GT104 im Vollausbau etwas über GP102, GT102 dann wie in der Pascal-Generation mit ordentlich Performance (GT104x1,3?).
Oder aber wir folgen HOTs Spekulation, dass das Bild die Karte zeigt, die als Turing dieses Jahr kommt, dann als 1180Ti, Pascal bleibt im Lineup bestehen wie bisher (IMO nicht sehr wahrscheinlich).
Sunrise
2018-06-28, 22:38:46
Achso, jetzt kapier ich, worauf du hinaus willst, wir haben aneinander vorbeigeredet.
Die Testkarte auf dem Reddit-Bild ist wahrscheinlich GT102, der wahrscheinlich irgendwann Q1/19 auftaucht. Wenn der Lenovo-Mitarbeiter von 1180 spricht, dann wäre es extrem seltsam, wenn er damit GT102 meint. Viel wahrscheinlich ist, dass das GT104 ist. Alles in 12nm, GT104 im Vollausbau etwas über GP102, GT102 dann wie in der Pascal-Generation mit ordentlich Performance (wohl wieder GT104x1,3).
Er meinte zudem auch noch "das vorläufige Topmodell". Das spricht klar für eine 1180 (mit >1080Ti-Leistung), eben wie bei Pascal, relativ zur 980Ti. Nur hatte man bei Pascal eben einen beträchtlichen Fertigungssprung gemacht. Deutlich mehr Platz, deutlich besser im Verbrauch, you name it.
Ich glaube nicht, dass man die spekulierte Mehrperformance von ca. 40% (oder evtl. sogar noch mehr) rein durch Arch- und Takt rausholen kann, da muss ein größerer Die her, und der muss beträchtlich größer sein, denn 12nm holt soviel mehr nicht raus. Evtl. habe ich ja auch falsche Zahlen im Kopf, aber so stellt es sich für mich eben anhand der Aussagen dar.
=Floi=
2018-06-28, 23:28:56
Da es mehr als 40% werden ist die Karte wohl etwa 15 bis 25% schneller als das derzeitige Top Modell GTX 1080TI
und da hat Igor sich selbst ein Tor geschossen.
was ist denn daran schlecht?
Das wäre dann:
1180 -> Titan power
1170 1080Ti power
passt doch. Das ist eh viel. lass noch bei DX12, 4k und GPGPU zuwächse sein und das teil ist ne bombe.
Das ist ja die mittelklasse welche irgendwas um die 300-400mm2 haben dürfte. geschätzte 180 watt. (sollte man auch nicht vergessen)
Adam D.
2018-06-29, 00:24:17
was ist denn daran schlecht?
Das wäre dann:
1180 -> Titan power
1170 1080Ti power
passt doch. Das ist eh viel. lass noch bei DX12, 4k und GPGPU zuwächse sein und das teil ist ne bombe.
Das ist ja die mittelklasse welche irgendwas um die 300-400mm2 haben dürfte. geschätzte 180 watt. (sollte man auch nicht vergessen)
Du darfst aber nicht vergessen, dass der Horn-Wunder-Treiber bald kommt, mit dem die Vega sich dann mit GT102 messen wird :eek:
horn 12
2018-06-29, 06:45:31
Der Treiber kommt, wahrscheinlich zur Vorstellung von Turing.
Korvaun
2018-06-29, 07:22:46
Yeah horn12 gibs uns :)
Glaube kaum das GT104 größer als GP102 wird (Die). Max. gleiche Größe, das würde dann schon langen bei 10% durch 12nm und 10% durch Architektur...
650mm2 sind extrem grenzwertig, auch auf einem eingefahrenen Prozeß. Der Chip wird sehr teuer, viel zu teuer für ne "1180/1170".
Hübie
2018-06-29, 07:37:28
Das tolle an HOT-Prognosen ist ja, dass sie so oft wechseln, dass jene fast immer (nie?) stimmen. ;D SCNR!
Überlegen wir uns doch mal, wie sinnvoll es wäre Turing bei GP102 + 30% (Edit: mit 676 mm²) stehen zu lassen und gucken mal die forecasts zu NVIDIA's Zahlen an. :uponder:
Nazar
2018-06-29, 08:34:24
Ich denke damit ist jetzt alles gesagt, oder?
- 12nm confirmed
- >1080Ti-Leistung bei etwa 250W (viel OC-Spielraum!)
- ca. 670mm^2
- höhere Preise (u.a. GDDR6, größerer Die -> Marge soll min. gleich bleiben)
- 7nm incoming
Das entspricht exakt dem Gerücht, dass zwei Chipgenerationen kommen werden, auf jedoch unterschiedlichen (Marktsegment) Produkten. To be continued.
Ist mal irgend jemand auf die Idee gekommen, dass es sehr auffällig ist, dass (wieder mal) genau die meist verbreiteten Gerüchte viral vermarktet werden?
Da "verplappert" sich ein MA bei einer Präsi? Schon wieder mal?
Das hatten wir bei nV ja noch "nie" vorher erlebt. :wink:
Läuft bei der Marketingabteilung von nV hervorrangend. Turing ist im Gespräch, besser geht es kaum. :wink:
Es mag alles so kommen, wie hier spekuliert wird, aber evenutell eben doch nicht. :wink:
Daredevil
2018-06-29, 09:26:41
Die Infos aus der "Präsi" bestehen doch nur aus Gerüchten. Da ist doch gar nichts gesetzt oder neu.
Ich denke damit ist jetzt alles gesagt, oder?
- 12nm confirmed
- >1080Ti-Leistung bei etwa 250W (viel OC-Spielraum!)
- ca. 670mm^2
- höhere Preise (u.a. GDDR6, größerer Die -> Marge soll min. gleich bleiben)
- 7nm incoming
Das entspricht exakt dem Gerücht, dass zwei Chipgenerationen kommen werden, auf jedoch unterschiedlichen (Marktsegment) Produkten. To be continued.
Erst 12nm das Produkt (1180 Salvage und 1180Ti "Full"), dann in 2019 die 2k-Serie mit 7nm-"Shrink" (Turing 2) und komplettem Lineup - das hört sich echt plausibel an.
Das tolle an HOT-Prognosen ist ja, dass sie so oft wechseln, dass jene fast immer (nie?) stimmen. ;D SCNR!
Überlegen wir uns doch mal, wie sinnvoll es wäre Turing bei GP102 + 30% (Edit: mit 676 mm²) stehen zu lassen und gucken mal die forecasts zu NVIDIA's Zahlen an. :uponder:
Das tolle an HOT-Prognosen ist, dass es Prognosen sind. Und nur Idiot würde an einer Theorie festhalten, wenn neue Informationen und/oder Erkenntnisse auftauchen - es bleibt Spekulation. Ich finde dieses Herumreiten darauf einfach nur erbärmlich.
=Floi=
2018-06-29, 10:09:09
weil da viel zu viel wunschdenken und zu wenig realität dabei ist. :rolleyes:
wir sind auch nicht mehr 2 jahre vom release entfernt!
Es sind auch genug rahmenbedinungen (mid size DIE größe/verbrauch/GDDR6) gesetzt.
Mangel76
2018-06-29, 10:34:16
weil da viel zu viel wunschdenken und zu wenig realität dabei ist. :rolleyes:
wir sind auch nicht mehr 2 jahre vom release entfernt!
Es sind auch genug rahmenbedinungen (mid size DIE größe/verbrauch/GDDR6) gesetzt.
Solange nicht klar ist, ob 7nm oder 12nm, ist die Die-Size völlig unklar. Bei 12nm wird die nicht so "mid" werden, wenn man GP102 schlagen will! Verbrauch hängt auch stark vom Prozess ab! Alles steht und fällt mit dem Prozess, denn nur die resultierende Leistung (1080Ti+X%) ist in etwa absehbar.
AffenJack
2018-06-29, 10:45:11
Es ist doch mittlerweile ziemlich klar, dass es 12nm werden. Spätestens mit dem PCB gibts da keinerlei Zweifel mehr.
VooDoo7mx
2018-06-29, 11:07:48
Was einige Leute hier komplett ohne Plan sich wieder für ein wirres Zeug zusammenreimen.
Wie kann man nur annehmen, dass der 676mm² der GTX 1080 Nachfolger ist der mit 10-15% vor der 1080Ti rauskommt. So ein Schwachsinn.
Der 676mm² Chip ist der GP102 Nachfolger
- neue Turing Architektur, mehr Änderungen als von Maxwell auf Padcal
- 676mm² 12nm TSMC (44% größer als GP102 mit optimierter Fertigungstechnik)
- min 5120 Shader Cores eher sogar mehr
- 384Bit 14GBPS GDDR6, 672GB/s Speicherbandbreite, 12 oder 24GiB(doppelseitig bestückt)
- ~50% schneller als Titan Xp
- richtig teuer, salvage SKU für $999, top End $1499 wahrscheinlich neuer Titan, Pascal bleibt im Programm
weil da viel zu viel wunschdenken und zu wenig realität dabei ist. :rolleyes:
wir sind auch nicht mehr 2 jahre vom release entfernt!
Es sind auch genug rahmenbedinungen (mid size DIE größe/verbrauch/GDDR6) gesetzt.
jo entsprechend sieht die Prognose eben aus. Bevor das Bild des Arbeitsboards auftauchte, waren viele fest davon überzeugt, dass es ein 400mm² GT104 mit 256Bit wird. Das hat sich zerschlagen, genau das wäre auch i.Ü. ein GV104 gewesen.
Solange nicht klar ist, ob 7nm oder 12nm, ist die Die-Size völlig unklar. Bei 12nm wird die nicht so "mid" werden, wenn man GP102 schlagen will! Verbrauch hängt auch stark vom Prozess ab! Alles steht und fällt mit dem Prozess, denn nur die resultierende Leistung (1080Ti+X%) ist in etwa absehbar.
7 wirds nicht, das ist das einzige was wirklich klar ist.
BlacKi
2018-06-29, 11:18:38
wenn ich igors andeutungen richtig deute, kommt zuerst die gt104 (das neue Highend welche später nur noch oberklasse ist) und danach gt102 etwas später (vl kurz vor weihnachten, wenn man den abstand zwischen gp104 und 102 vergleicht). der 676mm² chip ist niemals gt104.
MorPheuZ
2018-06-29, 11:20:51
Interessant ist der Chip allerdings nach wie vor. Ich dachte mir noch dass es ev. ein angepasster GP100 ohne HBM usw sein könnte oder sogar GV100. Aber die Die Size passt nicht auf die beiden X00 Chips in keinster Weise. Also, was für ein Chip ist das? Der einzige Refresh Pascal Chip der es in Serie geschafft hat?
BoMbY
2018-06-29, 11:51:49
Niemand wird so einen Monster-Die für eine Gaming-Karte bringen. NVidia ist bereits froh bei GV100 in Die/Wafer anstatt Wafer/Die rechnen zu können.
Daredevil
2018-06-29, 11:56:53
Es gibt doch btw. bestimmt auch noch eine TitanT, oder nicht?
Die TitanV ist ja Tensorcore Kram, für die Gamer fehlt doch noch ein 1500€ Flagschiff. :D
Diese Random Bilder Leaks müssen ja nicht ja nicht unbedingt die ti sein. Vielleicht kommt ja auch nur eine TitanT? ;)
Adam D.
2018-06-29, 12:32:21
https://videocardz.com/newz/nvidia-invites-press-for-gamescom
Damit dürfte Igor Recht behalten, Vorstellung auf der Gamescom :)
Tarkin
2018-06-29, 12:34:09
Pressevent heißt aber noch lange kein Release/Launch im August...
https://www.digitimes.com/news/a20180629PD204.html
Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.
Adam D.
2018-06-29, 12:44:31
Pressevent heißt aber noch lange kein Release/Launch im August...
Von Release war nie die Rede, es geht um eine Vorstellung. Die laden doch nicht Journalisten nicht von Übersee nach Kölle ein für nix :wink:
Mangel76
2018-06-29, 13:12:09
7 wirds nicht, das ist das einzige was wirklich klar ist.
Davon gehe ich ja auch aus, aber es gibt da wieder andere, die meinen, dass GT104 ein mittelgroßes Die haben wird. Wenn damit aber GP102 (deutlich) geschlagen werden soll, so kann ich daran irgendwie nicht glauben. Entweder in 12 und deutlich größer als GP104 (eher GP102) oder doch nen GT102 in 7nm zu einem horrenden Preis (halte ich für eher unwahrscheinlich).
Swissr
2018-06-29, 13:53:06
Ich hoffe ja persönlich auf gleichzeitiges Release der TI // GT102 Variante.
Zeit genug zum Entwickeln war ja, und taktisch hätte es für Nvidia einige Vorteile:
- Höher Preispunkt gerechtfertigt, da keine Alternative und deutlich stärker
- Abfischen der Leute die für weniger Geld eine 1180er geholt hätten, und später evtl. nicht auf die TI wechseln
- Abfischen der Leute, die ansonsten vielleicht auf AMDs 7nm Lösung in 2019 wechseln würden
Leonidas
2018-06-29, 14:01:00
Er meinte zudem auch noch "das vorläufige Topmodell".
Wo hat er denn das auf eine 1180 bezogen? Ich höre da nix raus.
Korvaun
2018-06-29, 14:15:44
Pressevent heißt aber noch lange kein Release/Launch im August...
https://www.digitimes.com/news/a20180629PD204.html
Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.
Das passt aber irgendwie gar nicht zusammen.. wer gibt nen Ausblick auf die nächste Generation wenn erstmal noch monatelang der alte Kram verkauft werden muss? Und Ende 2018 in 12nm... das wird dann aber schon sehr knapp bis 7nm kommt, und seis zuerst von AMD!
Zumindest würde aber dann Jensens Aussage "dauert noch lange" stimmen...
Adam D.
2018-06-29, 14:32:39
Das passt aber irgendwie gar nicht zusammen.. wer gibt nen Ausblick auf die nächste Generation wenn erstmal noch monatelang der alte Kram verkauft werden muss? Und Ende 2018 in 12nm... das wird dann aber schon sehr knapp bis 7nm kommt, und seis zuerst von AMD!
Zumindest würde aber dann Jensens Aussage "dauert noch lange" stimmen...
Und ich verstehe nicht, warum man Pascal nicht auch dann abverkaufen kann, wenn Turing bereits da ist. Diese Spekulationen ergeben einfach keinen Sinn.
Leonidas
2018-06-29, 14:36:09
Und ich verstehe nicht, warum man Pascal nicht auch dann abverkaufen kann, wenn Turing bereits da ist.
Das kommt ganz entscheidend darauf an, um welche Chips es sich handelt. GP102 wird schwer zu verkaufen sein, wenn GT104 da ist. Denn die GeForce GTX 1180 ersetzt die GeForce GTX 1180 Ti, ist neuer, besser, schneller. Da kauft niemand mehr eine GeForce GTX 1180 Ti - und die Enthusiasten-Lösungen werden viel eher von informierten Käufern gekauft, da geht nach Turing-Launch kaum noch etwas.
GP104 kann man dagegen so lange gut verkaufen, bis GT106 rauskommt ...
BoMbY
2018-06-29, 14:38:21
Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.
Eines ist auf jeden Fall sicher, Volta Ampere Turing ist auf jeden Fall die Beste Erfindung seit es geschnittenes Brot gibt, wenn es im Q1/2017 Q2/2017 Q3/2017 Q4/2017 Q1/2018 Q2/2018 Q3/2018 Q4/2018 erscheint.
Adam D.
2018-06-29, 14:56:33
Das kommt ganz entscheidend darauf an, um welche Chips es sich handelt. GP102 wird schwer zu verkaufen sein, wenn GT104 da ist. Denn die GeForce GTX 1180 ersetzt die GeForce GTX 1180 Ti, ist neuer, besser, schneller. Da kauft niemand mehr eine GeForce GTX 1180 Ti - und die Enthusiasten-Lösungen werden viel eher von informierten Käufern gekauft, da geht nach Turing-Launch kaum noch etwas.
GP102 ist ein Nischenprodukt, auf wie vielen Chips kann Nvidia hier denkbar sitzen, um den Release von Turing nach hinten verschieben zu müssen?
Thunder99
2018-06-29, 14:58:35
Ich schlage glaube erst bei der nächsten Generation zu. Egal was Turing bietet. Genutzt wird es eh erst später ;). Kein Druck zum aufrüsten mit meiner 1080Ti ;D
AffenJack
2018-06-29, 15:31:17
GP102 ist ein Nischenprodukt, auf wie vielen Chips kann Nvidia hier denkbar sitzen, um den Release von Turing nach hinten verschieben zu müssen?
GP102 wirds auch nicht sein, der hält sich im Preis ja noch ziemlich. Bei den Angeboten in letzter Zeit sieht es stark nach GP104 aus. Das Problem ist da, wenn GT104 als 1180 launcht, wird GP104 nicht mehr weg gehen. Zwar wird die 1180 teurer, aber jeder wird auf die 1170 warten, die wohl irgendwo im ~450-500$ Bereich landen wird und die 1070Ti und 1080 preislich ersetzen wird.
Leonidas
2018-06-29, 15:39:33
Auch denkbar. Die 1180 tangiert die bestehenden 1070-1080 nicht wirklich, aber eine 1170 dann vielleicht doch. Kommt auf den gewählten Preispunkt an. Bei einer 1180 für 749$ ist eine 1170 nicht unter 499$ zu erwarten (Preissenken kann man später). Das würde die 1080 obsolet machen, aber die 1070 könnte weiter existieren.
Adam D.
2018-06-29, 15:40:55
GP102 wirds auch nicht sein, der hält sich im Preis ja noch ziemlich. Bei den Angeboten in letzter Zeit sieht es stark nach GP104 aus. Das Problem ist da, wenn GT104 als 1180 launcht, wird GP104 nicht mehr weg gehen. Zwar wird die 1180 teurer, aber jeder wird auf die 1170 warten, die wohl irgendwo im ~450-500$ Bereich landen wird und die 1070Ti und 1080 preislich ersetzen wird.
Genau, und dann setzt du GP104 drunter und hast ein Top Lineup. 1170 550$, 1080 450$, 1170 Ti 400$, 1070 349$.
Sunrise
2018-06-29, 15:47:36
Niemand wird so einen Monster-Die für eine Gaming-Karte bringen. NVidia ist bereits froh bei GV100 in Die/Wafer anstatt Wafer/Die rechnen zu können.
Das sind auch nicht exklusive Gaming-GPUs, die kommen auch für Quadro. Siehe GK110B (Quadro und GTX780(Ti)).
Da NV scheinbar noch mehr als genug Überproduktion in den Lagern hat, wird GP104 definitiv bleiben, aber im Preis reduziert. 300mm^2 bei dieser Leistung ist immernoch verdammt gut. So wird NV auch den Marktanteil hochhalten bzw. weiter ausbauen. 7nm wird meiner Schätzung nach spätestens Q1/2019 aufschlagen, es könnte aber noch eine Überraschung geben...
Dass GT104 zuerst kommt, sollte aber denke ich sicher sein.
Triniter
2018-06-29, 16:46:52
Meinen GM200 würd ich langsam schon gerne ersetzten für 1440p sollte ein GT104, sofern der die 1080TI sauber schlägt allemal eine sehr gute Wahl sein.
BoMbY
2018-06-29, 17:32:28
Das sind auch nicht exklusive Gaming-GPUs, die kommen auch für Quadro. Siehe GK110B (Quadro und GTX780(Ti)).
Und ich dachte die Gerüchte waren, NVidia hat sich dazu entschieden Gaming und Pro Die-technisch zu trennen?
Hübie
2018-06-29, 17:54:51
Es wird Compute und Graphics stärker getrennt. Da aber mittlerweile auch engines mehr und mehr auf compute setzen kann es sein, dass die Linien wieder verschmelzen. Ich bezweifle aktuell jedoch noch, dass es schon soweit ist.
Quadro lehnt sich vom usecase ja schon deutlich näher an gaming an, als compute tasks.
Edit: Wobei man ja Cross marketing betreibt wie man an GV100 sieht.
Tesseract
2018-06-29, 18:16:50
Es wird Compute und Graphics stärker getrennt. Da aber mittlerweile auch engines mehr und mehr auf compute setzen kann es sein, dass die Linien wieder verschmelzen.
die trennung bedeutet, dass der dicke chip nicht fast ausschließlich mit FP32 zugepflastert ist sondern FP32, FP64, INT und seit kurzem TC in jedem SM und vieleicht noch etwas großzügigere caches hat, ansonsten sind die gaming-chips nicht wirklich weniger "compute". das quadro-zeug ist hauptsächlich software-lock-in damit sie den preis hochschrauben können.
Troyan
2018-06-30, 00:38:18
Mit Turing zieht nVidia auch nach und bringt viele der "Compute"-Sachen auch in die Consumer-Produkte: NVLink und TensorCores. Die Frage wird also sein, ob auch der SM-Aufbau sich an GP100/GV100 annährend oder ob man wieder einen anderen Weg gehen wird.
horn 12
2018-06-30, 09:55:21
Vorstellung 23 August
Hardlaunch 17 Oktober 2018
deLuxX`
2018-06-30, 10:28:20
Vorstellung 23 August
Hardlaunch 17 Oktober 2018
Vorstellung 3 September
Hardlaunch 31 Oktober 2018
BlacKi
2018-06-30, 10:43:26
ich spiel mal mit:
vorstellung 31.juli
hardlaunch gamescom im august.
basix
2018-06-30, 11:13:10
Mit Turing zieht nVidia auch nach und bringt viele der "Compute"-Sachen auch in die Consumer-Produkte: NVLink und TensorCores. Die Frage wird also sein, ob auch der SM-Aufbau sich an GP100/GV100 annährend oder ob man wieder einen anderen Weg gehen wird.
Was ist eigentlich der Sinn hinter NVLink bei Consumer-Karten? Neues SLi Verfahren mit sehr guter Skalierung (über mehrere Karten oder auch MCM) ist das einzige, was mir spontan in den Sinn kommt. Sehr nice wäre es.
robbitop
2018-06-30, 11:31:26
Vergiss mGPU über mehrere Grafikboards hinweg für Spiele. Egal welche Schnittstelle und welches Protokoll. Latenz und Bandbreite damit das transparent für die Anwendung liefe (und das wäre das einzig anständige bei modernen komplexen Renderpipelines) würde voraussetzen, dass mehrere GPUs auf einem Träger sind.
NVLink ist für Consumer IMO null relevant. Tensorcores werden IMO in der Zeit in der Turing aktuell ist, kein wesentlicher Einfluss in der Mehrzahl von Spielen haben. Ggf 1-2 mArchs später.
Mit dem Denoising hat man nur ein Problem gefunden, damit man die hw Einheiten die für AI gedacht sind auch für 3D nutzen kann.
IMO genauso überhypt wie SM3.0 zu NV40 Zeiten oder Truform zu R200 Zeiten oder Displacement Mapping bei der Mateox Parhelia.
rentex
2018-06-30, 11:40:46
Vorstellung 3 September
Hardlaunch 31 Oktober 2018
Wenn es dieses Jahr sein soll, dann zu diesen Daten!
Leonidas
2018-06-30, 12:44:55
Hardlaunch 17 Oktober 2018
Ein Mittwoch? Nicht besonders wahrscheinlich.
http://www.guru3d.com/news-story/vietnamese-store-put-up-preorder-for-asus-rog-strix-1180s.html
Wenn das stimmt, müsste er pro Kanal doppelt bestückt sein mit 8Gbit-Chips. Aber beruhigend, dass es offenbar wirklich 16GB sind.
Der_Korken
2018-07-02, 15:53:52
http://www.guru3d.com/news-story/vietnamese-store-put-up-preorder-for-asus-rog-strix-1180s.html
Wenn das stimmt, müsste er pro Kanal doppelt bestückt sein mit 8Gbit-Chips. Aber beruhigend, dass es offenbar wirklich 16GB sind.
Wären nach all den Spekulationen um 7nm und >1080Ti+30% sehr konservative Specs. Eigentlich genau das, was hier vor Ewigkeiten schon spekuliert wurde, als man noch von 1Q18 ausging. Vor dem Hintergrund würde das Bild mit dem 670mm²-Chip und 384bit SI insofern Sinn ergeben, als das dies ein GT102 mit 3584*1,5 = 5376 Shadern (oder sogar noch mehr) sein könnte.
rentex
2018-07-02, 16:21:27
Der Preis...
Mist, reingefallen, war natürlich BS die Specs. Speicher passte ja auch eigentlich nicht so recht in die Liste :D.
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/GTX-1180-Fake-Shop-1259940/
Thunder99
2018-07-03, 07:55:26
Sind nicht 16GB Overkill? Waren nicht krumme Speicherbestückung möglich seit GDDR5X?
Leonidas
2018-07-03, 08:59:32
Leider fertigt diese krummen Speicherchips derzeit niemand *. Daher nur eine Theorie-Option.
* Vermutlich zu riskant, weil dann immer nur für eine Grafikkarte gedacht. Keine anderen Abnehmer, Bindung an ein einzelnes Produkt. Chance, das jemand krumme Speicherchips nachträglich nutzt, wenn sie erstmal verfügbar sind, geht gegen Null. Wahrscheinlich schlicht wirtschaftlich zu riskant für den Speicherchiphersteller.
Thunder99
2018-07-03, 11:43:47
Okay.
Dann ist es ein Loto Spiel ob 8 oder 16GB. Nicht einmal 12GB werden wirklich genutzt außer bei extremen Settings.
Bei 256Bit kann ein Kanal nur doppelt bestückt sein für 16GB. Momentan wird man nur 8Gb fertigen. Unter den Umständen sind 8GB erheblich wahrscheinlicher.
AffenJack
2018-07-03, 12:18:08
Okay.
Dann ist es ein Loto Spiel ob 8 oder 16GB. Nicht einmal 12GB werden wirklich genutzt außer bei extremen Settings.
Bei einer Karte die schneller ist als die 1080Ti sind 8 GB für die Leute eher ein Abturner. Entweder kommt eine 16 Gb 1180 oder sowohl eine 8 und eine 16 GB 1180. Die Speicher für 16GB bei 256 Bit sind auch schon in Massenproduktion. Für irgendeine Karte wird man die also brauchen.
1170 dürfte dagegen wohl mit 8 Gb erscheinen, weil es sonst zu teuer wird.
Kehaar
2018-07-03, 12:35:26
Ich bleibe weiterhin der Meinung, dass die Menge an RAM nicht steigen wird. Aus verschiedensten Gründen (z.B. kein wirklicher Mitbewerber, neue "seltene" RAM-Sorte, bei 16 GB für die 1180 ... wieviel RAM müsste eine 1180ti haben ... und wie sieht es dann bei einer 1280 aus) ist jetzt der beste Zeitpunkt für eine "Ruhepause". Verkauft werden die neuen Karten über andere Gründe (Features, Energieverbrauch, Marketing).
Bei einer Karte die schneller ist als die 1080Ti sind 8 GB für die Leute eher ein Abturner. Entweder kommt eine 16 Gb 1180 oder sowohl eine 8 und eine 16 GB 1180. Die Speicher für 16GB bei 256 Bit sind auch schon in Massenproduktion. Für irgendeine Karte wird man die also brauchen.
1170 dürfte dagegen wohl mit 8 Gb erscheinen, weil es sonst zu teuer wird.
Ich denke nicht, dass das stimmt. Samsung kann 16Gbit-Chips produzieren, ohne Kunden tun sie das aber nicht. Momentan hat offenbar nur Micron GDDR6 wirklich in Produktion, weil das für NV einfach der billigste Partner sein wird. Es geht schlicht und ergreifend ums Geld bei der Nummer. Sicherlich werden auch die anderen RAM-Hersteller Chips liefern, wenn die Produkte mal im Fluss sind. Aber die Referenzdesigns sind erst mal Micron 14Gbps mMn.
Es sind auch damit 16GB möglich, ist die Frage, ob man das so umsetzt.
Thunder99
2018-07-03, 12:46:59
Gute Argumente. Meine Vermutung sind 8GB oder krumme Speicherbestückung da das Interface größer oder kleiner ist. Aber das wiederum beißt sich mit 12nm und ca. 3500 Shader :confused:
N0Thing
2018-07-03, 13:32:11
Leider fertigt diese krummen Speicherchips derzeit niemand *. Daher nur eine Theorie-Option.
* Vermutlich zu riskant, weil dann immer nur für eine Grafikkarte gedacht. Keine anderen Abnehmer, Bindung an ein einzelnes Produkt. Chance, das jemand krumme Speicherchips nachträglich nutzt, wenn sie erstmal verfügbar sind, geht gegen Null. Wahrscheinlich schlicht wirtschaftlich zu riskant für den Speicherchiphersteller.
Krumme Speicherchips? Ich dachte man könnte einfach Chips unterschiedlicher Größe auf einem Board nutzen, im Gegensatz zu GDDR5 und älter.
Leonidas
2018-07-03, 14:44:09
Chips unterschiedlicher Größen zu Nutzen scheint irgendwie nicht vorgesehen zu sein. Hat bis jetzt nie jemand getan. *
Krumme Speicherchips meint, das die Vielfache von 0,75GB groß sein können. Damit kann man dann ein 256-Bit-Interface auch mit 12 GB bestücken. So was baut nur keiner. Die Chips wären dann einzeln 6 GBit oder 12 GBit groß.
* Gab es mal bei der 550Ti (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-550-ti). Aber die hatte ein krummes 192 Bit Interface, ergo auch nicht das, was Du eigentlich meinst.
Hat jemand sowas überhaupt mal gesichtet? Beim Produktionsstart waren jedenfalls keine dabei.
Micron selbst führt 12Gb LPDDR4, für Smartphones sicherlich (4 Chips für 6GB), da sind auch GDDR-Chips jedenfalls nicht gänzlich unwahrscheinlich.
robbitop
2018-07-03, 15:21:28
Chips unterschiedlicher Größe wäre ungünstig. Wenn der VRAM Bedarf größer als die Kapazität der kleinsten VRAM Bausteine x Anzahl der Bausteine, verkleinert sich die Breite des wirksamen SIs auf die der Größeren Bausteine.
Sagen wir 4x 8 GBit und 4x 4 GBit Chips mischen. -> 2 GB @4GBit und 4 GB @8 GBit. -> 6 GB mit 256 bit SI.
Steigt der VRAM Bedarf über 4 GB ist das effektiv nutzbare SI für die letzten 2 GB nur 128 bit breit. Bandbreite sinkt.
Wenn schon, dann lieber "krumme" Größen pro BGA.
Beim Durchschauen für GDDR6 bin ich noch über folgendes gestolpert:
https://www.anandtech.com/show/12338/samsung-starts-mass-production-of-gddr6-memory
[...] and each chip now has two channels. By contrast, GDDR5/GDDR5X ICs feature a x16/x32 I/O config as well as one channel per chip. While physically GDDR6 chips continue to feature a 16-/32-bit wide bus, it now works differently when compared to prior generations (as it consists of two channels). [...]
Evtl. ist die Art der Anbindung ein Kostentreiber oder Problemherd.
Gouvernator
2018-07-03, 17:14:32
Okay.
Dann ist es ein Loto Spiel ob 8 oder 16GB. Nicht einmal 12GB werden wirklich genutzt außer bei extremen Settings.
Kingdom Come: Deliverance in 8k mit 8Gb unspielbar. 12Gb wären eigentlich Mindestmaß, 16Gb - optimal. Wenn es weniger als 12Gb geben wird, dann braucht man die Karte erst gar nicht zu kaufen. Der RAM würde überall limitieren. Sagt jetzt blos nicht 8K DSR wäre was extremes heutzutage. 16K DSR, ja. :D
Adam D.
2018-07-03, 17:19:36
Kingdom Come: Deliverance in 8k mit 8Gb unspielbar. 12Gb wären eigentlich Mindestmaß, 16Gb - optimal. Wenn es weniger als 12Gb geben wird, dann braucht man die Karte erst gar nicht zu kaufen. Der RAM würde überall limitieren. Sagt jetzt blos nicht 8K DSR wäre was extremes heutzutage. 16K DSR, ja. :D
Mit welcher Karte kriegst du das Spiel in 8k denn in spielbare Regionen? :freak:
Ex3cut3r
2018-07-03, 17:35:24
Sind nicht 16GB Overkill? Waren nicht krumme Speicherbestückung möglich seit GDDR5X?
Warum? Vlt. benutz man die Karte bis 2020? Und dann ist man froh wenn die PS5 kommt, und die Games wieder erhöhten VRAM brauchen....das kann ganz einfach passieren. 2013 war so ein Fall mit der PS4, wo quasi von gestern auf Morgen, 2GB einfach nicht mehr reichten.
Daredevil
2018-07-03, 17:40:21
Ich glaube ebenfalls nicht an 8GB bzw. schon, aber dann mit 16GB Version mit saftigem Aufpreis, Nvidia macht sich dadurch doch nur unnötig angreifbar, falls nächstes Jahr Karten mit mehr RAM kommen und irgendein Spiel bei 8GB limitiert. Zum Mining reicht 8GB aus, aber Grafikkarten stehen gerade eh nicht hoch im Kurs bei den großen...
Aber an sowas muss man sich halt klammern, wenn man Turing für 500€ sehen will. :>
Gouvernator
2018-07-03, 18:39:58
Mit welcher Karte kriegst du das Spiel in 8k denn in spielbare Regionen? :freak:
Shader/Schatten auf Low und es läuft noch mit 10-12 FPS auf GTX1080 in 6k, also DSR x3. Für 8k geht VRAM komplett aus. Mit Gamepad ist das Spiel schon mit 22-25 FPS gut spielbar für mich. Das sollte doch Turing locker packen?
Screemer
2018-07-03, 18:45:53
22-25fps? WTF?
Tesseract
2018-07-03, 19:40:12
Wenn schon, dann lieber "krumme" Größen pro BGA.
das wär äußerst seltsam, dann hätten die chips adresslöcher die der MC stopfen müsste indem er die adressräume teilweise überlagert.
nicht ganz passend, aber interessant um zu schauen was davon in Turing landet..
Volta Deep Learning Deep Dive:
https://www.anandtech.com/show/12673/titan-v-deep-learning-deep-dive
hasebaer
2018-07-04, 03:34:19
Ich bleibe weiterhin der Meinung, dass die Menge an RAM nicht steigen wird. Aus verschiedensten Gründen (z.B. kein wirklicher Mitbewerber, neue "seltene" RAM-Sorte, bei 16 GB für die 1180 ... wieviel RAM müsste eine 1180ti haben ... und wie sieht es dann bei einer 1280 aus) ist jetzt der beste Zeitpunkt für eine "Ruhepause". Verkauft werden die neuen Karten über andere Gründe (Features, Energieverbrauch, Marketing).
Seh ich genauso, es ist auch schlicht nicht realistisch das man dem Performance Chip 16GB spendiert, auch wenn dieser ggü. der 1080Ti 20% zulegen sollte.
Leonidas
2018-07-04, 04:38:15
1180 wird eine WQHD-Lösung. Dafür muß der Speicher kalkuliert werden. Denn 4K soll mit 1180Ti bedient werden.
16GB auf 1180 würde NV zu 24GB auf 1180Ti zwingen. Alles denkbar und sogar positiv - aber ist es auch wahrscheinlich?
Korvaun
2018-07-04, 07:46:43
nV hat schon immer geknausert was Speicher anging. Das ist aber nicht weiter verwunderlich, denn nV bringen Grakas für das "hier und jetzt", Zukunftssicherheit jenseits von 1-2 Jahren spielen da keine große Rolle. Also werdens 8GB GDDR6 für die 1180/1170, das reicht ja auch locker bis zur nächsten Konsolengeneration und bis 4K Standardauflösung für HighEnd-Grakas ist allemal...
Fragman
2018-07-04, 08:55:14
1180 wird eine WQHD-Lösung. Dafür muß der Speicher kalkuliert werden. Denn 4K soll mit 1180Ti bedient werden.
wenn das stimmt, impliziert das einige dinge.
zum einen, eben zu langsam fuer 4k, obwohl selbst die konsolen heute das thema hypen. das waer dann natuerlich ein lacher fuer amd.
und zum anderen, ohne 4k kann die karte nicht teuer sein. das behaupte ich dann einfach mal, da das 4k marketing nicht moeglich ist.
daher wird das marketing auf irgendwas anderes setzen muessen. extra rt power? wird das reichen, wenn konsolenports nicht in 4k laufen werden mit der karte?
Grendizer
2018-07-04, 09:00:21
1180 wird eine WQHD-Lösung. Dafür muß der Speicher kalkuliert werden. Denn 4K soll mit 1180Ti bedient werden.
16GB auf 1180 würde NV zu 24GB auf 1180Ti zwingen. Alles denkbar und sogar positiv - aber ist es auch wahrscheinlich?
WQHD 144 fps .. ansonsten reicht doch auch schon eine 1080 für WQHD sehr gut aus.
AffenJack
2018-07-04, 09:02:24
wenn das stimmt, impliziert das einige dinge.
zum einen, eben zu langsam fuer 4k, obwohl selbst die konsolen heute das thema hypen. das waer dann natuerlich ein lacher fuer amd.
und zum anderen, ohne 4k kann die karte nicht teuer sein. das behaupte ich dann einfach mal, da das 4k marketing nicht moeglich ist.
daher wird das marketing auf irgendwas anderes setzen muessen. extra rt power? wird das reichen, wenn konsolenports nicht in 4k laufen werden mit der karte?
Schon die 1080 wurde mit 4K beworben, ich würde Leos Aussage eher auf die reale Geschwindigkeit gemünzt sehen. Sogar ne 1080Ti ist nur mit Abstrichen 4K geeignet und eine vielleicht 10-15% schnellere 1180 wird da keinen großen Unterschied machen. Erst die 1180Ti wird eine richtige 4K Karte werden.
Eine echte 4k-Karte muss halt 4x soviel Rechenpower haben wie eine 1070 - bei heutigen Titeln wohlgemerkt.
BigKid
2018-07-04, 09:33:20
Eine echte 4k-Karte muss halt 4x soviel Rechenpower haben wie eine 1070 - bei heutigen Titeln wohlgemerkt.
Wo siehst du denn die 1070 als 1080p oder 1440p Karte ?
AffenJack
2018-07-04, 09:44:31
Eine echte 4k-Karte muss halt 4x soviel Rechenpower haben wie eine 1070 - bei heutigen Titeln wohlgemerkt.
Naja, ne 1060 ist schon ne 1080p Karte, bis auf einige Sonderfälle bei höchsten Einstellungen. Also eher in Richtung 4x davon und eine 1180Ti mit 1080Ti + 50% würde nicht weit davon landen.
robbitop
2018-07-04, 10:02:00
Ich halte es (zumindest als Variante!) nicht für unwahrscheinlich, dass es vorerst keine klassische neue vollständige Gen gibt, sondern ein Produkt was oberhalb der 1080ti angelegt wird. Also Turing mit 384 bit SI und >600sqmm (siehe Bringup Board - wobei das natürlich alles Mögliche sein kann...). Entsprechend würde er eingepreist. Komplett neue Gen dann in 7 nm.
Leonidas
2018-07-04, 10:07:58
Schon die 1080 wurde mit 4K beworben, ich würde Leos Aussage eher auf die reale Geschwindigkeit gemünzt sehen.
Ganz korrekt. Die Implikation mit dem Marketing habe ich nicht bedacht.
Ich halte es (zumindest als Variante!) nicht für unwahrscheinlich, dass es vorerst keine klassische neue vollständige Gen gibt, sondern ein Produkt was oberhalb der 1080ti angelegt wird. Also Turing mit 384 bit SI und >600sqmm (siehe Bringup Board - wobei das natürlich alles Mögliche sein kann...). Entsprechend würde er eingepreist.
Wurde hier schon mehrfach geäußert der Gedanke und hat was. Dagegen spricht (leider), das es zu viele Nennungen einer 1180 gibt, aber keine einer 1180Ti. Das Bring-Up-Board ermöglicht aber +50% auf 1080Ti, ist also eine 1180Ti wert, keine 1180. Oder aber NV will uns schocken ;)
Fragman
2018-07-04, 10:14:25
Wo siehst du denn die 1070 als 1080p oder 1440p Karte ?
aus eigener erfahrung, die 1070 ist eine 1080p karte. spiele zwar immer auf 1440p, aber man merkt schon, das der karte die puste ausgeht.
das heisst dann natuerlich, die 1080 ist eben ne whd karte, die ti auch.
das hier wurde schon diskutiert?
edit: ah ja sorry
Nvidia GTX 1180 mit GT104-Chipsatz zeigt sich versehentlich
Geschrieben von Jakob Ginzburg am 04/07/2018. Veröffentlicht in Grafikkarten, Hardware, News.
Entweder da war jemand zu voreilig oder es handelt sich nur um einen Platzhalter: In einem vietnamesischen Online Shop wurde die GTX 1180 gelistet und “bestätigte” damit, dass die kommende Grafikkarten-Generation auf dem GT104-Chipsatz basieren wird.
ROG STRIX GTX 1180 016G 16GB GGDR6 -12nm design
https://www.tomshw.de/2018/07/04/nvidia-gtx-1180-mit-gt104-chipsatz-zeigt-sich-versehentlich/
Timbaloo
2018-07-04, 10:27:43
Wurde hier schon mehrfach geäußert der Gedanke und hat was. Dagegen spricht (leider), das es zu viele Nennungen einer 1180 gibt, aber keine einer 1180Ti.
Wer sagt, dass das reingeschobene unbedingt eine 1180TI namentlich bedienen muss?
Ich könnte mir das so vorstellen, ein "GT103" in 12nm, Die irgendwo um die 500mm², 384Bit SI, 12GB. Damit hätte man die Problematik mit der wahrscheinlich-Nicht-Verfügbarkeit von 16GBit-Chips umgangen/verzögert. Die 1180TI würde dann erst mit 7nm bedient werden. Wobei dann bei letzterer die Frage nach sinnvoller Speicherbestückung wieder kommt, denn ebenfalls 12GB wären dann blöd weil nicht von der 1180 abgegrenzt.
So gesehen wäre ein 320Bit SI für so einen "GT103" gar nicht so blöd und würde auch in die Logik als Zwischending 104 < x < 102 passen.
Je mehr ich darüber nachdenke, desto sinnvoller klingt das :)
TheAntitheist
2018-07-04, 11:16:06
22-25fps? WTF?
unfassbar und dann meckern leute über konsolenspiele die nur mit 30 laufen.
Naja, ne 1060 ist schon ne 1080p Karte, bis auf einige Sonderfälle bei höchsten Einstellungen. Also eher in Richtung 4x davon und eine 1180Ti mit 1080Ti + 50% würde nicht weit davon landen.
Das ist aber hart auf Kante gebaut bei heutigen Titeln. Die 1070 ist schon optimal für 1080p momentan. Man möchte ja auch ein bisschen Luft nach oben. Also braucht eine ideale 4k Karte für heutige Titel ca. 25TFLOPs bei gleicher Effizienz. Es ist also vollkommen klar, dass auch mit der 1180ti für 4k Kompromisse eingegangen werden müssen. Was ist für eine 1080ti zu erwarten? 16-17 TFLOPs vllt. Das ist eben genauso hart auf Kante, wie eine 1060 bei 1080p heute.
robbitop
2018-07-04, 11:28:58
Wurde hier schon mehrfach geäußert der Gedanke und hat was. Dagegen spricht (leider), das es zu viele Nennungen einer 1180 gibt, aber keine einer 1180Ti. Das Bring-Up-Board ermöglicht aber +50% auf 1080Ti, ist also eine 1180Ti wert, keine 1180. Oder aber NV will uns schocken ;)
Es müsste in dem Fall ja nicht zwangsweise ein Ti sein. Die zweite Zahl in der Nummer ist größer. Außerdem sind Namen manchmal Schall und Rauch.
Andererseits könnte man ein Produkt oberhalb von GP102 (wenn es darunter keine neuen gäbe) auch als Titan vermarkten. Das spricht widerum dagegen...
edit:
mh die 1080, die mit 16 GB gelistet ist, spricht absolut dagegen, dass das Bringupboard etwas damit zu tun hat. Das war ja 384 bit und nicht 256 bit...
Eine GT104 mit 256 bit und 4xx mm² in 12 nm kann gar nicht so viel schneller als GP102 sein. Würde mich dann nicht hinter dem Ofen hervorlocken... :(
Das ist aber hart auf Kante gebaut bei heutigen Titeln. Die 1070 ist schon optimal für 1080p momentan. Man möchte ja auch ein bisschen Luft nach oben. Also braucht eine ideale 4k Karte für heutige Titel ca. 25TFLOPs bei gleicher Effizienz. Es ist also vollkommen klar, dass auch mit der 1180ti für 4k Kompromisse eingegangen werden müssen. Was ist für eine 1080ti zu erwarten? 16-17 TFLOPs vllt. Das ist eben genauso hart auf Kante, wie eine 1060 bei 1080p heute.
Das ist wie immer eine Frage, welche Titel, welches Quality Preset und welches Frametarget gewählt werden.
Meine 1080ti hatte bspw in den von mir präferierten Spielen keine Probleme in 4K60 mit G-Sync. In 1440p schafft sie oft 3x stellige fps oder auch knapp diese.
Meine GTX970 im 2.PC befeuert problemlos einen 1080p Bildschirm und schaffte zuvor auch 1440p wenn man die Qualität ein wenig runterdreht. (gibt ja häufig Qualitätseinstellungen, die überproportional viel Performance kosten aber kaum mehr BQ bringen...)
Es gibt sicher auch Spiele und Frametargets, bei denen GP102 bei 1080p für manche grenzwertig ist. So verschieden sind die Ansprüche und Anwendungen. :)
Insofern ist diese Diskussion müßig.
basix
2018-07-04, 12:06:41
Man kann es so formulieren: Eine 4k Sorglos-Karte ist die 1080 Ti nicht. Je nach Spiel und Qualität-Settings sind die Frameraten <40fps. Eine 1080 Ti +50% würde dem Sorglospaket schon recht nahe kommen und 1080 Ti +100% wäre dann wirklich vollumfänglich 4k fähig mit gleichzeitig hohen Bildraten konstant >60fps. Will man 120fps würde es ebenfalls schon sehr oft reichen.
Swissr
2018-07-04, 12:38:39
Gab es nicht Gerüchte dass das Namensschema sowieso anders aussieht?
Vielleicht wird das ja jetzt ähnlich zum damaligen GTX260, GTX275, GTX 280, GTX 285, GTX 295 Schema..?
Somit könnte die nächste Variante eine 16GB 280er Pendant darstellen, mit einem deutlich erhöhten Preispunkt als Abgrenzung zur nächstkleineren 260er mit 8 Gbyte Speicher. Dann würden wiederum 16 Gbyte Speicher passen. Und irgendwann später werden dann die 275 (wie mit der 1070TI passiert, die hat das bisherige Konzept bereits aufgeweicht aber von den Geschwindigkeiten her nicht wirklich gepasst) sowie 285 Pendants rausgebracht, die sich dann harmonisch in die Zwischenräume schieben, bzw. im Fall der 285er (leicht) die Grenze weiter nach oben schieben, ohne mehr als 16Gbyte Speicher zu benötigen.
N0Thing
2018-07-04, 12:41:29
Die letzten Gerüchte (Lenovo Mitarbeiter?) sprachen von einer GTX 1180.
Troyan
2018-07-04, 12:45:19
Und GTX1160: https://www.computerbase.de/2018-07/lenovo-y530-geforce-gtx-1160/
Daredevil
2018-07-04, 12:45:39
Das sind Gerüchte, die aber ebenfalls auf Gerüchten hätten basieren können.... irgendwie muss man eine Karte bei der Präsi ja nennen.
Darauf ist doch kein Verlass, wenn man Gerüchte als Gerücht präsentiert und weil es ein anderer sagt, dann auf einmal glauben schenkt. :D
Swissr
2018-07-04, 12:50:23
Pah, das halte ich jetzt für ein Gerücht :freak:
Daredevil
2018-07-04, 12:54:49
Apropo Micron Speicher und GDDR6.
Patentverfahren: China verbietet nach Klage Einfuhr von Chips von Micron
https://www.computerbase.de/2018-07/patent-umc-micron-dran-nand-flash/
Mhm.... ob das wohl Einfluss auf Turing hat? ;(
BlacKi
2018-07-04, 14:52:08
Man kann es so formulieren: Eine 4k Sorglos-Karte ist die 1080 Ti nicht. Je nach Spiel und Qualität-Settings sind die Frameraten <40fps. Eine 1080 Ti +50% würde dem Sorglospaket schon recht nahe kommen und 1080 Ti +100% wäre dann wirklich vollumfänglich 4k fähig mit gleichzeitig hohen Bildraten konstant >60fps. Will man 120fps würde es ebenfalls schon sehr oft reichen.
ihr müsst den faktor zeit mit reinnehmen, eine 290 war auch mal eine wqhd karte. dasselbe gilt für die speicher bestückung. manchmal war der speicher hart auf kannte ausgelegt, hat aber eigentlich bis zu next gen immer gerade so gereicht. das wäre mit 8gb niemals der fall! deshalb können 8gb für die 1180 nicht sein! 12gb wäre schon das minimum für die nächsten 2 jahre. ich gehe aber von 16gb aus, da bei nv die ca. letzten 5 gens immer die speichermenge verdoppelten und 2020 auch gebraucht werden.
ich wäre persönlich von NV enttäuscht wenn es anders käme.
Thunder99
2018-07-04, 20:42:22
Warum? Vlt. benutz man die Karte bis 2020? Und dann ist man froh wenn die PS5 kommt, und die Games wieder erhöhten VRAM brauchen....das kann ganz einfach passieren. 2013 war so ein Fall mit der PS4, wo quasi von gestern auf Morgen, 2GB einfach nicht mehr reichten.
Schön wäre es, aber welche Karte bei NV hat das in der Vergangenheit erfüllt außer die überteuerten Titans? Bisher hat nur AMD recht großzügig Speicher verbaut.
Bei 256bit machen aber in der Tat nur 16GB Sinn, da mit 8GB die Karte schon knapp bemessen wäre. Eine weitere G?102 Karte mit 12GB wäre mehr als Lächerlich, nach Maxwell und Pascal mit jeweils 12GB (selbst bei der Titan)
vinacis_vivids
2018-07-04, 20:58:57
Die Daten für GT102 stehen doch schon fest:
5376/5120SP ~ 676mm² 12nm
384/352bit SI, 14-16Gbps
12/11GB, 616-768GB/s
Ebefalls die von GT104
3840/3584SP ~ 400mm² 12nm
256bit SI, 14-16Gbps
8GB, 448-512GB/s
GT104 wird längere Balken zeigen als GP102, falls der Speicher nicht limitiert. Und da alle auf Balkenlänge schauen, wird das nicht weiter auffallen.
Ex3cut3r
2018-07-04, 22:17:19
Schön wäre es, aber welche Karte bei NV hat das in der Vergangenheit erfüllt außer die überteuerten Titans? Bisher hat nur AMD recht großzügig Speicher verbaut.
Bei 256bit machen aber in der Tat nur 16GB Sinn, da mit 8GB die Karte schon knapp bemessen wäre. Eine weitere G?102 Karte mit 12GB wäre mehr als Lächerlich, nach Maxwell und Pascal mit jeweils 12GB (selbst bei der Titan)
Wieso? Die 1070 und die 1080 haben 2016 8GB bekommen, das war doch vollkommen mehr als ausreichend.
Thunder99
2018-07-04, 22:26:54
Wieso? Die 1070 und die 1080 haben 2016 8GB bekommen, das war doch vollkommen mehr als ausreichend.
Nur weil 4GB da definitiv zu wenig waren, siehe Fiji. Ansonsten hatte NV immer weniger RAM, was aber auch daran lag, das AMD >256bit hatte
Rampage 2
2018-07-04, 22:41:31
Welche Spiele sprengen bei welcher Auflösung (1080p/1440p/4K) schon jetzt 8GB VRAM? Gibt's da schon eine nennenswerte Anzahl und was kann man für die nahe Zukunft (1-2 Jahre) prognostizieren?
R2
Nazar
2018-07-04, 23:08:18
Welche Spiele sprengen bei welcher Auflösung (1080p/1440p/4K) schon jetzt 8GB VRAM? Gibt's da schon eine nennenswerte Anzahl und was kann man für die nahe Zukunft (1-2 Jahre) prognostizieren?
R2
DCS schafft das mehr als easy und schon ab 1440. Ab 4K werden sogar 12 GB knapp, je nach Einstellung.
Du musst nur die "richtige" Anwendung haben und schon ist Ende im Gelände mit dem VRAM.
Alles unter 12GB VRAM fände ich schlecht, da ich jetzt schon für das Jahr 2020 kaufen würde und da wird es nicht "besser" mit dem VRAM Verbrauch.
Ich verstehe auch solche Fragen nicht wirklich. Warum fragen Leute immer wieder was jetzt akut ist für Dinge, die auch in der Zukunft Auswirkung haben werden und die Ansprüche bisher in der Zukunft immer größer wurden. Also warum sollte das nun plötzlich anders sein?
Diese Art von Frage hatten wir doch bei der VRAM Debatte zur 1070 schon zu Genüge oder etwa nicht? Und, was kam dabei raus? 3,5 GB sind genug? Das glaube ich nicht Tim. :wink:
Adam D.
2018-07-04, 23:43:21
Der letzte große Anstieg von VRAM-Bedarf war beim Wechsel der Konsolengenerationen. Bis PS5 und co. kommen, wird da nicht mehr viel passieren. Zudem werden einfach immer schlecht optimierte Titel herangezogen, um irgendwelche absurden VRAM-Anforderungen zu rechtfertigen. Guckt euch doch den Test in der PCGH an, die Fälle, wo 8GB VRAM bis 4k limitieren, sind rar gesät.
Klar würde ich mehr auch gerne nehmen (insbesondere wenn eine 1180 irgendwie bei 700+€ landet), aber die Untergangsszenarien, die manche hier wieder heraufbeschwören, sind lolz. :ulol:
Leonidas
2018-07-05, 06:46:36
Und GTX1160: https://www.computerbase.de/2018-07/lenovo-y530-geforce-gtx-1160/
Damit kann man es als sicher betrachten, das eine komplette Serie kommt. Möglicherweise hat Lenovo noch keine finalen Angaben von NV und möglicherweise haben sie selber nur auf Basis ungenauer Angaben hochgerechnet - sprich, die Grafikkarten-Namen könnten seitens Lenovo selber erfunden sein. Aber die Basis dessen ist Minimum, das sie von NV über die Existenz der zugrundeliegenden Chips informiert wurden.
Schön wäre es, aber welche Karte bei NV hat das in der Vergangenheit erfüllt außer die überteuerten Titans?
Kaum eine. NV war immer recht knapp.
Der letzte große Anstieg von VRAM-Bedarf war beim Wechsel der Konsolengenerationen. Bis PS5 und co. kommen, wird da nicht mehr viel passieren:
Gutes Argument. In der Tat ist kaum zu erwarten, das jetzt nochmals ein ganz großer Speicherbedarf seitens neuer Spiele im Jahr 2019 kommt.
dargo
2018-07-05, 09:17:20
Der letzte große Anstieg von VRAM-Bedarf war beim Wechsel der Konsolengenerationen. Bis PS5 und co. kommen, wird da nicht mehr viel passieren. Zudem werden einfach immer schlecht optimierte Titel herangezogen, um irgendwelche absurden VRAM-Anforderungen zu rechtfertigen. Guckt euch doch den Test in der PCGH an, die Fälle, wo 8GB VRAM bis 4k limitieren, sind rar gesät.
In der Regel sind das Titel mit schlechtem Streaming, im schlimmsten Fall gar keinem Streaming. :freak:
MartinRiggs
2018-07-05, 09:22:03
Ja aber bei unspielbaren 6K ging den 8GB Grafikkarten oft der Speicher aus ;D
Ich denke auch das man mit 8GB noch gut leben kann, scheiss programmierte Spiele gibt es halt leider immer wieder.
dargo
2018-07-05, 09:38:39
22-25fps! 111elf X-D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11737340&postcount=1959
Der_Korken
2018-07-05, 09:46:22
Man sollte vor allem auch gucken, ob die höchste Texturstufe bei den kritischen Titeln überhaupt noch höher aufgelöste Texturen verwendet oder ob da einfach nur die Kompression abgeschaltet wird. So kriegt man den VRAM natürlich leicht zugemüllt. Dennoch wären 8GB imho zu wenig für eine 1180. Wir reden schließlich von einer vermutlich >700€-Karte, da darf man schon erwarten, dass da keine Sollbruchstellen eingebaut sind.
Daredevil
2018-07-05, 10:00:12
Tja, was würdest du denn machen?
8GB sind zuwenig, 16GB zu teuer.
Entweder bietest du also dein 8GB Modell günstiger an und der Kunde kann entscheiden, ob er mehr möchte und automatisch zur Ti Version gezwungen wird oder man bietet die kleinere Karte mit 12/16GB an und die Karte wird soviel teurer, dass der Kunde gar nicht zu dieser greift, weil seine 1080/1080ti ein bessere Preis/Leistungs Niveau hat. Der denkt sich dann nämlich "eigentlich reichen mir ja momentan noch 8/11 GB aus".
Dann wird das "zu wenig" ganz schnell zu einem "reicht aber noch".
An VRAM Knappheit leiden wir aktuell nun einmal nicht, niemand ist ja gezwungen, sich die neuen Modelle sofort!!1elf kaufen zu müssen weil die alte Generation dann sofort Elektroschrott ist.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.