PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Triniter
2018-07-18, 11:26:48
Wusste man vor Pascal eigentlich auch so wenig?

vinacis_vivids
2018-07-18, 11:53:47
Sobald die Kurse bei den Cryptos wieder höher sind, wird auch die Nachfrage nach GPUs aus dem Miningsektor wieder ansteigen. Viele Miner warten aktuell auf Turing, weil sie dadurch die sehr schlechten Miningerträge verbessern können. Sollte Turing das halten, was sich viele Miner versprechen, wird dieser wohl schlecht verfügbar sein und teuer werden. Wenn Nvidia noch die Bestellung für Turing-Chips an den aktuellen Nachfragerückgang anpasst, wird es genau so scheisse wie letztes Jahr und Anfang dieses Jahres werden.

https://abload.de/img/screenshot_2018-07-18m2sn6.png

Das mit dem Mining ergibt gar keinen Sinn. Eher kauft man die jetzige Generation billig ein und mined dann in der vorübergehenden Verlustzone weiter statt (inaktiv) auf die neue Generation zu warten, die aber keinesfalls berauschend ist.

Thunderburne
2018-07-18, 12:00:39
Wenn Turing jetzt tatsächlich in 12nm kommt und die 7 nm-Fertigung nicht mehr sooo weit entfernt ist, ist für mich fraglich, ob eine Titan demnächst und eine TI ein halbes Jahr (?) danach überhaupt noch Sinn macht.
Ich sehe da höchstens kleine Gpus.
(TSMC ist auf dem richtigen Weg, HVM mit seiner 7-nm-EUV-Prozesstechnologie Mitte 2019 zu starten.)

Lehdro
2018-07-18, 14:28:58
Das mit dem Mining ergibt gar keinen Sinn. Eher kauft man die jetzige Generation billig ein und mined dann in der vorübergehenden Verlustzone weiter statt (inaktiv) auf die neue Generation zu warten, die aber keinesfalls berauschend ist.
Gibt ja anscheinend nur Monero Mining. ETH (gerade mit der Pille), Equihash, X16r und wie sie nicht alle heißen sind ja mal sowas von irrelevant...:freak:
Monero ist übrigens einer der wenigen Algorithmen bei dem AMD überhaupt noch nennenswerte Vorteile bietet. Seit der Pille für ETH dominiert hier NV nach belieben die Charts (bis zur 1070 waren sie vorher schon mehr als konkurrenzfähig, jetzt erst recht bei GDDR5X), während primär rechenintensive Algos generell auf NV abfahren.

Ansonsten kannst du derzeit eh nicht "billig" die aktuelle Generation kaufen, die wird immer noch überteuert verkauft, besonders die für das Mining relevanten Karten. Jetzt in die alte Gen fürs Mining zu investieren ist ungefähr so sinnvoll wie jetzt einen deutschen Diesel zum Listenpreis zu erwerben. Sobald die neue Generation rauskommt wird sie die alte pulverisieren - entweder nur bei H/s je W oder auch bei H/s insgesamt und H/s je W gleichzeitig. Die Effizienz muss durch den Fertigungsvorsprung zwangsläufig höher ausfallen, das war bei jeder nachfolgenden Generation in der Vergangenheit ebenfalls so. Wüsste nicht wieso sich das gerade jetzt ändern sollte, Effizienz hat bei NV seit Fermi Priorität. Ob sich das ganze dann im Einzelfall beim Miningeinsatz "lohnt" hängt dann nur noch vom Kaufpreis ab, da NV hier aber eh keine Preislagen forcieren wollen wird die die Miner abschrecken versteht sich von selbst: Die Miner waren auch zu Zeiten absurd übertriebener Preise von GPUs noch bereit mehr zu zahlen als der normale 08/15 Gamer... Hohe Preislagen schaden daher primär dem Gamermarkt, also sollte sich NV bemühen einfach nur genügende Stückzahlen in den Einzelhandel zu liefern um die Nachfrage zu stillen OHNE das die Preise erneut explodieren.

Ex3cut3r
2018-07-18, 15:57:16
Wäre toll, wenn für Gaming Karten ab Turing, eine Mining Bremse eingebaut wäre, ich halte nix von Mining wünsche alllen Minern auch nicht, nur gutes. ;)

Der_Korken
2018-07-18, 16:23:41
Wäre toll, wenn für Gaming Karten ab Turing, eine Mining Bremse eingebaut wäre, ich halte nix von Mining wünsche alllen Minern auch nicht, nur gutes. ;)

Ich wüsste nicht wie das gehen soll. Mining-Algorithmen bestehen ja auch nur aus Code, der auf der Karte ausgeführt wird. Wie willst du den von gewöhnlichem Compute-Code unterscheiden? Ich glaube, dass die GPU-Hersteller keinen Bock auf ein Wettrüsten haben, denn die Miner werden, sobald eine solche Sperre kommt, die Algorithmen so ändern, dass die Sperre ausgetrickst wird.

Thunder99
2018-07-18, 16:33:13
Jede verkaufte Karte ist doch gut (aus Sicht von GPU den Herstellern) ;)

Thunderburne
2018-07-18, 16:44:52
Ich wüsste nicht wie das gehen soll. Mining-Algorithmen bestehen ja auch nur aus Code, der auf der Karte ausgeführt wird. Wie willst du den von gewöhnlichem Compute-Code unterscheiden? Ich glaube, dass die GPU-Hersteller keinen Bock auf ein Wettrüsten haben, denn die Miner werden, sobald eine solche Sperre kommt, die Algorithmen so ändern, dass die Sperre ausgetrickst wird.
Warum sollte NV das auch wollen?
Die wollen Geld verdienen und werden sicherlich für Mining keine Separte Sparte eröffnen.
Die Fanbase ist so riesig.. da nimmt man alles mit.

Wenn es nicht gefällt bleibt einem noch die Konsole.

=Floi=
2018-07-18, 17:50:11
Ich glaube, bei NV dürfte sich eine ganze Abteilung damit beschäftigen, exakt diesen Punkt herauszufinden. Für NV ist hier jeder Dollar mehr absoluter Reingewinn, ohne Risiko eines Wettbewerbs. Den führt man derzeit nur gegen sich selbst.


so einfach sehe ich es dann aber auch nicht. Die konkurrenz sind die konsolen. wer nicht bereit ist viel geld auszugeben kauft sich gleich eine konsole!
Intel hätte ja auch der kleinen platform auch teurere prozessoren bringen können und endet seit gefühlt 10 jahren dort bei 350€


Die höheren kosten kommen ja auch hinzu. nicht pro einheit, sondern weil das volumen an vram steigt. Chips werden teurer und auch beim yield muss man sich von den traumwerten wohl verabschieden.
Es müsste direkter kommuniziert werden, dass die kosten auch steigen.

Godmode
2018-07-18, 17:58:07
Gibt ja anscheinend nur Monero Mining. ETH .....

Besser hätte ich es auch nicht schreiben können.

Digidi
2018-07-18, 18:03:34
Leute Leute. Nvidia tut zwar im Vordergrund so daß sie gegen Miner sind. Aber jedes wirtschaftliche Unternehmen der Welt wird jeden Kunden dankend annehmen. Erst Recht wenn er massig Stückzahlen abnimmt und ordentlich Zahlt, auch wenn es nur für kurze Zeit ist.

=Floi=
2018-07-18, 18:19:04
Es verwundert aber schon, dass es zu dem thema keine treiberoptimierungen gibt oder echte mining/HPC/GPGPU gpus aufgelegt werden. Mich wundert es einfach, warum man bei dem thema die 3d fähigkeit mitschleppt.
Solche karten würde man auch nicht nur an die miner verkaufen können.


Umgedreht gefragt, warum braucht volta 3D?

AffenJack
2018-07-18, 19:02:45
Umgedreht gefragt, warum braucht volta 3D?

Er braucht kein 3D. Aber es ist wohl schlicht billiger eine Architektur zu haben, die für Gaming und Compute adaptiert wird, als eine wirklich 2te Architektur nur für Compute zu entwickeln. Wenn der Effekt des 3d-Ballasts so gering ist, dass es sich nicht lohnt diesen zu entfernen, dann bleibt er einfach drin.

horn 12
2018-07-19, 06:45:50
https://wccftech.com/nvidias-next-gen-11-series-turing-gpus-driving-record-revenue-growth-for-tsmc-through-q4/

Quartal 4 Release und womöglich erst Oktober somit

Rsioux
2018-07-19, 07:33:23
https://wccftech.com/nvidias-next-gen-11-series-turing-gpus-driving-record-revenue-growth-for-tsmc-through-q4/

Quartal 4 Release und womöglich erst Oktober somit

Wo steht da im Text was von einem Release im Oktober?

Customs im September 2018. Das 4. Quartal bezieht sich auf den Gewinn / Umsatz bei TMSC

horn 12
2018-07-19, 07:35:59
Lieferbar, es ist fast August und komplett still um Turing
Auch Igor meldet sich nicht zu Wort, da muss es womöglich doch am Speicher happern…

MasterElwood
2018-07-19, 07:43:01
Leute Leute. Nvidia tut zwar im Vordergrund so daß sie gegen Miner sind. Aber jedes wirtschaftliche Unternehmen der Welt wird jeden Kunden dankend annehmen. Erst Recht wenn er massig Stückzahlen abnimmt und ordentlich Zahlt, auch wenn es nur für kurze Zeit ist.

Sowas ist aber nicht NUR positiv für ein Unternehmen. Weil erstens bekommst du Probleme mit Anlegern weil Mining die Quartalsergebnisse verfälscht - und zweiten überschwemmt Mining beim abflauten den Markt immer mit Gebrauchtkarten.

Lehdro
2018-07-19, 08:26:22
[...] und zweiten überschwemmt Mining beim abflauten den Markt immer mit Gebrauchtkarten.
Der war gut. Ich sehe keine Gebrauchtkartenschwemme, und du?

Die Gebrauchtkartenschwemme gibt es nur wenn zuviel Angeboten wird (derzeit definitiv nicht der Fall) und es daher günstig ist ein kleines Upgrade innerhalb der Generation zu machen (zb 1060 -> 1080) oder wenn eine neue Generation kommt die sich lohnt. Mit der Schwemme müssen wir also noch warten bis zumindest einer der Faktoren eintritt. Sonst hast du aber völlig recht.

Hübie
2018-07-19, 08:49:39
https://wccftech.com/nvidias-next-gen-11-series-turing-gpus-driving-record-revenue-growth-for-tsmc-through-q4/

Quartal 4 Release und womöglich erst Oktober somit

Das ist eigentlich eine Verwurstung der News von Digitimes (https://www.digitimes.com/news/a20180716PD211.html).
Wie du da jetzt schlußfolgerst, Turing käme erst im Oktober musst du uns mal eben darlegen. :rolleyes:

Zum Artikel: Apples A12, HiSilicons Kirin 980 und NVIDIAs Turing werden als Treiber für steigenden Umsatz genannt. Diese Information kann man nun bunt malen und sich was zusammenreimen (Turing=7nm:confused:).
Heute ist TSMCs investor meeting. Mal sehen ob man da Kaffeesatz lesen kann. :D

y33H@
2018-07-19, 12:33:20
Investor Meeting heute?

vinacis_vivids
2018-07-19, 13:03:39
Das ist eigentlich eine Verwurstung der News von Digitimes (https://www.digitimes.com/news/a20180716PD211.html).
Wie du da jetzt schlußfolgerst, Turing käme erst im Oktober musst du uns mal eben darlegen. :rolleyes:

Zum Artikel: Apples A12, HiSilicons Kirin 980 und NVIDIAs Turing werden als Treiber für steigenden Umsatz genannt. Diese Information kann man nun bunt malen und sich was zusammenreimen (Turing=7nm:confused:).
Heute ist TSMCs investor meeting. Mal sehen ob man da Kaffeesatz lesen kann. :D

"In addition, shipments for Nvidia's new-generation GPUs will play another driver of TSMC's revenue growth in the fourth quarter, the sources identified."

Nvidia spielt also eher eine Nebenrolle bei TSMC, weil ganz unten steht "TSMC raming up 7nm chip output for smartphones" und es ist nicht anzunehmen, dass Nvidia`s neue GPU-Generation fürs smartphone bestellt ist.

Dural
2018-07-19, 13:14:34
Ja wird sicher nicht der rede sein, ist ja nicht so das es seit zwei jahren nichts neues mehr gab und AMD im gaming bereich quasi nicht mehr vorhanden ist. Und die minning kunden haben sicherlich überhaupt kein interesse an effzienterer hardware.

Hübie
2018-07-19, 13:24:46
Investor Meeting heute?

Sagt der Kalender: http://www.tsmc.com/english/investorRelations/financial_calendar.htm

vinacis_vivids
2018-07-19, 13:26:48
@Dural
Nvidia hat doch erst Titan V rausgebracht (ja Gaming geht damit).
Fürs Mining gabs erst GTX1080Ti (3200SP) mit 5GB(400GB/s) Speicher oder GP106-6G.

AffenJack
2018-07-19, 13:33:49
Es ist so langweilig hier, wie wäre es mit den ersten wahrscheinlichen Fakes?

http://static.frazpc.pl/board/2018/07/28aa94ce9e534039.jpg
https://forums.overclockers.co.uk/threads/gtx-1180-leaked.18819430/page-61#post-31971097

So haben wir immerhin etwas zu diskuttieren :-)
Ich glaube ja nicht dran, weil der GPU-Takt einfach zu hoch ist.

Thunder99
2018-07-19, 13:37:51
Warum nicht? Chip bis zur Kotzgrenze getaktet und Basis Takt 2GHz ;D

HOT
2018-07-19, 13:40:16
Da gäbe es 2 Möglichkeiten:
a.) doch 7nm
b.) sehr viel mehr auf Takt optimiert. Dann sollte man aber weniger zusätzliche SMs erwarten.

pilzsammler2002
2018-07-19, 13:40:36
Zukünftiges Zitat:
"Alle unsere Chips schaffen locker 2,5ghz!!!11" :freak:

y33H@
2018-07-19, 13:43:13
Nvidia hat ein paar interessante Design-Entscheidungen getroffen.

AffenJack
2018-07-19, 13:51:28
Nvidia hat ein paar interessante Design-Entscheidungen getroffen.

Igor meinte ja schon, dass irgendwas bei den clocks verändert wurde. Also doch return of the hot clock? Aber gut schonmal, dass du anscheinend etwas weißt. Das zeigt auch nochmal, dass der Release näher rückt :biggrin:

Adam D.
2018-07-19, 13:51:38
Nvidia hat ein paar interessante Design-Entscheidungen getroffen.
Das hat AMD auch, das muss leider überhaupt nix heißen :freak::tongue:

y33H@
2018-07-19, 15:32:19
Sagt der Kalender: http://www.tsmc.com/english/investorRelations/financial_calendar.htmDa steht Q2 Earnings Call, das ist doch kein Investor Meeting.

Dural
2018-07-19, 15:42:03
Also ich wäre von NV sehr enttäuscht wenn die im Herbst eine neue Generation GPUs in 12nm kurz vor der 7nm Fertigung bringen sollten.

Auf 7 nm setzt TSMC sehr große Stücke, und nennt es selbst den Prozess, der am schnellsten in so einer großen Kapazität hochgefahren wurde
https://www.computerbase.de/2018-07/foundry-tsmc/

Adam D.
2018-07-19, 15:49:48
Also ich wäre von NV sehr enttäuscht wenn die im Herbst eine neue Generation GPUs in 12nm kurz vor der 7nm Fertigung bringen sollten.


https://www.computerbase.de/2018-07/foundry-tsmc/
Ja aber was sollen sie denn machen? Kann ja gut sein, dass Nvidia überrascht ist von der guten 7nm-Prozessentwicklung, nur wirft man dann halt nicht ein gesamtes Design über Bord. Der A12 wird der erste 7nm-SoC sein, da müsste TSMC schon ein Wunderwerk vollbracht haben, wenn gleichzeitig eine ~300mm2-GPU mit guten Yields vom Band laufen sollte.

dildo4u
2018-07-19, 15:52:25
Für ARM Chips geht der Umstiegt leicht das ist klar,für Monster Chips wie High-End GPUs oder 28 Cores CPU sieht das ganz anders aus.
Bei Intel wir spekuliert das 10nm für die großen Dies z.b erst 2020 kommt.

https://www.3dcenter.org/news/intel-roadmap-zeigt-ice-lake-erst-im-vierten-quartal-2019-sowie-cooper-lake-als-cascade-lake-na

AffenJack
2018-07-19, 15:54:24
Jupp, es bringt Nvidia gar nix, wenn Apple und QC ~80mm² SoCs produzieren können. Man muss schon mindestens auf 200 mm² kommen um überhaupt das 256 Bit Interface einbauen zu können und deshalb muss da auch die Yield für stimmen.

Dural
2018-07-19, 15:55:29
Die wissen genau wie gut oder schlecht der 7nm Prozess ist. Zudem TSMC schon vor gut einem Jahr öffentlich gesagt hat das 7nm bis jetzt gut im Zeitplan liegt und gut läuft.

Die grosse Frage ist nach wie vor immer noch wie so Turing wirklich verschoben wurde, ob wir die Warengründe jemals erfahren werden steht noch in den Sternen.

mironicus
2018-07-19, 16:23:16
Ist der Chip so hoch getaktet bedeutet das wahrscheinlich das die GPU nicht so großflächig sein wird wie angenommen.

=Floi=
2018-07-19, 16:51:40
Igor meinte ja schon, dass irgendwas bei den clocks verändert wurde.

aber nicht am chip. Das mit den clocks bezog sich auf die anschlüsse.
die hot clocks geschichte war spass und jeder ging da mit, weil es ganz lustig war! :freak:

hot clocks werden wir so wohl nicht mehr sehen. eventuell mal mit dem boost variable taktdomänen, aber direkt wird es sicher keine mehr geben. Das braucht zu viel strom, weil man den chip aus dem sweetspot schiebt.



edit
auch wenn die gpus größer sind, kann man die yielt durch das abschalten defekter teile dort nicht erheblich steigern im vergleich.
Bei SOCs gibt es nicht so viel doppelt!

x-force
2018-07-19, 16:57:35
hot clocks werden wir so wohl nicht mehr sehen. eventuell mal mit dem boost variable taktdomänen, aber direkt wird es sicher keine mehr geben. Das braucht zu viel strom, weil man den chip aus dem sweetspot schiebt.

was mangels konkurrenz egal ist.
da wird die size optimiert, weil das kosten spart.

Hübie
2018-07-19, 16:59:10
Da steht Q2 Earnings Call, das ist doch kein Investor Meeting.

Ich hatte das aus dem Text auf digitimes und habe nur aufs Datum geschaut. Mea culpa. Journalisten at it's best (nichts für ungut ;D).

=Floi=
2018-07-19, 17:19:37
was mangels konkurrenz egal ist.
da wird die size optimiert, weil das kosten spart.

Und genau da ist der witz den gesamten chip schneller zu takten! Seit dem ende der hot clock domain optmierte man den ganzen chip auf takt.
ROPs, TMUs und Shader, _alles_ läuft schneller und bringt mehr durchsatz.

HOT
2018-07-19, 17:24:17
Die werden a.) große Mengen bestellt haben und b.) ordentlich latzen für 12FFN in dem Ausmaß, in dem da Chips bestellt worden sind, damals noch mit dem Mining im Hinterkopf. 7nm scheidet gänzlich aus, da bis auf Qualcomm und Apple und ein paar AMD-CPUs bis 2019 keine Kapazität für NVs große Ansprüche da sein wird.

Thunder99
2018-07-19, 17:25:38
Wenn Vega in 7nm erscheint ist es nicht unwahrscheinlich dass Nvidia es auch macht mit Turing.

x-force
2018-07-19, 17:29:10
Und genau da ist der witz den gesamten chip schneller zu takten! Seit dem ende der hot clock domain optmierte man den ganzen chip auf takt.
ROPs, TMUs und Shader, _alles_ läuft schneller und bringt mehr durchsatz.

wenn man von vornherein darauf designed.
was jetzt bei der eingesetzten fertigung optimal ist, können wir schlecht wissen.

am ende ist es für leistung/fläche das beste, wenn jede recheneinheit an ihrem maximum operiert. glaubst du alle verbauten transistoren auf dem die schalten gleich schnell?

Adam D.
2018-07-19, 17:31:22
Wenn Vega in 7nm erscheint ist es nicht unwahrscheinlich dass Nvidia es auch macht mit Turing.
Jetzt lasst endlich mal das Argument stecken, das ergibt NULL Sinn. AMD hat eine Karte gezeigt, die wahrscheinlich in Einzelstücken 2019 an Kunden geht. Das ist nicht mal im Ansatz irgendeine Form von Indiz für ein Volumenprodukt wie Turing. Navi kommt, wenn wir Glück haben, irgendwann Mitte nächstes Jahr, vorher wird auch Nvidia keine 7nm für Gaming-Kunden anbieten können.

HOT
2018-07-19, 18:03:22
Wenn Vega in 7nm erscheint ist es nicht unwahrscheinlich dass Nvidia es auch macht mit Turing.
Klar ist das unwahrscheinlich. V20 ist Kleinserie, NV braucht sicherlich 100x soviel Kapazität. Erst werden Apple und Qualcomm die Produktion zu 100% aufgekauft haben, dann kommt AMD hinzu mit Zen2, Vega läuft hier aufgrund der geringen Mengen eh unter ferner Liefen. Aber Apple, Qualcomm und NV in 7nm, das klappt garantiert nicht. Es geht doch nur um Umsatz. NV wird soviel Kapazität mit 12FFN (ein Exklusivprozess für NV!) geschaffen haben aufgrund des Minings, dass es sich für TSMC einfach sehr lohnen wird.

Jetzt lasst endlich mal das Argument stecken, das ergibt NULL Sinn. AMD hat eine Karte gezeigt, die wahrscheinlich in Einzelstücken 2019 an Kunden geht. Das ist nicht mal im Ansatz irgendeine Form von Indiz für ein Volumenprodukt wie Turing. Navi kommt, wenn wir Glück haben, irgendwann Mitte nächstes Jahr, vorher wird auch Nvidia keine 7nm für Gaming-Kunden anbieten können.

Genau so siehts aus. Als 3. Großabnehmer kommt halt AMD mit den Zen2 hinzu. Die werden dieses Jahr schon mit der Produktion beginnen und alle Register ziehen in 2019, denn das Produkt wird einschlagen wie eine Bombe. NV wird sicherlich auch 7nm-Kapazität in 2019 belegen, aber für Ampere, nicht für Consumergrafik. Die kommt erst mal in 12FFN und wird dann in 2020 durch ein 7nm-Lineup ersetzt.

Adam D.
2018-07-19, 18:23:49
Genau so siehts aus. Als 3. Großabnehmer kommt halt AMD mit den Zen2 hinzu. Die werden dieses Jahr schon mit der Produktion beginnen und alle Register ziehen in 2019, denn das Produkt wird einschlagen wie eine Bombe. NV wird sicherlich auch 7nm-Kapazität in 2019 belegen, aber für Ampere, nicht für Consumergrafik. Die kommt erst mal in 12FFN und wird dann in 2020 durch ein 7nm-Lineup ersetzt.
Ich versteh auch den ganzen Hype nicht: ein State-of-the-Art-Fertigungsprozess macht allein noch kein gutes Produkt. Wenn Nvidia alle Performance-Targets mit 12nm trifft, gute Yields hinbekommt und Perf/W nicht groß leiden muss, kann der Kunde doch gar nicht mehr erwarten.

Grendizer
2018-07-19, 18:30:35
Ich versteh auch den ganzen Hype nicht: ein State-of-the-Art-Fertigungsprozess macht allein noch kein gutes Produkt. Wenn Nvidia alle Performance-Targets mit 12nm trifft, gute Yields hinbekommt und Perf/W nicht groß leiden muss, kann der Kunde doch gar nicht mehr erwarten.

Ketzerisch ... Navi 7nm wird ziemliche Klimmzüge machen müssen um Turing 12 nm zu schlagen. Und dann kann nVidia in aller Ruhe einen 7nm Refresh ausrollen. Warum sollten sie JETZT 7nm rausbringen ? Das macht strategisch überhaupt keinen Sinn, selbst wenn es technisch irgendwie möglich wäre.

vinacis_vivids
2018-07-19, 18:51:53
Ketzerisch ... Navi 7nm wird ziemliche Klimmzüge machen müssen um Turing 12 nm zu schlagen. Und dann kann nVidia in aller Ruhe einen 7nm Refresh ausrollen. Warum sollten sie JETZT 7nm rausbringen ? Das macht strategisch überhaupt keinen Sinn, selbst wenn es technisch irgendwie möglich wäre.

Naja, viel heißer Brei um nichts.

Vega 7nm greift im Compute-Sektor richtig an. Genau da wo AMD noch kein Land in Sicht hat. Ist wie der Eintritt von Zen uArch in die Serversparte oder RavenRidge in mobile. Alles mit marginalen Marktanteilen <5%.

Huang hätte wohl auch zu gerne mit 7nm geworben, aber leider hatte er kein funktionierendes Design in der Hosentasche. So ist nunmal fertigungstechnisch AMD vorne, was aber auch nicht ungewöhnlich ist, nur eben gewöhnungsbedürftig für den verwöhnten NV-Fan.

Grendizer
2018-07-19, 18:56:29
Naja, viel heißer Brei um nichts.

Vega 7nm greift im Compute-Sektor richtig an. Genau da wo AMD noch kein Land in Sicht hat. Ist wie der Eintritt von Zen uArch in die Serversparte oder RavenRidge in mobile. Alles mit marginalen Marktanteilen <5%.

Huang hätte wohl auch zu gerne mit 7nm geworben, aber leider hatte er kein funktionierendes Design in der Hosentasche. So ist nunmal fertigungstechnisch AMD vorne, was aber auch nicht ungewöhnlich ist, nur eben gewöhnungsbedürftig für den verwöhnten NV-Fan.

Huang braucht keine fertigen Designs. Der zieht auch welche aus Holz aus der Tasche, schön lackiert usw.... da wäre er sich nicht zu schade dafür :rolleyes:

Aber was glaubst du wo Navi liegen wird ? +30 über Turing ? Zu dem vermuteten Navi Release wird man dann eben nicht gegen die 1180 (oder wie immer sie heißen wird) bestehen müssen, sondern gegen die 1180 Ti.

Adam D.
2018-07-19, 19:08:23
Aber was glaubst du wo Navi liegen wird ? +30 über Turing ? Zu dem vermuteten Navi Release wird man dann eben nicht gegen die 1180 (oder wie immer sie heißen wird) bestehen müssen, sondern gegen die 1180 Ti.
Wenn die kolportierte 1180 15-20% schneller ist als die 1080Ti, muss Navi 50% mehr Performance ggb. Vega bringen. Das ist nicht unschaffbar, gegen die 1180 Ti wird man aber kein Land sehen.

Die letzten Gerüchte gingen eh in die Richtung, dass Navi ein kleiner Midrange-Chip wird, vielleicht irgendwo zwischen 1160 und 1170.

Man kann nur hoffen, dass Navi ein Hit wird, wäre nämlich schön, wenn Nvidia im Gaming-Segment 2019 mal liefern müsste, vielleicht dann mit einem Turing-Refresh in 7nm.

Raff
2018-07-19, 19:09:40
Naja, viel heißer Brei um nichts.

Vega 7nm greift im Compute-Sektor richtig an. Genau da wo AMD noch kein Land in Sicht hat. Ist wie der Eintritt von Zen uArch in die Serversparte oder RavenRidge in mobile. Alles mit marginalen Marktanteilen <5%.

Du hast offenbar Infos zu Vega 20. Immer her damit, ich finde das Ding sehr spannend. Woher "richtig angreifen" kommen soll, verstehe ich nämlich nicht. So ganz ohne Taktraten etc. Mit 4.096 ALUs muss das Ding schon sehr hoch takten (idealerweise weit über 2 GHz), um wirklich auszuteilen. Aber gut, hier geht's um Turing. Anscheinend wurde der ursprüngliche Test verändert. Da geht's nun um Geheimniskrämerei, Raten und Warten. :ugly:

MfG,
Raff

vinacis_vivids
2018-07-19, 19:26:50
Turing in aufgeblähter Form von Titan V sehen wir doch schon ~GP102 +30%. Das sind 5120/5376SP gegen 3584/3840SP, ~50% mehr Shader für ~30% Mehrleistung, nichts weltbewegendes.

Navi wird auf jeden Fall ein cashcow für AMD. Ein nobrainer Chip der für die Masse bezahlbar ist, ähnlich P10, unabhängig davon wie gut Turing wird. 7nm erlaubt schon einiges mehr als 16/14/12nm. Gegen 1180Ti wirds schwierig aber schneller als 1080Ti/1180 würde für eine 2019 midrange GPU aka Navi wie eine Bombe enschlagen, und das erwarte ich.

Ex3cut3r
2018-07-19, 19:50:21
Da lach mir doch den Arsch ab. Nvidia muss einzig und allein sich selbst schlagen, den Gamer interessiert was hinten rauskommt, und da reicht selbst eine 1070Ti ein mickriger Chip um AMDs aktuellen fetten Brocken zu schlagen, der ungefähr 2,5 mal so viel kostet in der Produktion. Also lächerlich, AMDs next Big Thing kommt irgendwann ende 2019, bis dahin hat schon wieder jeder, der nicht AMD Fan und Freesync Abhängig ist, bei Nvidia zugeschlagen. Die Miner halten AMD noch am Leben, ohne die, wer weiß, ob da nicht schon die GPU Sparte eingestampft wäre.

Daredevil
2018-07-19, 20:42:18
Gerade weil es ein "Next Big thing" sein könnte, muss Nvidia aufpassen, was sie aktuell tun. Vega ist ein feiner Fanservice, aber keine komplett ausgereifte Massenkarte.

Dass AMD eben doch gefährlich sein kann, sieht man doch an den riesigen Kooperationen mit Sony, Microsoft, Intel, Apple und in Zukunft mit vielen neuen Notebook Herstellern.
Nintendo ist für ihre nächste Konsole bestimmt auch nicht abgeneigt von guten APUs, wenn die anderen Konsolen-Hersteller auch schon dort gut unterwegs sind. Das sind Märkte, die Nvidia bestimmt auch gerne bedienen würde. :)
Also unbewaffnet sind sie definitiv nicht. ^^

Swissr
2018-07-19, 22:20:41
Gegen 1180Ti wirds schwierig aber schneller als 1080Ti/1180 würde für eine 2019 midrange GPU aka Navi wie eine Bombe enschlagen, und das erwarte ich.

Und wenn Intel dann erst mal mit ihrer Entry Market GPU loslegt (die vermutlich irgendwo zwischen 1180 TI und AMDs Highend-Chip liegt), wie ich es erwarte, dann können eh alle einpacken!1eins

HOT
2018-07-19, 22:35:36
Ich versteh auch den ganzen Hype nicht: ein State-of-the-Art-Fertigungsprozess macht allein noch kein gutes Produkt. Wenn Nvidia alle Performance-Targets mit 12nm trifft, gute Yields hinbekommt und Perf/W nicht groß leiden muss, kann der Kunde doch gar nicht mehr erwarten.
Wie soll denn das bitte schiefgehen?! Schon Zen1 ist gut, Zen1+ ist optimal und voll konkurrenzfähig und das mit deutlich schlechterem Fertigungsprozess. Jetzt bekommt eine wirklich verbesserte Version einen Fertigungsprozess der voll konkurrenzfähig ist und das noch zeitlich weit vor Intel - das kann nicht schiefgehen, der wischt mit Coffeelake den Boden, ganz einfach, erst recht, wenn es auf Perf/W ankommt. Der wird auch mit Cascade- und Cooperlake den Boden wischen. 14nm Core kann da einfach nicht gegen gewappnet sein.

Wenn die kolportierte 1180 15-20% schneller ist als die 1080Ti, muss Navi 50% mehr Performance ggb. Vega bringen. Das ist nicht unschaffbar, gegen die 1180 Ti wird man aber kein Land sehen.

Die letzten Gerüchte gingen eh in die Richtung, dass Navi ein kleiner Midrange-Chip wird, vielleicht irgendwo zwischen 1160 und 1170.

Man kann nur hoffen, dass Navi ein Hit wird, wäre nämlich schön, wenn Nvidia im Gaming-Segment 2019 mal liefern müsste, vielleicht dann mit einem Turing-Refresh in 7nm.

Navi wird wohl kleiner als 200mm², also ist der Mainstream, nicht mehr. AMD muss hier auch gar nichts liefern, die könnten sich den Chip auch komplett sparen. Besser gesagt, den gibts eben nur, weil er ein Abfallprodukt aus der Konsolenentwicklung ist. GPUs sind nunmal nicht mehr AMDs Kerngeschäft, das sind Prozessoren und semi-custom-SoCs. Wenn man genug Geld verdient hat und genug Leute aquiriert hat, wird man sicherlich auch die GPUs wieder aufgreifen, aber AMD muss hier wie gesagt gar nichts tun. Die sind nicht Schuld daran, dass NV im PC-Markt allein auf weiter Flur steht. Das ist nunmal Marktwirtschaft, man macht halt das was lukrativ ist.

Timbaloo
2018-07-19, 22:39:01
Und jetzt reden wir schon über CPUs... :facepalm:

HOT
2018-07-19, 22:53:49
Gerade weil es ein "Next Big thing" sein könnte, muss Nvidia aufpassen, was sie aktuell tun. Vega ist ein feiner Fanservice, aber keine komplett ausgereifte Massenkarte.

Dass AMD eben doch gefährlich sein kann, sieht man doch an den riesigen Kooperationen mit Sony, Microsoft, Intel, Apple und in Zukunft mit vielen neuen Notebook Herstellern.
Nintendo ist für ihre nächste Konsole bestimmt auch nicht abgeneigt von guten APUs, wenn die anderen Konsolen-Hersteller auch schon dort gut unterwegs sind. Das sind Märkte, die Nvidia bestimmt auch gerne bedienen würde. :)
Also unbewaffnet sind sie definitiv nicht. ^^

Das ist natürlich richtig. Die bleiben ja bei der Entwicklung von Architekturen nicht stehen, sondern versuchen sehr wohl die Effizienz deutlich zu verbessern, was auch im PC-Markt wirken wird, sollte man sich wieder dazu entschließen, die Gamer mit mehr als einem Mainstreamchip zu bedenken. Das wird aber wohl erst mit der Post-Navi-Architektur soweit sein, da Navi20 wohl auch wieder nur das Serversegment bedienen wird.
Turing wird bis auf den Mainstreambereich genau wie Pascal konkurrenzlos bleiben, diesmal gibts eben wahrscheinlich gar kein HighEnd, nichtmal sowas wie Vega. Von daher ist die Wahl auf dem langfristig doch deutlich günstigeren 12nm-Prozess zu setzen auch die richtige gewesen. NV kann dann ja, sobald die EUV-Prozesse soweit sind, eine neue Architektur bringen.

Fragman
2018-07-20, 07:09:33
Navi wird auf jeden Fall ein cashcow für AMD. Ein nobrainer Chip der für die Masse bezahlbar ist, ähnlich P10, unabhängig davon wie gut Turing wird. 7nm erlaubt schon einiges mehr als 16/14/12nm. Gegen 1180Ti wirds schwierig aber schneller als 1080Ti/1180 würde für eine 2019 midrange GPU aka Navi wie eine Bombe enschlagen, und das erwarte ich.

nachdem was wir aktuell wissen, wird man bei navi nichts erwarten koennen, wenn ueberhaupt, denn wird der nachfolger interessant, da man dort wohl wieder resourcen reingesteckt hat. und selbst dann, amd darf sich nicht wieder selbst ein bein stellen mit tech die nicht funktioniert oder ausserhalb von apis rumgammelt. ka wo du immer deinen optimismus her nimmst.

Thunderburne
2018-07-20, 07:31:20
Turing in aufgeblähter Form von Titan V sehen wir doch schon ~GP102 +30%. Das sind 5120/5376SP gegen 3584/3840SP, ~50% mehr Shader für ~30% Mehrleistung, nichts weltbewegendes.

Navi wird auf jeden Fall ein cashcow für AMD. Ein nobrainer Chip der für die Masse bezahlbar ist, ähnlich P10, unabhängig davon wie gut Turing wird. 7nm erlaubt schon einiges mehr als 16/14/12nm. Gegen 1180Ti wirds schwierig aber schneller als 1080Ti/1180 würde für eine 2019 midrange GPU aka Navi wie eine Bombe enschlagen, und das erwarte ich.
Riecht alles nach kleiner GPU mit knapp GTX 1080 Level für die Masse.
https://wccftech.com/rumor-amd-navi-mainstream-gpu-to-have-gtx-1080-class-performance/
Gössere 7Nm Chips werden wahrscheinlich erst 2020 im Sommer zünden wo NV dann auch wieder mit dabei sein wird.
Kleine Chips wie die 1160 scheinen ja auch noch ende des Jahres zu kommen somit hat AMD ein echtes Problem mit 7nm weil annährend nur die selbe Leistung durch den kleinen Chip kommt wie NV es dann schon mit der 1160 liefert.
Hätte AMD den Chip jetzt schon raushauen können mit 7nm dan wäre AMD auch in einer Optimaleren Position es sieht aber alles nach 1 Jahr Später im Herbst 2019 aus.
Aber mal abwarten.

MartinRiggs
2018-07-20, 07:53:11
Lasst den Troll doch trollen und geht gar nicht mehr drauf ein.
Von AMD erwarte ich persönlich schon lange nichts mehr, wenn dann doch was kommt umso besser für alle.
Bin jetzt erstmal gespannt wann Turing aufschlägt und was er an Performance bringt.

Grendizer
2018-07-20, 08:26:45
Ein erster 3D Mark "Leak" (ich denke eher Fake) positioniert die 1170 oberhalb der 1080 Ti... angeblich mit 16 Gb GDDR5 Ram.

http://www.3dcenter.org/news/erster-angeblicher-3dmark13-wert-zur-turing-basierten-geforce-gtx-1170-aufgetaucht

Ich würde da aber nichts drauf geben und mal die nächsten Wochen abwarten wollen

mironicus
2018-07-20, 08:45:19
Ich erwarte auch nichts anderes das die GTX 1170 mindestens 1080 Ti-Niveau erreicht und die 1180 dann noch einiges drauf setzt. Für 4K mit 120 Hz und zukünftige Games der nächsten 2-3 Jahre mit all den Mods sind 16 GB Grafikspeicher auch vernünftig.

Leonidas
2018-07-20, 09:17:22
Wäre eine wirkliche Ansage seitens nVidia - mehr als im "Konkurrenzkampf" mit AMD notwendig. Andererseits hat bei NV niemand von 2-3 Jahren diese Situation sehen können und man hat daher sicherlich so geplant, das man liefern muß. So gesehen ist ein kräftiges Update nicht gänzlich verwunderlich - nur die Möglichkeiten der 12nm-Fertigung spielen da (IMO) noch nicht ganz mit. Mal schauen, wie NV das löst.

Dural
2018-07-20, 10:18:29
.

Huang hätte wohl auch zu gerne mit 7nm geworben, aber leider hatte er kein funktionierendes Design in der Hosentasche. So ist nunmal fertigungstechnisch AMD vorne, was aber auch nicht ungewöhnlich ist, nur eben gewöhnungsbedürftig für den verwöhnten NV-Fan.

Nur so als Info, NV haben im Gaming Bereich noch nie grossartig Produkte zum Voraus angekündigt. Ich kann mich da nur an zwei erinnern: FX und Fermi.

NV liefert im Gegensatz lieber gleich ab als Monate irgendwelche Produkte zum Voraus anzukündigen wo man das versprochen danach zum Teil gar nie einhalten kann... :wink:

Mit anderen Worten, ich wäre mir da überhaupt nicht so sicher ob AMD zuerst 7nm Produkte liefern kann.

Thunderburne
2018-07-20, 10:58:11
Ein erster 3D Mark "Leak" (ich denke eher Fake) positioniert die 1170 oberhalb der 1080 Ti... angeblich mit 16 Gb GDDR5 Ram.

http://www.3dcenter.org/news/erster-angeblicher-3dmark13-wert-zur-turing-basierten-geforce-gtx-1170-aufgetaucht

Ich würde da aber nichts drauf geben und mal die nächsten Wochen abwarten wollen
Erinnert irgendwie an damals 980Ti vs. 1070 und 1080.
Die 1080Ti lief ja im ref Modus und hat noch je nach Custom Wakkü bis 2000MHZ+-Reserven je nach gűtte.
Die 980Ti hielt ja gut mit mit der 1080 wen man die 980Ti auf 1500MHZ getrimmt hat.

Was haut den eine OC 20000mhz Ti in dem Test raus?

robbitop
2018-07-20, 11:01:59
Navi wird wohl kleiner als 200mm², also ist der Mainstream, nicht mehr. AMD muss hier auch gar nichts liefern, die könnten sich den Chip auch komplett sparen.
Mit Mainstream hat AMDs Grafiksparte in den letzten Jahren den größten Umsatz generiert. Eine gute 2xx € Karte als GT106 Gegner ist doch die richtige Massenkarte.
Wenn man nur 1x GPU macht, ist genau diese Preisregion die richtige. Ich erwarte mir mit Navi 10 einen guten Nachfolger für den bereits guten Polaris 10.

Bösewicht
2018-07-20, 13:19:44
hat amd doch auch gesagt, das sie sich auf karten alla 480/580 konzentrieren und sich auch nicht mehr mit nvidia direkt vergleichen/kämpfen oder was auch immer wollen.
Gut mit vegas haben sie das gleich wieder vergessen und ein auf poor volta gemacht aber irgendwie muss man ja werbung machen..

ständig strategie wechseln kann auf dauer nicht funktionieren.

robbitop
2018-07-20, 13:28:05
Wie man sich so lange über einen Werbegag aufregen kann.

AffenJack
2018-07-20, 13:37:08
Wie man sich so lange über einen Werbegag aufregen kann.

Fermi ist noch viel länger her und trotzdem kommt der Kommentar mit der Holzatrappe bei jeder Hardwarenews von Nv. Da wird AMD poor volta auch noch einige Zeit ertragen müssen. Während manch anderes schnell vergessen wird, hängen solche Marketingfails irgendwie lange nach.

Bösewicht
2018-07-20, 13:41:53
Wie man sich so lange über einen Werbegag aufregen kann.
ich bin kein nvidia jünger... also stört mich diese aussage nicht es geht ehr darum das amd sich heute so morgen so gibt das ist auf dauer schwer einschätzbar.

wie dem auch sei, amd kann nicht mithalten also bleibt die aussage das sie sich auf denn bereich konzentrieren wo sie mithalten können also im mittelfeld.

im übrigens bin auch ich nicht sicher ob die am ende wirklich zu erst in 7nm starten... kann auch wieder nur heiße luft sein darf ja bei so vielen werbegags" ja durchaus auch mal angenommen werden.

hoffentlich bringt nvidia nicht so viel später eine 1160 ich brauche langsam etwas mehr power für 1440p mit etwas abstriche.

Sunrise
2018-07-20, 13:43:19
Also ich wäre von NV sehr enttäuscht wenn die im Herbst eine neue Generation GPUs in 12nm kurz vor der 7nm Fertigung bringen sollten.


https://www.computerbase.de/2018-07/foundry-tsmc/
Hatten wir doch schon. Es kommen mehrere Designs...

Dural
2018-07-20, 14:33:08
Wir hatten noch gar nichts, über turing ist bis heute praktisch nichts bekannt, nicht mal ein termin ;)

N0rG
2018-07-20, 17:22:58
[..] Was haut den eine OC 20000mhz Ti in dem Test raus?

1080ti @ 2062
26115 Punkte bei 31978 GPU score

mironicus
2018-07-20, 18:35:42
Wenn die GPU über 16 GB hat, wird das schon lustig wenn man die in ein Spielerechner mit nur 8 GB RAM reinsteckt. :)

Wäre doch nett, wenn man den schnellen GPU-Speicher auch als Arbeitsspeicher verwenden könnte.

Timbaloo
2018-07-20, 18:38:19
Wenn die GPU über 16 GB hat, wird das schon lustig wenn man die in ein Spielerechner mit nur 8 GB RAM reinsteckt. :)

Wäre doch nett, wenn man den schnellen GPU-Speicher auch als Arbeitsspeicher verwenden könnte.
Wäre ziemlich Schwachsinnig, weil 8GB RAM fürs System sicher wesentlich öfter limitieren als es 8GB RAM für die Graka tun würden.

Aber gut, in diesem Forum spielen ja alle mindestens 4K mit Downsampling @ Hyperultra @ 20fps...

aufkrawall
2018-07-20, 18:43:33
Wäre doch nett, wenn man den schnellen GPU-Speicher auch als Arbeitsspeicher verwenden könnte.
PCIe.

BlacKi
2018-07-20, 18:44:56
Wäre eine wirkliche Ansage seitens nVidia - mehr als im "Konkurrenzkampf" mit AMD notwendig. Andererseits hat bei NV niemand von 2-3 Jahren diese Situation sehen können und man hat daher sicherlich so geplant, das man liefern muß. So gesehen ist ein kräftiges Update nicht gänzlich verwunderlich - nur die Möglichkeiten der 12nm-Fertigung spielen da (IMO) noch nicht ganz mit. Mal schauen, wie NV das löst.
nv macht schon lange keinen konkurenzkampf mehr. amd macht das beste draus, passt die preise an nv an und versucht mit NV zu konkurieren.

nv braucht aber das geld der käufer und deshalb müssen sie auch performen. ohne anreize würde ich einfach nichts neues kaufen und meine 1080ti 6 jahre behalten. das kann sich NV schlichtweg nicht leisten, die brauchen mein geld, soviel ist sicher.

iuno
2018-07-20, 19:07:29
Wäre doch nett, wenn man den schnellen GPU-Speicher auch als Arbeitsspeicher verwenden könnte.
Nicht ganz dasselbe, aber unter Linux kann man auch eine Ramdisk im VRAM nutzen :ulol: z.B. fuer swap space.
Natuerlich bleibt es halt PCIe limitiert.

Ex3cut3r
2018-07-20, 19:56:49
Aber gut, in diesem Forum spielen ja alle mindestens 4K mit Downsampling @ Hyperultra @ 20fps...

Und? In den 90er hat man noch sehr oft mit 20FPS gespielt, auf Konsole erst recht, sogar noch drunter, was hat du davon immer wieder den User mit dieser Aussage ein paar Seiten zuvor zu diskreditieren? Fühlst du dich dadurch besser? Ist doch seine Sache.

Sunrise
2018-07-20, 20:41:40
Wir hatten noch gar nichts, über turing ist bis heute praktisch nichts bekannt, nicht mal ein termin ;)
Dann scheint dein Gedächtnis nicht das beste zu sein.

"Es kommt eine neue Chipgeneration (eigentlich ja sogar zwei), nicht nur ein Produkt mit einem Chip derselben." (Dieser Passus ist nicht von mir.)

;)

Mal davon ab, dass ich vor etwa einem Monat schrieb, dass der Großteil in 12nm kommen wird. Pro kommt zuerst (September), im Oktober folgen die Gamerkarten. Die Vorstellung folgt ein wenig vorher, der Gamescom-Termin sagt dir was?

Alles doch sehr weit entfernt von "nichts".

Dural
2018-07-20, 22:14:51
Nichts weiter als spekulationen, was handfestes sehe ich weit und breit nicht.

Das einzige was man bis jetzt als fakt hinstellen kann ist das foto einer ES karte mit 384bit gddr6 speicher. Daran komisch fand ich nur das zuerst ein foto einer offensichtlicher gt102 karte auftaucht, im normal fall sollte da die gt104 karten längst bereit sein.

reaperrr
2018-07-21, 02:04:56
Nichts weiter als spekulationen, was handfestes sehe ich weit und breit nicht.

Das einzige was man bis jetzt als fakt hinstellen kann ist das foto einer ES karte mit 384bit gddr6 speicher. Daran komisch fand ich nur das zuerst ein foto einer offensichtlicher gt102 karte auftaucht, im normal fall sollte da die gt104 karten längst bereit sein.
Wenn Nvidia es gewollt hätte und es nötig gewesen wäre, wäre GT104 wahrscheinlich schon draußen.
Die GP102-Titan kam auch nur ~3 Monate nach den GP104 Geforces, dass es vom GT102 schon zumindest Engineering Samples gibt (auf dem Foto sah man ja jetzt keine fertige, produktionsreife Karte) ist nicht ungewöhnlich.

Dass es jetzt von GT102 schon ein Foto gab und von GT104 noch nicht muss auch nichts heißen, heutzutage ist die Geheimhaltung bei NV/AMD im Vergleich zu früher doch ziemlich gut, da müssen wohl mehrere Faktoren inkl. Glück zusammenkommen, um so ein Foto so früh leaken zu können, das klappt wohl nicht bei jedem Chip.

Mancko
2018-07-21, 13:03:38
Mit anderen Worten, ich wäre mir da überhaupt nicht so sicher ob AMD zuerst 7nm Produkte liefern kann.

Beim letzten Mal war es jedenfalls nicht so. AMD war da schon 6 Monate lang groß im Ankündigen während Nvidia die Klappe gehalten und dann einfach zum Erstaunen aller deutlich früher und breiter als AMD ausgeliefert hat.

Mancko
2018-07-21, 13:06:01
Fermi ist noch viel länger her und trotzdem kommt der Kommentar mit der Holzatrappe bei jeder Hardwarenews von Nv. Da wird AMD poor volta auch noch einige Zeit ertragen müssen. Während manch anderes schnell vergessen wird, hängen solche Marketingfails irgendwie lange nach.

Aber viel mehr als das hängt "optimized for mobile" und "months ahead of competition" nach. Das was dann dazu deutlich später als die Konkurrenz abgeliefert wurde war einfach nur peinlich. Denn man muss dann schon so fair sein und das abgelieferte Endergebnis zu den Versprechungen in Relation setzen. Und das war dann eben nix.

MadPenguin
2018-07-21, 14:01:58
Beim letzten Mal war es jedenfalls nicht so. AMD war da schon 6 Monate lang groß im Ankündigen während Nvidia die Klappe gehalten und dann einfach zum Erstaunen aller deutlich früher und breiter als AMD ausgeliefert hat.

Da werden sich viele wundern, wie 2019-2020 ausgehen wird :)

=Floi=
2018-07-22, 17:46:43
Da werden sich viele wundern, wie 2019-2020 ausgehen wird :)

langweilig!

prozesstechnisch steht man an, und HBM ist für günstige karten auch viel zu teuer und irgendwo auch zu langsam. (1-2 chips und takt)
Über 1TB/s wird auch nicht benötigt.
Preis pro GB generell zu hoch.

Bei AMD kommt navi und eventuell haut die karte bei GPGPU wieder voll rein. Die kommen sicher in 7nm. An super game performance glaube ich jetzt nicht, aber der rest wird schon gut werden. NV kann aber hier zu stark kontern. Die kassen sind voll und wenn alle stricke reißen drehen die am power target oder bringen nen größeren chip.
Man vergisst, dass man den vollen chip auch noch für die consumer karten bringen könnte und man bisher nur noch die abgespeckten karten bringt. Man drosselt diese zwar nicht, aber mehr ginge da schon jetzt.
Man könnte fast sagen durch die schlechten kühler bremst man die Titan ein.

Bösewicht
2018-07-22, 18:19:26
nvidia fährt alt diese blöde intel taktik das schmeckt niemand aber ändern könnte es nur amd oder in ein paar jahren hoffentlich intel.

ich hoffe ja das intel seine ankündigung nicht wieder nur heiße luft wird weil aktuell wartet nvidia eigentlich nur ab und macht gewinnoptimierung.
nvidia gebe ich da aber keine schuld denn die meisten würden es ja auch so machen.

Adam D.
2018-07-22, 18:25:48
nvidia fährt alt diese blöde intel taktik das schmeckt niemand aber ändern könnte es nur amd oder in ein paar jahren hoffentlich intel.
Der Vergleich hinkt massiv. Intel hat jahrelang aufgrund mangelnder Konkurrenz an 4C/8T festgehalten und Prozess- und Architekturverbesserungen in marginal höhere IPC umgesetzt. Nvidia liefert seit Jahren konsequent Performance-/Effizienz-Verbesserungen, die sich sehen lassen können. Nur lassen sie es sich halt teuer bezahlen.

Bösewicht
2018-07-22, 18:27:56
Der Vergleich hinkt massiv. Intel hat jahrelang aufgrund mangelnder Konkurrenz an 4C/8T festgehalten und Prozess- und Architekturverbesserungen in marginal höhere IPC umgesetzt. Nvidia liefert seit Jahren konsequent Performance-/Effizienz-Verbesserungen, die sich sehen lassen können. Nur lassen sie es sich halt teuer bezahlen.
ja schon aber ich meine halt das sie die neuen karten schon längst hätten bringen können.
die 1080 ist glaub ich im juni gekommen nun verschiebt es sich schon in richtung herbst.

=Floi=
2018-07-22, 18:39:10
ja schon aber ich meine halt das sie die neuen karten schon längst hätten bringen können.


weil die komplett umgestellt haben. Die aben imho schon zweimal alles umgeworfen. Zuerst pascal und jetzt turing.
Echt schade, dass es dazu keine näheren informationen gibt.
Volta ist ja auch so eine komische sache.

Erst mit den neuen karten wird ein wenig licht ins dunkel kommen.
GDDR6 braucht länger und beim chip ist auch noch nichts sicher.



Intel hat sich auch massiv um den mobile sektor gekümmert. Das sollte man auch nicht vergessen. Die richteten die strategie der normalen prozessoren voll auf mobile aus.
Es ist ja leider auch heute noch so, dass der consumer wenig bis gar nicht von 8C/16T profitiert. Die blöde GPU musste ja auch auch auf biegen und brechen wachsen. Komischerweise geht es bei AMD jetzt auch ohne und es läuft besser. :rolleyes:

bei intel sieht man ja auch am prozessorwirwar, dass hier eine richtige führung fehlt und auf biegen und brechen versucht wird etwas neues (altes ;D ) zu bringen. Die haben mit 14nm und 10nm wohl schon zwei komplette lineups am laufen. Ich möchte wetten aktuell liefern die über 100 verschiedene modelle aus.
Das ist der margenkiller schlechthin.

horn 12
2018-07-22, 23:17:46
Je länger sich Turing verschiebt umso mehr kann man auf die 7nm Karten warten...
Hoffnungschimmer gibt es dass auch Turing gar in 7nm kommt in einigen Monaten zum Herbst hin, sprich die GTX 1170 und 1180

Thunderburne
2018-07-22, 23:52:05
Ne never ever 7nm im Herbst.
Wen TSMC von mitte 2019 spricht.

mironicus
2018-07-23, 07:48:02
Ich bin überzeugt das NVidia liefern wird wie erwartet. Denn wer wartet wird irgendwann von der Konkurrenz überrumpelt. Ist schon bezeichnend das AMD seinen Nachteil bei den Prozessoren wieder ausgleichen konnte und es sich abzeichnet das sie bald einen noch größeren Vorteil haben werden, wenn sie als erste 7 nm-CPUs rausbringen.

BlacKi
2018-07-23, 11:16:53
der youtuber Gamer Meld würde ich ganz schön blamieren wenn die dates nicht stimmen würden. also kann man zumindest mal annehmen, das die dates korrekt sein könnten:

GeForce GTX 1180: 30th August
GeForce GTX 1170/1180+: 30th September
GeForce GTX 1160: 30th October

das sind die dates von einem AIB. es scheint wohl das die karten vorrätig sein werden und es einen hardlaunch von FE geben wird zur gamescom, und kurz danach der AIB.

Thunderburne
2018-07-23, 11:41:51
https://www.computerbase.de/2018-07/geforce-gtx-11xx-board-partner-termine-gtx-1180-1170-1160/

vinacis_vivids
2018-07-23, 11:48:27
Der erste Punkt ist geil: "1. We have an overstock of 10xx GPU's..." :tongue:

Linmoum
2018-07-23, 12:19:21
Nvidia wird sicherlich an einem Sonntag launchen. Ganz bestimmt.

Dural
2018-07-23, 12:24:11
Ne never ever 7nm im Herbst.
Wen TSMC von mitte 2019 spricht.

quelle?

w0mbat
2018-07-23, 12:32:02
Hm, wenn der leak stimmt, gibt es also noch ziemlich große Restbestände der aktuellen Karten.

Aber die Preise sind mMn weiterhin so hoch, dass es keinerlei Anreiz gibt hier nicht auf die neuen zu warten. Eine GTX 1080 für <300€ würde ich mir ja überlegen, aber so können die gerne drauf sitzen bleiben.

ShinyMcShine
2018-07-23, 12:34:52
Nvidia wird sicherlich an einem Sonntag launchen. Ganz bestimmt.

+1

Bösewicht
2018-07-23, 12:50:23
https://www.computerbase.de/2018-07/geforce-gtx-11xx-board-partner-termine-gtx-1180-1170-1160/
na da scheine ich ja gold richtig spekuliert zu haben.

ich will weihnachten eine neue karte von mir aus können die bis dahin abverkaufen aber bitte die neue generation zu mehr oder weniger alten preisen.

@w0mbat
du willst eine 1080 für radeon 580/ geforce 1060 preise?
unter 400 wird die ewig nicht fallen allerdings bekommst du die gebraucht für 300-350€.

Hübie
2018-07-23, 13:26:31
Es ist eine verzwickte Situation für ein Unternehmen. Wenn die Preise jetzt so weit herunter gesetzt werden, muss das neue Produkt entweder einen hohen Mehrwert beinhalten oder auch in niedrigeren Regionen, sprich geringeren Margen verkauft werden. Und sorry to say aber es ist immer noch Jensen/NVIDIA: not gonna happen. ;) Man wird ja selbst nach dem Launch noch ein paar Pascal Karten absetzen und wenn eins, zwei Monate reichen um den Bestand abzubauen nimmt man das lieber in Kauf, als niedrigere Margen.

Triniter
2018-07-23, 14:00:25
Es ist eine verzwickte Situation für ein Unternehmen. Wenn die Preise jetzt so weit herunter gesetzt werden, muss das neue Produkt entweder einen hohen Mehrwert beinhalten oder auch in niedrigeren Regionen, sprich geringeren Margen verkauft werden. Und sorry to say aber es ist immer noch Jensen/NVIDIA: not gonna happen. ;) Man wird ja selbst nach dem Launch noch ein paar Pascal Karten absetzen und wenn eins, zwei Monate reichen um den Bestand abzubauen nimmt man das lieber in Kauf, als niedrigere Margen.
Ist ein interessanter Punkt den (Abverkaufs-)Preis der alten Generation in Relation zur Leistung der neuen Gen zu betrachten.

w0mbat
2018-07-23, 14:03:53
@w0mbat
du willst eine 1080 für radeon 580/ geforce 1060 preise?
unter 400 wird die ewig nicht fallen allerdings bekommst du die gebraucht für 300-350€.

Ich finde es interessant, dass du die überzogenen RX 580/GTX 1060 Preise als Argument für die überzogenen GTX 1080 Preise heranziehst.

Nein, ich will keine GTX 1080 für RX 580 Preise. Die RX 480 wurde damals als $199 Karte angekündigt, der "refresh" sollte nochmal günstiger sein. Eine 8GB RX 580 sollte bei um die 150€ liegen.

Die GTX 1080 ist jetzt 2 Jahre alt und im Abverkauf. zT kostet sie mehr als zum launch. Vollkommen überzogene Preise durch den mining boom.

Normal ist was anderes, zB 300€ für ne gute custon 1080 und ich greife zu.

Linmoum
2018-07-23, 14:09:28
150€ für 580/8GB bzw. 1060/6GB Leistung? Wtf?

Bisschen weniger Träumerei wäre nicht verkehrt. Selbst unter normalen Umständen wären solche Preise fernab der Realität.

Bösewicht
2018-07-23, 14:33:04
Ich finde es interessant, dass du die überzogenen RX 580/GTX 1060 Preise als Argument für die überzogenen GTX 1080 Preise heranziehst.

na ein argument ist es nicht ich stelle halt fest wie es nun mal aktuell so ist.
außerdem vergleiche ich 970er preise die lagen auch schon bei 300-350€ und die 1060 ist in etwa gleich schnell hat mehr speicher, da wurde ja das lineup etwas geändert.

Nein, ich will keine GTX 1080 für RX 580 Preise. Die RX 480 wurde damals als $199 Karte angekündigt, der "refresh" sollte nochmal günstiger sein. Eine 8GB RX 580 sollte bei um die 150€ liegen.
Die GTX 1080 ist jetzt 2 Jahre alt und im Abverkauf. zT kostet sie mehr als zum launch. Vollkommen überzogene Preise durch den mining boom.

Die billigsten 1060 gab es zur besten zeit auch für 220 und die 480 für 208€ mit 6/8gb.
I
Normal ist was anderes, zB 300€ für ne gute custon 1080 und ich greife zu.
unter 400€ kostete die 1070 vor dem boom teilweise gab es angebote für fast 350€ aber normal sind da immer um die 400 gewesen und auch bei einer neuen generation wird die 1080 nicht unter 400 fallen die darf ja nicht weniger kosten als die dann vermutete gleich schnelle 1170.

vielleicht fallen die preise ja jetzt noch ein wenig die neue generation wird dann aber wieder teurer werden

Kehaar
2018-07-23, 14:35:32
150€ für 580/8GB bzw. 1060/6GB Leistung? Ich sehe diese Preise auch für "richtig" an.

Bisschen weniger Träumerei wäre nicht verkehrt. Selbst unter normalen Umständen wären solche Preise fernab der Realität.Unter normalen Umständen wären diese Preise eben jetzt Realität! Und somit ist es auch keine Träumerei.

Mal sehen wie teuer Turing nun wirklich wird?

prinz_valium
2018-07-23, 14:41:44
na ein argument ist es nicht ich stelle halt fest wie es nun mal aktuell so ist.
außerdem vergleiche ich 970er preise die lagen auch schon bei 300-350€ und die 1060 ist in etwa gleich schnell hat mehr speicher, da wurde ja das lineup etwas geändert.

Die billigsten 1060 gab es zur besten zeit auch für 220 und die 480 für 208€ mit 6/8gb.

unter 400€ kostete die 1070 vor dem boom teilweise gab es angebote für fast 350€ aber normal sind da immer um die 400 gewesen und auch bei einer neuen generation wird die 1080 nicht unter 400 fallen die darf ja nicht weniger kosten als die dann vermutete gleich schnelle 1170.

vielleicht fallen die preise ja jetzt noch ein wenig die neue generation wird dann aber wieder teurer werden

Hatte meine 1070 Game Rock damals für 379 (inklusive Gears of War 4 Code, welcher für 30€ verkauft wurde) dank 15% Ebay Gutschein bekommen.

Das war das erste und letzte mal, dass es die 1070/80er günstig gab in 2016.
Danach gingen die Preise hoch. Jetzt sind wir immer noch nicht wieder dort angekommen.



Absolut glück gehabt. Aber die 11xx Serie sollte dann doch bitte mehr bei Preis-/Leistung bieten.
Alles über 400€ für eine gute custom 1170 finde ich persönlich zu teuer.

Leonidas
2018-07-23, 14:46:45
150€ für 580/8GB bzw. 1060/6GB Leistung?


Naja, zu früheren Zeiten gab es das aber durchaus: Karte launcht für 300€ und wird tendentiell immer günstiger, irgendwann geht sie bei 200€ aus dem Handel (keine Abverkaufsaktion).

Die 150€ für eine 580/8GB oder 1060/6GB hören sich krass an, sind aber gar nicht so weit weg. RX580/8GB hat einen Listenpreis von 229$, während 1060/6GB anfänglich schnell bei 250€ stand. Beachtbar unterhalb 200€ könnten derzeit beide Karten sein. Davon ausgehend ist es zu 150€ nicht mehr weit weg. So wenig ist das nicht für Karten mit Chips à 232mm² oder nur 200mm² Chipfläche sowie Verbrauchswerten bei ~165W bzw. ~120W.

aufkrawall
2018-07-23, 14:46:52
Danach gingen die Preise hoch. Jetzt sind wir immer noch nicht wieder dort angekommen.

Bei Media Markt gabs 1070 Ti MSI Gamings für 400€ ohne Gutschein.

ShinyMcShine
2018-07-23, 14:54:51
Alles über 400€ für eine gute custom 1170 finde ich persönlich zu teuer.

Ich denke, dass Du dann so schnell keine 1170 kaufen wirst... :wink:

prinz_valium
2018-07-23, 15:24:23
Bei Media Markt gabs 1070 TI MSI Gaming für 400€ ohne Gutschein.

Ja jetzt endlich wieder.
Hat auch nur 2 Jahre gedauert, bis man endlich wieder in normalen Regionen angekommen ist

Die 1070Ti gibt es ja eh noch nicht so lange.
Und das sind auch für mich die Preise, die höchstens zahlen würde.
Es ist immer noch ein 2 Jahre alter Chip.
Oder meintest du dieses Angebot https://www.mydealz.de/deals/mediamarkt-msi-geforce-gtx-1070-ti-gaming-8g-grafikkarte-1081966 ??
Glaube das funktionierte nicht. Oder nur bei ganz ganz wenigen...

Man könnte auch einfach in der Schweiz leben.
Dort gab es die 1070Ti schon für 330€. Aber alles andere ist dort eben teuer.



Ich denke, dass Du dann so schnell keine 1170 kaufen wirst... :wink:

Nein, ich kaufe sowieso nur alle 4 bis 6 Jahre neu.
Dann ist die alte Karte zwar nichts mehr Wert, aber was solls.

Bösewicht
2018-07-23, 15:57:05
nvidia kann mit seinen preisen kaum runter gehen so lange amd karten so teuer sind.
sollen die 1180 zum preis einer vega karte verkaufen?

w0mbat
2018-07-23, 15:59:38
Da ich mir demnächst sowieso einen neuen 1440p Monitor anschaffen will, muss Wohl oder Übel auch eine neue GPU her, die R9 290 fängt an aus den letzten Loch zu pfeifen.

Ich schiele schon auf eine GTX 1180/1170 das Geld ist da. Auch eine günstige 1080 wäre eine Überlegung wert, aber nur um die 300€.

robbitop
2018-07-23, 16:01:33
Eine 1080 ti gebraucht wäre sicher auch keine schlechte Wahl. Historisch war die xx80 Ti der alten Gen immer ähnlich schnell wie die xx80 NonTi der neuen Generation.

Dr. Lloyd
2018-07-23, 16:17:36
Wohl eher vergleichbar mit der xx70 Non-Ti... Die kommende GTX 1180 sollte sich von der GTX 1080 Ti deutlich absetzen können. Alles andere wäre für mich eine Enttäuschung.

MiamiNice
2018-07-23, 16:27:05
Dann wurdest Du wohl bisher (fast) immer enttäuscht ...

NV schreibt 1180+ zur selben Zeit wie 1170. Ist damit die TI gemeint?
Mehr Power muss her und 1180 klingt langweilig ohne TI. Klingt so nach Mittelklasse ;)

€: Irgendwie beschleicht mich das Gefühl einer 1180 mit 8GB und einer 1180+ mit 16GB ... :(

aufkrawall
2018-07-23, 16:32:34
Oder meintest du dieses Angebot https://www.mydealz.de/deals/mediamarkt-msi-geforce-gtx-1070-ti-gaming-8g-grafikkarte-1081966 ??
Glaube das funktionierte nicht. Oder nur bei ganz ganz wenigen...

Ich hatte Glück. :D

Ay, ist allerdings ziemlich OT. Gibt ja den Grafikkartenpreise-Thread...

Dr. Lloyd
2018-07-23, 16:37:15
Dann wurdest Du wohl bisher (fast) immer enttäuscht ...
Nö, bislang war es immer so. Die Werte in der aktuellen News auf der Startseite zeigen das auch.

Adam D.
2018-07-23, 16:38:13
€: Irgendwie beschleicht mich das Gefühl einer 1180 mit 8GB und einer 1180+ mit 16GB ... :(
Das hab ich auch sofort gedacht, auch wenn ich die Infos weiterhin mit großer Vorsicht betrachten würde. Möglicherweise auch mit höherem Speichertakt.

N0rG
2018-07-23, 17:01:39
€: Irgendwie beschleicht mich das Gefühl einer 1180 mit 8GB und einer 1180+ mit 16GB ... :(

Denk ich auch. Vielleicht gibts bei der 1180+ auch den full Chip und die normale hat ein oder zwei Cluster deaktiviert. Dann könnte NV die drei Karten mit jeweils 10-15% Leistungsdifferenz bringen.

iuno
2018-07-23, 17:09:14
NV schreibt 1180+ zur selben Zeit wie 1170. Ist damit die TI gemeint?
Vielleicht customs. Weiss nicht, ob die FE Aktion letztes mal bei den Partnern so gut ankam.

Birdman
2018-07-23, 17:24:05
Irgendwie beschleicht mich das Gefühl einer 1180 mit 8GB und einer 1180+ mit 16GB ... :(
Na ja, Sinn würde es markttechnisch sicher machen, denn eine Grafikkarte mit 16GB vRAM wäre für viele einfach zu teuer und der Nutzen dieser zus. 8GB aktuell zu gering.
Wenn nVidia mit vertretbarem Aufwand hier zwei Versionen anbietet, sind alle glücklich - die "Sparfüchse" und diejenigen welche immer den TopDog haben wollen.

Triniter
2018-07-23, 18:08:58
1180+ kannst fast nicht die Customs bedeuten. Weil sonst gäbe es auch 1170 und 1170+
Man wird wohl kaum von der 1170 nur ne FE anbieten. Damit würde man sich bei den Boardpartner sicher nicht beliebt machen wenn man gerade die 70er nicht für "alle" frei gibt. Denke mal mit der wird allein schon über die Stückzahl mehr Geld verdient.
Und dann heißt es noch "...as well as some other variants of the cards themselves"

Je öfter ich das lese desto mehr gehe ich von nem Fake aus. Oder es kommt tatsächlich 1170 mit 8GB, 1180 mit 8/16GB und 1180+ mit 16BG und sonst noch etwas mehr als die 1180. Aber das wäre dann eigentlich ein fast zu aufgeblähtes Lineup wenn man so anschaut was bisher immer so beim ersten Chiplaunch kam.

AffenJack
2018-07-23, 18:28:24
Je öfter ich das lese desto mehr gehe ich von nem Fake aus. Oder es kommt tatsächlich 1170 mit 8GB, 1180 mit 8/16GB und 1180+ mit 16BG und sonst noch etwas mehr als die 1180. Aber das wäre dann eigentlich ein fast zu aufgeblähtes Lineup wenn man so anschaut was bisher immer so beim ersten Chiplaunch kam.

Ne 1180+ macht nur Sinn, wenn die 1180 nur mit 8 GB kommt. Dann könnte man sich das vorstellen als extra Version, weil die Mehrkosten bei der 16GB Version ziemlich hoch werden. Bei Customs machts kein Sinn, wie du schon geschrieben hast. Generell ist es schwierig einzuschätzen, ob das wahr ist. Auf die Daten würde ich jetzt nicht soviel geben. Wenn man sowas verschickt, dann um einen groben Zeitplan zu haben. Solange im Vorraus steht noch nicht jedes Releasedate.

Bösewicht
2018-07-23, 18:39:55
1180+ klingt wie ein fake von einem apple iphone+ handy geschrieben:biggrin:

Triniter
2018-07-23, 19:27:28
Ne 1180+ macht nur Sinn, wenn die 1180 nur mit 8 GB kommt. Dann könnte man sich das vorstellen als extra Version, weil die Mehrkosten bei der 16GB Version ziemlich hoch werden. Bei Customs machts kein Sinn, wie du schon geschrieben hast. Generell ist es schwierig einzuschätzen, ob das wahr ist. Auf die Daten würde ich jetzt nicht soviel geben. Wenn man sowas verschickt, dann um einen groben Zeitplan zu haben. Solange im Vorraus steht noch nicht jedes Releasedate.

Mir geht es halt vor allem um den Satz: "...as well as some other variants of the cards themselves"
Also "genauso wie einige andere Varianten der Karten selbst."
Das ergibt halt so erst mal gar keinen Sinn und würde bedeuten man splittet die einzelnen Serien untereinander auf was beim bisherigen Lineup von Nvidia auch wieder wenig Sinn ergibt da man eigentlich von der GTX1050 bis hoch zur GTX1080TI jeden Markt bedienen kann, auch wenn durch das Mining die Preise zu weit nach oben getrieben wurden. Ich wüsste deshalb nicht wo in dem Lineup noch Platz wäre sofern es "normal" bepreist wäre.

Thunder99
2018-07-23, 20:09:46
Und am Ende es ist Fake :freak: :confused:

Also das mit 8GB für die 1180 und 16GB für die 1180+ ist jetzt nicht so unwahrscheinlich. AMD hat es vorgemacht mit der Vega 16GB Variante :wink:

Godmode
2018-07-23, 20:11:27
Hm, wenn der leak stimmt, gibt es also noch ziemlich große Restbestände der aktuellen Karten.

Aber die Preise sind mMn weiterhin so hoch, dass es keinerlei Anreiz gibt hier nicht auf die neuen zu warten. Eine GTX 1080 für <300€ würde ich mir ja überlegen, aber so können die gerne drauf sitzen bleiben.

Eben! Viele Miner würden ihnen die Karten wohl aus den Händen reißen, wenn sie doch nur vernünftig bepreist wären. Sonst wartet jeder halt auf Turing und sie bleiben auf den Altbeständen sitzen.

Rampage 2
2018-07-23, 20:21:28
Eben! Viele Miner würden ihnen die Karten wohl aus den Händen reißen, wenn sie doch nur vernünftig bepreist wären. Sonst wartet jeder halt auf Turing und sie bleiben auf den Altbeständen sitzen.


Sollen sie doch - ich kaufe mir garantiert keine 1070 mehr für 400€ :P


Nvidia sollte endlich mal mit dem Abverkauf beginnen - nur so werden sie die Pascal-Bestände los! Also 1070 runter auf 300€ und 1080 runter auf 400€ - das ist das Allermindeste, wenn von "Abverkaufspreisen" die Rede sein soll...


R2

horn 12
2018-07-23, 20:22:27
GTX 1180+ ist die Version mit 16 GB GDDR6 Speicher!

Digidi
2018-07-23, 20:23:52
Sollen sie doch - ich kaufe mir garantiert keine 1070 mehr für 400€ :P


Nvidia sollte endlich mal mit dem Abverkauf beginnen - nur so werden sie die Pascal-Bestände los! Also 1070 runter auf 300€ und 1080 runter auf 400€ - das ist das Allermindeste, wenn von "Abverkaufspreisen" die Rede sein soll...


R2

Das Geld mit Pascal wurde schon lange verdient und es werden nur noch wenige verkauft, selbst wenn sie die Preise jetzt massiv Senken. Deshalb hält man den Preis. Da kommt mehr raus.

Slipknot79
2018-07-23, 22:34:39
Als ob die 1180er Generation bei Releasepreisen bleiben wird. Die Miner werden notgeil und dann ballern auch hier die Preise insta rauf ;)
1180er könnt ihr somit vergessen zu "normalen" Preisen. :wink:

Monsta
2018-07-23, 23:03:58
Als ob die 1180er Generation bei Releasepreisen bleiben wird. Die Miner werden notgeil und dann ballern auch hier die Preise insta rauf ;)
1180er könnt ihr somit vergessen zu "normalen" Preisen. :wink:

Die Befürchtung habe ich auch.
Ich glaube der PC Gaming Markt leidet enorm durch die Miner.

Viele kaufen sicher nicht zu den Preisen oder wechseln zur Konsole.

Nuvirus
2018-07-23, 23:33:39
Ich hatte mal gelesen das die Hersteller der Karten die Preise von sich aus kaum senken können da die Marge gering ist, vermutlich macht Nvidia die Chips so teuer.
Jetzt haben die Hersteller schon ne Menge Chips wegen Minern zu hohen Preisen abgenommen können diese also ohne Verlust nicht günstig verkaufen selbst wenn Nvidia jetzt die neu abgenommen Chips vll sogar günstiger anibieten sollte.

Ich schätze auch das wenn ne 1180+ kommt diese mit 16GB kommt sofern die 1170 und evtl. 1180 nur 8GB haben was ich schon sehr wenig finden würde für die 1180.

iuno
2018-07-23, 23:34:50
Wer Angst vor steigenden, mining-getriebenen Preisen hat, kann ja direkt zum Launch bei der FE im Direktvertrieb zuschlagen. Denke nicht, dass es dort wirkliche Probleme geben wird. Das sind ja keine 7nm Chips und Nvidia begrenzt die Bestellmenge.

=Floi=
2018-07-23, 23:48:52
Naja, zu früheren Zeiten gab es das aber durchaus: Karte launcht für 300€ und wird tendentiell immer günstiger, irgendwann geht sie bei 200€ aus dem Handel (keine Abverkaufsaktion).

Die 150€ für eine 580/8GB oder 1060/6GB hören sich krass an, sind aber gar nicht so weit weg. RX580/8GB hat einen Listenpreis von 229$, während 1060/6GB anfänglich schnell bei 250€ stand. Beachtbar unterhalb 200€ könnten derzeit beide Karten sein. Davon ausgehend ist es zu 150€ nicht mehr weit weg. So wenig ist das nicht für Karten mit Chips à 232mm² oder nur 200mm² Chipfläche sowie Verbrauchswerten bei ~165W bzw. ~120W.


die 8GB Vram kosten aber für die großen hersteller sicherlich auch um die 100$ und deswegen sind solche preise imho nicht mehr machbar!
Damals war es durch die geringere masse sicher weniger relevant für den preis.

Rampage 2
2018-07-24, 00:24:41
Das Geld mit Pascal wurde schon lange verdient und es werden nur noch wenige verkauft, selbst wenn sie die Preise jetzt massiv Senken. Deshalb hält man den Preis. Da kommt mehr raus.

Auf der einen Seite wollen sie die Karten so schnell wie möglich loswerden, auf der anderen Seite wollen sie den Preis nicht senken, obwohl sie wissen, dass alle auf Turing warten - das ergibt keinen Sinn!

Und sorry, Pascal hätte schon längst im Preis gesenkt werden müssen (auch ohne Turing) - seit 2 Jahren hat sich am Preis nichts getan (außer bei 1080 und 1080 Ti) und die kleineren Pascals (1070 und drunter) befinden sich immer noch im exakt gleichen Preispunkt wie zu ihrem Release... :crazy:

R2

matty2580
2018-07-24, 00:57:57
Ich weiß nicht ob das hier schon thematisiert wurde.
Die einzelnen Releasedates von Turing aus dem Video halte ich für einen Fake, da der Nachfolger der 1070 später kommen soll als der Nachfolger der 1080. Der Nachfolger der 1060 dagegen kommt etwas "früh".

In dem Video ist aber auch die Rede von einem DX 12.5, oder anders geschrieben von einem DX 13, mit Schwerpunkt auf Raytracing.

https://www.youtube.com/watch?v=UBbyACygmAs&amp;t=1m28s

Wenn MS dieses neue DX 13 noch nicht fertig hat, würde dass gut erklären warum Turing sich verspätet, weil Nvidia darauf wartet. Vorausgesetzt natürlich das irgendwas an dem Gerücht wahr ist.

Langlay
2018-07-24, 08:01:01
I
Die einzelnen Releasedates von Turing aus dem Video halte ich für einen Fake, da der Nachfolger der 1070 später kommen soll als der Nachfolger der 1080.

Hinzu kommt der angebliche Lauchtag (30.09.18) der 1170 ist ein Sonntag.

Palpatin
2018-07-24, 08:10:40
Es könnte sein das es die Info gab das 1180 am 30.08. (Do) erscheint, die 1170 und 1180+ ein Monat später und die 1160 zwei Monate später. Vermutlich wurden für letztere den Boardpartnern da noch keine exakten Tages Termine genannt.

Leonidas
2018-07-24, 08:17:25
Support für nVidia-Chips GV102 & GV104 in PC-Analysetool "HWinfo":
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-juli-2018

Schreibfehler ... oder sind wir alle auf dem falschen Dampfer unterwegs?

HOT
2018-07-24, 08:18:33
Nö das wird schon richtig sein. NV wird ja die alten Designs nicht weggeschmissen haben, sondern hat diese nur verschoben - und sie bekomme jetzt halt GDDR6 statt GDDR5X. Turing heißen die ja nur deshalb, weil es eben leichter zu behaupten ist, dass die neu sind, als erklären zu müssen, dass die Designs schon ein Jahr da rumliegen.
Ich hatte ja eh den Verdacht, dass NV aufgrund des massiven Erfolgs des GV100 anfangs sämtliche 12nm-Kapazitäten dafür aufgebraucht hatten und das gar nicht mit viel unlukrativeren Consumer-Krempel teilen wollten.

BiZiNiZz
2018-07-24, 08:26:39
Weitere Theorie mit GV102 & GV104, eventuelle Quadro Karten für ein komplett getrenntes Profi Segment und Turing sofern nicht GV10X eine reine Gaming Architektur um unnötigen Ballast erleichtert.

Wir werden es hoffentlich soon™ sehen.

AffenJack
2018-07-24, 08:32:27
Support für nVidia-Chips GV102 & GV104 in PC-Analysetool "HWinfo":
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-juli-2018

Schreibfehler ... oder sind wir alle auf dem falschen Dampfer unterwegs?

Das eine sind Codenamen, interne Infors, und das andere Marketing, externe Infos. Gut möglich, dass die Chips noch relativ nah an Volta dran sind von der Architektur, man diese aber einfach fürs Marketing mehr von den Pro-Produkten abheben will und deshalb als Turing kommt.

Leonidas
2018-07-24, 08:34:35
Denkbare Auslegung. Trotzdem überraschend, normalerweise kann man ja einfach umbenennen.



Die einzelnen Releasedates von Turing aus dem Video halte ich für einen Fake, da der Nachfolger der 1070 später kommen soll als der Nachfolger der 1080. Der Nachfolger der 1060 dagegen kommt etwas "früh".


Das der Nachfolger der 1070 später kommt, ist normal. Maximal kommen Nachfolger für 1070 & 1080 gleichzeitig - wenn man es dagegen trennt, dann immer zuerst das höhere Modell. Es wird generell von oben nach unten releast - weil wenn nicht, dann zerstört eine 1160 als erste Karte das komplette Preisgefüge. Deswegen immer von oben nach unten (Ti als Ausnahme).

Das 1060 überraschend schnell kommt, dürfte mit der Turing-Verzögerung zusammenhängen. NV hat wohl alles schon halbwegs spruchreif und kann daher vergleichsweise schnell alles hintereinander abhandeln. Außerdem kommt 7nm vergleichsweise fix nachher, daher will NV sicherlich die neue Generation so schnell wie möglich komplett raushauen.

AffenJack
2018-07-24, 08:46:37
Denkbare Auslegung. Trotzdem überraschend, normalerweise kann man ja einfach umbenennen.

Codenamen sind wie gesagt für Intern gedacht. Da benennt man die Dinge nicht um, weil es sinnlos ist und niemanden der Name interessiert. Umbenennen kostet da eher nur Geld und GT gabs außerdem auch schon. Den Namen intern 2mal zu verwenden hat eine deutlich größere Gefahr, dass irgendwer etwas in Datenbanken sucht und dann versemmelt, als wenn es eigne konkrete Namen hat.

mironicus
2018-07-24, 09:13:55
Basieren die neuen 1180/1170 jetzt auf Volta oder auf Turing?

Leonidas
2018-07-24, 09:14:38
Codenamen sind wie gesagt für Intern gedacht. Da benennt man die Dinge nicht um, weil es sinnlos ist und niemanden der Name interessiert. Umbenennen kostet da eher nur Geld und GT gabs außerdem auch schon. Den Namen intern 2mal zu verwenden hat eine deutlich größere Gefahr, dass irgendwer etwas in Datenbanken sucht und dann versemmelt, als wenn es eigne konkrete Namen hat.


Das ist eine gute Erklärung: GT ist ja immer mißverständlich, also behält man es so bei.

MiamiNice
2018-07-24, 09:24:52
Es fühlt sich aktuell an als würde NV alle rollen. Ich denke aktuell das NV von Ihren bisherigen Releasemustern abweicht und uns diese Gen ein wenig überrascht. Ich glaube fast schon an die 1080TI als erstes, 1080 und 1070 dann zusammen als nächstes. NV hat es nicht (mehr) nötig öfter in einer Generation die schnellste Karte zu haben und selbst wenn die TI zuerst kommt, setzt man mit der Titan noch einen für Image oben drauf. Kein Arsch braucht imho die neue Mittelklasse aka 1180 zuerst. Zuerst die neue High End Lösung 1180TI, dann der neue Mainstream 1170/1180 und dann Enthusiast mit der Titan.
An den Preisen können sie Aufgrung der Minern kaum noch spielen - auch von daher macht es kaum Sinn öfter die schnellste Karte zu releasen - das macht man fürs Image oder eben damit man mehr Geld verlangen kann. Ersteres hat NV nicht mehr nötig und letzteres wird kaum noch gehen da Preise eh schon durch die Decke.

AffenJack
2018-07-24, 09:25:34
Basieren die neuen 1180/1170 jetzt auf Volta oder auf Turing?

Ich ging immer von aus, dass Turing = Volta + Gamingoptimierung (Alles von DX12 etc.)

@MiamiNice
Ne 1180Ti kommt auf keinen Fall als erstes. Wenn dann würde die Titan als erste kommen und da wird es zumindest 3 Monate zur Ti dauern.

MiamiNice
2018-07-24, 09:34:19
Eine Titan als erstes halte ich für unwahrscheinlich. Quasi alle warten auf die neue Generation und NV bringt eine Karte die sich 1% aller Gamer leisten können/wollen. Erzeugt imho zu viel negative Presse/Gefühle.

HOT
2018-07-24, 11:11:25
Volta kann doch eh schon aync compute oder nicht?

dildo4u
2018-07-24, 11:14:30
Ja.

https://abload.de/img/nvidia-titan-v-sniperxii08.png

Troyan
2018-07-24, 11:17:37
Pascal kann schon Async Compute. Was sollen solche Trollfragen?

Rancor
2018-07-24, 11:41:06
Pascal kann Preemption.. Richtiges AC kann es nicht.

AffenJack
2018-07-24, 11:50:20
Oh Gott, jetzt macht doch nicht wieder das Fass auf. Auch wenn es manche nicht glauben mögen, so besteht DX12 doch aus mehr Features als Async Compute. Von diesen fehlen Volta noch einige. Man ist größtenteils auf dem gleichen Feature Level wie Pascal. Vielleicht waren einige davon auch gar nicht so leicht einzubauen und deshalb ist der Abstand zwischen Volta und seinen Gamingablegern so groß.

Bucklew
2018-07-24, 11:51:52
Richtiges AC kann es nicht.
Erkläre doch mal kurz, was "Richtiges AC" sein soll.

robbitop
2018-07-24, 12:08:50
Mit Quick Response Queue lässt sich die Auslastung ggü Premtion erhöhen:
https://www.bit-tech.net/reviews/tech/graphics/amd-radeon-rx-480-8gb-review/3/

Würde sicherlich auch etwas bei NVs mArch bringen - aber sicherlich weniger als bei GCN, da die Auslastung seit Maxwell der ALUs ein gutes Stück höher liegt.

Ist aber nichts, was einer DX12 compliance im Wege stehen würde. Die Implementierung in HW kostet sicherlich auch wieder Transistoren.

Wie ist da eigentlich bei Volta der Stand? Der hatte IIRC deutlich mehr von AC profitiert als Pasal, oder? Das würde implizieren, dass dort QRQ implementiert ist?

Raff
2018-07-24, 12:12:43
1180+ klingt wie ein fake von einem apple iphone+ handy geschrieben:biggrin:

Nvidia hatte schon "+"-Versionen zur G92-Ära. Da gab's Rebrands mit diesem Anhängsel. (http://www.nvidia.de/object/geforce_9800gtx_plus_de.html) Komplett aus der Luft ist das also nicht, aber unwahrscheinlich, da es genug Zahlen zur Differenzierung gibt.

Basieren die neuen 1180/1170 jetzt auf Volta oder auf Turing?

Wo ist die Grenze? Was macht einen Codenamen aus? Ist Vega M eher Polaris oder Vega? :)

MfG,
Raff

gravitationsfeld
2018-07-24, 12:14:15
Erkläre doch mal kurz, was "Richtiges AC" sein soll.
Thread groups von async und gfx sind gleichzeitig auf dem selben SM/CU. Ansonsten bring es fast nichts.

Das erlaubt dem Chip die z.B. ALUs auszulasten, selbst wenn GFX shader auf Speicherzugriffe warten müssen.

Troyan
2018-07-24, 12:15:55
Mit Quick Response Queue lässt sich die Auslastung ggü Premtion erhöhen:
https://www.bit-tech.net/reviews/tech/graphics/amd-radeon-rx-480-8gb-review/3/

Würde sicherlich auch etwas bei NVs mArch bringen - aber sicherlich weniger als bei GCN, da die Auslastung seit Maxwell der ALUs ein gutes Stück höher liegt.

Ist aber nichts, was einer DX12 compliance im Wege stehen würde. Die Implementierung in HW kostet sicherlich auch wieder Transistoren.

Wie ist da eigentlich bei Volta der Stand? Der hatte IIRC deutlich mehr von AC profitiert als Pasal, oder? Das würde implizieren, dass dort QRQ implementiert ist?

Ohje... Preemption und Async Compute haben nichts gemein. "Quick Response Queue" ist die "poor man's" version vom granularen Preemption, weil man auf zu hoher Ebene erst die Abarbeitung unterbrechen kann.

Pascal ist im Bereich AMD meilenweit voraus und Async Compute ist eben auch aufgrund des Compute-Aufbaus bei nVidia limitiert. Das ist jedoch irrelevant, da Async Compute keine Hardwarevoraussetzung vorschreibt.

Thread groups von async und gfx sind gleichzeitig auf dem selben SM/CU. Ansonsten bring es fast nichts.

Das erlaubt dem Chip die ALUs auszulasten, selbst wenn GFX shader auf Speicherzugriffe warten müssen.

Nette Fake-News.

HOT
2018-07-24, 12:15:59
Pascal profitiert in der Praxis so gut wie nie und wenn dann fast nicht von async compute. Zwar kann er Preemtion, jedoch ist das nur ne Krücke um das Feature dranschreiben zu können, und dass es wenigstens keine Nachteile hat.
Wie dem auch sei, diese Diskussion ist eh absurd, da Volta ja mWn hinreichend flexible SMs hat und damit auch in der Lage ist, die SMs mit Compute und Grafik gleichzeitig zu füttern.

Troyan, das mit dem Troll geb ich mal zurück, du biegst dir das schön so zurecht wie dir das genehm ist.

gravitationsfeld
2018-07-24, 12:19:28
Ich hab es oft genug erlebt, dass async auf NV langsamer ist. Das shipt halt keiner zum Kunden.

Troyan
2018-07-24, 12:20:45
Pascal profitiert in der Praxis so gut wie nie und wenn dann fast nicht von async compute. Zwar kann er Preemtion, jedoch ist das nur ne Krücke um das Feature dranschreiben zu können, und dass es wenigstens keine Nachteile hat.
Wie dem auch sei, diese Diskussion ist eh absurd, da Volta ja mWn hinreichend flexible SMs hat und damit auch in der Lage ist, die SMs mit Compute und Grafik gleichzeitig zu füttern.

Verbreite deine Fake-News doch bitte woanders. Pascal kann parallel GFX und Compute Queue abarbeiten. Damit unterstützt die Hardware richtiges AC.

Ansonsten sollten wir mal über die Fake-DX11-Hardware von AMD reden, die kann dann auch kein richtiges Tessellation. ;D

Ich hab es oft genug erlebt, dass async auf NV langsamer ist. Das shipt halt keiner zum Kunden.

Und? Shippt ja auch keiner Tessellation, weil die grottige AMD Hardware dafür ungeeignet ist. Leistungsverlust != richtig.

AffenJack
2018-07-24, 12:21:10
Ich hab es oft genug erlebt, dass async auf NV langsamer ist. Das shipt halt keiner zum Kunden.

Hattest du eigentlich mal ne Titan V in deinen Fingern und kannst zu der was sagen? Nicht nur Async, das Resource Binding hattest du ja auch bemängelt bei Pascal meine ich.

dargo
2018-07-24, 12:28:16
Ansonsten sollten wir mal über die Fake-DX11-Hardware von AMD reden, die kann dann auch kein richtiges Tessellation. ;D

Trollmodus wieder in Bestform heute?
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-tessellation-rise-of-the-tomb-raider

In RotTR verliert Vega mit Tesselation weniger als Pascal, genau genommen tut das selbst Polaris schon in diesem Spiel. :ulol: In Witcher 3 sieht es wieder anders aus. Schade, dass die CB sich nicht noch mehr Games diesbezüglich angeschaut hatte.

gravitationsfeld
2018-07-24, 12:54:44
Und? Shippt ja auch keiner Tessellation, weil die grottige AMD Hardware dafür ungeeignet ist. Leistungsverlust != richtig.
Was genau ist dein Punkt? Man schält es für bestimmte Teile des Frames ab, wenn es halt langsamer ist mit aync auf NVidia. Auf AMD lässt man es natürlich an.

Was hat das mit Tesselation zu tun? Async compute ist eine reine Performance-Optimierung und kein Grafik-Feature. Äpfel und Birnen.

Und nein, Tesselation wird nicht deshalb nicht benutzt weil es auf AMD langsam ist. Der standardisierte Algorithmus hat viele Probleme. Da sind aber alle IHVs daran schuld, das war design by committee.

robbitop
2018-07-24, 13:08:04
IIRC wird es laut DF bei Battlefield 5 recht intensiv genutzt.

gravitationsfeld
2018-07-24, 13:10:00
Ja, und es schwimmt rum und sieht aus wie Arsch.

dargo
2018-07-24, 13:41:20
Ja, und es schwimmt rum und sieht aus wie Arsch.
Meinst du so. :biggrin:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11734454&postcount=1098
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11734653&postcount=1106

gravitationsfeld
2018-07-24, 13:44:10
Ja, das illustriert das Problem sehr gut. Das bekommt man nur weg wenn man maßlos übertrieben hohe Tesselations-Faktoren benutzt wie damals Crysis 2.

aufkrawall
2018-07-24, 13:49:50
Und wo sieht das in BF1 so aus?

Troyan
2018-07-24, 13:52:37
Was genau ist dein Punkt? Man schält es für bestimmte Teile des Frames ab, wenn es halt langsamer ist mit aync auf NVidia. Auf AMD lässt man es natürlich an.

Dann sollte man es optimieren. Dachte das wäre das tollste an Low-Level-Programmierung. ;D


Was hat das mit Tesselation zu tun? Async compute ist eine reine Performance-Optimierung und kein Grafik-Feature. Äpfel und Birnen.

Tessellation ist exakt das selbe.


Und nein, Tesselation wird nicht deshalb nicht benutzt weil es auf AMD langsam ist. Der standardisierte Algorithmus hat viele Probleme. Da sind aber alle IHVs daran schuld, das war design by committee.

Deswegen funktioniert es überall eigentlich ziemlich gut, wo es eingesetzt wird? Irgendwie perfide etwas, was selbst von Indie-Entwicklern fehlerfrei umgesetzt wird, mit "viele Probleme" zu beschreiben, wenn die eigenen Spiele geometriemäßig aus dem letzten Jahrzehnt stammen könnten.

Sind wir ehrlich: AMD gekaufte Entwickler werden den Teufel tun grafisch die Techniken einzusetzen, die AMD schaden. Also weniger Fake-News und mehr Ehlichkeit.

Ja, das illustriert das Problem sehr gut. Das bekommt man nur weg wenn man maßlos übertrieben hohe Tesselations-Faktoren benutzt wie damals Crysis 2.

"Maßlos" - wieder so eine Fake-News. Ich dachte der Sinn des "maßlosen" liegt genau darin, dass man kein Morphen sehen kann. Der Leistungsverlust von Tessellation in Crysis 2 lag z.B. bei im Schnitt 15% auf Fermi. Wenn das schon "maßlos" ist, dann gute Nacht.

dargo
2018-07-24, 14:07:17
Und wo sieht das in BF1 so aus?
War die Rede nicht von BF5?

Raff
2018-07-24, 14:15:09
Ich habe BF1 erst vor zwei Wochen durchgespielt und da sah's definitiv recht sauber aus.

MfG,
Raff

gravitationsfeld
2018-07-24, 14:15:24
Dann sollte man es optimieren. Dachte das wäre das tollste an Low-Level-Programmierung. ;D
Ich habe dich wirklich satt langsam. Da gibt es nichts zu optimieren. Wenn alle SMs mit Grafik beschäftigt sind bekommst du keinen einzigen Async-Compute-Warp gescheduled. Da kann man "low-level programmieren" wie man will. Es wird nur langsamer.

Auf den anderen Scheiß geh ich schon gar nicht mehr ein. 15% Leistungsverlust für ein paar Ritzen in der Wand sind ein schlechter Scherz. Da brauchst du keine Verschwörungen bemühen.

Gipsel
2018-07-24, 14:40:39
Und jetzt kommen wir bitte wieder zum Thema zurück!

Danke.

aufkrawall
2018-07-24, 14:43:01
War die Rede nicht von BF5?
Sah jetzt bei dem gezeigten Material imho nicht anders aus als bei 1 bzw. kann man in den Matsch-Videos eh nicht erkennen, ob da was warpt.
In BF1 siehts jedenfalls klasse aus und das Spiel läuft mit den gleichen fps wie Fortnite...
(Schlimm sehen in dem Spiel eher Interiors aus.)

Rancor
2018-07-24, 15:03:44
Also ich mag Tesselation auch sehr. Es ist mir bisher auch nur in AC Origins negativ aufgefallen. In ME:A, BF1, allgemein in Frostbite, sieht es imho gut aus !
AMD hat nicht umsonst die Tesselierungsleistung mit VEGA gesteigert ;)

Ob Turing nun ähnlich stark von AC profitiert, wie es AMDs Architekturen tun, ist doch eigentlich egal. Hauptsache es wird nicht langsamer dadurch :freak:

Thread groups von async und gfx sind gleichzeitig auf dem selben SM/CU. Ansonsten bring es fast nichts.

Das erlaubt dem Chip die z.B. ALUs auszulasten, selbst wenn GFX shader auf Speicherzugriffe warten müssen.

Danke ;)

@ Troyan

:facepalm:

Mehr braucht man da zur dir eigentlich nicht mehr sagen.

Jupiter
2018-07-24, 15:08:46
Battlefront (2015), Battlefront 2 und Battlefield V haben die beste Performance und mit die beste Optik. Trotz sehr viel Tesselation und ich sehe da nichts schwimmen. Anthem nutzt auch reichlich Tesselation und da sehen Umgebungen mal glaubwürdig aus. Ohne Tesselation sehen Videospiele mit Böden sehr primitiv und eckig aus. Mal sehen ob sich die Tesselationsleistung mit Turing weiter verändert. Die letzten AMD-Karten liefen bei Wildlands mit sehr viel Tesselation sogar etwas besser.

Leonidas
2018-07-24, 16:01:41
Völlige Ignoranz der Mod-Schelte?


BTT: Für mich sieht es fast so aus, als hätte NV Turing derart verzögert, das man nun gleich die ersten 3 Grafikchips gleichzeitig bringen könnte. Macht man real nicht ganz, aber fast.

Hintergrund könnte auch sein, das Turing nun der ersten 7nm-Generation halbwegs nahe kommt. Deswegen dürfte es wichtig sein, Turing *jetzt* rauszuhauen, damit die Chips & Karten ihre Zeit bekommen, sich zu verkaufen bzw. zu amortisieren.

Unklar ist, ob GT107 und GT108 nun schnell nachfolgen, oder ob NV diese eventuell ausläßt.

Ich denke, NV ist daneben bereits in den Vorbereitungen zur ersten 7nm-Generation, die vielleicht Ende 2019 oder Anfang 2020 erscheint. Die Chipflächen dürften dann wieder humaner werden, auch weil 7nm-Transistoren (bei TSMC) bannig Geld kosten.

N0rG
2018-07-24, 17:15:08
Ich könnte mir sogar vorstellen, dass es nur einen Turing Chip gibt... quasi als kleine Zwischenmahlzeit bis 7nm startklar ist.

Hübie
2018-07-24, 17:22:56
GTX 1180+ ist die Version mit 16 GB GDDR6 Speicher!

Es kann auch einfach alles oberhalb der 1180 sein...

Adam D.
2018-07-24, 17:28:14
BTT: Für mich sieht es fast so aus, als hätte NV Turing derart verzögert, das man nun gleich die ersten 3 Grafikchips gleichzeitig bringen könnte. Macht man real nicht ganz, aber fast.
Wäre ich Nvidia, würde ich Turing einfach nicht so nah an den ersten 7nm-Chip rankommen lassen (dessen Performance-Target wohl inzwischen gut abschätzbar sein dürfte). Stiehlt dir ja aktuell (und offenbar auch in nächster Zeit) keiner die Show. Dass Turing komplett in 2018 launcht, ist aber tatsächlich aufgrund von 7nm wahrscheinlich.

Ich kann mir gut vorstellen, dass Nvidia nach dem Vega-Launch erstmal kurz ins Grübel geraten ist, ob man 12nm überhaupt breit launcht. Mitte 2019 direkt auf 7nm zu gehen, hätte ja auch gereicht. So macht man es halt safe, für den Fall, dass 7nm doch nicht der heilige Gral ist was Verfügbarkeit/Yields etc. angeht.

Bösewicht
2018-07-24, 17:43:38
gucke ich mir so was hier an
https://store.steampowered.com/hwsurvey
( ja ja spart euch das ist eh alles fake)
fällt mir eigentlich auch kaum ein grund wieso eile für nvidia.

die standard kunden kommen sicher noch gut mit ihren 1060 karten klar und aufgrund des stillstandes geht es preislich ehr noch rauf also ich frage wirklich ernst wem außer denn paar freaks bringt das was.

AffenJack
2018-07-24, 17:53:53
Also für mich zeigt die Survey gerade, wieso Turing kommen muss. In den Top 6 sind 4 Pascalkarten. Da ist ein guter Teil des Marktes schon versorgt und es werden natürlich noch Pascal verkauft, aber eben nicht mehr so viele, weil viele schon welche haben. Ein guter Teil der Leute wird relativ schnell zu Turing wechseln wollen.

Adam D.
2018-07-24, 18:09:11
Also für mich zeigt die Survey gerade, wieso Turing kommen muss. In den Top 6 sind 4 Pascalkarten. Da ist ein guter Teil des Marktes schon versorgt und es werden natürlich noch Pascal verkauft, aber eben nicht mehr so viele, weil viele schon welche haben. Ein guter Teil der Leute wird relativ schnell zu Turing wechseln wollen.
Warum wollen die das denn? 65% in der Survey spielen in 1080p oder 1440p. Außer mit jeder Turing-Karte gibt es jetzt noch einen neuen Monitor dazu :eek:

Geächteter
2018-07-24, 18:21:58
Warum wollen die das denn? 65% in der Survey spielen in 1080p oder 1440p. Außer mit jeder Turing-Karte gibt es jetzt noch einen neuen Monitor dazu :eek:
Vielleicht legen die halt Wert auf flüssige Bildraten?
Gibt zig Fälle in Spielen, wo meine GTX 1080 schon im popeligen Full HD "versagt", sprich fühlbar plötzlich unrund läuft. Und das ohne jegliche Kantenglättung.
Also mitnichten, dass man schon genug Power mit für 1080p da wäre, ohne gleich mindestens zur ne TI eher Titan (V) greifen zu müssen.
wobei man von Turing sich imo auch keine Riesenboosts erwarten sollte. IMO ist man schon mehr als gut bedient, wenn pro Chip ein Drittel Mehrleistung gegenüber seinem kleinen 10er-Namenspendant rauskommt.

prinz_valium
2018-07-24, 18:40:41
spam

Adam D.
2018-07-24, 18:43:05
Vielleicht legen die halt Wert auf flüssige Bildraten?
Gibt zig Fälle in Spielen, wo meine GTX 1080 schon im popeligen Full HD "versagt", sprich fühlbar plötzlich unrund läuft. Und das ohne jegliche Kantenglättung.
Also mitnichten, dass man schon genug Power mit für 1080p da wäre, ohne gleich mindestens zur ne TI eher Titan (V) greifen zu müssen.
wobei man von Turing sich imo auch keine Riesenboosts erwarten sollte. IMO ist man schon mehr als gut bedient, wenn pro Chip ein Drittel Mehrleistung gegenüber seinem kleinen 10er-Namenspendant rauskommt.
Ehm, definierst du alles unter 100fps als "unrund"? :freak:

Grendizer
2018-07-24, 18:48:02
Vielleicht legen die halt Wert auf flüssige Bildraten?
Gibt zig Fälle in Spielen, wo meine GTX 1080 schon im popeligen Full HD "versagt", sprich fühlbar plötzlich unrund läuft. Und das ohne jegliche Kantenglättung.


Das bräuchte ich jetzt aber mal Beispiele. Ich selber spiele mit meiner 1080(@1950/5700 Mhz) auf QHD und habe in meine Bibliothek außer Forza Horizon 3 und Forza 7 nichts was unrund läuft.

Geächteter
2018-07-24, 18:51:43
Ehm, definierst du alles unter 100fps als "unrund"? :freak:
Nein, aber unter 60 fps je nach Engine halt.
GTA V kann man beispielsweise nicht voll aufdrehen, ohne es an manchen Stellen unrund läuft, von Supersampling kann man nur träumen. Aktuell zocke ich Watch Dogs 2, das Spiel bräuchte wegen des penetranten Aliasings an Gebäuden dringend AA, kann es aber nicht anwählen, weil jetzt schon so sehr oft 40 fps oder weniger drin sind und das ist fühlbar zuckelig. Mit Kantenglättung sinds dann nur noch 30 fps.
Dabei ist Tiefenunschärfe, Bewegungsunschärfe aus, Schatten auch "nur" Ultra und Zusatzdetails bei 50 %.
Wobei ich meine 1080 auch nicht voll ausrotze wegen des Kühlers, sondern so ca. mit 1850 Mhz/5500 Mhz fahre, aber die die 150 Mhz mehr würden es auch nicht retten. Im Treiber natürlich immer Hohe Qualität und 16xAF.

crux2005
2018-07-24, 19:25:30
Die Spiele haben sich in den letzten 5 Jahren nur minimal Grafisch weiterentwickelt. Ich merke das gerade so stark wo ich Assassin's Creed Unity spiele. Das Spiel mit allen Grafikeinstellungen auf Ultra (HBAO+, PCSS, TXAA) sieht noch immer beeindruckend aus und zwingt die GTX 980 Ti auch in die Knie (30 FPS ahoi in manchen Szenen). Trotzdem ist es sehr gut spielbar.

Einerseits sind wir am Punkt angelangt wo nicht mehr große Sprünge in der Grafikqualität möglich sind. Anderseits haben die Konsolen auch einen Teil dazu beigetragen. Der VRAM Verbrauch von Unity ist oft 1-1,5 GiB höher als in Origins und das merkt mann auch bei den Texturen. PC Spiel vs. "Konsolen Port".

Wie du also nicht mit der GTX 1080 in HD alles flüssig spielen kannst ist mir ein Rätsel. Evtl. bin ich dank G-sync auch zu verwöhnt. Bis 2019 werde ich sicher keine neue Grafikkarte brauchen. Die meisten Spiele sind gut genug optimiert oder nicht anspruchsvoll genug. Ein "Crysis 4" brächte die Branche...

Mortalvision
2018-07-24, 19:34:52
Moment! Die Grafikqualität geht noch um einiges höher! Aber das wird so verflucht aufwändig, das in die Engine zu programmieren, und noch fürchterlicher, das mit content zu füllen. Das geht immo einfach nicht für ein Entwickler Studio.


https://onlandscape-pullzone-heyqa02xvhohdyshyl51qdqk.netdna-ssl.com/wp-content/uploads/2017/12/4x4-8.jpg?iv=137

Vs


https://d2gg9evh47fn9z.cloudfront.net/800px_COLOURBOX8204322.jpg

BiZiNiZz
2018-07-24, 20:01:52
Moment! Die Grafikqualität geht noch um einiges höher! Aber das wird so verflucht aufwändig, das in die Engine zu programmieren, und noch fürchterlicher, das mit content zu füllen. Das geht immo einfach nicht für ein Entwickler Studio.



Ich bin mir ehrlich gesagt unschlüssig ob ich so etwas überhaupt in Spielen möchte. Da kann ich auch gleich vor die Tür gehen. Wenn die Spiele irgendwann so aussehen sollten, wird die Spielzeit vermutlich noch kürzer als sie jetzt bei vielen Titeln schon ist..... darauf kann ich verzichten. Lieber solide Grafik, Story und Gameplay bevor das RL nachgebildet wird.

Godmode
2018-07-24, 21:45:15
Moment! Die Grafikqualität geht noch um einiges höher! Aber das wird so verflucht aufwändig, das in die Engine zu programmieren, und noch fürchterlicher, das mit content zu füllen. Das geht immo einfach nicht für ein Entwickler Studio.


https://onlandscape-pullzone-heyqa02xvhohdyshyl51qdqk.netdna-ssl.com/wp-content/uploads/2017/12/4x4-8.jpg?iv=137

Vs


https://d2gg9evh47fn9z.cloudfront.net/800px_COLOURBOX8204322.jpg

Mit den richtigen Tools wird IMHO auch das Content-Problem zu lösen sein.

Hübie
2018-07-25, 15:28:26
Wo wir gerade von Tools sprechen:

https://blogs.msdn.microsoft.com/pix/2018/07/24/pix-1807-19-shader-table-viewer/

The Shader Table Viewer has been added to the Pipeline View, which provides deep insight into a raytracing shader table’s contents.

Thunder99
2018-07-25, 19:02:08
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-24-juli-2018

Würde mich nicht wundern. Hab ja auch schon spekuliert, dass es nicht ein GTxxx Chip wird, da es schon GT2xx GPUs gab bei Nvidia.

Adam D.
2018-07-26, 17:00:56
https://www.digitimes.com/news/a20180726PD211.html

Nvidia's GeForce GTX 1180 is manufactured via Taiwan Semiconductor Manufacturing Company's (TSMC) 12nm process and the GPU giant reportedly will release a GPU made using TSMC's 7nm process at the end of 2018.
Ampere in 7nm schon dieses Jahr?

Nvidia reportedly is set to roll out its GeForce GTX 1180 series graphics cards at the end of August, followed by the launch of its GeForce GTX 1170 series at the end of September and GeForce GTX 1160 series a month later, according to industry sources.

Scheint sich der Zeitplan des Gamer-Meld-Gerüchts zu bewahrheiten.


https://videocardz.com/76839/nvidia-geforce-gtx-11-20-series-rumor-roundup-1

According to multiple sources, NVIDIA will launch the new series in September. We are talking about a hard launch (availability) here.

Dural
2018-07-26, 19:49:40
Das der gv100 nachfolger in 7nm kommt war doch klar, mit 12nm und 800mm2 geht einfach nicht mehr viel.

Auf turing freue mich überhaupt nicht, könnte die erste generation sein die ich aus lasse, das ding ist technisch schon beim start praktisch veraltet :( um 2017/2018 wärs ok gewesen.

Digidi
2018-07-26, 21:04:03
Vermute mal gv102 und 104 kommen mit 700 und 550mm2 12nm die nächste ga100 kommt in 7nm

Adam D.
2018-07-26, 21:37:11
https://wccftech.com/nvidias-next-generation-graphics-cards-specifications-pricing-and-nomenclature-details/

WCCFTECH spekuliert (mit den wie immer dubiosen Quellen) genau das, was ich seit längerem befürchtet habe: Turing ersetzt Pascal nicht, sondern wird einfach über drüber platziert mit drei SKUs: 120W 8GB, 150W 8GB, 180W 11GB, preislich 499, 599, 699$++. 1080 Ti soll um 100$ fallen, 1080 um 50$. Release in kurzen Abständen im September.

150W-Turing und GP102 wären dann auf demselben Preispunkt, ersterer vielleicht mit mehr Leistung, letzterer mit mehr Speicher.

Wie dem auch sei, das ist exakt das, was passiert, wenn der Marktführer keine Konkurrenz bekommt. Darf man zwei Jahre nach Launch immer noch 450€ zahlen für die krüppelige 1080. So wird man wahrscheinlich Pascal abverkaufen und irgendwann dann Mitte 2019 die Preise anpassen.

Wenn das so eintritt, bin ich auf jeden Fall raus, das Spielchen spiele ich nicht mit.

HOT
2018-07-26, 22:09:49
Das wird so nicht stimmen, man wird GP102 damit auch aussortieren und 1070/1080 ebenfalls. Die 1070 hat einfach keinen Platz mehr im Lineup und man wird alle GDDR5X-Produkte generell einstellen, weil man den Speicher nicht weiterproduzieren wird. Einzig die 1070Ti wird übrigbleiben als Performanceprodukt für ca. 300-350€ und für die stärker gesalvagten GP104 hat man ja das 1060er GP104-Package geschaffen. Aber das hab ich mir gleich gedacht, dass es kein komplettes Lineup gibt, das macht einfach sehr wenig Sinn. Und die Namensgebung ist dem entsprechend angepasst, daher die 1180 und nicht 2080.
Mit 8GB ist das allerdings ein Rohrkräpierer, ich hatte das Produkt eigentlich als Nachfolger für meine RX480 fest eingeplant, so aber fällt das leider komplett aus, da vollkommen uninteressant dank mangelhafter Speicherbestückung.

Also bleibt es so:
1060 6GB -> GP106/GP104 salvage 250€
1070Ti/1160 8GB -> GP104 350€ Nuvirus thx für den Einwand, passt auch gut
1170 8GB -> GV104 450€
1180 8GB -> GV104 550€
1180+ 11GB -> GV102 salvage 700€+
Titan T 12GB -> GV102 1000€+

Man muss dazu sagen: Einge könnten sich schon ziemlich verarscht vorkommen, denn genau dieses Lineup wäre sicherlich Ende 2017 problemlos möglich gewesen mit GDDR5X-Speicher. Es gab mMn nur rein wirtschaftliche Gründe für die Verschiebung und man kann echt nur hoffen, dass 7nm Navi denen richtig auf den Sack haut, damit die so ne bescheuerte Nummer nicht nochmal durchziehen.

Nuvirus
2018-07-26, 22:12:48
Evtl wird ja der GP104 auch als Refresh in der 1160 Reihe dann gebracht was es natürlich nicht besser macht.

Adam D.
2018-07-26, 22:23:29
Das wird so nicht stimmen, man wird GP102 damit auch aussortieren und 1070/1080 ebenfalls. Die 1070 hat einfach keinen Platz mehr im Lineup und man wird alle GDDR5X-Produkte generell einstellen, weil man den Speicher nicht weiterproduzieren wird. Einzig die 1070Ti wird übrigbleiben als Performanceprodukt für ca. 300-350€ und für die stärker gesalvagten GP104 hat man ja das 1060er GP104-Package geschaffen. Aber das hab ich mir gleich gedacht, dass es kein komplettes Lineup gibt, das macht einfach sehr wenig Sinn. Und die Namensgebung ist dem entsprechend angepasst, daher die 1180 und nicht 2080.
Mit 8GB ist das allerdings ein Rohrkräpierer, ich hatte das Produkt eigentlich als Nachfolger für meine RX480 fest eingeplant, so aber fällt das leider komplett aus, da vollkommen uninteressant dank mangelhafter Speicherbestückung.
Also ich finde zum ersten Mal, dass ein Artikel von denen Sinn ergibt. Klar, Nvidia werden bestimmt nicht noch massig Pascal-Chips produzieren, die Restbestände von Pascal werden in den nächsten Monaten verkauft für leicht angepasste Preise. Wenn AMD dann irgendwann mit Navi ankommt, wird Turing entsprechend preislich angepasst. GP104 dürfte selbst im 300-400€-Segment immer noch mehr als genug Marge abwerfen. GP102 hat es schwer, die Lieferbarkeit in den USA ist ja bereits limitiert, der wird dann recht schnell verschwinden.

Ich mein, Nvidia hat die Chips, darauf deuten alle Gerüchte der letzten Zeit hin. Und sie haben die einmalige Marktsituation, den alten Kram zu guten Preisen loszuwerden und die neue Generation einfach drüber zu platzieren.

AffenJack
2018-07-26, 22:44:40
Früher hat wccftech wenigstens noch versucht einen gewissen Sinn in manchen Spekulationen zu haben, aber das ist ja mal soweit ab vom Schuss. Rofl. Das ganze ergibt hinten und vorne keinen Sinn. Bestimmt kommt GV(T)102 mit nur 180 W, denn Gx104 wird bestimmt kein größeres Speicherinterface als 256Bit bekommen. Da ist der Fake 3dmark score ja glaubwürdiger.

Leonidas
2018-07-27, 06:07:00
Wenn WCCF Tech ohne Quelle berichtet und selbige nicht irgendwann später auftaucht, dann hat WCCF auch keine Quelle - und reimt sich das selber zusammen. Ist erst einmal legal - aber dies dann damit zu schmücken, es hätte eine Quelle, grenzt an Fake-News.

Nebenbei erreicht man mit den Zusammenreimungen meistens irgendwelche Überschneidungen mit der Wahrheit, rein informationstechnisch ist dies zumeist nie gänzlich falsch.

PS: Was WCCF berichtete, stammt wahrscheinlich zum Teil von hier:
https://www.chiphell.com/forum.php?mod=viewthread&tid=1884885&extra=page%3D1%26filter%3Dtypeid%26typeid%3D223

HOT
2018-07-27, 08:22:07
Jo du hast das vollkommen recht, die genauen "Angaben" sind da fürn Arsch. Aber womit sie recht haben, ist, dass es kein komplettes Lineup gibt. Es gibt offaenbar lediglich GV104 und GV102. Aber die niedrigen TDP-Angaben entlarven das eigentlich schon als BS.

Es ist anzunehmen, dass GV104 <500mm² groß ist und GV102 eben die 676mm², da würde ich auch weiterhin bei beiden Chips auf ein 384Bit Speicherinterface wetten.

Bucklew
2018-07-27, 09:12:29
Ist doch völliger Blödsinn, was sich Wccf da wieder aus den Arsch zieht.

Es ist völlig sinnlos für NVIDIA einen Chip für 449US$ Preispunkt zu haben und die neue Generation 50US$ (499US$) darüber. Dito die Ti für 599US$, die exakt auf dem 150W Preispunkt liegt.

Da werden die Pascalchips eingestampft.

Linmoum
2018-07-27, 10:48:19
Und trotzdem findet sowas immer wieder Anklang. ;)" CB berichtet schon brav darüber, der Rest folgt wahrscheinlich auch noch.

Bucklew
2018-07-27, 11:53:29
Man sollte übrigens nicht vergessen, dass selbst wenn die Gerüchte über zuviel Inventory bei NVIDIA durch Mining stimmen, NVIDIA für den Miningbereich spezielle (Abfall-)chips geliefert hat. Selbst wenn da ein AIB hunderttausende von Chips zurückgegeben hat (was ich auch für ein Quatschgerüchte halte, als ob irgendein IHV so einen Vertrag unterzeichnen würde), könnte man die gar nicht fürs Gaming verkaufen.

Der GP102 für Mining z.B. hat nur 3200 Shader (statt 3584) und einen schmaleren Speicherbus (320 statt 356 bit).

Woran man schon merkt: NVIDIA hat an die Miner einfach nur defekte Chips geliefert, die man sonst hätte wegschmeißen müssen, statt wie AMD die normalen, auch auf den Gamerkarten zu findenden, Chips. Selbst wenn NVIDIA wollen würde, könnten sie die Karten nicht an Gamer verkaufen.

Dural
2018-07-27, 14:50:02
Das mit dem mining und den viel zu vielen pascal chips halte ich für blödsinn, den das wird jetzt schon rund ein halbes jahr erzählt, und es macht nicht wirklich sinn.

Es muss was anderes sein, es könnte auch einfach am speicher liegen, den dieser ist im moment sehr teuer = geht es nur um gewinn maximierung?!

Hübie
2018-07-27, 14:56:32
Verträge gibt es in dem Sinne dass AIB XY bestellt, IHV ABC annimmt und somit ein rechtskräftiger Kaufvertrag zustande gekommen ist. Über Abnahmemengen gibt es keine Verträge. NVIDIA bietet über Kanäle Rabatte an und das wars so ziemlich.

Bzgl. der Gerüchte zu den Mining-Karten: es wird sich wohl keiner so etwas aus dem Arsch gezogen haben...

Bucklew
2018-07-27, 14:58:36
Bzgl. der Gerüchte zu den Mining-Karten: es wird sich wohl keiner so etwas aus dem Arsch gezogen haben...
Bei manchen Seiten habe ich den Eindruck, da sind alle Gerüchte aus dem Arsch gezogen :freak:

Hübie
2018-07-27, 15:02:32
In dem Falle ist es aber eben nicht so. Über die Stückzahlen kann man spekulieren...

Bösewicht
2018-07-27, 15:20:14
ich weiß jetzt schon das die meisten entäuscht sein werden.

nvidia hat vielleicht gehofft das amd noch was bringt schaut aber nicht danach aus so wird es nur wenige sehr teure karten geben.

mich würde es nicht wundern wenn es erst mit 7nm richtig los geht und das dauert noch bis ins neue jahr.

Adam D.
2018-07-27, 15:42:50
In dem Falle ist es aber eben nicht so. Über die Stückzahlen kann man spekulieren...
Aber irgendetwas passt hier doch dann überhaupt nicht zusammen. Das Handeln der AIBs widerspricht doch jeder marktwirtschaftlichen Logik, wenn sie auf den Boards sitzen aufgrund mangelnder Nachfrage, die zu einem guten Teil den hohen Preis geschuldet sind.

Wie lange kann man den auf die spontane Rückkehr des Mining-Hypes hoffen und dabei die Lager komplett voll haben?

Naja, vielleicht ahnen die AIBs, dass durch die hohen MSRP der Turing-Karten die Zielgruppe so klein ist, dass man weiterhin schlicht auf einen weiteren Mining-Boom warten kann mit verstaubten Pascal-Karten im Lager :freak:

Hübie
2018-07-27, 16:01:10
Marktwirtschaft ist nicht logisch. Das passt nicht zusammen. Deal with it. ;)

=Floi=
2018-07-28, 01:26:55
und GV102 eben die 676mm²

das ist auch nur ne wilde spekulation und die der chip wird sicher nicht so groß sein. Die schätzung über den BGA ist ja auch eher ein witz.

HOT
2018-07-28, 09:35:12
Na ob es jetzt genau 676mm² oder nur > 600mm², was regst du dich so auf? Es bleibt einfach riesen groß... das ändert doch gar nix.


https://www.3dcenter.org/news/geruechtekueche-erste-angaben-zu-performance-stromverbrauch-von-geforce-gtx-1170-1180

Na wenn das stimmt gibts hier aber sehr lange Gesichter...

Rancor
2018-07-28, 09:55:12
Mal auf die Preise abwarten. Viellicht lohne sich eine 1080 Ti dann immer noch :)

Triniter
2018-07-28, 10:36:33
Das wäre tatsächlich einigermaßen enrüchternd und würde für mich bedeuten das ich die 980Ti erst mal nicht ersetzten würde außer die Preise wären dann entsprechend attraktiv, was ich aktuell aber so nicht erwarte.

Thunder99
2018-07-28, 15:49:51
Wenn es nur zwei Chips gibt wird GP102 eingestellt. Eventuell haben die sich in der Wattangabe vertan. 250 und 280W ;D

Schnäppchenjäger
2018-07-28, 16:01:18
Lächerliche Vorstellung seitens Nvidia... da hat sich der Kauf meiner GTX 1060 ja gleich doppelt gelohnt ;)
Mit einem 24" 1080P Bildschirm wie ich ihn habe lohnt sich eh nichts über eine GTX 1070 tbh.
Erst die nächste Generation (2019/2020???) wird da spürbar etwas verbessern. Da kann man dann bestimmt 4K mit relativ hohen FPS-Werten zocken.

Linmoum
2018-07-28, 16:05:28
Nun wartet doch erstmal ab, das ist aktuell nichts weiter als ein wtftech-Gerücht.

HOT
2018-07-28, 16:38:45
Um das mal in der derzeitigen Form aufzubereiten:

1160 -> 1070 Rebrand
1170 -> GV104 salvage, ca. 9 TFLOPs (2560 Shader, 20SMs), 8GB
1180 -> GV104 full, ca. 12 TFLOPs (>= 3072 Shader, >= 24SMs), 8GB
1180+ -> GV102 salvage, ca. 16 TFLOPs (4096 Shader+, mehr als 32SMs), 11GB

GV102 full dürfte GV100 entsprechen von der Shadermenge her, genau wie GP102 dem GP100 entspricht.

RT und voller LL-Support sind halt teuer und das frisst den 12nm-Vorteil einfach auf, das würd ich daraus schließen.

Linmoum
2018-07-28, 17:21:58
Dann hätte man aber auch eigentlich Pascal weiterlaufen lassen können. Ich bezweifle nämlich, dass wir 2019 sowohl von AMD, als auch von Nvidia keine Desktop-Ableger in 7nm sehen werden. Denn so schlecht läuft Pascal ganz sicher nicht, dass man jetzt nicht auch noch (spekulativ) bis zum Sommer hätte warten können, um dann direkt auf 7nm zu gehen.

Timbaloo
2018-07-28, 18:18:40
Dann hätte man aber auch eigentlich Pascal weiterlaufen lassen können. Ich bezweifle nämlich, dass wir 2019 sowohl von AMD, als auch von Nvidia keine Desktop-Ableger in 7nm sehen werden. Denn so schlecht läuft Pascal ganz sicher nicht, dass man jetzt nicht auch noch (spekulativ) bis zum Sommer hätte warten können, um dann direkt auf 7nm zu gehen.
Exakt. Das ergibt einfach keinen Sinn.

Rampage 2
2018-07-28, 19:12:15
Na ob es jetzt genau 676mm² oder nur > 600mm², was regst du dich so auf? Es bleibt einfach riesen groß... das ändert doch gar nix.


https://www.3dcenter.org/news/geruechtekueche-erste-angaben-zu-performance-stromverbrauch-von-geforce-gtx-1170-1180

Na wenn das stimmt gibts hier aber sehr lange Gesichter...

Wenn das stimmt, dann hat GT104-Full tatsächlich nur 3072 SPs - dann müsste GT102-Full 4608 SPs haben. Aber das würde nicht zur 676mm^2 Die-Size passen - ca. 4500 SPs verbrauchen einfach nicht soviel Platz, zumal 12nm mindestens 5% Flächenersparnis bringt...

Ich glaube weiterhin, dass es eine 7 SMX-Konfiguration sein wird; also 896 SPs pro GPC.

R2

TheAntitheist
2018-07-28, 19:50:57
Lächerliche Vorstellung seitens Nvidia... da hat sich der Kauf meiner GTX 1060 ja gleich doppelt gelohnt ;)
Mit einem 24" 1080P Bildschirm wie ich ihn habe lohnt sich eh nichts über eine GTX 1070 tbh.
Erst die nächste Generation (2019/2020???) wird da spürbar etwas verbessern. Da kann man dann bestimmt 4K mit relativ hohen FPS-Werten zocken.
welche Vorstellung? Nvidia hat noch gar nix gesagt/gezeigt/vorgestellt... wer ist jetzt hier lächerlich

BlacKi
2018-07-28, 20:01:37
hätte man vorgehabt rebrands zu bringen hätte man das viel früher gebracht. mit pascal hätte man das locker bringen können.

diese verspätung deutet auf etwas großes hin. auf die ganzen pseudo leaks zu den specs geb ich gar nichts mehr. wir werden es eh bald sehen was so kommt. da brauch ich nicht auf WTF zu spekulieren.

MasterElwood
2018-07-28, 20:14:46
welche Vorstellung? Nvidia hat noch gar nix gesagt/gezeigt/vorgestellt... wer ist jetzt hier lächerlich

Genau. Ich versteh auch nicht warum Leo das nicht sofort als "höchst wahrscheinlich Fake" deklariert. Is doch komplett hirnrissig. NV ersetzt das Portfolio durch GLEICHSCHNELLE Karten??? (1170=1080, 1180=1080TI)

Und zu welchem Preis?
Gleich? Wozu.
Billiger? Da können sie gleich die alten Karten billiger machen - is kostengünstiger.
Teurer? Wer soll das dann kaufen bitte.

Und dazu noch die Rufschädigung. Schlagzeile: "Super lange Wartezeit - und dann nur +25 Prozent: is das der Anfang vom Ende von NV"?

Sorry - aber das deutet alles auf ABSOLUTEN SCHWACHSINN hin.

AffenJack
2018-07-28, 20:26:30
Sorry - aber das deutet alles auf ABSOLUTEN SCHWACHSINN hin.

Seh ich genauso, aber es gibt noch eine zweite Möglichkeit. Absichtliche Leaks mit hohen Preisen und niedriger Leistung um den Abverkauf der alten Gen nicht zu gefährden. Wenn die Leute denken, ach lohnt sich eh nicht, dann greifen sie vielleicht jetzt zu.

TGKlaus
2018-07-28, 20:36:11
Genau. Ich versteh auch nicht warum Leo das nicht sofort als "höchst wahrscheinlich Fake" deklariert. Is doch komplett hirnrissig. NV ersetzt das Portfolio durch GLEICHSCHNELLE Karten??? (1170=1080, 1180=1080TI)

Und zu welchem Preis?
Gleich? Wozu.
Billiger? Da können sie gleich die alten Karten billiger machen - is kostengünstiger.
Teurer? Wer soll das dann kaufen bitte.



Perfekt zusammengefasst.
Leider.

Wäre auch perfekt für den Thread: Wie mies ist der Online-Journalismus.

=Floi=
2018-07-28, 20:38:42
Es wird gelesen und geklickt wie blöd. alle springen auf den zug auf.
Für mich funktioniert deren methode super.

Deren aufrufzahlen sind sicher ordentlich gewachsen.

TheAntitheist
2018-07-28, 20:42:53
Es wird gelesen und geklickt wie blöd. alle springen auf den zug auf.
Für mich funktioniert deren methode super.

Deren aufrufzahlen sind sicher ordentlich gewachsen.
Mein Konsumverhalten berücksichtigt aber auch solchen Quatsch und in Zukunft meide ich Seiten die nur Müll verbreiten komplett, egal ob sie sich bessern oder nicht. Einmal einen miesen Ruf...

EinName
2018-07-28, 21:02:17
Ich finde die neuen Zahlen überhaupt nicht abwegig, im Gegenteil passt das perfekt zur Fertigung. Da die 12nm wirklich auf High Performance ausgelegt sind, können auch die bis zu 2500 Mhz OC mit Wakü drin sein.

NV kann halt auch nicht zaubern, und als eine Zwischenlösung für 1,5 Jahre bis zu 7nm eigentlich perfekt, dann kann man sich die Zeit lassen und AMD mit schlechten 7nm Yields experimentieren lassen im nächsten Sommer. Auch der zeitnähere Release einer 1180 Ti ist dann sinnvoll.

Wenn der Preis gleich bleibt, gibt es quasi immer eine Klasse höher geschenkt. Ist doch toll. Das die Karten, wie sich das manche hier erträumen, nicht gleich doppelt so schnell werden ist aufgrund der 12nm vollkommen klar.

Einzig der etwas gesteigerte Stromverbrauch (auf default Takt / Leistung) ist ein Wermutstropfen, bei der Ti führt da eigentlich schon kein Weg mehr an Wakü vorbei. Ich würd mir eine 300 Watt Karte zumindest nicht mit Luftkühlung in das Gehäuse stopfen.

Bösewicht
2018-07-28, 21:18:07
Wenn der Preis gleich bleibt, gibt es quasi immer eine Klasse höher geschenkt. Ist doch toll. Das die Karten, wie sich das manche hier erträumen, nicht gleich doppelt so schnell werden ist aufgrund der 12nm vollkommen klar.

du bist für dieses forum zu positiv eingestellt:biggrin:

Blediator16
2018-07-28, 22:04:35
NV kann halt auch nicht zaubern, und als eine Zwischenlösung für 1,5 Jahre bis zu 7nm eigentlich perfekt, dann kann man sich die Zeit lassen und AMD mit schlechten 7nm Yields experimentieren lassen im nächsten Sommer. Auch der zeitnähere Release einer 1180 Ti ist dann sinnvoll.


Was ist daran schlecht? Es ist nie gut zu lange auf dem alten Prozess sitzen zu bleiben. Beide experimentieren mit dem "schlechten Prozess" :rolleyes:
Meinst du wenn AMD absolut keine Probleme hat, dass das selbe auch für NV gilt und andersrum?

EinName
2018-07-28, 23:11:59
Was ist daran schlecht? Es ist nie gut zu lange auf dem alten Prozess sitzen zu bleiben. Beide experimentieren mit dem "schlechten Prozess" :rolleyes:
Meinst du wenn AMD absolut keine Probleme hat, dass das selbe auch für NV gilt und andersrum?

Beide haben ihre HPC Karten auf 7nm in der Mache um Erfahrung zu sammeln, die Marge und den Yield für den Massenmarkt zu haben ist aber eine andere Sache. Und ja, auch wenn spezifische Designs definitiv abweichen ist erstmal die Frage wie gut der Yield für größere Chips für relativ hohe Voltage bei TSMC generell ist - und das betrifft beide. Mit dem 12nm Release baut NV den Vorsprung einfach noch etwas mehr aus und erhöht nochmals den Druck auf AMD.

HOT
2018-07-28, 23:28:14
Wenn das stimmt, dann hat GT104-Full tatsächlich nur 3072 SPs - dann müsste GT102-Full 4608 SPs haben. Aber das würde nicht zur 676mm^2 Die-Size passen - ca. 4500 SPs verbrauchen einfach nicht soviel Platz, zumal 12nm mindestens 5% Flächenersparnis bringt...

Ich glaube weiterhin, dass es eine 7 SMX-Konfiguration sein wird; also 896 SPs pro GPC.

R2
Klar ist der dann so groß. Das ist eben Volta mit 128 Shader SMs und ohne Int und FP64-Einheiten, was soll da nicht passen? Ich denke, das passt perfekt.
Und die Werte, 3072 Shader für GV104 und 4608 GV102 salvage passen auch perfekt, es ist sehr wahrscheinlich, dass die Chips genau so aussehen.
GV102 hat dann die kolpotierten 650mm²+ und GV104 wird so um die 450mm² haben. Die Tensorcores müssen da rein und wer weiss, was NV noch so alles geändert hat.

Dann hätte man aber auch eigentlich Pascal weiterlaufen lassen können. Ich bezweifle nämlich, dass wir 2019 sowohl von AMD, als auch von Nvidia keine Desktop-Ableger in 7nm sehen werden. Denn so schlecht läuft Pascal ganz sicher nicht, dass man jetzt nicht auch noch (spekulativ) bis zum Sommer hätte warten können, um dann direkt auf 7nm zu gehen.

Navi10 wird 2019 mit 95%iger Wahrscheinlichkeit kommen und zwar Ende Q3 würd ich schätzen.

Bei AMD dürfte das wie folgt aussehen:
Januar -> V20 und EPYC2 (Epyc2 samplet ja grade)
April/Mai -> Ryzen 3 High-End
so September -> Navi10 und kleinere Ryzen 3 (GloFo)
Anfang 20 -> Renoir

Linmoum
2018-07-28, 23:56:55
Wie gesagt, ich rechne mit Desktop-Ablegern in 7nm von beiden im nächsten Jahr. Insofern halte ich das, was da gerade bzgl. Turing spekuliert wird, für Hanebüchen. Denn dann könnte man auch einfach Pascal weiterlaufen lassen. Das ergibt einfach hinten und vorne keinen Sinn.

Hübie
2018-07-29, 00:17:58
Mal so gefragt: Wann hat NV das letzte Mal enttäuscht?

Blediator16
2018-07-29, 00:40:06
Mal so gefragt: Wann hat NV das letzte Mal enttäuscht?

Meine Kepler Karte 2012 war enttäuschend. Hätte besser das AMD Pendant nehmen sollen.

Ab Maxwell war dann alles gut :cool:

BlacKi
2018-07-29, 01:16:30
Meine Kepler Karte 2012 war enttäuschend.
zumindest in den ersten 1-2 jahren hatte kepler nicht enttäuscht. trotz besseren PL verhältnisses.


Wäre auch perfekt für den Thread: Wie mies ist der Online-Journalismus.
gut war er nie, wird er nie sein, man darf eben nicht alles für wahr halten. fake news einfach fake news sein lassen.

Hübie
2018-07-29, 02:37:23
Meine Kepler Karte 2012 war enttäuschend. Hätte besser das AMD Pendant nehmen sollen.

Ab Maxwell war dann alles gut :cool:

Ich bezog es auf Erwartungen im Vorfeld. Erzähl mir nicht, dass es für dich keine Überraschung gab. :wink:

Die Frage hinter meiner Frage ist jedoch: Wieso wollen einige dass NVIDIA enttäuscht? (Das ist zumindest mein Eindruck)

Ich für meinen Teil lehne mich mal entspannt zurück. :biggrin: