Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Der_Korken
2018-07-05, 10:15:48
Als Hersteller würde ich den Chip natürlich mit 8GB bringen, damit ich noch einen Refresh mit 16GB bringen und nochmal abkassieren kann. Aus Kundensicht fände ich 16GB beim spekulierten Preispunkt dagegen angemessen. Notfalls kann Nvidia wieder eine 1170Ti mit (fast) voller GPU, aber nur 8GB bringen, wenn sie im Preis runtermüssen aber RAM immer noch teuer ist. Optimal wären wohl 12GB, aber solche Exoten sind leider eher unwahrscheinlich.

Rancor
2018-07-05, 10:16:22
Also ich warte schon auf die neue Generation, weil mein 1070 nachdem Umstieg auf WQHD halt in einigen Spielen wirklich die Puste ausgeht. ( was aber nicht an den 8GB liegt ^^ )
Wäre natürlich gut wenn die neue Karte dann auch direkt mehr VRAM hat.

Daredevil
2018-07-05, 10:33:48
Aus Kundensicht fände ich 16Gb bei 500€ auch toll, wir haben es hier aber mit "The more you buy, the more you save" Jensen zutun. :D

Thunder99
2018-07-05, 11:06:50
Oder Nvidia bringt 8GB um dann später den Herstellern Sondermodelle zu erlauben mit 16GB (wie damals 580)

dargo
2018-07-05, 11:55:40
Es gibt doch auch schon bei GP106 zwei Speicherbestückungen. Ihr zerbrecht euch einfach zu viel den Kopf. ;)

Daredevil
2018-07-05, 12:02:22
Es gibt auch eine Dual GP106. Nur weil etwas in Vergangenheit so war, bedeutet das nicht automatisch, dass es die Zukunft spiegelt. :)

Leonidas
2018-07-05, 15:15:28
Da Laptopmedia in ihrer originalen Meldung klar von 6GB für die GeForce GTX 1160 reden, scheint diese Frage (fast) entschieden:
http://laptopmedia.com/highlights/lenovo-legion-y530-to-feature-the-geforce-gtx-1160/

Der_Korken
2018-07-05, 15:35:07
Da Laptopmedia in ihrer originalen Meldung klar von 6GB für die GeForce GTX 1160 reden, scheint diese Frage (fast) entschieden:
http://laptopmedia.com/highlights/lenovo-legion-y530-to-feature-the-geforce-gtx-1160/

Das klingt nach einer Nullrunde beim VRAM. Wenn die 1160 6GB hat, wird die 1180 nicht gleich auf 16 gehen. Es ist aber immer noch nicht ausgeschlossen, dass Nvidia ihren eigenen "HBCC" bringt, mit dem sich überfüllte VRAMs besser kompensieren lassen. Bei Vega kann das in kritischen Stellen extrem viel bringen (dargo hatte das afaik mal in W2 getestet). In diesem Fall wären 8GB für die 1180 zumindest ein kleines Upgrade.

=Floi=
2018-07-05, 15:38:48
8GB sind zuwenig, 16GB zu teuer.

das mit dem 16gb sind zu teuer ist doch auch ein billo argument.
dann wird die karte eben 50€ teurer. Die nutzungsdauer und möglichkeit steigt aber erheblich an. Das teil kostet 700€!

Mit dem argument dürfte man auch keine 1080ti oder titan bringen...
Bei amd ging es auch mit 16gb HBM für ~900€

Adam D.
2018-07-05, 15:39:32
Da Laptopmedia in ihrer originalen Meldung klar von 6GB für die GeForce GTX 1160 reden, scheint diese Frage (fast) entschieden:
http://laptopmedia.com/highlights/lenovo-legion-y530-to-feature-the-geforce-gtx-1160/
Es hindert NV ja niemand daran, eine 16GB 1180 BFVRAM-Edition zusätzlich anzubieten. Falls jemand 1000€ für 'ne Midrange-Grafikkarte bezahlen will :freak:

dargo
2018-07-05, 15:47:20
das mit dem 16gb sind zu teuer ist doch auch ein billo argument.
dann wird die karte eben 50€ teurer.
Du glaubst doch nicht ernsthaft, dass die Einkaufspreise 1:1 an den Kunden weiter gegeben werden oder doch? :freak:
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Geforce-2018-Kosten-fuer-GDDR6-RAM-sollen-moderat-steigen-1256228/

Unter der Annahme, dass 8GB GDDR6 88$ kosten kannst du davon ausgehen, dass daraus locker 100+$ für den Kunden werden. Wenn jetzt noch die Strafzölle drauf kommen wirds noch lustiger. :D

Käsetoast
2018-07-05, 15:48:07
Da Laptopmedia in ihrer originalen Meldung klar von 6GB für die GeForce GTX 1160 reden, scheint diese Frage (fast) entschieden:
http://laptopmedia.com/highlights/lenovo-legion-y530-to-feature-the-geforce-gtx-1160/
Wie sieht es eigentlich mal mit einer Gegendarstellung aus, dass das nicht Turing ist, sondern halt ein neuer OEM Pascal mit neuem Namen? Turing Karten hätten dann ein 2000er Namensschema...

Ich komme da nämlich so ein wenig ins Zweifeln. Irgendwie soll Turing richtig schnell sein wenn man Igor & Co glaubt. Gleichzeitig ist es aber kein High-End Ableger, der nach oben ergänzt, sondern der schon sowas wie 1080er Nachfolger sein soll. Gleichzeitig soll es vielleicht aber auch in die 1060er Nachfolge reinspielen und in Notebooks zum Einsatz kommen, über den Lenovo irgendwie ganz ungeniert spricht und das mehrmals nacheinander...

Jetzt mit den 6 GB Speicher würde ich da einfach mal behaupten, dass die Tatsache, dass Lenovo da so ungestraft drüber redet und das mehrmals nacheinander (was ein Versehen ausschließt), dass Lenovo mit ihren Laptop Chips einfach nur ein Pascal Rebranding einführt. Was im Umkehrschluss bedeutet, dass Turing keine 11XX Bezeichnung bekommt. Irgendwie finde ich es nämlich sehr fraglich, dass Turing irgendwie jetzt schnell, schnell erscheinen soll und von High-End Desktop bis hin zu Mid-Range Laptop alles abdeckt und das innerhalb der nächsten handvoll Monate...

Klingt für mich nicht realistisch - wahrscheinlicher ist da doch, dass Lenovo da einfach nur ein Rebranding "geleakt" hat, weswegen die da auch mehr oder weniger frei drüber reden können. Wenn das geheime Turing Infos gewesen wären, hätten die von NVIDIA sicherlich eins auf den Deckel bekommen anstatt da noch eine zweite Schippe drauf zu legen. Ich vermute daher, dass die 1160 einfach ein Pascal Rebranding mit vielleicht leicht höherem Takt / Boost ist und nicht Turing...

Daredevil
2018-07-05, 15:52:58
Das teil kostet 700€!

Wenn du von Fantasie Werten ausgehst, kann ich da tatsächlich nicht gegen argumentieren, das stimmt. :D
Eine gute Custom 1080ti mit 11GB GDDR5X kostet knapp 700€, wenn man einen Schnapper gemacht hat, jap.

Aber das Turing xxx€ kosten soll, steht maximal in einer Glaskugel.
Man weiß ja immer noch nicht, was Turing überhaupt werden soll.

Leonidas
2018-07-05, 15:55:59
@ Käsetoast:

Undenkbar ist das nicht, was Du sagst. Aber es gibt genügend andere Anzeichen der kommenden Turing-Karten, ergo was soll NV da noch mit einem OEM-Refresh.

Und das jetzt alles sofort kommt, ist überhaupt nicht gesagt. Ich füge meinen Meldungen da immer und immer wieder (geschätzte) Zeitpläne bei, die aussagen, das dies ganze über ca. ein halbes Jahr ausgerollt werden wird.

Käsetoast
2018-07-05, 16:01:37
@ Käsetoast:

Undenkbar ist das nicht, was Du sagst. Aber es gibt genügend andere Anzeichen der kommenden Turing-Karten, ergo was soll NV da noch mit einem OEM-Refresh.

Und das jetzt alles sofort kommt, ist überhaupt nicht gesagt. Ich füge meinen Meldungen da immer und immer wieder (geschätzte) Zeitpläne bei, die aussagen, das dies ganze über ca. ein halbes Jahr ausgerollt werden wird.
Naja, die Laptop Hersteller wollen halt zum Jahresende 2018 neue Modelle bringen und da braucht man namenstechnisch Neuheiten. So gesehen Business as usual was kreative Namensgebung für mehr oder weniger alte Chips angeht...

Auch ein halbes Jahr für's Ausrollen halte ich da aber für unrealistisch. Man sehe sich einfach mal an in welcher Taktung die Desktop Chips sonst so kamen bzw. vor allem wie lange es gedauert hat bis Pascal nach dem Desktop Release mal in Laptops auftauchte (das dauerte richtig lange). Das NVIDIA jetzt innerhalb von einem halben Jahr nahezu ihr ganzes Mid-Range & High-End Portfolio austauscht für Desktop UND Laptop halte ich doch für sehr unwahrscheinlich. Deswegen tippe ich bei den mobilen GPUs auf Rebranding Pascal...

AffenJack
2018-07-05, 16:28:26
Man sehe sich einfach mal an in welcher Taktung die Desktop Chips sonst so kamen bzw. vor allem wie lange es gedauert hat bis Pascal nach dem Desktop Release mal in Laptops auftauchte (das dauerte richtig lange).

Öhmm, es dauerte 2,5 Monate bis Notebook kam. Ich hab ne andere Vorstellung von richtig lange. Wenn Nv jetzt nur die Retailchips wegen der Lagerware verschoben hat, kann das durchaus nur 1 Monat werden. Nur die 1050 kam später, aber von der 1150 wird ja auch nicht geredet. Ich kann mir durchaus vorstellen, dass nur Gp102 - GP106 eine neue Gen bekommt, da GP107 jünger ist.

Käsetoast
2018-07-05, 16:35:43
Hmm - also ich kann mich noch erinnern, dass ein Freund auf ein Lenovo Notebook mit Pascal gewartet hatte und das dann bestimmt ein dreiviertel Jahr dauerte bis da was kam. Wobei ich mich da auch gefühlt täuschen kann...

AffenJack
2018-07-05, 16:45:14
Wenn er auf den Refresh eines bestimmten Modells gewartet hat oder eben die 1050, dann ist das durchaus möglich. Aber generell kamen die Notebooks mit Pascal ziemlich schnell. Bei Maxwell davor war es sogar nichtmal 1 Monat zwischen Desktop und Notebook. Mittlerweile verkauft Nv soviel Notebook, dass man die Chips sehr zeitnah bringt.

Grendizer
2018-07-05, 16:51:55
Ja bei Pascal war Desktop Ende März 2016, für Notebook Mitte August 2016.

Poook
2018-07-05, 16:52:40
Zum RAM, es gab in der Vergangenheit genug Grafikkartenmodelle mit unterschiedlicher RAM Bestückung. Z.b. Die 1060 mit 3 und 6gb.
Falls eine "unterbestückte" Version mit 8Gb kommt, wird es auch eine Deluxe mit 12 oder 18 geben.

Ex3cut3r
2018-07-05, 17:14:51
Wenn Sie Standard mit 8GB kommt, hat Sie wohl ein 256 Bit Interface, wie sollen denn dann 12 GB möglich sein?

iuno
2018-07-05, 17:30:44
GDDR6 definiert Module mit 8,12,16,24,32 Gb, also 1, 1,5, 2, 3, 4 GB pro Chip (32b), entsprechend ist an einem 256 Bit Bus die Anbindung von 8, 12, 16, 24, 32 GB moeglich, bzw. im clamshell-Modus das jeweils Doppelte. Die Chips muessen dann selbstverstaendlich aber auch noch gebaut werden, wovon man bisher nichts sieht.

Davon mal abgesehen hat man "seltsame" Loesungen wie bei der 660 Ti (insgesamt 2 GB an 192b; 1 GB an 128b + 1 GB an 64b) ja auch schon gesehen, aber das wollen wir jetzt mal nicht heraufbeschwoeren.

Leonidas
2018-07-05, 17:35:17
Die Chance darauf ist leider minimal. Außerhalb von NV/AMD hat das keinen Wert, ergo gibt es da keinen Absatz für GDDR6-Speicherchips mit 0,75 oder 1,5 GByte Fassungsvermögen. Und nur für NV/AMD das auflegen? Möglicherweise sehr riskant, am Wohl und Wehe einzelner Grafikkarten zu hängen.

HOT
2018-07-05, 17:37:03
Bislang gibt es maximal 8Gbit-Chips in der Praxis, Samsung ist auch in der Lage 16Gbit zu fertigen, allerdings sind das dann 2 Chips in einem Package. Theorie ist immer toll, jedoch muss man sich halt auf das beschränken, was der Markt auch hergibt.

horn 12
2018-07-05, 19:03:49
Nun ereignet Nvidia wohl selbes Schicksal wie damals mit AMD´s Fury (X), auch wenn dies mit 8GB ausreichend sein sollte …

Da hört man aber wenig Negatives, und bei AMD war die Hölle los:mad::mad:

Grendizer
2018-07-05, 19:10:32
Naja ... schauen wir mal ... finde das die Vorzeichen doch etwas anders sind

Timbaloo
2018-07-05, 19:28:15
Nun ereignet Nvidia wohl selbes Schicksal wie damals mit AMD´s Fury (X), auch wenn dies mit 8GB ausreichend sein sollte …

Da hört man aber wenig Negatives, und bei AMD war die Hölle los:mad::mad:
War es nicht bei der Fury so, dass da 4 GB bei einigen auf einmal wieder vollkommen ausreichend waren? ;)

Grendizer
2018-07-05, 19:35:30
Und vor allem war die 390 mit 8 Gb halt Performance im AMD lager

=Floi=
2018-07-05, 19:38:50
Nun ereignet Nvidia wohl selbes Schicksal wie damals mit AMD´s Fury (X), auch wenn dies mit 8GB ausreichend sein sollte …

Da hört man aber wenig Negatives, und bei AMD war die Hölle los:mad::mad:


weil die karten noch nicht da sind. Horn, manchmal stellst dich echt an.
Es ist noch NICHTS veröffentlicht. Hör auch mal auf irgendwelche gerüchte oder sachen als gegeben anzusehen. Das bezieht sich auf auf die ati threads, wo nach einem test, die customs "aufschlagen"
Vega custom interessiert keinen mehr

Hier gilt es auch einfach mal abzuwarten, was wirklich kommt. Bei NV sitzen auch keine deppen.

Jere1711
2018-07-05, 19:47:00
Bei einer GTX 1180 erwarte ich schon etwas mehr als rein höhere Rohleistung. Strom wird man bei 12nm und entsprechender Leistung nicht sparen können.

8GB könnten auf Dauer eine Sollbruchstelle darstellen. Desweiteren finde ich 6GB bei einer GTX 1160 sehr schade.

8GB bei der GTX 1160 und 12+GB bei der GTX 1180 halte ich für wünschenswert.

iuno
2018-07-05, 22:25:22
Die Chance darauf ist leider minimal. Außerhalb von NV/AMD hat das keinen Wert, ergo gibt es da keinen Absatz für GDDR6-Speicherchips mit 0,75 oder 1,5 GByte Fassungsvermögen. Und nur für NV/AMD das auflegen? Möglicherweise sehr riskant, am Wohl und Wehe einzelner Grafikkarten zu hängen.
Verbaut ueberhaupt irgendwer nennenswerte Mengen von GDDR abseits von Nvidia und AMD? Micron baut jetzt seit Jahren exklusiv fuer Nvidia GDDR5X. So gut finde ich dein Argument daher nicht.
Es geht eher in die Richtung, dass man selber, innerhalb der Produktreihe flexibel bleiben will, gerade weil RAM momentan ja eh selten/teuer ist. Und da stimme ich uebrigens zu, dass es wenig Sinn macht. Ich habe ja nur die Frage theoretisch beantwortet ;)

Leonidas
2018-07-06, 04:30:53
Also GDDR5 geht in die PS5. Kleinere Abnehmer für Sonderprojekte soll es auch noch geben. GDDR5X ist dagegen nirgendwo sonst aufgetaucht. So gesehen hast Du Recht, da man sowieso exklusiv fertigt - wieso nicht. Warum es NV dann nicht doch getan hat, würde mich mal interessieren.

Womöglich hebt man sich hier bewußt was auf, die Konkurrenz ist ja schwach. Speicherbestückung ist eine der wenigen Dinge, die man spät entscheiden kann. Fertige Chips kann man schließlich nicht mehr nachträglich (viel) schwächer machen.

Kriegsgeier
2018-07-06, 06:32:27
Also ich gehe von folgender Speicherbestückung aus:

1170 --> 8GB GDDR6

1180 --> 12GB GDDR6

1180ti -> 16GB GDDR6

Alleine, dass jetzige 1080ti schon 11GB hat!

Ich weiß: entscheident ist der Speicherdurchsatz! Und dieser wird wohl sowieso bei GDDR6 größer werden als GDDR5X

Leonidas
2018-07-06, 06:38:51
Dafür braucht es zwingend 1,5GByte-Chips. Die Speicherbestückung auf der 1180Ti mit diesen Chips an einem 384 Bit Interface wäre dann im übrigen 18 GB (oder 16,5 GB bei 352 Bit).

Hoffen wir, das NV das hinbekommen kann.

Screemer
2018-07-06, 07:12:25
Man weiß doch nicht Mal ob das bringupboard für Turing war und hier wird schon von Tatsachen gesprochen. Wir sind immer noch im speku-sub.

Korvaun
2018-07-06, 07:24:57
Ich weiß gar nicht warum Ihr schon wieder alle heult weil es wahrscheinlich "nur" 8GB gibt auf der 1170/1180? Das reicht für alle Auflösungen unter 4K locker aus die nächsten 2+ Jahre, aktuell sind wir noch nicht mal ansatzweise in der Nähe von "8GB wird langsam knapp". Wer wirklich unbedingt mehr braucht/haben will muss halt 1 Etage höher ins Regal greifen bei nV...

HOT
2018-07-06, 07:38:48
Man weiß doch nicht Mal ob das bringupboard für Turing war und hier wird schon von Tatsachen gesprochen. Wir sind immer noch im speku-sub.
Klar weiss man das, da Ampere 100%ig wieder HBM bekommt.

Korvaun
8GB ist für ein >600€-Produkt zu wenig, Punkt. Das wird NV etliche Käufer kosten.

OgrEGT
2018-07-06, 07:47:10
Klar weiss man das, da Ampere 100%ig wieder HBM bekommt.

Korvaun
8GB ist für ein >600€-Produkt zu wenig, Punkt. Das wird NV etliche Käufer kosten.
Es wird NV keine Käufer kosten da es für diese Käuferschicht keine alternativen Produkte gibt...

Jere1711
2018-07-06, 07:51:25
Falls der GTX 1180 wirklich "nur" 8GB zur Verfügung stehen, sollte der Preis wenigstens ansprechend sein.

Grendizer
2018-07-06, 08:03:36
Falls der GTX 1180 wirklich "nur" 8GB zur Verfügung stehen, sollte der Preis wenigstens ansprechend sein.

Niemand wird gezwungen was zu kaufen. Nur sehe ich keine nahen Alternativen. Deshalb ist es auch witzig zu behaupten, das nur 8 Gb Speicher nVidia Kaufer Kosten würde, weil AMD ja gar keine Karte mit mehr als 8 Gb im Consumer Bereich hat. Als Kauf weiter Aufschieben und auf Navi warten, der dann evtl. mehr Speicher bietet ?

HOT
2018-07-06, 08:53:24
Es wird NV keine Käufer kosten da es für diese Käuferschicht keine alternativen Produkte gibt...
Dann kaufen sie halt nicht... gibt ja auch kaum Grund dazu. Die meisten verschieben das Upgrade auf höhere Auflösungen dann einfach. Ansonsten sind zwar 580 bzw.1060 an der Grenze bei FullHD, jedoch wird das auf absehbare Zeit weiterhin reichen - bis 2020 - also dem Ende von Win7 - ist eh kein "Crysis" zu erwarten.

Jere1711
2018-07-06, 08:55:23
Niemand wird gezwungen was zu kaufen. Nur sehe ich keine nahen Alternativen. Deshalb ist es auch witzig zu behaupten, das nur 8 Gb Speicher nVidia Kaufer Kosten würde, weil AMD ja gar keine Karte mit mehr als 8 Gb im Consumer Bereich hat. Als Kauf weiter Aufschieben und auf Navi warten, der dann evtl. mehr Speicher bietet ?

Du hast in sofern recht, es gibt keine Alternative. Das macht es aber Quasi zu einen Zwang Nvidia zu kaufen.

Wenn AMD nicht schlafen würde und seit der Überraschung damals in Form der R9 290X zurückkehrt ... Gerne. Ich warte nur drauf.

Bin kein AMD Fanboy, aber Nvidia spricht mich seit dem GTX 970 Debakel einfach immer weniger an. Hab meine G1 damals auch zurück gegeben.

Ich hoffe AMD gelingt ein Schlag wie damals mit der R9 290X vs GTX 780, wo man mehr Leistung mit einem geringeren Preis bekam. Ein paar Watt mehr, waren mir da egal.

Um deine Frage zu beantworten, Ja ich versuche so lange aufzuschieben wie möglich und gebe bestimmt keine ~700€ für 8GB Speicher aus. Bin bestimmt nicht der Einzige der so denkt. Ich möchte die Karte bei ~700€ vielleicht etwas länger behalten. Das ganze Problem an der Sache... Nvidia wird dadurch nicht Besser :biggrin:


PS: Hab ne GTX 1060 :rolleyes:

HOT
2018-07-06, 09:03:09
Das ist ne ähnliche Situation wie bei BD damals. AMD macht das jetzt quasi mit GCN auch. Die haben halt weniger Ressourcen und müssen damit eben haushalten. Ich würd den schwarzen Peter da eher dem Konsumenten zuschieben.

Leonidas
2018-07-06, 15:16:21
8GB ist für ein >600€-Produkt zu wenig, Punkt. Das wird NV etliche Käufer kosten.



Theoretisch stimmt das. Aber zwei Gegenthesen (rein zum diskutieren, kein Anspruch auf letztendliche Wahrheit):

1. Um real etwas zu bewirken, müsste es Gegenangebote geben. Gibt es die nicht, kann man zwar möglichen Umsatz nicht realisieren, aber die Konkurrenz gewinnt auch keinen hinzu. Das wäre fast nur verschobener Umsatz (man kann in der Zukunft erneut darum konkurieren).

2. Üblicherweise dürfte keiner der Gfx-Entwickler damit rechnen, das die nächste Generation von der Mehrheit der Käufer direkt gekauft wird. Der Durchschnitt dürfte mindestens eine Generation überspringen. Damit muß sich Turing nicht mit Pascal messen, sondern mit Maxwell. Dort liegen die primären Käufer für Pascal. Für die gibt es auch beim Speicher einen ausreichend großen Unterschied.

Bambuslooter
2018-07-06, 15:20:37
und dann gibt es Leute die komplett neu kaufen, weil PC defekt oder neuer Haushalt, etc.
Die können sich aussuchen entweder die neueste Gen (Turing) oder man ergattert im Abverkauf eine gescheite 1080ti Custom für unter 500€.
War ja bei der 980ti problemlos möglich die für wenig Geld dann zu kaufen als Pascal so gut ankam. Darauf hoffe ich schon eher bei den hier gelesenen Spekus.
AMD ist echt leider nicht so wirklich kaufbar im oberen Bereich.
Meine Nano damals fand ich gelungen bis Sie leider defekt ging^^

BlacKi
2018-07-06, 16:02:06
dann hätte aber NV gewinneinbrüche. größer, als die wenn NV auf 16gb geht. vl bringt NV auch sowas wie HBCC, ich hoffe nicht, denn ich brauch meinen ram für andere sachen.

Dann kaufen sie halt nicht... gibt ja auch kaum Grund dazu. Die meisten verschieben das Upgrade auf höhere Auflösungen dann einfach. Ansonsten sind zwar 580 bzw.1060 an der Grenze bei FullHD, jedoch wird das auf absehbare Zeit weiterhin reichen - bis 2020 - also dem Ende von Win7 - ist eh kein "Crysis" zu erwarten.

das kann man nicht wissen. vor deus ex md dachte auch keiner das man so schnell die 8gb der 1080 füllen könnte. 2 monate nach dem erscheinen der 1080 waren plötzlich 6gb von nöten und bis zu 8gb belegbar.

stellt euch mal vor das wäre bei einer 8gb 1180 für 800€ der fall?

Leonidas
2018-07-06, 16:36:48
Ich würde es auch aus Gamer-Sicht als knapp einschätzen. Nicht ganz so knapp wie bei der Fury seinerzeit, aber dennoch knapp. Aber Gamer-Sicht muß nicht NV-Sicht sein, das ist der Punkt.

Ex3cut3r
2018-07-06, 17:01:38
Am ende kommt die 1170 und 1180 sowieso mit 16GB DDR6 und die Diskussionen sind alle überflüssig, kostet dann natürlich aber auch 150€ mehr. Aber mir wäre es lieber so, als Fury X reloaded. Der wieder Verkaufspreis dürfte damit auch besser sein.

N0Thing
2018-07-06, 17:20:21
Ich würde es auch aus Gamer-Sicht als knapp einschätzen. Nicht ganz so knapp wie bei der Fury seinerzeit, aber dennoch knapp. Aber Gamer-Sicht muß nicht NV-Sicht sein, das ist der Punkt.

Mehr RAM ist immer besser, keine Frage. Aber ich sehe bei einer GTX 1180 mit 8GB kein Problem. Bis WQHD dürfte es auch in den nächsten 1-2 Jahren keine Nachteile geben und für 4K ist dann eben die GT102 mit mehr Speicher und Leistung gedacht.

BoMbY
2018-07-06, 17:46:49
Man braucht auch für 4K nicht mehr als 8 GB Speicher. Außer man hat es mit irgendwelcher Gammel-Software zu tun welche den Speicher nicht ordentlich verwaltet.

Birdman
2018-07-06, 19:01:16
Also ich nehme lieber eine 1180 mit 8GB für 599€ als eine 1180 mit 16GB für 799€

Bis ich die 16GB wirklich nutzen könnte, hat es mich mit Sicherheit schon in den Fingern gejuckt um den Nachfolger (oder Nach-Nachfolger) dieser Karten von nV oder AMD zu kaufen. (welche dann nebst 16GB eben auch 60-80% mehr Leistung haben werden)

Käsetoast
2018-07-06, 19:06:23
Ich sehe das mit dem Speicher auch nicht so wild. Speicher ist momentan einfach teuer, weswegen ich es sogar begrüßen würde, wenn die Speichermengen bei 8 GB bleiben für die 1080 Klasse. Diejenigen die mehr wollen (brauchen) kann ich zwar verstehen, aber das ist dann am Ende des Tages eine eher kleine Zielgruppe bzw für die gäbe es dann ja noch GT102 Äquivalente...

Ich finde es halt nicht attraktiv 150 Euro mehr auszugeben nur um in einigen wenigen Spielen und speziellen Situationen mal in Limits zu laufen. Da stelle ich lieber die Texturqualität mal von Ultra auf High runter in dem Spiel und gut ist. Nur um diese wenigen Problemfälle nicht zu haben Mehrkosten in der Größenordnung eines neuen Mainboards oder RAMs zu bezahlen finde ich da unverhältnismäßig...

Stören würde mich aber nach wie vor die 6 GB Bestückung eines GT106 - das ist in meinen Augen nichts Halbes und nichts Ganzes...

Ich denke mehr Speicher kriegen wir aber erst mit der 7nm Generation zu sehen und wenn wir ehrlich sind ist mehr jetzt auch nicht besonders dringend nötig. Ist ja nicht so, dass eine zweistellige Speicher Bestückung in nächster Zeit plötzlich Mindeststandard wird oder weil eine neue Konsole vor der Türe steht, die mehr Speicher zum Stand der Dinge macht. Klar kann man sich 4k @ 120 Hz bei Ultra Settings fähige Karten wünschen, aber das ist doch eher was für Randgruppen. Für den Rest ist es da doch wichtiger nicht für Speicher zu bezahlen (und das nicht zu knapp), den 98% der Kunden nicht brauchen wird...

Idealfall wäre natürlich wenn die Kartenanbieter einfach sowohl 16 als auch 8 GB Versionen anbieten. So hätte jeder das was er braucht...

Adam D.
2018-07-06, 19:26:39
Also ich nehme lieber eine 1180 mit 8GB für 599€ als eine 1180 mit 16GB für 799€
Das Problem ist wohl eher, dass du für 8GB 799€ bezahlen wirst :redface:

Birdman
2018-07-06, 19:43:33
Idealfall wäre natürlich wenn die Kartenanbieter einfach sowohl 16 als auch 8 GB Versionen anbieten. So hätte jeder das was er braucht...
Addon Card mit +vRAM 4tw - das hatte ich anno dazumals auf meiner Diamond Stealth auch! :freak:

https://www.picclickimg.com/d/l400/pict/201416603707_/Diamond-23030054-219-2203005-019-Stealth-64-Video-Vram-Pci.jpg


@Adam D.
Das befürchte ich ja auch, aber wollte mir meine eigenen Hoffnungen nicht zerstören :(

AffenJack
2018-07-06, 19:53:24
Das Problem ist wohl eher, dass du für 8GB 799€ bezahlen wirst :redface:

Ich wette dagegen :wink:

Und zur Speicherbestückung zitiere ich gerne dargo:

Es gibt doch auch schon bei GP106 zwei Speicherbestückungen. Ihr zerbrecht euch einfach zu viel den Kopf. ;)

+1

Adam D.
2018-07-06, 19:59:30
Ich wette dagegen :wink:
Ich hab mir das mal notiert, in ein paar Wochen wissen wir mehr :biggrin:

Nvidia wird sich entscheiden müssen, ob sie höhere Stückzahlen absetzen oder für jede verkaufte Karte richtig fett absahnen wollen. Der Space über 1080 wird für lange lange Zeit exklusiv von Nvidia besetzt sein. So wie ich Lederjäckchen einschätze, wird das richtig richtig teuer für uns, wenn wir was neues zum Spielen haben wollen in nächster Zeit.

BlacKi
2018-07-07, 02:02:50
Also ich nehme lieber eine 1180 mit 8GB für 599€ als eine 1180 mit 16GB für 799€

Bis ich die 16GB wirklich nutzen könnte, hat es mich mit Sicherheit schon in den Fingern gejuckt um den Nachfolger (oder Nach-Nachfolger) dieser Karten von nV oder AMD zu kaufen. (welche dann nebst 16GB eben auch 60-80% mehr Leistung haben werden)
ich sag dir, bis ende mitte 2019 werden mehr 8gb nötig werden, und dann sag ich euch, ich hab euch dahingehend informiert:biggrin:

MorPheuZ
2018-07-07, 02:12:57
Ach komm, welches Spiel ist denn in der Pipeline das 8GB benötigt 2019? RDR2?? :rolleyes:

TheAntitheist
2018-07-07, 06:31:46
Warum sollte ein Developer ein Spiel entwickeln was mehr VRAM verbraucht als 99.5% der Leute haben?...

robbitop
2018-07-07, 07:24:41
8 gb sind etwas unzufrieden stellend. Ganz einfach weil 8 gb mit Pascal seit 2016 im Performance Bereich Standard ist. Jetzt ist eben 2018. Da wäre zu erwarten, dass es mehr Speicher gibt. Gab es sonst auch immer bei jeder neuen Gen. 8 gb reichen in 2018. Aber nicht alle kaufen ständig neu. Außerdem scheint jede Gen mittlerweile 2 Jahre auf dem Markt zu sein.
Käufer wirds dennoch keine kosten, weil es keine Alternative zur gt104 geben wird.

dargo
2018-07-07, 07:47:03
8 gb sind etwas unzufrieden stellend. Ganz einfach weil 8 gb mit Pascal seit 2016 im Performance Bereich Standard ist. Jetzt ist eben 2018.
Komische Argumente... so gesehen waren 8GB schon 2015 Standard, nämlich mit Grenada im Performance Segment. ;)

robbitop
2018-07-07, 08:39:19
Komische Argumente... so gesehen waren 8GB schon 2015 Standard, nämlich mit Grenada im Performance Segment. ;)

IHV übergreifend sogar 2015. Da hast du Recht.

Raff
2018-07-07, 10:23:31
Käufer wirds dennoch keine kosten, weil es keine Alternative zur gt104 geben wird.

Das liegt aber an den Käufern. Viele haben sich einfach nicht unter Kontrolle. Viele konsumieren aber auch einfach die falschen "Tests" – Youtube-Reviews, wie es sie heutzutage in Massen gibt, hypen immer alles. Wer hingegen fundierte Tests liest, bekommt auch die Kritikpunkte serviert.

Jetzt könnte man argumentieren, dass jemand, der die GPU sowieso alle sechs Monate wechselt, auch mal einen Speicherkrüppel kaufen kann. Allerdings ist das heutzutage aufgrund der schleppenden Entwicklung neuer Grafikkarten nicht mehr möglich, sodass man etwas vorausschauender planen muss. Gerade beim Speicher.

Fakt ist: 8 GiB sind im Jahr 2018 besser als 4 GiB im Jahr 2015. Eine GTX 1180 wäre mit 8 GiB also keine zweite Fury X. Ich hätte ja was zum Untermauern dieser Aussage, aber die Toleranz, für aufwendige Messreihen irgendeinen Gegenwert zu leisten, ist bei den meisten Interessenten (viele Tausend Menschen) erschreckend gering. Und im 3DC speziell droht die Verbannung für Links zu Artikeln, die mehr als 0 Cent kosten. :ugly:

MfG,
Raff

pilzsammler2002
2018-07-07, 10:55:42
Ist nicht eher das Hauptproblem dass immer suggeriert wird unterhalb der Topkarten kann man nicht zocken?
Ich höre häufig (früher könnten die Leute Regler bedienen) ne auf Ner 560 oder 1050 läuft das doch gar nicht richtig... Nur weil die unter Ultra Einstellungen keine 60fps schafft...

Abseits davon wäre es schon "peinlich" wenn Nvidia genausoviel RAM bringt wie bei Pascal...

TGKlaus
2018-07-07, 11:14:10
Das Desaster wird sein, wenn die "1160" wirklich nur mit 6GB kommt.
Performance ca. 1070 aber eindeutig ein VRAM-Krüppel.

Und ich verwette meinen Hintern darauf es wird genug Seiten geben die selbst solch eine Karte schönschreiben werden.

(Und ich gehe davon aus das pcgh dazugehören wird.
Ich kann ja in einem halben Jahr diesen Post noch mal rausssuchen und wir können dann eine "Abrechnung" machen.)


Edit:

Vielleicht fällt ja jemanden was auf:

https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-480/launch-analyse-amd-radeon-rx-480-seite-4
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-vega/launch-analyse-amd-radeon-rx-vega-seite-2

sehe dabei keinerlei persönliche Differenzen

dargo
2018-07-07, 11:18:34
Ist nicht eher das Hauptproblem dass immer suggeriert wird unterhalb der Topkarten kann man nicht zocken?

Du hast den Nagel auf den Kopf getroffen. Man könnte auch sagen typisch 3DCenter. ;)

Raff
2018-07-07, 11:19:25
Und ich verwette meinen Hintern darauf es wird genug Seiten geben die selbst solch eine Karte schönschreiben werden.

(Und ich gehe davon aus das pcgh dazugehören wird.

Damit hast du endgültig bewiesen, dass du die PCGH nicht anhand von Fakten bewertest, sondern anhand von persönlichen Differenzen. Du kannst mir gerne per PN schreiben, was eigentlich dein Problem ist. Ehrlich. :) Das von dir dauerkritisierte Medium schreibt bei jeder sich bietenden Gelegenheit, dass eine RX 580/8G die erste Wahl ist, während eine GTX 1060/6G gut ist, aber auf absehbare Zeit wegen des Speichers Probleme bekommen wird bzw. schon hat.

Ich kann ja in einem halben Jahr diesen Post noch mal rausssuchen und wir können dann eine "Abrechnung" machen.)

Gerne. Dafür muss die GTX 1160 aber wirklich mit 6 GiB erscheinen. ;)

MfG,
Raff

Timbaloo
2018-07-07, 12:22:54
Ach raff, was gehst du da überhaupt drauf ein...

scully1234
2018-07-07, 13:51:40
Currently, the worldwide graphics card market has an inventory of around several million units and Nvidia has around a million of GPUs waiting to be released, said the sources. (https://www.digitimes.com/news/a20180629PD204.html)

dürfte jedenfalls kein Papiertiger werden

Daredevil
2018-07-07, 14:05:18
Ist immer gut, wenn man seine eigenen Links liest. :D
Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.



Vielleicht investiert Nvidia ja ein wenig in Ethereum, dann verkaufen sich ihre Lage ratzeputz leer. ;)

scully1234
2018-07-07, 14:16:47
Das Miningungeziefer ist gerade am absaufen

https://www.digitimes.com/news/a20180704VL203.html

dürften also bald alle Pascals verkauft sein, wenn die Plage wieder neue Karten braucht

TGKlaus
2018-07-07, 14:44:05
Vielleicht investiert Nvidia ja ein wenig in Ethereum, dann verkaufen sich ihre Lage ratzeputz leer. ;)

Oder Sie minen selbst.

Jetzt mal ganz im ernst. Warum nicht?
Könnten sich ein Land mit sehr niedrigen Stromkosten suchen.
Und dafür zeitnah die neuen Karten teuer verkaufen.

=Floi=
2018-07-07, 15:13:02
Ich hätte ja was zum Untermauern dieser Aussage, aber die Toleranz, für aufwendige Messreihen irgendeinen Gegenwert zu leisten, ist bei den meisten Interessenten (viele Tausend Menschen) erschreckend gering.

wie oft gibt es zum release schnell hingewurstete benchmarks?!
Die branche bekommt 2 tage und dann soll der 10 seiten test fertig sein.

Wenn man ehrlich ist, dann kann man eine karte auch auf 3 sätze zusammenfassen. "Schneller wie eine XXX karte" ist das einzige was im vergleich doch zählt, wenn man sich einen test ansieht. Bei den details sieht man dann genauer hin, wenn einem die karte interessiert.

Das generelle problem ist der anstieg an technik. Überall 1000 verschiedene modelle mit jeweils 50 details und abstufungen. Wie soll man da als normaler mensch noch durchblicken, wenn man nicht täglich 10std. vorm pc sitzt. :rolleyes:


nebenbei fand ich die kurzen, aber sehr guten videos zu den 1080ti immer super. Witcher 3 war der worst case und man sah im overlay alles was mich interessiert. :)




Und im 3DC speziell droht die Verbannung für Links zu Artikeln, die mehr als 0 Cent kosten. :ugly:


wie wäre es mal mit einsicht und ein wenig mehr kritk über diese entscheidung der paywall?!
Das ist einfach nur ein krampf und längerfristig wird sich das nicht durchsetzen. So etwas will auch keiner lesen, weil es waisted time ist, wenn auf einmal eine zahlungsaufforderung kommt.
Denke die seitenviews gehen massiv in den keller und es macht die sache noch schlimmer. Für mich ist PCGH deswegen gar keine anlaufstelle mehr. User kommen auch nicht mehr zurück.

Der link ist im grunde werbung!

Emil_i_Lönneberga
2018-07-07, 15:42:39
Du hast den Nagel auf den Kopf getroffen. Man könnte auch sagen typisch 3DCenter. ;)

Liegt vielleicht auch an deinen Erfahrungsberichten zur Vega 64 LE.:wink:

Damit hast du endgültig bewiesen, dass du die PCGH nicht anhand von Fakten bewertest, sondern anhand von persönlichen Differenzen. Du kannst mir gerne per PN schreiben, was eigentlich dein Problem ist. Ehrlich. :) Das von dir dauerkritisierte Medium schreibt bei jeder sich bietenden Gelegenheit, dass eine RX 580/8G die erste Wahl ist, während eine GTX 1060/6G gut ist, aber auf absehbare Zeit wegen des Speichers Probleme bekommen wird bzw. schon hat.



Gerne. Dafür muss die GTX 1160 aber wirklich mit 6 GiB erscheinen. ;)

MfG,
Raff

Du kannst dich im Zuge des breit diskutierten Nvidia NDA schonmal darauf einstellen, dass AMD Bias TGKLaus euren Test zu Nvidia Turing mit dem Unwort des Jahres "Lügenpresse" kommentiert. :rolleyes:

wie oft gibt es zum release schnell hingewurstete benchmarks?!
Die branche bekommt 2 tage und dann soll der 10 seiten test fertig sein.

Wenn man ehrlich ist, dann kann man eine karte auch auf 3 sätze zusammenfassen. "Schneller wie eine XXX karte" ist das einzige was im vergleich doch zählt, wenn man sich einen test ansieht. Bei den details sieht man dann genauer hin, wenn einem die karte interessiert.

Das generelle problem ist der anstieg an technik. Überall 1000 verschiedene modelle mit jeweils 50 details und abstufungen. Wie soll man da als normaler mensch noch durchblicken, wenn man nicht täglich 10std. vorm pc sitzt. :rolleyes:


nebenbei fand ich die kurzen, aber sehr guten videos zu den 1080ti immer super. Witcher 3 war der worst case und man sah im overlay alles was mich interessiert. :)






wie wäre es mal mit einsicht und ein wenig mehr kritk über diese entscheidung der paywall?!
Das ist einfach nur ein krampf und längerfristig wird sich das nicht durchsetzen. So etwas will auch keiner lesen, weil es waisted time ist, wenn auf einmal eine zahlungsaufforderung kommt.
Denke die seitenviews gehen massiv in den keller und es macht die sache noch schlimmer. Für mich ist PCGH deswegen gar keine anlaufstelle mehr. User kommen auch nicht mehr zurück.

Der link ist im grunde werbung!

Du blickst es einfach nicht, dass sich auf pcgh.de dadurch im Vergleich zu früher nichts geändert hat. Da sind Hopfen und Malz verloren. :facepalm:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11704962#post11704962

BlacKi
2018-07-07, 15:56:46
mich stört eher das: Ich willige ein, dass Computec Media GmbH (pcgameshardware.de) meine Daten von LaterPay erhalten und sie wie hier erläutert zu Marketingzwecken verwenden darf.

warum nicht über paysafecard?

PS: ist OT hier

aceCrasher
2018-07-07, 16:13:07
Im Grunde sind die PCGH+ "paywall" Artikel doch nichts anderes als Online Veröffentliche Tests aus der Zeitschrift oder? Kommt mir als Zeitschriftenabonent nämlich stark so vor.

Empfinde das so schon als sinnvoll, wofür würde ich denn die Zeitschrift abonieren wenn ich auch alle Artikel online lesen könnte für lau.

N0rG
2018-07-07, 16:43:01
Oder Sie minen selbst.

Jetzt mal ganz im ernst. [..]

Der Preis würde sofort in den Keller gehen wenn die anfangen massenweise Cryptos auf den Markt zu werfen. Außerdem würde das noch ne Menge an Investitionen erfordern bevor es losgehen kann. Die GPUs müssen erstmal zu Karten verarbeitet werden, dann brauchen die ne Halle mit ausreichender Stromversorgung usw.
Dann lieber die GPUs mit geringerer Marge auf den Markt werfen. Aufgrund fehlender Konkurrenz haben die ja auch keine Eile.

Raff
2018-07-07, 17:43:18
nebenbei fand ich die kurzen, aber sehr guten videos zu den 1080ti immer super. Witcher 3 war der worst case und man sah im overlay alles was mich interessiert. :)

Wird's wieder geben. :)

wie wäre es mal mit einsicht und ein wenig mehr kritk über diese entscheidung der paywall?!
Das ist einfach nur ein krampf und längerfristig wird sich das nicht durchsetzen. So etwas will auch keiner lesen, weil es waisted time ist, wenn auf einmal eine zahlungsaufforderung kommt.
Denke die seitenviews gehen massiv in den keller und es macht die sache noch schlimmer. Für mich ist PCGH deswegen gar keine anlaufstelle mehr. User kommen auch nicht mehr zurück.

Der link ist im grunde werbung!

Du hast leider auch nicht verstanden, was PCGH Plus ist. Das hätte man verhindern können, indem man den ausführlichen Text (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PC-Games-Hardware-Plus-1249464/) dazu liest, anstatt direkt "Paywall, ich hasse euch!" zu schreien. ;) Die Kurzfassung:

Es gibt noch die gleiche Auswahl an Gratis-Artikeln auf der Website. Neu ist nur, dass es nun auch - gegen einen kleinen finanziellen Obolus - auch Artikel aus dem Heft online gibt. Zusätzlich. Die hat es vorher nicht online gegeben und würde es auch jetzt nicht, gäbe es kein PCGH Plus. Das nennt man Mehrwert. Und zwar für alle Beteiligten. :)

MfG,
Raff

Screemer
2018-07-07, 18:05:33
Na aber ihr könntet die Heft Artikel doch kostenfrei online verfügbar machen. ist doch nicht zuviel verlangt1!einself!

Digidi
2018-07-07, 20:30:06
@Raff
Nach C.S. abgang habt Ihr dann noch die Beyond3d Suite zur Verfügung zum Testen?

Ex3cut3r
2018-07-08, 01:27:23
Gerne. Dafür muss die GTX 1160 aber wirklich mit 6 GiB erscheinen. ;)
MfG,
Raff

Also doch, 12GB VRAM, danke Raff. :wink:

GTX 1180 und 1170 dann mit 16GB, alles klar.

x-force
2018-07-08, 04:13:40
Zusätzlich. Die hat es vorher nicht online gegeben und würde es auch jetzt nicht, gäbe es kein PCGH Plus.

habt ihr dafür neue leute eingestellt, oder wart ihr vorher nicht ausgelastet? ich frage mich wo die manpower dafür herkommt, bei dieser argumentation :wink:

Emil_i_Lönneberga
2018-07-08, 08:36:43
Also doch, 12GB VRAM, danke Raff. :wink:

GTX 1180 und 1170 dann mit 16GB, alles klar.

Und die 2080Ti mit 24GB, passt :tongue:.

habt ihr dafür neue leute eingestellt, oder wart ihr vorher nicht ausgelastet? ich frage mich wo die manpower dafür herkommt, bei dieser argumentation :wink:

Ja, dafür gibt es keine externe Dienstleister und die PCGH Redakteure schreiben und malen ihre Texte und Grafiken noch mit schwarzer Tinte, Füller und Holzfarbstiften. Nebenan sitzen dann 100 angekettete Sklaven, die mit Hammer und Meißel die analogen/gepinselten PCGH Ausgaben in digitale Form klopfen.

Hübie
2018-07-08, 08:45:47
Könnten die Herrschaften bitte mal zum Thema Turing kommen und nicht PCGH weiter breit treten. Wäre großartig. :up:

AffenJack
2018-07-08, 11:03:19
Ist schwierig, wenn es absolut 0 Infos zum Thema Turing gibt, außer einem Releasetermin. Das hier seitenweise über die Ramausstattung diskuttiert wird zeigt schon wie langweilig das Spekulieren geworden ist. Es gibt keinerlei Leaks zu interessanten Aspekten von Turing.

TobiWahnKenobi
2018-07-08, 11:06:10
eben darum hab ich ja auch die volta titan gekauft.. so kann man alles was da noch kommen mag entspannt aussitzen; das juckt eigentlich überhaupt nicht und ich kann weitersehen, wenn es soweit ist.


(..)

mfg
tobi

=Floi=
2018-07-08, 11:10:23
tolles argument für 3000€
Da kann kommen was mag, man kann bei jeder gen mid range und dann die top karte kaufen. :rolleyes:


Es gibt keinerlei Leaks zu interessanten Aspekten von Turing.

tensor cores und der raytracing krempel sind weiterhin langweilig. AC wird sicherlich mal angegangen aber bei DX passiert nichts.
Im grunde müsste man richtung 4k optimieren und sonst gibt es nichts relevantes.

Sweepi
2018-07-08, 11:50:13
Wurde das Thema Neuerung bei den Anschlüssen (https://m.3dcenter.org/news/geruechtekueche-nvidias-turing-generation-mit-hdmi-21-und-hotclocks) eigentlich nochmal aufgegriffen?

Ich hatte damals an DP via USB-C gedacht, aber mit der Vermutung stehe ich meiner Warnehmung nach alleine da :D

Thunderburne
2018-07-08, 11:52:59
Ich bin sehr gespannt ich hoffe die Spekulation das sich auf der GTX1180 nur 8GB befinden sollen nicht stimmen das wäre ja ein Rückschritt.
12GB wären da schon Zeitgemäß.

AffenJack
2018-07-08, 12:27:25
tensor cores und der raytracing krempel sind weiterhin langweilig. AC wird sicherlich mal angegangen aber bei DX passiert nichts.
Im grunde müsste man richtung 4k optimieren und sonst gibt es nichts relevantes.

Ich finde Raytracing durchaus interessant und bin gespannt was Spiele in die Richtung bieten können. Bei DX weißt du auch nicht, ob nicht demnächst ein DX12.2 oder so ansteht und Turing dafür die Features unterstützt. DX12 ist schon einige Jahre alt und ich denke man wird es diesmal aktiver weiterentwickeln wollen und nicht so verweisen wollen, wie DX11.

Leonidas
2018-07-08, 13:36:02
Also RT soll ja in DX übernomen werden, dafür braucht es in jedem Fall eine entsprechende Norm - und damit einen HW-Support. Wird wahrscheinlich zurückgehalten, bis Turing live geht.

x-force
2018-07-08, 13:53:07
Ja, dafür gibt es keine externe Dienstleister und die PCGH Redakteure schreiben und malen ihre Texte und Grafiken noch mit schwarzer Tinte, Füller und Holzfarbstiften. Nebenan sitzen dann 100 angekettete Sklaven, die mit Hammer und Meißel die analogen/gepinselten PCGH Ausgaben in digitale Form klopfen.

und jetzt mal ernsthaft :confused:

Raff
2018-07-08, 15:26:41
habt ihr dafür neue leute eingestellt, oder wart ihr vorher nicht ausgelastet? ich frage mich wo die manpower dafür herkommt, bei dieser argumentation :wink:

Einer meiner Lieblingssprüche ist "Nichts, was man nicht durch (noch mehr) Überstunden ausgleichen könnte." Genügt das als Auskunft? ;) Allerdings könnte man das noch deutlich aufwendiger machen - beispielsweise werden die Benchmarks ja nicht neu und dynamisch aufgebaut, sondern als Bild eingebunden -, das würde den Rahmen dann aber definitiv sprengen.

MfG,
Raff

BlacKi
2018-07-08, 16:20:21
Einer meiner Lieblingssprüche ist "Nichts, was man nicht durch (noch mehr) Überstunden ausgleichen könnte." Genügt das als Auskunft? ;) Allerdings könnte man das noch deutlich aufwendiger machen - beispielsweise werden die Benchmarks ja nicht neu und dynamisch aufgebaut, sondern als Bild eingebunden -, das würde den Rahmen dann aber definitiv sprengen.

MfG,
Raff
kleiner pretest mit basics, Lifestream beim release und wenn zeit ist ein tieferer test, vl schon mit den custom modelllen.

so fände ich das nice!

Platos
2018-07-08, 17:52:14
Ich bin sehr gespannt ich hoffe die Spekulation das sich auf der GTX1180 nur 8GB befinden sollen nicht stimmen das wäre ja ein Rückschritt.
12GB wären da schon Zeitgemäß.

Bei einer GTX 1080 Ti Leistung wäre das wirklich ein Rückschritt. Die hat ja schln 11GB

dargo
2018-07-08, 17:57:27
Ich finde Raytracing durchaus interessant und bin gespannt was Spiele in die Richtung bieten können. Bei DX weißt du auch nicht, ob nicht demnächst ein DX12.2 oder so ansteht und Turing dafür die Features unterstützt.
Auf dem Papier wieder? :weg:

AffenJack
2018-07-08, 18:08:00
Auf dem Papier wieder? :weg:

Du meinst so wie die tollen Features bei deiner Vega?:freak:

dargo
2018-07-08, 18:10:14
Ich meine bsw. Async Compute. ;) Bis Pascal war das ein Griff ins Klo. Bei Maxwell war nur das Klo größer. :D

Hübie
2018-07-08, 18:14:52
Welche Beispiele kannst du denn noch liefern? :uponder:

Rancor
2018-07-08, 18:21:42
Raytracing ist atm völlig unintressant. Bis das mal performant genutzt werden kann ist Turing wieder nen alter Hut.

Thunderburne
2018-07-08, 18:22:17
:rolleyes:Bei einer GTX 1080 Ti Leistung wäre das wirklich ein Rückschritt. Die hat ja schln 11GB
Von 980Ti auf 1080 gab es ja ein kleines Leistungsplus +2GB oben drauf.
Mal schauen wie das ausgeht in 4K hab ich lieber etwas mehr als weniger ich hab es ja mit der GTX1080 selbst erlebt das der Ram da schon knapp wurde für meine Settings.
Zur Not muss man länger warten aber 8GB kommen bei mir nicht mehr rein.

AffenJack
2018-07-08, 19:01:15
Raytracing ist atm völlig unintressant. Bis das mal performant genutzt werden kann ist Turing wieder nen alter Hut.

Gut möglich, außer man baut irgendwelche Hardware da rein, die es gut schneller macht oder so. Aber es muss auch nix mit Raytracing zutun haben und kann interessant sein. Ich denke da nur an den Post von Gravitationsfeld hier im Thread:

Die groesste Katze ist noch nicht mal ansatzweise aus dem Sack :popcorn:

Anscheinend geht Nvidia mit irgendeinem Turingfeature bei den Entwicklern hausieren und hat das denen schon vorgestellt. Gravitationsfeld teased ja sonst nicht soviel, aber das hört sich nicht nach etwas so kleinem an. Sowas wie generelle Performance, Ram etc. macht in Bezug auf die Aussage kein Sinn, da das bei einer neuen Gen eh klar ist. Da kommen dann eher Features in Frage, die eventuell in Vulkan 1.2/2.0 gehen?

x-force
2018-07-08, 19:39:19
Genügt das als Auskunft? ;)

super danke

Daredevil
2018-07-08, 20:24:01
:rolleyes:
Mal schauen wie das ausgeht in 4K hab ich lieber etwas mehr als weniger ich hab es ja mit der GTX1080 selbst erlebt das der Ram da schon knapp wurde für meine Settings.
Zur Not muss man länger warten aber 8GB kommen bei mir nicht mehr rein.
Verstehe ich nicht.
Wenn es heute schon eine gute leise Custom 1080ti gibt mit 1080ti Leistung und 11GB, wieso wartet man dann auf eine vermutlich laute"1180" Referenz mit spekulativ 8/12/16 Gigabyte, welche ebenfalls nur spekulativ 1080ti Leistung bieten könnte? :D

Was du heute kannst besorgen, das verschiebe nicht auf Morgen.

Troyan
2018-07-08, 20:29:52
Ich meine bsw. Async Compute. ;) Bis Pascal war das ein Griff ins Klo. Bei Maxwell war nur das Klo größer. :D

Schwachsinn. Async Compute läuft astrein auf Pascal. Unfähigkeit von gewissen Entwicklern ist kaum relevant.

Ansonsten ist Async Compute mit das überhypste Feature seit Jahren. Tessellation bringt im Grunde unendlich viel mehr Leistung wird aber dank Konsolenentwicklern einfach ignoriert. Aber ein 10% Feature wie Async Compute wird uns in DX10-Level Spielen wie Wolfenstein 2 um die Ohren gehauen. :rolleyes:

Raytracing kann nicht schnell genug kommen. Dann benötigt man auch kein AC mehr für die Computesachen wie AO.

reaperrr
2018-07-08, 21:05:52
Schwachsinn. Async Compute läuft astrein auf Pascal. Unfähigkeit von gewissen Entwicklern ist kaum relevant.

Kannst du das mal erläutern?
Bisher habe ich noch kein Spiel mit AC gesehen, wo GCN ab Hawaii keine Vorteile gegenüber Pascal gehabt hätte (außer in Fällen, wo AC generell keine Vorteile bringt).

Und die Titan V profitiert plötzlich mindestens genauso von AC wie GCN, da muss also mit Volta was verbessert worden sein, was dann zwangsläufig bei Pascal noch nicht optimal war. Also kann man wohl kaum von 'astrein' reden, nur weil es nicht direkt irgendwelche Probleme gibt.

AC wird sicherlich mal angegangen aber bei DX passiert nichts.
AC wurde schon mit Volta auf/über GCN-Niveau gebracht. Bei Compute ist GV100 generell etwas mehr als doppelt so schnell wie GP100 und knapp doppelt so schnell wie V10, frage mich ob da die TCs mit genutzt werden.
Jedenfalls gehe ich stark davon aus, dass NV mit Turing alle GCNs inkl. Vega in Sachen AC-/Compute allgemein-/DX12-Performance überholen wird, da hat bei AMD einfach viel zu lange weitgehend Stagnation geherrscht.

Effe
2018-07-08, 21:49:13
.

Ansonsten ist Async Compute mit das überhypste Feature seit Jahren. Tessellation bringt im Grunde unendlich viel mehr Leistung wird aber dank Konsolenentwicklern einfach ignoriert.
AsynchCompute ist so überhypt wie Multithreading bei CPUs. Es ist eine Notwendigkeit, weil der Takt, die Diegröße physikalische Grenzen haben.

Tesselation bringt keine Leistung, sondern kostet immens.

Ex3cut3r
2018-07-08, 22:16:04
@Troyan Tesselation? Bringt Speed? Noch nie gehört, verwechselt du da nicht die Begriffe?

Platos
2018-07-08, 22:30:57
Stimmt, 7.x GB habe ich auch schon mit einer 1080 (non Ti) voll gekriegt. Aber das war auch 4k (was aber bei einer 1180 ja schon eher relevant wäre)


Verstehe ich nicht.
Wenn es heute schon eine gute leise Custom 1080ti gibt mit 1080ti Leistung und 11GB, wieso wartet man dann auf eine vermutlich laute"1180" Referenz mit spekulativ 8/12/16 Gigabyte, welche ebenfalls nur spekulativ 1080ti Leistung bieten könnte? :D

Was du heute kannst besorgen, das verschiebe nicht auf Morgen.


Customs wirds ja auch dann für die 1180 geben. und die verbraucht weniger Strom. D.h wenn man noch selbst Hand anlegt, wirds nicht so laut ohne zusätzliche WaKü ect.

und jetzt ne Karte kaufen, wenn man nicht unbedingt eine braucht... Das es wenig Speicher wird, ist auch nur eine Interpretation. Wie Dargo schon sagt, es könnte auch einfach die kleine Version mit 6GB sein oder ne extra Mobile Version. Und selbst wenn, die Preise der Alten werden dann sicher fallen. Also warten ist schon vernünftiger.

Thunderburne
2018-07-08, 23:02:16
Verstehe ich nicht.
Wenn es heute schon eine gute leise Custom 1080ti gibt mit 1080ti Leistung und 11GB, wieso wartet man dann auf eine vermutlich laute"1180" Referenz mit spekulativ 8/12/16 Gigabyte, welche ebenfalls nur spekulativ 1080ti Leistung bieten könnte? :D

Was du heute kannst besorgen, das verschiebe nicht auf Morgen.
Auf die 1080Ti hab ich jetzt auch keine böcke mehr den Sommer bekomme ich noch rum so kurz vor dem launch der neuen.
Preise werden derzeit immer noch künstlich hochgehalten für die Ti.
Auch konnte die 1080Ti michnicht in den Alphabenchmarks zu BF5 überzeugen bzw. würde ich mir in den Hintern beisen wen das die GTX1180 deutlich besser händelt.
Refkarte find ich nicht schlimm weil ich einen Mora 3 hier habe.
Bei der 1080 war auch das Bios geflasht 2100 MHZ.

Ex3cut3r
2018-07-08, 23:35:36
1080Ti wurde ich jetzt auch nicht mehr holen, auch wenn die 1180 vlt. (wovon ich nicht ausgehe) nur 8GB VRAM hat, ist sie einfach moderner, stromsparender und 15-20% schneller, dazu kommt noch, das sie auch durch neue Treiber nochmal schneller werden könnte, bei Pascal sehe ich die Entwicklung als abgeschlossen an.

Daredevil
2018-07-08, 23:47:02
Es nutzt einfach nichts, wenn man mit Monddaten argumentiert. :D

"20% schneller und weniger Stromverbrauch" ist bei einem hoch optimierten Prozess auch mal nicht eben aus den Ärmeln zu schütten, insofern 12nm wirklich kein riesen Schritt ist und das ganze auf die bestehende Architektur aufbaut.
Je mehr Einheiten Pascal hat, desto schwerer lässt sich der Takt heben. Eine 1060 bekommt man spielend ohne Dampfhammer auf 2.2Ghz bei moderatem Verbrauch. Bei einer 1080ti muss man schon mit einem Rambock antreten, damit man mal über 2Ghz kommt.

Bei einer TitanV in 12nm sieht man, dass man Energieeffizient arbeiten kann indem man die Einheiten brachial erhöht, dafür aber den Takt deutlich senkt. Nur dann wird das Package eben sehr fett und... da waren wir ja schon einmal, teuer.

Auch wenn ich mir das vielleicht schönrede, weil ich gerade mehrere 1080ti Zuhause habe, ich glaube irgendwie nicht an den Killer. Gründe dazu gibt es ja sehr sehr viele.
Ich glaube auch irgendwie nicht an Turing als Erfolg in 2018, eher dass Nvidia noch viele 1080ti auf Lager hat und Turing so preisintensiv released, dass die Pascal Generation vom Preis/Leistungsniveau immer noch besser sein wird, selbst wenn die Karten ein paar Watt mehr ziehen. Rekordquartaaaaal.

Adam D.
2018-07-09, 00:03:35
Auch wenn ich mir das vielleicht schönrede, weil ich gerade mehrere 1080ti Zuhause habe, ich glaube irgendwie nicht an den Killer. Gründe dazu gibt es ja sehr sehr viele.
Ich glaube auch irgendwie nicht an Turing als Erfolg in 2018, eher dass Nvidia noch viele 1080ti auf Lager hat und Turing so preisintensiv released, dass die Pascal Generation vom Preis/Leistungsniveau immer noch besser sein wird, selbst wenn die Karten ein paar Watt mehr ziehen. Rekordquartaaaaal.
Wenn Nvidia nicht völlig neue Strategien fährt, wird GP102 mit dem Release von Turing obsolet werden - so wie es in der Vergangenheit halt auch war. Den lässt man lieber auslaufen als ihn im Preis zu senken (im Gegensatz zu den kleineren Pascals, die super billig herzustellen sind und die Konkurrenz in Schach halten). Viele Chips wird man eh nicht rumliegen haben bei einer Karte mit so kleinem Käuferkreis. Ich denke, es macht wirtschaftlich auch mehr Sinn, eine mögliche 1170 als Ersatz passend einzuordnen, die dürfte in 12nm nicht so mega teuer werden und den Aufpreis von GDDR6 wird man eh zu 100% an den Kunden weitergeben.

Daredevil
2018-07-09, 00:30:22
Ich verstehe das ja, dass man sich dauernd auf die Vergangenheit beruft, aber wir leben aktuell nun einmal in Zeiten von sehr hohem Bedarf an semi professionellen Lösungen ( Mining ) gepaart mit akuter Preistreiberei von Bauteilen ( GDDR6 ) und noch viel dramatischer Knappheit ( HBM2 ). Das sind Dinge, die man nicht unbedingt beim Wechsel Maxwell Pascal hatte, die Karten sind nicht mehr die gleichen im Deck.
Galax hat sich sogar eine Dual GTX1060 gebaut für die Mining Farmen, die nicht offiziell von Nvidia vertrieben wird. Gab es das auch schon mal in der Vergangenheit?

Wenn der Bitcoin dieses Jahr nochmal seine Fahrt aufnimmt, kann es Nvidia auch egal sein, was sie auf dem Markt haben. Weil Rekordquartaaaaaal.
Das würde btw. auch für 16GB sprechen, weil Nvidia einfach anbieten kann, was sie wollen, es wird so oder so gekauft. Selbst mit arsch teuren 16GB Vega Frontier Edition Karten werden aktuell noch Mining Rigs gebaut, obwohl man momentan nicht mehr als ~3.7GB braucht bei Ethereum.
Und dann haben wir wieder... das Rekordquartaaaal. :D

Ex3cut3r
2018-07-09, 01:18:02
Mining? Hoffentlich bleibt der Rotz da wo ist es, nämlich in der Versenkung!

Leonidas
2018-07-09, 05:26:32
Raytracing ist atm völlig unintressant. Bis das mal performant genutzt werden kann ist Turing wieder nen alter Hut.


Logo. Aber wird als Vorzeige-Feature benötigt. AsyncCompute sollte man mal richten *, taugt aber kaum als Vorzeige-Feature. Vor allem da Async rein Performance betrifft und nicht eine neue Grafik ermöglicht.

* Sofern es wirklich was zur richten gibt.

dargo
2018-07-09, 06:02:16
Und was haben die Spieler von dem Vorzeige Feature außer ein paar Techdemos? Raytracing wird genau so in der Versenkung verschwinden wie Tessellation, solange es die Konsolen nicht nutzen. Und davon gehe ich nicht aus. Zumindest nicht bei den nächsten.

N0rG
2018-07-09, 06:16:43
Ja ich weiß... wtf tech... abdr wenn mehr als nur denoising gemacht werden kann find ich das schon interessant https://wccftech.com/nvidia-gpus-ai-rendering-power-hairworks-aaa-games/

Hübie
2018-07-09, 07:29:22
Man stelle sich einen lernfähigen Scheduler / Arbiter vor... :D
Tessellation wird doch oft eingesetzt oder hab ich da was falsch verstanden? Ist halt nicht mehr so thematisiert.

Screemer
2018-07-09, 07:38:29
Mining? Hoffentlich bleibt der Rotz da wo ist es, nämlich in der Versenkung!
In China sind gerade 20-30% der miningfarmen abgesoffen. Was glaubst du was da jetzt passiert?

Jere1711
2018-07-09, 08:11:54
In China sind gerade 20-30% der miningfarmen abgesoffen. Was glaubst du was da jetzt passiert?


Nvidia wird große Steampunkmaschinen im Pazifik installieren, oder versuchen das Wetter zu kontrollieren damit es häufiger passiert? Klar, macht ja mehr Umsatz :biggrin:

AffenJack
2018-07-09, 08:16:24
In China sind gerade 20-30% der miningfarmen abgesoffen. Was glaubst du was da jetzt passiert?

Nichts, denn es sind sogut wie nur ASIC Farmen abgesoffen, wie man an den Difficulties von z.B. Ether sieht. Wird in Sachen GPU gar nix ändern. Wird weiterhin kein Bedarf vom Miningmarkt da sein, wie gerade die ganze Zeit.

Timbaloo
2018-07-09, 08:17:44
Und was haben die Spieler von dem Vorzeige Feature außer ein paar Techdemos? Raytracing wird genau so in der Versenkung verschwinden wie Tessellation, solange es die Konsolen nicht nutzen. Und davon gehe ich nicht aus. Zumindest nicht bei den nächsten.
Gott bewahre, dass eine Firma Weiterentwicklungen treibt.

Screemer
2018-07-09, 08:22:58
Nichts, denn es sind sogut wie nur ASIC Farmen abgesoffen, wie man an den Difficulties von z.B. Ether sieht. Wird in Sachen GPU gar nix ändern. Wird weiterhin kein Bedarf vom Miningmarkt da sein, wie gerade die ganze Zeit.
und bei asics bedarf es keinerlei ram und gpus speichern auf tesafilm.

AffenJack
2018-07-09, 09:00:34
und bei asics bedarf es keinerlei ram und gpus speichern auf tesafilm.

Kein GDDR6. Ich glaube nichtmal GDDR, sondern normalen DDR und sowieso ist das nur ein Tropfen auf den heißen Stein, was die an Ram benötigen. Den Großteil fressen die Smartphoneanbieter. Dauert eh 3 Monate bis die ASIC neu produziert sind und dann sorgts vielleicht dafür, dass es 1 Monat länger dauert bis die Rampreise sinken, da die Chinesen nun anfangen Ram zu produzieren.

Rancor
2018-07-09, 09:48:14
Und was haben die Spieler von dem Vorzeige Feature außer ein paar Techdemos? Raytracing wird genau so in der Versenkung verschwinden wie Tessellation, solange es die Konsolen nicht nutzen. Und davon gehe ich nicht aus. Zumindest nicht bei den nächsten.

Wo versinkt Tessellation denn in der Versenkung? Noch nie Battlefield 1 gespielt oder AC Origins, Oder Far Cry 5 oder Metro LL, oder Mass Effect 4, Tomb Raider..... Selbst FIFA 18 nutz das..

Soll ich weiter machen? Du musst in einer ziemlich merkwürdigen Welt leben, wenn du das in der Versenkung verschwinden nennst. Nach der Definition wurde Async Compute nicht mal geboren.

Tessellation ist ein absolut etabliertes Standard Feature und wir von nahezu jedem neuen AAA Titel genutzt.

dargo
2018-07-09, 09:57:56
Und seit wann können GPUs tessellieren? Seit 8 Jahren. :rolleyes: Selbst 2018 nutzen nicht alle Games Tessellation.

Rancor
2018-07-09, 10:00:39
Und seit wann können GPUs tessellieren? Seit 8 Jahren. :rolleyes: Selbst 2018 nutzen nicht alle Games Tessellation.

Weil es ja auch nicht bei jedem Game Sinn macht. Es nutzen ja zB. auch nicht alle Games Surface Scattering oder Parallax Mapping.

Trotzdem sind es Standard Features.

AffenJack
2018-07-09, 10:06:03
Zu glauben, dass MS in der nächsten Konsolengen nicht zumindest begrenztes Raytracing haben will klingt für mich auch naiv. Wer glaubt hier denn wirklich, das MS DXR nur für Windows gebaut hat, weil Nvidia es wollte. Das ist eher ein Vorbote dafür, dass MS mit der nächsten Xbox in Richtung Raytracing gehen will und sich Vorteile erhofft, wenn man Entwickler jetzt schon in die Richtung sensibilisiert. Bis dahin wird RT aber wirklich erstmal noch ein gimmick bleiben um die High-End Karten auszulasten.

Rancor
2018-07-09, 10:06:37
Zu glauben, dass MS in der nächsten Konsolengen nicht zumindest begrenztes Raytracing haben will klingt für mich auch naiv. Wer glaubt hier denn wirklich, das MS DXR nur für Windows gebaut hat, weil Nvidia es wollte. Das ist eher ein Vorbote dafür, dass MS mit der nächsten Xbox in Richtung Raytracing gehen will. Bis dahin wird sich allerdings wirklich nicht viel in die Richtung tun.

Dafür müsste MS auf NVidia Hardeare setzen und das glaube ich kaum.

AffenJack
2018-07-09, 10:08:52
Dafür müsste MS auf NVidia Hardeare setzen und das glaube ich kaum.

Und wieso? Weil Nv Tensor Cores hat? Überhaupt kein Problem für AMD die einzubauen. Wenn MS RT will, kann AMD auch ohne Probs RT Fähigkeiten liefern. In sachen Hardware RT hat bisher außer IMG noch keiner was gezeigt. Daher weiß niemand wer da welche Pläne hat.

Hübie
2018-07-09, 10:37:25
Zumal es bei der NV ja nur um den Entrauschfilter mittels machine learning ging. Raytraycing selbst wurde da nicht als Hardwarefeature beworben. Was müsste die Hardware denn dafür explizit beherrschen? Soviel ich mitbekommen habe, sind CPU-Kerne besser geeignet. Warum weiß ich nicht. Kann das mal bitte jemand erläutern?

Leonidas
2018-07-09, 10:52:21
Und was haben die Spieler von dem Vorzeige Feature außer ein paar Techdemos? Raytracing wird genau so in der Versenkung verschwinden wie Tessellation, solange es die Konsolen nicht nutzen.


1. Satz: Ja, stimmt. Was aber Hersteller noch nie gehindert hat ...

2. Versenkung sehe ich nicht. Ich sehe langsames heranwachsen. Gerade wenn es eines Tages auf die Konsolen kommen soll, muß erst einmal ein Anfang gemacht werden.

Troyan
2018-07-09, 11:59:15
Kannst du das mal erläutern?
Bisher habe ich noch kein Spiel mit AC gesehen, wo GCN ab Hawaii keine Vorteile gegenüber Pascal gehabt hätte (außer in Fällen, wo AC generell keine Vorteile bringt).

Es wurde behauptet, dass Pascal Probleme mit Async Compute hätte. Das ist natürlich falsch. Es funktioniert einwandfrei.


Und die Titan V profitiert plötzlich mindestens genauso von AC wie GCN,[...]

Es gibt kein Unterschied bei Pascal und Volta.

AsynchCompute ist so überhypt wie Multithreading bei CPUs. Es ist eine Notwendigkeit, weil der Takt, die Diegröße physikalische Grenzen haben.

Haha, lmao. GPUs sind perse "Multithreading" Prozessoren die gleichzeitig an tausenden an Aufgaben arbeiten. Deswegen bringt Async Compute auch keine Verdopplung der Leistung, sondern nur 10% oder so. Und bei richtig technischen rückständigen Architekturen eben noch ein bisschen mehr. Es dient einzig der besseren Auslastung.


Tesselation bringt keine Leistung, sondern kostet immens.

Tessellation ist immer schneller gegenüber dem Host-System. Bestes Beispiel ist TressFX gegenüber Hairworks: Hairworks ist rund 10x schneller bei gleicher Geometrieanzahl. Und je mehr Geometrie benötigt wird, umso größer wird der Abstand.

Da es in Spielen aber nie ein vergleichbares Offline-Asset gibt, kostet Tessellation natürlich mehr Leistung. Aber viele grafische Effekte wie der Schnee in Batman: AO oder auch Hairworks sind ohne Tessellation nicht umsetzbar.

Async Compute wird nie ein "Game Changer" sein. Dafür ist der Gewinn zu gering.

Thunderburne
2018-07-09, 12:04:40
Metro Exodus wird es bestimmt anbieten ich frage mich nur ob das in Verbindung mit HDR kommt.
HDR ist ja auch recht Stiefmütterlich auf dem PC vertreten da sind die Konsolen dem PC schon einiges vorraus.
Vielleicht ändert sich das jetzt endlich mit den ganzen HDR Monitoren die erscheinen sollen.
Ich zocke ja Oled TV und HDR bietet mir dadurch die Enorme Kontrastspreizung in der Farbdarstellung einen erheblichen Mehrwert.
Genauso wie Filme in Dolby Vision auch mehr Dolby Atmos wäre wünschenswert bei Spielen.

pilzsammler2002
2018-07-09, 12:26:37
Tessellation ist immer schneller gegenüber dem Host-System. Bestes Beispiel ist TressFX gegenüber Hairworks: Hairworks ist rund 10x schneller bei gleicher Geometrieanzahl. Und je mehr Geometrie benötigt wird, umso größer wird der Abstand.

Ich meine mich zu erinnern das das gerade TressFX (oder besser/aktueller PureHair) ohne Tesselation besser aussah und weniger Leistung benötigte als Hairworks mit Tesselation... :cool:

Ich habe Hairworks bei Witcher 3 auch auf der Nvidia ausgemacht weil es teilweise bescheuert aussah :freak:

Raff
2018-07-09, 12:50:44
An den Viechern ist Hairworks nett, dito bei Final Fantasy 15.

Ich verstehe dieses pauschale Anti-Gameworks-Getexte nicht. Batman: Arkham Knight sieht mit allen Effekten fantastisch aus und fällt deutlich ab, wenn man die bitterbösen Nvidia-Schmankerl ausmacht (bzw. auf einer Radeon spielt). Gameworks ist 2018 harmloser denn je, denn es findet weniger (offensichtliche) Verwendung und die aktuellen AMD-GPUs Polaris und Vega kommen mit Tessellation besser klar als noch Fiji und Hawaii.

Sicher, man könnte all diese Effekte auch anders, effizienter und ganz ohne Nvidia-Code realisieren. Machen die Entwickler aber nicht, weil das Zeit und Geld kostet. Also schaltet sich Nvidia ein, um den eigenen Kunden einen Mehrwert zu liefern. Ich finde das gut, solange man den Krempel auf jeder GPU aktivieren kann. Leistungskosten entstehen dadurch so und so. Ob das nun 15 oder 20 Prozent sind, ist dabei erst mal wurscht. Wer keine Aufwertung am PC braucht, kann die Spiele auch an der Konsole spielen (oder eben mit der Konsolenqualität am PC).

MfG,
Raff

Ex3cut3r
2018-07-09, 12:52:13
Und was haben die Spieler von dem Vorzeige Feature außer ein paar Techdemos? Raytracing wird genau so in der Versenkung verschwinden wie Tessellation, solange es die Konsolen nicht nutzen. Und davon gehe ich nicht aus. Zumindest nicht bei den nächsten.

In ein paar exclusiven Nvidia Partner Games wird das schon drin sein, wie viel es kosten wird, und es ob sich lohnt, KA. Ansonsten ganz nett, DX12 hat ja Optisch nix neues gebracht, bis auf eine auf dem Papier bessere CPU Ressourcen Nutzung, wovon man Mitte 2018 nicht wirklich viel von sieht, bzw. es immer noch an der Umsetzung hapert.

Ich plane auf jeden fall einen Umstieg auf eine Turing, welche es genau wird, hängt vom auch von VRAM ab, wenn die 1180 mehr hat, als die 1170 wirds eher ersteres, desweiten möchte ich auch von meinen 21:9 3440x1440 VA 60HZ ohne VRR, auf einen 120HZ mit G-Sync wechseln, habe da den AW3418DW ins Auge gefasst. Mal sehen ob ich den schlechteren Kontrast und mit dem IPS Glow leben kann, bin da ziemlich VA verwöhnt, aber die Reaktionszeiten, 60HZ, und kein VRR, sind mittlerweile doch zum Kotzen. Im nächsten Jahr, muss dann auch mal langsam der 4770k und die Plattform gewechselt werden, habe da einen kommenden Intel 8- Kerner im Blick, mit Asus Board und schnellem DDR4 Please.

Habe noch einiges vor, in den nächsten Monaten. :uup:

basix
2018-07-09, 12:52:58
Ich habe Hairworks bei Witcher 3 auch auf der Nvidia ausgemacht weil es teilweise bescheuert aussah :freak:

An Geralt hat es mich gestört, sah einfach schlecht / unrealistisch aus und hat massig Leistung gekostet. Ohne Hair Works war es OK.

Timbaloo
2018-07-09, 13:05:07
Ich verstehe dieses pauschale Anti-Gameworks-Getexte nicht.
Gameworks ist Fake News, da Gameworks ja gar nicht auf Konsolen eingesetzt wird. Und alles was auf Konsolen nicht eingesetzt wird ist auf dem PC nur für Techdemos relevant. Habe ich mir sagen lassen ;)

Hübie
2018-07-09, 13:29:18
Grundsätzlich habe ich das Gefühl, dass man Raytraycing als Hardwarefeature erwartet. Dem ist ja (noch) nicht so. Es geht rein um Lösungen mittels machine learning und genau da sehe ich eben Potenzial. Wer behauptet es würde in der Versenkung verschwinden irrt mit hoher Wahrscheinlichkeit. Raytraycing dagegen... Wird sich zeigen. Laut ersten Infos ist die Resonanz positiv, da man auch hier Zeit einsparen kann.

Jere1711
2018-07-09, 13:35:41
Ich glaube mich an Farcry 4 zu erinnern wo man ebenfalls schon Nvidia Gameworks in Form von Hairworks und God Rays finden konnte. Ich fand Hairworks teilweise viel zu überzogen. Wenn man Glück hatte sah es gut aus, aber an vielen Tieren war da einfach nur ein unrealistisches "Fell" zu betrachten. Hab das deshalb damals auf meiner GTX 970 abgeschaltet. Die Karte hat das Game eh nicht lange zu Gesicht bekommen, das 3,5 GB Limit war in Farcry 4 deutlich zu merken. Mit ner GTX 1060 war es schon viel besser. Hairworks hatte ich da allerdings nicht nochmal probiert. Vielleicht wurde es ja optimiert?

Gipsel
2018-07-09, 13:42:12
Gameworks ist hier nicht das Thema.

Thunderburne
2018-07-09, 13:57:07
https://www.notebookcheck.com/Nvidia-sitzt-angeblich-auf-ueber-1-Million-GTX-11-Karten-haelt-sie-aber-noch-zurueck.315516.0.html

Grendizer
2018-07-09, 14:02:53
Hmmm... dann hat ja nVidia jetzt schon mehr Karten auf Halde, als Vegas jemals in den freien Handel gelangt sind.:wink:

AffenJack
2018-07-09, 14:05:07
In meinen Augen ist das eher ein Missverständnis. Nvidia sitzt nicht auf 1 Mio 11 Series Karten, sondern auf 1 Mio 10 Series Karten, die noch weg müssen.

Grendizer
2018-07-09, 14:07:55
In meinen Augen ist das eher ein Missverständnis. Nvidia sitzt nicht auf 1 Mio 11 Series Karten, sondern auf 1 Mio 10 Series Karten, die noch weg müssen.


Ja stimmt, geht ja nur um das schon bekannte Statement:



Currently, the worldwide graphics card market has an inventory of around several million units and Nvidia has around a million of GPUs waiting to be released, said the sources.

dargo
2018-07-09, 14:35:28
2. Versenkung sehe ich nicht. Ich sehe langsames heranwachsen.
Hast recht, Versenkung war das falsche Wort. Sehr schleichende Umsetzung passt da eher.

Adam D.
2018-07-09, 16:06:20
Knapp sechs Wochen vor der (angeblichen, lol) Vorstellung und wir wissen immer noch überhaupt absolut nix Substantielles. Wollte ich nur nochmal kurz festhalten, das ist einfach bitter :usad:

Jere1711
2018-07-09, 16:13:05
Gute Arbeit seitens Nvidia... Wenn wirklich schon einige Karten zum Testen verschickt wurden, dürften sich auch bald Leaks präsentieren oder nicht?

Adam D.
2018-07-09, 16:21:00
Gute Arbeit seitens Nvidia... Wenn wirklich schon einige Karten zum Testen verschickt wurden, dürften sich auch bald Leaks präsentieren oder nicht?
Ab Anfang-Mitte August wird man wahrscheinlich wie immer die üblichen China-Leaks bekommen. Wenn Nvidia dann wirklich auch die Boards an die Partner versendet - das ist ja auch nichts weiter als ein Gerücht. Kann genau so sein wie Digitimes und co. berichten, dass Nvidia das Ganze Ding in den Winter schiebt.

=Floi=
2018-07-09, 16:35:10
sondern auf 1 Mio 10 Series Karten, die noch weg müssen.

deshalb sind sie auch noch so teuer. :rolleyes:
alleine deswegen ist das argument mit den 10er karten so ein bullshit, weil dann der preis viel geringer wär. Wer soll denn am EOL zu dem preis noch kaufen?!

Das weihnachtsgeschäft versemmelt man sich so auch.

AffenJack
2018-07-09, 16:47:20
deshalb sind sie auch noch so teuer. :rolleyes:
alleine deswegen ist das argument mit den 10er karten so ein bullshit, weil dann der preis viel geringer wär. Wer soll denn am EOL zu dem preis noch kaufen?!

Das weihnachtsgeschäft versemmelt man sich so auch.

Die 1070Ti und 1080 gibts ziemlich oft reduziert und es greifen da locker genug Leute zu. Nur weil ein gewisser Teil mittlerweile versorgt ist, heißt das nicht das niemand kauft. Es gibt immer Leute die nicht warten wollen oder sich einfach nicht informieren. Verkauft man eben 1 Monat länger Pascal und fertig. Wo soll da das Problem für Nv sein? Ich mein, bestimmt ist man bei Nv nicht gerade froh über die Situation, aber man steht eben auch nicht unter Druck. Würde Vega im Preis etwas tiefer stehen, sehe das anders aus, aber ist es eben nicht und deshalb muss man auch selber nicht groß runter im Preis.

BoMbY
2018-07-09, 18:57:22
deshalb sind sie auch noch so teuer. :rolleyes

Sind ja auch noch einige Monate bis zum Verkaufsstart der neuen Serie - die Preise werden frühstens mit dem Paper-Launch deutlich nachgeben.

TobiWahnKenobi
2018-07-09, 19:03:37
wo werden preise "deutlich" nachgeben? bei den geforces? klar, wie jedesmal, wenn es dann alle zum halben preis gibt.. *gg* nicht.


(..)

mfg
tobi

=Floi=
2018-07-09, 19:16:07
https://geizhals.de/?phist=1313709

400€ für ne 980ti
Aktuell ist man im 800er bereich für die 1080ti

horn 12
2018-07-09, 20:16:43
Der Speicher ist das Problem, und da kann man denken an was die Million Karten warten...

Grendizer
2018-07-09, 20:19:43
Der Speicher ist das Problem, und da kann man denken an was die Million Karten warten...

Dafür gibt es bisher überhaupt keinen Anhaltspunkt.

Adam D.
2018-07-09, 20:35:43
Dafür gibt es bisher überhaupt keinen Anhaltspunkt.
Naja, dass GDDR6 nicht in Massen aus den Fabs kommt, ist wohl ziemlich wahrscheinlich. Das muss nix mit potentiellen Verschiebungen zu tun haben, aber das der Speicher für die Turing-Produktion ein limitierender Faktor wäre, ist durchaus möglich.

Grendizer
2018-07-09, 20:46:29
Produzieren nicht sowohl Micron als auch SK Hynix GDDR6 ? Und nimmt man nicht an, dass der nVidia GGDR6 sogar mit relativ harmlosen Durchsatz von 14 gb/sec laufen wird. Dadurch sollten doch wirklich genug funktionierende Speicherchips aus den Fabriken laufen.

Adam D.
2018-07-09, 20:48:20
Produzieren nicht sowohl Micron als auch SK Hynix GDDR6 ? Und nimmt man nicht an, dass der nVidia GGDR6 sogar mit relativ harmlosen Durchsatz von 14 gb/sec laufen wird. Dadurch sollten doch wirklich genug funktionierende Speicherchips aus den Fabriken laufen.
Safe ist nur Micron im Moment, weil wir da die Pressemitteilung haben. Die Frage ist halt, wer noch auf den Speicher scharf ist, Nvidia wird nicht der einzige Kunde sein.

Grendizer
2018-07-09, 20:57:31
OK.. weil PCGHW am 04.06. geschrieben hat, das beide produzieren würden

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR6-Micron-will-HBM2-angreifen-und-schlagen-1257659/ auch SK

edit: laut einem älteren Bericht sind es nicht 14 Gigabit/sec sondern 16/sec... also doch nicht ganz so harmlos.

AffenJack
2018-07-09, 21:24:20
Samsung habt ihr auch noch vergessen. Also alle 3 großen produzieren GDDR6. Sobald die Massenproduktion da also wirklich angelaufen ist, wirds da nicht dran mangeln.

Adam D.
2018-07-09, 21:41:00
Samsung habt ihr auch noch vergessen. Also alle 3 großen produzieren GDDR6. Sobald die Massenproduktion da also wirklich angelaufen ist, wirds da nicht dran mangeln.
IMO ist das etwas zu rosig gedacht, ist ja nicht so, als gäbe es keine gleichzeitig steigende Nachfrage (Mining anyone?). Die Speicherhersteller verdienen sich ja gerade dumm und dämlich, das wird sich mit der neuen Generation bestimmt nicht ändern. GDDR6, selbst wenn er nicht super knapp ist, wird in naher Zukunft sauteuer bleiben.

Leonidas
2018-07-10, 08:41:55
Knapp sechs Wochen vor der (angeblichen, lol) Vorstellung und wir wissen immer noch überhaupt absolut nix Substantielles. Wollte ich nur nochmal kurz festhalten, das ist einfach bitter :usad:


War allerdings bei Pascal nicht anders. Da kamen die substaniellen Dinge erst kurz vor Release heraus.





Gute Arbeit seitens Nvidia... Wenn wirklich schon einige Karten zum Testen verschickt wurden, dürften sich auch bald Leaks präsentieren oder nicht?


Genau deswegen macht NV das nicht mehr. Im Idealfall baut man die Launchkarten selber, läßt Herstellerlogos draufkleben und sendet die erst am Launchtag zu den Herstellern bzw. direkt in die Distribution. Die einzigen Karten, die vor Launch rausgehen, gehen an verdongelte Reviewer, die aufgrund dieser Vorzugsbehandlung sicherlich nichts vorher sagen werden (verlangt auch keiner, ist Ehrensache). Ergo sind vor Launch keine Karten im Handel oder bei den Gfx-Hersteller - keine Leakquellen.




https://www.notebookcheck.com/Nvidia-sitzt-angeblich-auf-ueber-1-Million-GTX-11-Karten-haelt-sie-aber-noch-zurueck.315516.0.html


Wie hier schon gesagt: Da haben Notebookcheck danebengegriffen. Die Quelle meint nicht 11er Lösungen, die NV zu viel hat - sondern 10er Lösungen.

Thunderburne
2018-07-10, 12:29:37
https://wccftech.com/nvidia-million-next-gen-geforce-gaming-gpus/
Mmh klingt auch hier so als wen man die 11**meint.

y33H@
2018-07-10, 12:48:53
Genau deswegen macht NV das nicht mehr. Im Idealfall baut man die Launchkarten selber, läßt Herstellerlogos draufkleben und sendet die erst am Launchtag zu den Herstellern bzw. direkt in die Distribution. Die einzigen Karten, die vor Launch rausgehen, gehen an verdongelte Reviewer, die aufgrund dieser Vorzugsbehandlung sicherlich nichts vorher sagen werden (verlangt auch keiner, ist Ehrensache). Ergo sind vor Launch keine Karten im Handel oder bei den Gfx-Hersteller - keine Leakquellen.Die AIBs arbeiten an eigenen Designs, da leakt immer was.

Timbaloo
2018-07-10, 13:54:34
Die AIBs arbeiten an eigenen Designs, da leakt immer was.
Ja, ob es HDR RGB LEDs gibt oder nicht...

HOT
2018-07-10, 14:30:20
Kann das sein, dass die sich einfach grandios verzockt haben? Ich erinnere an das Bild mit dem Containerschiff...
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/GTX-1180-falsche-Spezifikationen-1256127/
Eine Theorie:
Die haben einfach die Produktion massiv erhöht von den Pascals aufgrund des Minings und dann noch die Massenproduktion der Turings schon im Frühjahr angefahren. Der Launch verzögerte sich aber immer weiter, weil man die bestellten Überkontingente nicht einfach abbestellen kann... und dann kräpiert der Miningboom von heute auf morgen völiig, das ist ja wie abgeschnitten. Kann einfach sein, dass man mehr als ein halbes Jahr die Pascals abverkaufen muss und die trotzdem noch haufenweise Chips wegschmeissen müssen... Und der Spielermarkt nimmer auch nicht mehr soviel ab in Erwartung der Turing-Generation.
währenddessen sind natürlich fröhlich Turings produziert worden, die sich langsam anhäufen, weil die den Launch immer weiter verschoben haben. Da passen auch die erwarteten massiven Preissenkungen ins Bild.

Ich freu mich auf billige Turings :D.

Triniter
2018-07-10, 14:53:38
Kann das sein, dass die sich einfach grandios verzockt haben? Ich erinnere an das Bild mit dem Containerschiff...
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/GTX-1180-falsche-Spezifikationen-1256127/
Eine Theorie:
Die haben einfach die Produktion massiv erhöht von den Pascals aufgrund des Minings und dann noch die Massenproduktion der Turings schon im Frühjahr angefahren. Der Launch verzögerte sich aber immer weiter, weil man die bestellten Überkontingente nicht einfach abbestellen kann... und dann kräpiert der Miningboom von heute auf morgen völiig, das ist ja wie abgeschnitten. Kann einfach sein, dass man mehr als ein halbes Jahr die Pascals abverkaufen muss und die trotzdem noch haufenweise Chips wegschmeissen müssen...
währenddessen sind natürlich fröhlich Turings produziert worden, die sich langsam anhäufen, weil die den Launch immer weiter verschoben haben. Da passen auch die erwarteten massiven Preissenkungen ins Bild.

Ich freu mich auf billige Turings :D.
Wenn sie sich wirklich groß verzockt hätten würde man die Pascals irgendwo zu kaufen bekommen und der Markt würde preislich nachgaben. Ja man sieht bei GP104 das es derzeit etwas nach unten geht mit den Preisen aber nicht in dem Maß in dem ich es erwarten würde wenn man quasi mehrere Mio. EOL Chips in den Markt gibt. Bei GP102 sieht es noch weniger nach Marktschwemme aus. Aber klar kann natürlich sein das sie das steuern in dem die Chips wirklich nur "tröpfchenweise" weitergereicht werden und halt Turing wirklich künstlich schieben. Ob's stimmt? Keine Ahnung...

HOT
2018-07-10, 15:00:22
Ne so funktioniert das nicht. Das kommt ja darauf an, ob die das auch anbieten oder ins Lager legen. Das ist ja ein von NV gesteuertes Kartell. Angebot und Nachfrage kanns nur geben, wenn man auch Angebot zulässt. Zudem sind die Preise schon massiv gesunken. Wir sind trotz höherer Margen für die Kartenhersteller und deutlich teurerem Speicher billiger denn je.

Grendizer
2018-07-10, 15:15:36
Ne so funktioniert das nicht. Das kommt ja darauf an, ob die das auch anbieten oder ins Lager legen. Das ist ja ein von NV gesteuertes Kartell. Angebot und Nachfrage kanns nur geben, wenn man auch Angebot zulässt. Zudem sind die Preise schon massiv gesunken. Wir sind trotz höherer Margen für die Kartenhersteller und deutlich teurerem Speicher billiger denn je.


Wir sind noch ein wenig von den Preisen von 05/17 entfernt.

Der_Korken
2018-07-10, 15:19:06
Wenn Nvidia wirklich schon auf Halde produziert, müsste man sich als Käufer doch entspannt zurücklehnen können und auf niedrigere Preise warten. Wobei ich mich ernsthaft frage, ob die überhaupt noch viele Pascal-Karten verkauft bekommen. Die Karten gibts z.T. seit über zwei Jahren und das Preisniveau war im Frühjahr 2017 afaik sogar noch niedriger als heute. So langsam muss der Markt doch gesättigt sein.

N0Thing
2018-07-10, 15:26:27
Wenn man sich die Preise der am häufigsten gelisteten GTX 1080 anschaut, ist man eigentlich auf dem niedrigsten Niveau angekommen, wenn man extreme Ausreißer außen vor lässt:

https://geizhals.de/?phist=1449210&age=9999
https://geizhals.de/?phist=1453343&age=9999
https://geizhals.de/?phist=1449277&age=9999
https://geizhals.de/?phist=1449271&age=9999

Ich bezweifle aber, dass Nvidia das Risiko eingegangen ist, kurz vor einer neuen Generation nur auf Grund der Mining-Nachfrage noch massig neue Chips zu produzieren. Ich denke eher, dass die Preise nun da sind, wo sie vor Monaten hätten sein sollen, die Nachfrage bei den Spielern zu diesen Preisen mehr oder weniger gesättigt ist und die Händler sich langsam nach unten orientieren, bis das Preisleistungsverhältnis aus Kundensicht wieder stimmt.

Selbst AMDs Vega Custom-Karten sind zu niedrigen Preisen erhältlich.

https://geizhals.de/?phist=1664657&age=9999
https://geizhals.de/?phist=1753949&age=9999
https://geizhals.de/?phist=1742116&age=9999
https://geizhals.de/?phist=1793534&age=9999

Thunderburne
2018-07-10, 15:27:00
Es gab ja auch irgendwo eine News das NV die Preise um 20% senken soll im Juli.
(Hohe Lagerbestände

Die Folge: Viele Chip-Hersteller bleiben auf ihren Karten sitzen. Firmen wie Nvidia, Asus, Gigabyte, MSU oder TUL kämpfen mit hohen Lagerbeständen. Und weil die Nachfrage den Preis bestimmt, rechnen Insider damit, dass Grafikkarten im Juli um bis zu 20 Prozent billiger werden könnten.)

Troyan
2018-07-10, 15:30:30
Es ist eben auch total sinnbefreit darüber zu diskutieren. Nur weil die Preise sinken, hat dies keine Aussagekraft auf die zur Verfügung stehende Menge. nVidia produziert mehr, um die Nachfrage abzufedern. Da beides nun geschieht - sinkende Nachfrage + mehr Angebot, fallen auch die Preise. Das heißt noch lange nicht, dass die Nachfrage auf einem Niveau ist, der gleich oder niedriger des letztens Jahres wäre.

dargo
2018-07-10, 15:32:14
Es gab ja auch irgendwo eine News das NV die Preise um 20% senken soll im Juli.

Da hast du was falsch aufgefasst imho.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Gigabyte-Preissenkungen-1260147/

HOT
2018-07-10, 15:33:21
Es gab ja auch irgendwo eine News das NV die Preise um 20% senken soll im Juli.
(Hohe Lagerbestände

Die Folge: Viele Chip-Hersteller bleiben auf ihren Karten sitzen. Firmen wie Nvidia, Asus, Gigabyte, MSU oder TUL kämpfen mit hohen Lagerbeständen. Und weil die Nachfrage den Preis bestimmt, rechnen Insider damit, dass Grafikkarten im Juli um bis zu 20 Prozent billiger werden könnten.)

Bei AMD passiert das nicht, da die nicht soviele Chips überhaupt produzieren. Das wird nicht mal 1/5 von dem sein, was NV produziert. Da lag der Fokus die ganze Zeit bei Zepplin/RR. Sicherlich trifft das Tul auch, aber mittelfristig wird das da egal sein. Die wird vielmehr treffen, dass mit Asrock ein neuer Player eingestiegen ist, der im Vega-Karusell "mit-bekommt".


Es geht ja darum, dass die Preise für Turing einen Kauf interessant machen könnten aufgrund der Lagersituation, was sehr gut für den Kunden ist.

Calypso
2018-07-10, 15:35:41
Warum sollten denn die Preise für Turing sinken? Wenn dann doch nur für noch verfügbare Pascal-Karten..

HOT
2018-07-10, 15:37:17
Es geht darum, dass die Turing schon seit Frühjahr in Massenproduktion haben und die Kartenhersteller ab Mai. Das bedeutet, dass die Kartenhersteller 100000e Karten bereits auf Lager liegen haben. NV verschiebt den Launch eben immer weiter, weil die und die Kartenhersteller immer noch auf massenhaft Pascals sitzen. Jetzt sitzen sie eben auf beidem fest.

Da hast du was falsch aufgefasst imho.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Gigabyte-Preissenkungen-1260147/

Gigabyte, Asus und MSI werden einfach die Produktion von Pascal-Karten massiv runterfahren, weil sich das für die kaum lohnen wird, sollten die Preise weiter sinken.

Kehaar
2018-07-10, 15:46:08
Es geht darum, dass die Turing schon seit Frühjahr in Massenproduktion haben und die Kartenhersteller ab Mai. Das bedeutet, dass die Kartenhersteller 100000e Karten bereits auf Lager liegen haben.
Das bezweifle ich. Wenn Turing schon so verbreitet wäre, dann hätten wir auch Infos über Turing aus irgendeiner undichten Stelle eines Kartenherstellers. Was haben wir aber: Nichts, kein Leak ...

AnnoDADDY
2018-07-10, 15:54:58
Wir kommen langsam mal dahin wo die Preise ohne Mining hin gehören, aber einen Abverkauf kann ich nicht erkennen.

DrumDub
2018-07-10, 16:30:50
Wir kommen langsam mal dahin wo die Preise ohne Mining hin gehören, aber einen Abverkauf kann ich nicht erkennen. jupp.

Ex3cut3r
2018-07-10, 17:03:31
Abverkauf kommt auch erst dann, (wie schon bei Pascal) wenn die neue Gen, 1170/1180 released sind. Ob es dann noch Sinn macht, naja...imo nicht, die 1070 war für 470-520€ erhältlich und für die 980Ti wollten die Händler 400-470€.

Die hatte aber wie wir wissen, 2GB weniger, höherer Stromverbrauch und halt eine "alte" Architektur. Ich wurde dann eher auf den Gebrauch Markt umschauen, damals könnte man für 300€ eine 980Ti erstehen teilweise.

Leonidas
2018-07-10, 17:17:10
Ich bin mir immer noch unsicher, ob die DigiTimes wirklich ausdrücken wollte, das NV Turing-GPUs auf Halde hat. Wahrscheinlich hängt alles am Wort "released", was man üblicherweise neuen Produkten zuordnet. Aber würde die DigiTimes den Lagerbestand alter Produkte im selben Satz mit neuen Produkten vermengen? Was ist, wenn der DigiTimes-Redakteur einfach nur meinte, das bei NV 1 Mio. Pascal-GPUs auf Auslieferung wartet?

Zitat DigiTimes:
Currently, the worldwide graphics card market has an inventory of around several million units and Nvidia has around a million of GPUs waiting to be released, said the sources.

HOT
2018-07-10, 18:07:49
Das bezweifle ich. Wenn Turing schon so verbreitet wäre, dann hätten wir auch Infos über Turing aus irgendeiner undichten Stelle eines Kartenherstellers. Was haben wir aber: Nichts, kein Leak ...
Naaa, da darfst natürlich nicht von heute ausgehen, sondern von einem hypotetischem Turing-Launch im 4. Q, sonst macht das natürlich keinen Sinn :D. Und nein, die Vergangenheit zeigte, dass die wirklich dichthalten, bis zum Schluss. Das war bei Maxwell so und bei Pascal auch.

Leonidas
Das wird wirklich ein Schreibfehler sein, aber wenn man den Launch verschiebt obwohl man schon in Massen produziert, trifft das dann halt nach der Verschiebung trotzdem zu.

BoMbY
2018-07-10, 18:16:37
Bis jetzt waren alle früheren Gerüchte praktisch zu 100% falsch. Aber dieses Mal wird bestimmt alles anders.

Thunderburne
2018-07-10, 18:55:32
Sollte sich eigentlich positiv für uns auswirken.
https://www.computerbase.de/2018-07/gpu-inventar-mining-grafikkarten/

=Floi=
2018-07-10, 19:04:51
das ist doch einfach ne vermutung.
es gibt da ein paar unzulänglichkeiten.
einbruch des mainboard geschäftes bei GB. Ati verkaufte keine custom vega oder normale vega etc.
Zu 50% höheren preisen kauft auch kein normaler mensch.

Rampage 2
2018-07-10, 20:11:20
Die Preise der 1070 und 1080 müssten glatt um mindestens 100€ runtergehen, damit sie jetzt noch (so kurz vor Turing-Launch) eine Existenzberechtigung haben!

Ich hoffe, dass Keiner mehr diese Karten zu diesen überteuerten Preisen kauft, bis Nvidia endlich nachgibt... :P

R2

Thunderburne
2018-07-10, 20:14:32
Die 1080 müsste bei 350 Euro herum liegen mal schauen vielleicht passiert es ja noch die kommenden Tage Wochen.
Durch das Mining haben die Kartenhersteller allesamt nen Höhenflug.

BlacKi
2018-07-10, 22:36:28
aber einen Abverkauf kann ich nicht erkennen.
wirst du nicht und kannst du auch nicht, denn sowas gibts zumindest bei nv nicht wirklich. höchstens wenn die karten erschienen sind werden ein paar rückläufer unters volk gebracht. das kannst du im preisverlauf auf geizhals nachsehen. es war eigentlich auch nicht nötig, denn eine 980 blieb ihre 450€ weiterhin wert. eine 1080 war ca. 60% schneller aber dafür am anfang 60% teurer.

same shit with turing.

ne 1080 kostet 470-500€, die 1180 wird ca. 850€+ kosten, eben ca. 60% mehr.

Monsta
2018-07-10, 23:09:35
wirst du nicht und kannst du auch nicht, denn sowas gibts zumindest bei nv nicht wirklich. höchstens wenn die karten erschienen sind werden ein paar rückläufer unters volk gebracht. das kannst du im preisverlauf auf geizhals nachsehen. es war eigentlich auch nicht nötig, denn eine 980 blieb ihre 450€ weiterhin wert. eine 1080 war ca. 60% schneller aber dafür am anfang 60% teurer.

same shit with turing.

ne 1080 kostet 470-500€, die 1180 wird ca. 850€+ kosten, eben ca. 60% mehr.

Eine 1080 sollte aber von einer 1160 rasiert werden, und die wird wohl keine 470 -500€ kosten.

BlacKi
2018-07-10, 23:37:45
und selbst dann sind und bleiben die alten karten teuer. erst die neuen karten werden günstiger, und brachten immer mehr ram mit als die alten gen oder zumindest gleichviel. darauf zu warten eine alte neue karte günstig abzustauben macht für die meisten keinen sinn, das sind ein paar alte rückläufer.

Rampage 2
2018-07-11, 02:52:07
same shit with turing.

die 1180 wird ca. 850€+ kosten, eben ca. 60% mehr.

Totaler Bullshit - nach deiner Logik müssten die Preise bei jeder neuen Generation nicht runtergehen (also für die Vorgängergeneration), wie es seit Jahrzehnten der Fall war, sondern der Preis steigt endlos mit der Leistung nach oben:ucrazy3:

Die GeForce 4 MX kostete damals nur ein paar Hundert Euro (oder DM? :freak:) und war schneller als eine GeForce 2 Ultra, welche zuvor 1500DM (600-700€) gekostet hat!

Nvidia wird versuchen, mit jeder neuen Generation einen Premium-Aufschlag von durchschnittlich 50$ durchzudrücken - aber irgendwann ist die Schmerzgrenze endgültig erreicht! War erstmals bei der GTX 980 der Fall, dass die Fangemeinde gegen die überzogene MSRP protestiert hat und NV als Reaktion darauf den Preis wieder um 50$ gesenkt hat.

Ich bleibe dabei:

GTX 1180 8GB: 600-700$ (= 650-750€)

GTX 1180 16GB: 700-800$ (= 750-850€) (falls NV so gütig ist, auch eine 16GB-Version anzubieten...)

R2

vinacis_vivids
2018-07-11, 03:40:10
12GB,3840SP,384bit SI werden derzeit für 1300$ gehandelt.
16GB für 800$ wären +50% VRAM für -40% im Vergleich zum Vorgänger, und das wird es nicht geben. Nvidia und "gütig" schon mal gar nicht.

Bei 16GB fängt die Komplexität für die Boards massiv zu werden und eine Verdopplung der Leistung erreicht man nicht. Dann ergibt sich daraus ein Speicherproblem bei den 1180Ti, die ja dann mind. 16 oder gar 32GB benötigt, um sich abzugrenzen.

Leider sehe ich da keinerlei Realismus.

=Floi=
2018-07-11, 03:50:35
Leider sehe ich da keinerlei Realismus.


dazu müsstest du hald man die meinungen der anderen hier im thread lesen und akzeptieren. :rolleyes:

16gb
24gb
samsung hat größere chips und da nimmt keine komplexizität zu, weil die anzahl gleich bleibt.
AMD hatte schon mal ein 512bit si und die karte kostete auch keine 3000€

Vor ryzen konnte sich auch keiner einen sparsamen octacore um 350€ vorstellen. :cool:


edit
ich habe nur auf deine these geantwortet, wo du die 24gb komplett ausgeklammert hast.

4-->8-->16
6-->12-->24

vinacis_vivids
2018-07-11, 03:59:36
Klar kannst du die pro NV-Schönmalerei wiederholen, aber dagegen spricht der Verstand. Logisch als auch ökonomisch. Würde sogar Wetten annehmen, dass keine 16GB neuerster Speicher für einen 440mm² 12nm Chip verschwendet werden.

Daredevil
2018-07-11, 07:13:49
Spricht eigentlich was dagegen, dass Turing auf den Markt geschmissen wird ab 700€ Preisniveau ( "1180ti dann 2019 ) und darunter Pascal einfach refreshed bzw. umgelabelt wird?
Wenn die GPUs eh im Lager sind und AMD nichts deutlich attraktiveres vorlegen kann...why not?
Never change a running System.

pixeljetstream
2018-07-11, 08:06:01
Das umlabeln/refresh würde imo den Wert der Marke untergraben. Die Message muss immer sein: die neuste Architektur ist das beste für den addresierten Markt. Bei Volta hatte man ein non-consumer Produkt, aber beim Consumer Produktnachfolger kann man nicht den Vorgänger auch noch aufwerten.

Calypso
2018-07-11, 08:10:58
Totaler Bullshit - nach deiner Logik müssten die Preise bei jeder neuen Generation nicht runtergehen (also für die Vorgängergeneration), wie es seit Jahrzehnten der Fall war, sondern der Preis steigt endlos mit der Leistung nach oben:ucrazy3:

Die GeForce 4 MX kostete damals nur ein paar Hundert Euro (oder DM? :freak:) und war schneller als eine GeForce 2 Ultra, welche zuvor 1500DM (600-700€) gekostet hat!

hast Du die letzten Jahre geschlafen? Natürlich darfst Du nicht mehr die alten Generationen für diesen Vergleich heranziehen, aber spätestens seit der Pascal-Generation ist genau das passiert. Mehr Leistung gibt es nur für mehr und nicht fürs gleiche Geld. So kostete eine x60 immer knapp unter 200 €, aber eine 1060 gleich mind. 100 € mehr.

Wie heißt so schön, wenn man die Klappe nicht halten kann, einfach mal Ahnung haben!

AnnoDADDY
2018-07-11, 08:51:32
hast Du die letzten Jahre geschlafen? Natürlich darfst Du nicht mehr die alten Generationen für diesen Vergleich heranziehen, aber spätestens seit der Pascal-Generation ist genau das passiert. Mehr Leistung gibt es nur für mehr und nicht fürs gleiche Geld. So kostete eine x60 immer knapp unter 200 €, aber eine 1060 gleich mind. 100 € mehr.

Wie heißt so schön, wenn man die Klappe nicht halten kann, einfach mal Ahnung haben!

Du weißt schon dass die 1060 schneller als die 980 ist und diese hat um 450 bis 500 gekostet, gab also eine deutliche Preisreduzierung für die bessere Leistung!

Mining hat die Preise natürlich verzerrt.

Thunderburne
2018-07-11, 09:36:39
Also wen es 14GBs Speicher wird hätte man ja irgendwas um die 448GB/s die aktuelle Ti liegt ja bei 488GB/s.
Das würde auch passen wie es von der 980TI zur GTX1080 von der Bandbreite war glaub 320GBs hatte die 1080 die 980Ti lag bei 336 ca.
An 16GB/s Speicher glaub ich nicht bei der GTX1180 wo man dan bei um die 508GB/s landen würde toll wäre es zwar aber da sind die Chips noch absoulut nicht so weit für die Masse wie ich das verstanden habe.
12GBs wäre zu wenig mit 388GBs für meinen Geschmack wenn der Chip 13Teraflop haben soll und die Ti aktuell 11 hat.

Beim Ram ja vielleicht bekommt die 1180Ti ja auch 320 oder 352 Bit da kann man viel rumspielen bei Bandbreite und Rambestückung.
16GB wäre schon genial für die 1180 bzw alles unter 11GB eine Entäuschung für mich.
Da würde ich mir echt überlegen eine 1080Ti im Abverkauf zu schiesen wen die nur 8GB bekommt.
Der Xbox one X stehen allein für die Texturen schon 9 bis 9,5GB zur verfügung wo die Entwickler auch gewillt sind die zu nutzen nach einigen Interviews die ich verfolgt habe.

Thunder99
2018-07-11, 09:53:18
Spricht eigentlich was dagegen, dass Turing auf den Markt geschmissen wird ab 700€ Preisniveau ( "1180ti dann 2019 ) und darunter Pascal einfach refreshed bzw. umgelabelt wird?
Wenn die GPUs eh im Lager sind und AMD nichts deutlich attraktiveres vorlegen kann...why not?
Never change a running System.

Wird doch seit Jahren so gemacht im Low end Geschäft. Bei AMD sogar darüber.

Je nachdem was Turing alles ändert könnte es auch dort sein. Glaube aber bis zur 1160 runter nicht daran.

BlacKi
2018-07-11, 10:25:39
Totaler Bullshit - nach deiner Logik müssten die Preise bei jeder neuen Generation nicht runtergehen (also für die Vorgängergeneration), wie es seit Jahrzehnten der Fall war, sondern der Preis steigt endlos mit der Leistung nach oben:ucrazy3:

Die GeForce 4 MX kostete damals nur ein paar Hundert Euro (oder DM? :freak:) und war schneller als eine GeForce 2 Ultra, welche zuvor 1500DM (600-700€) gekostet hat!

Nvidia wird versuchen, mit jeder neuen Generation einen Premium-Aufschlag von durchschnittlich 50$ durchzudrücken - aber irgendwann ist die Schmerzgrenze endgültig erreicht! War erstmals bei der GTX 980 der Fall, dass die Fangemeinde gegen die überzogene MSRP protestiert hat und NV als Reaktion darauf den Preis wieder um 50$ gesenkt hat.

Ich bleibe dabei:

GTX 1180 8GB: 600-700$ (= 650-750€)

GTX 1180 16GB: 700-800$ (= 750-850€) (falls NV so gütig ist, auch eine 16GB-Version anzubieten...)

R2
leider hast du nicht verstanden was ich gemeint habe.
es sind die neuen karten die langsam günstiger werden( hab ich auch so erwähnt), die alten bleiben teuer (damit meine ich nicht den releasepreis). kannst du gerne nachchecken. einen abverkauf alter karten gibt es nur mit einzelnen karten, nichts worauf massen warten könnten. es wird maximal einzelne karten geben(einzelne rückläufer) die zum preis der 1160 zu haben sein werden.

Adam D.
2018-07-11, 15:16:51
WCCFTECH (https://wccftech.com/nvidia-geforce-11-series-graphics-cards-price-fall/) spekuliert, dass die Pascal-Preise bis zum Turing-Launch nicht mehr fallen werden.

Dabei fällt mir insbesondere auf:

Well, we talked to some channel partners and it turns out this is the lowest the NVIDIA GeForce GTX series is going to go. The reason for that is that the company has set the MSRP very close to the manufacturing cost (in other words, margins are tight) and any retailer attempting to sell cards at a lower cost will essentially make a loss.

Kapier ich da was nicht? Bei den Gewinnen, die Nvidia einfährt? Ein 314mm2-Die mit ausgereifter Fertigung zwischen 400-550€ pro Karte wird doch nicht nah an den Herstellungskosten verkauft, das ist doch BS. Oder meint das die Herstellungskosten für die Boardpartner? Heißt wohl, dass Nvidia die Chips weiterhin sauteuer an die Boardpartner verkaufen, die deshalb kaum Spielraum bei der Preisgestaltung haben.

Ich glaube ja, dass Nvidia die Preise "künstlich" hochhält, um Turing problemlos darüber ansetzen zu können.

Ex3cut3r
2018-07-11, 15:43:26
Vlt. muss man sich einfach mal damit anfreunden, das Technik halt nicht mehr so wie früher, diesen krassen Wertverlust hat. Vlt. liegt es am Mining oder am immer kleineren Leistungs Sprung. Selbst AMD GPUs bleiben Stabil. Und die waren sonst immer dafür bekannt, die Preise schnell zu senken.

Adam D.
2018-07-11, 15:55:05
Vlt. muss man sich einfach mal damit anfreunden, das Technik halt nicht mehr so wie früher, diesen krassen Wertverlust hat. Vlt. liegt es am Mining oder am immer kleineren Leistungs Sprung. Selbst AMD GPUs bleiben Stabil. Und die waren sonst immer dafür bekannt, die Preise schnell zu senken.
AMD hat aber viel weniger Spielraum diesmal, großer Die, sauteurer Speicher, zudem die massiven Custom-Lösungen der Boardpartner.

Mangel76
2018-07-11, 15:59:57
Vlt. muss man sich einfach mal damit anfreunden, das Technik halt nicht mehr so wie früher, diesen krassen Wertverlust hat. Vlt. liegt es am Mining oder am immer kleineren Leistungs Sprung. Selbst AMD GPUs bleiben Stabil. Und die waren sonst immer dafür bekannt, die Preise schnell zu senken.

AMD ist jedoch in einer ganz anderen Situation als NVIDIA. Da steht nichts neuen unmittelbar an und die Nachfrage war bis vor kurzem höher als das Angebot.

Bei NVIDIA gehen wir ja davon aus, dass Turing fertig ist und schon in Massen produziert wird. Dass die Verkaufspreise seit Einführung von Pascal nicht gesunken sind, liegt an der hohen Nachfrage durch Miner. Die Nachfrage soll aber drastisch eingebrochen sein. Wenn NVIDIA jetzt noch auf vielen Pascalchips sitzt und Turing deswegen verzögert, wäre ein hochhalten des MSRP sehr unverständlich, so wird man die Dinger nicht mehr los und neben den alten stapeln sich die neuen GPUs.
Ich könnte mir höchstens vorstellen, dass die Massenproduktion von Turing noch nicht richtig läuft, vielleicht auch wegen schlechter Verfügbarkeit von GDDR6. In diesem Fall wäre der Preisdruck durch neue Produkte noch nicht allzu groß.

Fragman
2018-07-11, 16:04:23
irgendwie kann ich die geruechte mit den vollen pascal lagern nicht glauben, die preise geben das einfach nicht wieder. fuer nv sollte es ausserdem ein leichtes sein, die dinger los zu werden, eben durch preissenkungen. die sind aber nicht abzusehen.

eine erklaerung koennte natuerlich sein, das alle auf ein erneuten anstieg der miningnachfrage warten. die preise sind noch nicht lange auf dem niveau, das kann sich kurzfristig wieder aendern?

PHuV
2018-07-11, 16:33:03
Ich bleibe dabei:

GTX 1180 8GB: 600-700$ (= 650-750€)

GTX 1180 16GB: 700-800$ (= 750-850€) (falls NV so gütig ist, auch eine 16GB-Version anzubieten...)
Was für einen Traum hast Du da geträumt? :eek: Im Leben nicht. Hast Du die letzten Berichte nicht verfolgt? Die Lager sind bei ATI und Nvidia voll, voller gehts nicht mehr. Das Mininggeschäft ist eingebrochen! Diese Karten müssen sie erst mal loswerden.

Hau mal min 100-200 € bei der ersten und min. 200-300 € auf die 16 GB drauf, dann kommst Du auf realistische Preise, wie sie zu Einführung rausgerollt werden. Und ich wette mit Dir, die Dinger werden weggehen wie warme Semmeln.

N0Thing
2018-07-11, 17:25:33
Kapier ich da was nicht? Bei den Gewinnen, die Nvidia einfährt? Ein 314mm2-Die mit ausgereifter Fertigung zwischen 400-550€ pro Karte wird doch nicht nah an den Herstellungskosten verkauft, das ist doch BS. Oder meint das die Herstellungskosten für die Boardpartner? Heißt wohl, dass Nvidia die Chips weiterhin sauteuer an die Boardpartner verkaufen, die deshalb kaum Spielraum bei der Preisgestaltung haben.


Wenn etwas davon stimmt, dann kann es nur der hohe Preis für die Partner sein, den Speicher müssen sie ja auch von Nvidia beziehen. Nvidia selber wird ganz sicher nicht zum Selbstkostenpreis verkaufen, das passt auch nicht zu den Margen von gut 60%.

Fliwatut
2018-07-11, 17:47:05
Irgendwelche Preiseinbrüche im Juli sind noch nicht zu bemerken...

N0rG
2018-07-11, 23:27:42
Mal ne Frage an die Experten: Ist das hier der Ram den man für die kommenden Grafikkarten verwenden könnte?
https://www.digikey.com/product-detail/en/micron-technology-inc/MT61K256M32JE-14-A/MT61K256M32JE-14-A-ND/8509877

Bei ~27$ / GB
8GB = 216$
16GB = 432$
22GB = 594$

Sollte das stimmen bleibt nur zu hoffen, dass Nvidia deutlich bessere Preise bekommt...

berhan
2018-07-11, 23:56:22
Nachdem DDR5 ca das gleiche kostet sind das vermutlich Hausnummern.
https://www.digikey.com/products/en/integrated-circuits-ics/memory/774?k=&pkeyword=&pv1989=0&pv142=1699&pv800=u2.0GHz&FV=ffe00306%2C8e800a1&quantity=0&ColumnSort=0&page=1&pageSize=25

Kriton
2018-07-12, 00:15:31
WCCFTECH (https://wccftech.com/nvidia-geforce-11-series-graphics-cards-price-fall/) spekuliert, dass die Pascal-Preise bis zum Turing-Launch nicht mehr fallen werden.

Dabei fällt mir insbesondere auf:



Kapier ich da was nicht? Bei den Gewinnen, die Nvidia einfährt? Ein 314mm2-Die mit ausgereifter Fertigung zwischen 400-550€ pro Karte wird doch nicht nah an den Herstellungskosten verkauft, das ist doch BS. Oder meint das die Herstellungskosten für die Boardpartner? Heißt wohl, dass Nvidia die Chips weiterhin sauteuer an die Boardpartner verkaufen, die deshalb kaum Spielraum bei der Preisgestaltung haben.

Ich glaube ja, dass Nvidia die Preise "künstlich" hochhält, um Turing problemlos darüber ansetzen zu können.

Die 1050 (ohne Ti) wird doch auch als GTX vermarktet.

Platos
2018-07-12, 00:47:52
Vlt. muss man sich einfach mal damit anfreunden, das Technik halt nicht mehr so wie früher, diesen krassen Wertverlust hat. Vlt. liegt es am Mining oder am immer kleineren Leistungs Sprung. Selbst AMD GPUs bleiben Stabil. Und die waren sonst immer dafür bekannt, die Preise schnell zu senken.

Vlt. in Zukunft dann auch mal ein Grund, vermehrt auf eine gute Story und Gameplay zu setzten, als auf den nächsten Grafikhit (auch wenn ich nichts gegen ein gut aussehendes SPiel habe).

MadPenguin
2018-07-12, 08:13:41
WCCFTECH (https://wccftech.com/nvidia-geforce-11-series-graphics-cards-price-fall/) spekuliert, dass die Pascal-Preise bis zum Turing-Launch nicht mehr fallen werden.

Dabei fällt mir insbesondere auf:



Kapier ich da was nicht? Bei den Gewinnen, die Nvidia einfährt? Ein 314mm2-Die mit ausgereifter Fertigung zwischen 400-550€ pro Karte wird doch nicht nah an den Herstellungskosten verkauft, das ist doch BS. Oder meint das die Herstellungskosten für die Boardpartner? Heißt wohl, dass Nvidia die Chips weiterhin sauteuer an die Boardpartner verkaufen, die deshalb kaum Spielraum bei der Preisgestaltung haben.

Ich glaube ja, dass Nvidia die Preise "künstlich" hochhält, um Turing problemlos darüber ansetzen zu können.

Preise regeln sich normalerweise über die Nachfrage. Solange Nvidia hohe Preise verlangen kann, werden sie es auch tun. Sollte Mal niemand mehr Nvidia Karten wollen und das über einen längeren Zeitraum, würden die Preise fallen. Wenn ich darüber nachdenke, dann vielleicht nicht bei Nvidia :)

Turing wird schweineteuer in jeglicher Ausführung. Wo keine Konkurrenz, keine guten Preise. Und über die Leistung bin ich auch noch ganz gespannt.

Korvaun
2018-07-12, 10:23:06
Wenn man sich die CPU Entwicklung des letzten Jahres ansieht weiss man ja woran konstant hohe Preise (aktuell bei GPU) und wenig Fortschritt liegen.. keine Konkurrenz und/oder Lieferengpässe. Mal sehen ob Nv in die "Intel-Falle" tappt und sie sich auf ihrem Erfolg zu sehr ausruhen...

Hübie
2018-07-12, 10:35:26
Das glaube ich eher nicht, weil NVIDIA ein vergleichbar schlankes und agiles Unternehmen ist. Finde bei Intel mal einen Entscheider. Viel Spaß. :D

iuno
2018-07-12, 10:37:57
Preise regeln sich normalerweise über die Nachfrage. Solange Nvidia hohe Preise verlangen kann, werden sie es auch tun. Sollte Mal niemand mehr Nvidia Karten wollen und das über einen längeren Zeitraum, würden die Preise fallen. Wenn ich darüber nachdenke, dann vielleicht nicht bei Nvidia :)
Es kauft aber fast kein Endkunde direkt bei Nvidia ein. Sofern es stimmt (was ja alles andere als gesichert ist), dass die Boardpartner bereits haufenweise Karten uebrig haben, werden die Preise sinken. Da kann Nvidia fuer die GPUs verlangen was es will. Es hat letztlich keinen Einfluss auf den Endpreis wenn Turing und damit die Entscheidung ansteht, ob man die bereits bezahlten und hergestellten Karten noch verhoekert oder lieber direkt auf den Muell schmeisst. Verbindliche Mindestpreise gibt es halt nicht.

Mal sehen ob Nv in die "Intel-Falle" tappt und sie sich auf ihrem Erfolg zu sehr ausruhen...
Das sehe ich momentan nicht. Intel hat im High-End Bereich ja auch nicht geschlafen, das sieht bei Nvidia genausowenig danach aus (GP100/GV100).
Intel hat es nur verpasst, den Fortschritt auch im Mainstream unterzubringen und immer wieder dieselben Zwei- (mobile xxxxU Chips) oder Vierkerner (Desktop) aufgelegt. Da wurde seit einer Ewigkeit immer nur noch Gleiches mit "Gleichem" ersetzt, mit minimalen Verbesserungen halt. i7 (4C) ersetzt i7 (4C), i5 (4C) ersetzt i5 (4C), aber i5 ersetzt niemals i7. Die haetten ueberhaupt keine Probleme mit Ryzen gehabt, haetten sie das, was nach Ryzen passiert ist (xxxxU auf 4 Kerne gehoben, mainstream Desktop schrittweise von 4 ueber 6 auf 8...), mal laengerfristig und langsam so eingefuehrt.

Solange Nvidia oben weiter macht und weiterhin die Gx104 die vorherige Gx100/2 abloest, sehe ich die Gefahr also nicht.

MadPenguin
2018-07-12, 10:48:35
Glaube nicht, dass sich Nvidia auf Ihre Lorbeeren ausruhen wird. Dafür sind sie zu schlau. Außerdem sind die GPUs von Nvidia immer ein sehr gutes Stück Technik. Über das Verhältnis zum Endkunden lässt sich streiten, aber gehört nicht hierher.
Interessant wird alles erst mit Navi Mainstream und Highend. Aber bis dahin vergeht noch viel (zu viel) Zeit.

Leonidas
2018-07-12, 11:42:49
Mal ne Frage an die Experten: Ist das hier der Ram den man für die kommenden Grafikkarten verwenden könnte?
https://www.digikey.com/product-detail/en/micron-technology-inc/MT61K256M32JE-14-A/MT61K256M32JE-14-A-ND/8509877


Mit Dank an diesen Hinweis habe ich alle verfügbaren Preise mal kompiliert:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-11-juli-2018

HOT
2018-07-12, 11:55:19
Bei der Speichermenge könnte, da ja auch der GT104 ein recht großer Chip werden dürfte, auch einfach langsamer, günstiger Speicher @384 Bit verbaut werden, um die 12GB vollzubekommen mit dem Produkt.

Leonidas
2018-07-12, 12:14:47
Denkbar ja.

384 Bit GDDR5X @ 2500 MHz für GT104 ergeben 480 GB/sec (+50% zu GTX1080)
GT102 käme dann mit 384 Bit GDDR6 @ 3500 MHz = 672 GB/sec (+23% zu TitanXp)

Würde zumindest bei der 1180 eine gute Speichermenge von 12 GB erlauben. Bei der 1180Ti und Titan XT wären es dann allerdings 22-24 GB, das wäre ziemlich viel.

BlacKi
2018-07-12, 12:21:57
die sind ja auch teuer genug, da sind 24gb pflicht, sonst ist die titan serie noch lächerlicher als sie es schon jetzt ist. die erste titan hatte die doppelte speichermenge von der 780(ti) und die jetztige nur noch 9%. lächerlich.

Grendizer
2018-07-12, 12:40:42
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-11-juli-2018

So viel teurer wird DDR6 also gar nicht.... vermutlich kein Vergleich zu HBM. Mal schauen, wo die Karten dann rauskommen werden....

Daredevil
2018-07-12, 13:00:50
Es geht ja auch nicht um "teurer" im Vergleich zu GDDR5 von heute ( Wo ebenfalls der Bedarf groß angestiegen ist ), sondern um Releasepreise und Speicherpreise von früher, wo Pascal gebaut wurde.
Leo hat doch extra einen Preis von 2017 angefügt.

16GB GDDR5 @ 3500 MHz haben 2017 214€ gekostet
16GB GDDR5 @ 3500 MHz kosten 2018 302€
16GB GDDR6 @ 14 Gbps kosten 2018 360€

2017 habe ich für 16GB @ 3500 MHz 214€ bezahlen müssen, heute sind es 68% mehr für den schnellsten GDDR6, also knapp 146€.

Thunderburne
2018-07-12, 18:11:57
Bei der Speichermenge könnte, da ja auch der GT104 ein recht großer Chip werden dürfte, auch einfach langsamer, günstiger Speicher @384 Bit verbaut werden, um die 12GB vollzubekommen mit dem Produkt.
Es wäre wünschenswert da die Konsolen ja schon ordentlich Ram haben und 8GB eigentlich schon ehr der oberen Mittelklasse entspricht.

(Während die Größe des Grafikspeicher von Microsofts High-End-Konsole auf dem Papier auf einem Niveau mit der GTX Titan X liegt, können Spiele nur auf neun der zwölf GiByte zugreifen.)

Grendizer
2018-07-12, 18:24:09
Es wäre wünschenswert da die Konsolen ja schon ordentlich Ram haben und 8GB eigentlich schon ehr der oberen Mittelklasse entspricht.

(Während die Größe des Grafikspeicher von Microsofts High-End-Konsole auf dem Papier auf einem Niveau mit der GTX Titan X liegt, können Spiele nur auf neun der zwölf GiByte zugreifen.)


Der Grafikspeicher ist eben überhaupt nicht 8 bzw. 12 Gb gross, weil das Heterogeneous Unified Memory ist, der sowohl für Grafikdaten, Betriebssystem und Spiel bereitstehen muss.

Leonidas
2018-07-12, 18:32:23
Dafür muß auf Konsolen nix doppelt in Hauptspeicher und Grafikkartenspeicher liegen und die Konsolenspiele können auf eine bestimmte (passende) Texturenauflösung für die primäre Zielauflösung von FullHD konzipiert werden, was beiderseits reichlich Speicher spart. Irgendwie erleben wir es in letzter Zeit sehr deutlich, das auf 8-GB-Konsolen laufende Spiele auf dem PC rein für FullHD schon 8 GB RAM und 4-6 GB VRAM haben wollen - und für 4K gern mal 8 GB VRAM oder mehr.

Wird interessant es im Jahr 2021, wenn dann Spielekonsolen mit 32 GB (oder doch "nur" 24 GB?) herauskommen. Das wird die Speicheranforderungen auf dem PC innerhalb einer gewissen Anlaufzeit maßlos nach oben schiessen lassen. 32 GB RAM und 16 GB VRAM werden dann normal sein.

HOT
2018-07-12, 19:14:20
Denkbar ja.

384 Bit GDDR5X @ 2500 MHz für GT104 ergeben 480 GB/sec (+50% zu GTX1080)
GT102 käme dann mit 384 Bit GDDR6 @ 3500 MHz = 672 GB/sec (+23% zu TitanXp)

Würde zumindest bei der 1180 eine gute Speichermenge von 12 GB erlauben. Bei der 1180Ti und Titan XT wären es dann allerdings 22-24 GB, das wäre ziemlich viel.
Wer sagt, dass die Ti mehr als 12GB braucht? Sehe ich nicht so. Dann haben eben sowohl die 1180 als auch 1180Ti eben 12GB.
Als Titan wär dann ja 24GB möglich.

Adam D.
2018-07-12, 19:17:43
Wer sagt, dass die Ti mehr als 12GB braucht? Sehe ich nicht so. Dann haben eben sowohl die 1180 als auch 1180Ti eben 12GB.
Als Titan wär dann ja 24GB möglich.
Hat weniger mit brauchen als vielmehr mit Marketing zutun. Wäre halt ein Bruch mit vergangenen Iterationen, wenn der Top-Dog speichertechnisch nix drauflegen würde.

iuno
2018-07-12, 19:52:44
Wenn man schon die Konsolen heranzieht, um ueber VRAM zu spekulieren, warum dann nur die aktuelle Generation?
War nicht zuletzt 2020 fuer PS5/Xbox Nachfolger im Gespraech? Und wenn man sich die Releasezyklen so anschaut:
2012 Kepler
2014 Maxwell
2016 Pascal
2018(?) Turing(?)

Und wenn man schon von einer Titan spricht, darf man imho schon erwarten, dass die nicht sofort 2020 dann in die Knie geht.

E: Leonidas hat es sogar schon angesprochen :redface:

Thunderburne
2018-07-12, 20:49:02
Klar kauft man sich in ca 2-3 Jahren neue Hardware manche auch jedes Jahr.
Ich nutze halt 4K an meinem Oled vorher 4K am Monitor.
Da lief meine 1080 nicht nur einmal ins Speicherlimit z. B Resedent Evil, Batman es gibt da noch weitere Titel die muss ich hier nun nicht nenen.
Ob die schlecht optimiert wurden sind spielt da auch erstmal gar keine Rolle. Deshalb muss ich ja nicht drauf verzichten diese zu zocken.
Na klar gibt es Regler die den Vram Bedarf zur not senken... will ich diese zwingend nutzen? Nein will ich nicht.
Es zeichnet sich schon länger ab das 8GB für 4K nicht mehr optimal sind.
Von daher die Konsolen beschleunigen diesen Umstand zur Zeit.

Also ich würde mich riesig über 16GB freuen aber auch mit 12 wäre ich erstmal zufrieden und könnte erst mal mit weniger bedenken zuschlagen.

=Floi=
2018-07-14, 14:09:54
https://www.tomshw.de/2018/07/12/kuenstliche-intelligenz-nvidia-entfernt-bildrauschen-signifikant-video/

wenn das wirklich so funktioniert. :eek:

aufkrawall
2018-07-14, 14:54:54
Hab schon vor 1-2 Jahren ähnliche NN Denoise-Demonstrationen an anderer Stelle gesehen, das Problem sind Bewegtbilder.

Digidi
2018-07-14, 17:25:26
Hab schon vor 1-2 Jahren ähnliche NN Denoise-Demonstrationen an anderer Stelle gesehen, das Problem sind Bewegtbilder.


Der Trick ist aber bei Nvidia das sich der Algorithmus praktisch selbst schreibt. Diesen Algorithmus nimmt man dann und verfrachtet Ihn auf die Gaminggrafikkarten. Sowas ist neu.


Nvidia hat bestimmt einen Supercomputer der gerade den passenden Algorithmus für die Tensor cores zusammen stellt per Training. Wenn der Algorithmus fertig ist verfrachtet man diesen auf die Grafikkarte.

Die Tensor Cores können dann auch recht flach mit wenigen Bits ausfallen es geht nur darum ob die richtige oder falsche Entscheidung getroffen wurde. Es sind halt Millionen von Entscheidungen die nacheinander getroffen werden um dann zum Endergebniss zu kommen.

Godmode
2018-07-14, 21:17:32
irgendwie kann ich die geruechte mit den vollen pascal lagern nicht glauben, die preise geben das einfach nicht wieder. fuer nv sollte es ausserdem ein leichtes sein, die dinger los zu werden, eben durch preissenkungen. die sind aber nicht abzusehen.

eine erklaerung koennte natuerlich sein, das alle auf ein erneuten anstieg der miningnachfrage warten. die preise sind noch nicht lange auf dem niveau, das kann sich kurzfristig wieder aendern?

Sobald die Kurse bei den Cryptos wieder höher sind, wird auch die Nachfrage nach GPUs aus dem Miningsektor wieder ansteigen. Viele Miner warten aktuell auf Turing, weil sie dadurch die sehr schlechten Miningerträge verbessern können. Sollte Turing das halten, was sich viele Miner versprechen, wird dieser wohl schlecht verfügbar sein und teuer werden. Wenn Nvidia noch die Bestellung für Turing-Chips an den aktuellen Nachfragerückgang anpasst, wird es genau so scheisse wie letztes Jahr und Anfang dieses Jahres werden.

Swissr
2018-07-14, 22:49:44
Tja, für uns Gamer hats dann aber zumeist eine Alternative: beim 1080ti Abverkauf zuschlagen. Sollte der Performance Abstand nicht zum Preis passen, hol ich mir lieber wieder ne 1080ti,die dann vermutlich bei 500 Euro liegen wird.

Sunrise
2018-07-14, 22:56:22
Der Trick ist aber bei Nvidia das sich der Algorithmus praktisch selbst schreibt. Diesen Algorithmus nimmt man dann und verfrachtet Ihn auf die Gaminggrafikkarten. Sowas ist neu.

Nvidia hat bestimmt einen Supercomputer der gerade den passenden Algorithmus für die Tensor cores zusammen stellt per Training. Wenn der Algorithmus fertig ist verfrachtet man diesen auf die Grafikkarte.

Die Tensor Cores können dann auch recht flach mit wenigen Bits ausfallen es geht nur darum ob die richtige oder falsche Entscheidung getroffen wurde. Es sind halt Millionen von Entscheidungen die nacheinander getroffen werden um dann zum Endergebniss zu kommen.
Die wahrscheinlich im Best Case generierten und gezeigten Marketing-Bilder haben aber alle eine Ground Truth...

Und selbst dort sieht man sehr schön, dass verlorene Details weiterhin verloren sind (es wird interpoliert). Ich bin mir nicht sicher wie das abseits von sehr statischen Pattern oder sich wiederholend auftretenden Mustern (wie bei einer Kamera) helfen soll. Ich habe aber auch gerade keine Zeit (ist schon spät), evtl. ist das in den PDFs genauer erklärt.

Fragman
2018-07-15, 07:55:34
Sobald die Kurse bei den Cryptos wieder höher sind, wird auch die Nachfrage nach GPUs aus dem Miningsektor wieder ansteigen. Viele Miner warten aktuell auf Turing, weil sie dadurch die sehr schlechten Miningerträge verbessern können. Sollte Turing das halten, was sich viele Miner versprechen, wird dieser wohl schlecht verfügbar sein und teuer werden. Wenn Nvidia noch die Bestellung für Turing-Chips an den aktuellen Nachfragerückgang anpasst, wird es genau so scheisse wie letztes Jahr und Anfang dieses Jahres werden.

dann bleibt im endeffekt nur nv als direkter haendler uebrig, sollten sie wieder die karten fuer ihren preisn anbieten. die customs kann man vergessen, sollte der boom wieder ansteigen, werden die preise bei deren release schon durchs dach gegangen sein.

Daredevil
2018-07-17, 20:04:49
Meinte Igor nicht was von neuem Anschluss, den man so nicht erwarten würde?
Dann könnte das der wohl sein.

VirtualLink: Neuer offener Industriestandard für den Anschluss von VR-Headsets
https://www.tomshw.de/2018/07/17/virtuallink-neuer-offener-industriestandard-fuer-den-anschluss-von-vr-headsets/

Hübie
2018-07-17, 22:51:34
Ja reichlich unspektakulär. Positiv:

Open standard:

VirtualLink has been developed as an open standard by an industry consortium of leading silicon, software, and headset manufacturers led by NVIDIA, Oculus, Valve, Microsoft, and AMD

Quelle ist NVIDIA'S Blog.

Rampage 2
2018-07-18, 07:51:53
hast Du die letzten Jahre geschlafen? Natürlich darfst Du nicht mehr die alten Generationen für diesen Vergleich heranziehen, aber spätestens seit der Pascal-Generation ist genau das passiert. Mehr Leistung gibt es nur für mehr und nicht fürs gleiche Geld. So kostete eine x60 immer knapp unter 200 €, aber eine 1060 gleich mind. 100 € mehr.

Die Antwort darauf hat ein anderer Member schon gegeben:

Du weißt schon dass die 1060 schneller als die 980 ist und diese hat um 450 bis 500 gekostet, gab also eine deutliche Preisreduzierung für die bessere Leistung!

Mining hat die Preise natürlich verzerrt.

Irgendwann kommt der Zeitpunkt, wo man die gleiche Leistung für weniger Geld bekommt - darauf wollte ich hinaus;)

Was für einen Traum hast Du da geträumt? :eek: Im Leben nicht. Hast Du die letzten Berichte nicht verfolgt? Die Lager sind bei ATI und Nvidia voll, voller gehts nicht mehr. Das Mininggeschäft ist eingebrochen! Diese Karten müssen sie erst mal loswerden.

Bis jetzt begann der Abverkauf der Vorgängergeneration erst nach der Einführung einer neuen Generation. Wenn Nvidia die Pascals so schnell loswerden will, dann sollten sie dieses Mal eine Ausnahme machen und den Abverkauf jetzt schon beginnen - also jetzt schon Abverkaufspreise anbieten BEVOR Turing erscheint. Schließlich ist die jetzige Situation hauptsächlich dem Mining geschuldet...


Hau mal min 100-200 € bei der ersten und min. 200-300 € auf die 16 GB drauf, dann kommst Du auf realistische Preise, wie sie zu Einführung rausgerollt werden. Und ich wette mit Dir, die Dinger werden weggehen wie warme Semmeln.

Kein (bzw. relativ wenige) informierter Käufer wird 1000€ für einen Midrange-Chip (x104) ausgeben, wenn weniger als 6 Monate später die HighEnd-Salve (x102 Ti) fürs gleiche Geld erscheint. Ganz abgesehen davon, dass ab einem bestimmten Preispunkt (ab 700€) die Zahl potentieller Käufer nicht linear sondern logarithmisch abnimmt...

R2

Leonidas
2018-07-18, 10:02:35
dass ab einem bestimmten Preispunkt (ab 700€) die Zahl potentieller Käufer nicht linear sondern logarithmisch abnimmt...


Ich glaube, bei NV dürfte sich eine ganze Abteilung damit beschäftigen, exakt diesen Punkt herauszufinden. Für NV ist hier jeder Dollar mehr absoluter Reingewinn, ohne Risiko eines Wettbewerbs. Den führt man derzeit nur gegen sich selbst.

gbm31
2018-07-18, 10:23:22
Mal sehn ob es diesmal wieder die gleiche Masche gibt wie bei der 1080.

Erst die 1180 teuer anbieten, und wenn die ganzen Turing-Geilen gemolken sind, die 1180Ti für den gleichen Preis nachschieben, um die Zögerer zu kriegen.

Triniter
2018-07-18, 10:40:24
Mal sehn ob es diesmal wieder die gleiche Masche gibt wie bei der 1080.

Erst die 1180 teuer anbieten, und wenn die ganzen Touring-Geilen gemolken sind, die 1180Ti für den gleichen Preis nachschieben, um die Zögerer zu kriegen.
Ein erster kleiner Indikator dafür könnte sein wenn es mit der xx80 eine T-Titan gibt. Aber deshalb auf den Preis einer möglichen TI und die Preisanpassung der xx80 zu spekulieren ist halt schon sehr vage. Sollte es eine Titan geben könnte die aber langfristig gesehen wieder eine ordentliche Überlegung wert sein...

Thunderburne
2018-07-18, 11:22:57
Nur was für eine Titan die V gibt es ja schon.
Oder meinst ne Ti mit 352bit und ne Titan mit 384bit.

Randschwimmer
2018-07-18, 11:23:30
Wenn Turing jetzt tatsächlich in 12nm kommt und die 7 nm-Fertigung nicht mehr sooo weit entfernt ist, ist für mich fraglich, ob eine Titan demnächst und eine TI ein halbes Jahr (?) danach überhaupt noch Sinn macht.