PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Klevapalis
2018-02-14, 20:37:52
Damit deine eigenen Werte mal eben ausgehebelt. Erstaunlich, wie sehr man sich selbst widersprechen und schachmatt setzen kann.
Warum sollte 280 statt 250W meinen Punkt aushebeln? ;D

Mein Punkt ist ja immer noch valide: Die Leistungaufnahme der 980 ist deutlich niedriger. Ob 100 oder 50W ist ziemlich irrelevant ;D

N0Thing
2018-02-14, 23:33:40
Das ist jetzt genau die gleiche Art von peinlichem Geschichtsrevisionismus, wie wenn heute die Vega64 mit der GTX1080 verglichen wird. Mag Leistungsmäßig passen, auf technischer und/oder preislicher Ebene aber, ist der Gegner in beiden Fällen die Ti-Version gewesen.

GTX 1080 $ 549.00
Radeon Vega 64 $499 MSRP / $599
GTX 1080Ti $ 699

In beiden Fällen der Vega 64 würde ich sagen, der Preis ist näher an der GTX 1080 als an der Ti.

maximus_hertus
2018-02-14, 23:58:10
GTX 1080 $ 549.00
Radeon Vega 64 $499 MSRP / $599
GTX 1080Ti $ 699

In beiden Fällen der Vega 64 würde ich sagen, der Preis ist näher an der GTX 1080 als an der Ti.

Ja und nein. Vega war nie ernsthaft "breit" verfügbar, es gab nie einen Konkurrenzkampf unter den Händlern. Einzig die ein oder andere AMD / Mindfactory Aktion. Ergo war Vega bis heute nie ernsthaft verfügbar. Von daher ist es schwierig zu sagen, ob man die Vega lieber mit der Karte A oder B vergleichen sollte. Es spielt im Prinzip auch keine Rolle. Die Verfügbarkeit wird bis Ampere eh nicht besser werden und mit Ampere hat sich Vega eh quasi erledigt.

Wenn man die letzten Jahre sich anschaut, wird eine GTX 2070 wohl knapp unter oder überhalb der 1080 Ti rauskommen. Ergo deutlich oberhalb der Vega. Eine 70er Karte bekommt maximal 499 USD als UVP, eher 449. Selbst mit 499 würde Vega obsolet werden. Eine GTX 2060 dürfte grob auf 1070 Ti Level raus kommen und damit zwischen Vega 56 und 64. Für 300-350 Euro.

Das einzige, was AMD "retten" kann, ist eine miese Verfügbarkeit bzw. aufkaufen der Miner. Dann wäre man zwar immer noch nicht wirklich konkurrenzfähig, jedoch könnte bis Navi noch eine größere potentielle Käuferschicht übrig bleiben.

N0Thing
2018-02-15, 00:08:02
Ja, ich denke auch, dass AMD wieder ein riesiges Problem haben wird, wenn Ampere ähnliche Verbesserungen pro Segment bringen wird, wie man es von den letzten Generationen kennt.
Preisvergleiche aus der Vergangenheit werden dann bedeutungslos und Vega im Gamer-Segment quasi überflüssig, wenn die Preisstruktur im bekannten Rahmen bleibt.

maximus_hertus
2018-02-15, 00:42:02
Ja, ich denke auch, dass AMD wieder ein riesiges Problem haben wird, wenn Ampere ähnliche Verbesserungen pro Segment bringen wird, wie man es von den letzten Generationen kennt.
Preisvergleiche aus der Vergangenheit werden dann bedeutungslos und Vega im Gamer-Segment quasi überflüssig, wenn die Preisstruktur im bekannten Rahmen bleibt.

Wenn die Verfügbarkeit stimmt. Das ist der einzige Hoffnungsschimmer für AMD, wenn viele Gamer 2018 "leer" ausgehen (entweder viel zu hohe Preise bzw. schlicht kaum verfügbar). Dann könnte Navi wieder Erfolg haben. Schafft es nV jedoch mehr oder weniger zu annehmbaren Preisen verfügbar zu sein (ca. 50-70 USD über den UVP der 1000er Karten) dann wird der Gamer Markt mal wieder abgegrast sein.

Bucklew
2018-02-15, 09:07:39
Ich denke das Maximum an Preissteigerung werden (leider wieder) 50US$ sein. Aber mehr halte ich für Blödsinn für die 2080. Kommt ja auch aus ner ganz bestimmten Ecke die Behauptung.

Radeon Vega 64 $499 MSRP / $599
Die 499 waren aber doch dieser komisch "Radeon Pack" Preis?

Hübie
2018-02-15, 09:27:32
Puh, ziemlich off topic hier. :D Das zeigt, dass es nach wie vor mehr Fragen als Antworten gibt.

Grendizer
2018-02-15, 09:50:28
Puh, ziemlich off topic hier. :D Das zeigt, dass es nach wie vor mehr Fragen als Antworten gibt.

Ja ... mal schauen, wenn das Ding wirklich im März angekündigt wird, dann wissen wir ja bald endlich mehr.

Schlimm für evtl. Preise ist natürlich, das Südkorea Kryptowährungen nun doch nicht verbieten will und deshalb der Kurs aktuell wieder aufwärts geht.

Adam D.
2018-02-15, 10:15:55
Was passiert eigentlich, wenn Ampere gute Yields hat und erwartbare Zuwächse bei der Mining-Performance/Effizienz erzielt? Upgraden die ganzen Farms dann und überschütten den Gebrauchtmarkt mit Pascal oder ist das illusorisch?

Troyan
2018-02-15, 10:19:46
Was passiert eigentlich, wenn Ampere gute Yields hat und erwartbare Zuwächse bei der Mining-Performance/Effizienz erzielt? Upgraden die ganzen Farms dann und überschütten den Gebrauchtmarkt mit Pascal oder ist das illusorisch?

Wenn sie Platzmangel haben, bestimmt. Ansonsten sind die alten Karten schon längst abbezahlt und damit ein 100% Gewinnbringer. Da macht ein Wechsel null Sinn.

Dural
2018-02-15, 10:27:19
Ich würde dagegen Wetten, NV wird ähnlich wie bei Maxwell recht Günstig starten! Meiner Meinung nach haben sie auch gar keine andere Wahl, die wollen Stückzahlen und um Käufer von Maxwell und Pascal Karten zu überzeugen muss es nach einem guten Angebot aussehen. Und man sollte nicht vergessen das Ampere im quasi selben Prozess wie Pascal Hergestellt wird, der dürfte mittlerweile recht ausgereift sein = günstiger als beim Start von Pascal.

Der nächste Preissprung wird dann mit den 7nm Chips kommen, ähnlich wie jetzt bei Pascal.

PHuV
2018-02-15, 11:03:37
Ihr seid alle so optimistisch. :( Leute, Nvidia muß und will Geld verdienen. Ich bleib bei einer Wette, die neuen 2080er Karten starten bei uns >=799 €.

Grendizer
2018-02-15, 11:10:22
Ihr seid alle so optimistisch. :( Leute, Nvidia muß und will Geld verdienen. Ich bleib bei einer Wette, die neuen 2080er Karten starten bei uns >=799 €.


Ist ja nicht so, das nVidia bisher kein Geld verdient hat. 799 ist psychologisch für die angestrebte Käuferschicht einfach zu hoch.

Eigentlich brauchst du was um die 249 Euro, 399 Euro, 499 Euro, 749 Euro und um die 999 Euro.

maximus_hertus
2018-02-15, 11:12:19
Ich würde dagegen Wetten, NV wird ähnlich wie bei Maxwell recht Günstig starten! Meiner Meinung nach haben sie auch gar keine andere Wahl, die wollen Stückzahlen und um Käufer von Maxwell und Pascal Karten zu überzeugen muss es nach einem guten Angebot aussehen. Und man sollte nicht vergessen das Ampere im quasi selben Prozess wie Pascal Hergestellt wird, der dürfte mittlerweile recht ausgereift sein = günstiger als beim Start von Pascal.

Der nächste Preissprung wird dann mit den 7nm Chips kommen, ähnlich wie jetzt bei Pascal.

Der UVP Preis ist nur dann relevant, wenn es ausreichend Karten gibt. Ich kann mir aktuell nicht vorstellen, dass Ampere Karten den Markt Fluten werden.

Bei schlechter Verfügbarkeit werden die Händler entsprechende Aufschläge nehmen. Da kann nV machen was sie wollen.

Adam D.
2018-02-15, 11:16:12
Ist ja nicht so, das nVidia bisher kein Geld verdient hat. 799 ist psychologisch für die angestrebte Käuferschicht einfach zu hoch.

Eigentlich brauchst du was um die 249 Euro, 399 Euro, 499 Euro, 749 Euro und um die 999 Euro.
Als erstes muss man eh mal zwischen UVP und Endpreis unterscheiden. Zweitens fänd ich das schon PR-technisch arg dämlich, ständig von Gamern als Kerngeschäft zu sprechen und dann die neue Generation so anzusetzen, dass es sich definitiv keine Sau mehr leisten kann. Billig wird es bestimmt nicht, aber dass sie jetzt nochmal einen drauf setzen, kann ich mir nicht vorstellen. Die haben die Kundschaft mit dem mickrigen 314mm2-Die schon hart genug gemolken...

Grendizer
2018-02-15, 11:16:20
Der UVP Preis ist nur dann relevant, wenn es ausreichend Karten gibt. Ich kann mir aktuell nicht vorstellen, dass Ampere Karten den Markt Fluten werden.

Bei schlechter Verfügbarkeit werden die Händler entsprechende Aufschläge nehmen. Da kann nV machen was sie wollen.


Und ich glaube hier ganz ehrlich, das Jensen hier wirklich anders tickt. Um genau diesen Effekt nicht zu haben werden genug Amperes in den ausgehungerten Markt geschickt um im Gegensatz zu AMD eine gute Verfügbarkeit zu zeigen.

Hübie
2018-02-15, 11:19:20
Es ist das Eine, was ein IHV verlangt und das Andere, was der Retailer dir abknöpft. ;) Also wovon sprechen wir hier gerade???Bei Ampére könnte NV per Treiber das mining uninteressant machen und gesonderte Karten ohne display-out mit PCIE x1 per Direktvertrieb verkaufen.

Edit: Ninja'd by Adam D.

AffenJack
2018-02-15, 11:40:15
Als erstes muss man eh mal zwischen UVP und Endpreis unterscheiden. Zweitens fänd ich das schon PR-technisch arg dämlich, ständig von Gamern als Kerngeschäft zu sprechen und dann die neue Generation so anzusetzen, dass es sich definitiv keine Sau mehr leisten kann. Billig wird es bestimmt nicht, aber dass sie jetzt nochmal einen drauf setzen, kann ich mir nicht vorstellen. Die haben die Kundschaft mit dem mickrigen 314mm2-Die schon hart genug gemolken...

Vor allem gibt es die Diskussion bei jeder Gen. Bei Nv wird immer angenommen, dass die GPU over 9000 kostet und bei AMD für 199€ für die gleiche Leistung :freak:.

Dabei ist Nvs Schema nun nicht gerade schwierig zu durchschauen. Man erhöht mit jeder Gen leicht die Preise, so dass die Leute eben bereit sind das noch zu zahlen. GTX980 war 550$, GTX980TI war 650$. GTX1080 599/699$ für FE, 1080TI war 699$.
Bei GTX2080 würde ich daher 649$ erwarten. Allerdings ist die Ram Situation kompliziert, wegen der Preise. Falls sie mit 16Gb Ram kommen sollte, dann 699$ oder 2 Versionen 8Gb 599$, 16Gb 699$.

Das sind aber schon Preise, welche bei einer nahezu üblichen Gen->Gen Steigerung von 50-60% realistisch wären. Daran glaube ich nämlich auch nicht, sondern eher 40%, also eine 2080 die etwas schneller als eine 1080TI ist. Da könnten die Preise nochmal 50$ tiefer ausfallen, denn irgendwie muss man die Leute auch überzeugen upzugraden.
Dementsprechend meine wahrscheinlichste Ampere Annahme: GTX 2080 8Gb 599$ für GTX1080Ti + 10%.

Bucklew
2018-02-15, 11:46:28
Was passiert eigentlich, wenn Ampere gute Yields hat und erwartbare Zuwächse bei der Mining-Performance/Effizienz erzielt?
Ich glaube nicht an einer überragende Mining-Perf bei der nächsten Gen. NVIDIA hat sich ja - anders als AMD - klar gegen das Mining gestellt und möchte immer noch ihre Zielgruppe (Gamer) beliefern.

Grundsätzlich wirft NVIDIA auch nicht so sehr mit Shaderleistung um sich, wie AMD dies tut. Die NVIDIA-Karten sind und waren immer sehr ausbalanciert, was die Relation Gaming-/Shaderleistung angeht. Dies wird man mit der nächsten Gen sicherlich optimieren. Und wer weiß, vielleicht gibt es wirklich zwei Chipversionen und dann eine Treiberbegrenzung für die GeForce Karten?

Ganz ehrlich: Ich würde mich freuen, wenn man die Gaming- und Mining-Karten trennen würde.

Vor allem gibt es die Diskussion bei jeder Gen. Bei Nv wird immer angenommen, dass die GPU over 9000 kostet und bei AMD für 199€ für die gleiche Leistung :freak:.
Und man denke an die Jubelschreie, wie schnell Vega beim Mining ist ;D

Dementsprechend meine wahrscheinlichste Ampere Annahme: GTX 2080 8Gb 599$ für GTX1080Ti + 10%.
Durchaus realistisch und wenn es die Karte zum UVP gäbe, wäre das ein P/L Schnapper in der Leistungsklasse.

Grendizer
2018-02-15, 12:00:59
Bezüglich Performance ...

eine 2080 muss uneingeschränkt 4K fähig sein. Also stabil mind. 60 fps liefern.

eine 2080 TI sollte dann die 120 fps BFDs als Ziel haben :biggrin:

Alles andere macht doch nur bedingt Sinn. Eine 2080 die gerade so oberhalb einer 1080 TI rauskommt, wäre doch viel zu langsam für nVidias Display Offensive.

Hübie
2018-02-15, 12:05:08
Na ja. Display Offensive... Das ist eher eine Nischenerschließung.

Grendizer
2018-02-15, 12:07:38
Na ja. Display Offensive... Das ist eher eine Nischenerschließung.

Trotzdem braucht man eine Grafikkarte die das liefern kann.

PHuV
2018-02-15, 12:22:26
Der UVP Preis ist nur dann relevant, wenn es ausreichend Karten gibt. Ich kann mir aktuell nicht vorstellen, dass Ampere Karten den Markt Fluten werden.

Bei schlechter Verfügbarkeit werden die Händler entsprechende Aufschläge nehmen. Da kann nV machen was sie wollen.
Genau so ist es. Wie gesagt, ich habe mir einige Karten direkt zu den Launches gekauft, und die waren immer teurer als der UVP-Preis, und die Karten waren trotzdem ruckzuck weg. Denkt mal an die ersten Titans Maxwell und Pascal, die waren trotz des orbitanten Preises von 1299 € innerhalb eines Tages ausverkauft (wobei wir hier nicht wissen, wieviele es davon gab).

Matrix316
2018-02-15, 13:50:29
Ich überleg mir schon eine 2080 zu kaufen, egal was kommt, so lange der Preis im Rahmen (~750) ist, und die 1080TI zu behalten, nur, damit eine ausfällt, man Ersatz hat. ;)

Es ist oft garnicht so gut mit dem Kauf zu warten, denn je nach dem können Karten auch teurer werden. Schon damals bei AMDs 5870 waren die frühen Käufer die, welche am wenigsten bezahlt hatten (bis dann halt der Nachfolger kam).

Ich hoffe nur nicht, dass man die Preise der neuen Generation an den aktuellen anpasst, denn wenn eine 1070 schon über 600 kostet.... wo soll das denn hinführen?

N0Thing
2018-02-15, 14:32:02
Bezüglich Performance ...

eine 2080 muss uneingeschränkt 4K fähig sein. Also stabil mind. 60 fps liefern.

eine 2080 TI sollte dann die 120 fps BFDs als Ziel haben :biggrin:

Alles andere macht doch nur bedingt Sinn. Eine 2080 die gerade so oberhalb einer 1080 TI rauskommt, wäre doch viel zu langsam für nVidias Display Offensive.

Nvidia bewirbt die GTX 1080Ti doch als 4K-Gaming-Karte. Dann wäre aus deren Sicht eine GTX 2080 mit 10% oberhalb der Ti doch ebenfalls gut genug.

https://www.nvidia.de/geforce/products/10series/ultimate-4k/

Grendizer
2018-02-15, 16:06:14
Nvidia bewirbt die GTX 1080Ti doch als 4K-Gaming-Karte. Dann wäre aus deren Sicht eine GTX 2080 mit 10% oberhalb der Ti doch ebenfalls gut genug.

https://www.nvidia.de/geforce/products/10series/ultimate-4k/


Und trotzdem wird das mehr werden.... BFG mit 120 Hz brauchen passende Beschleuniger. Bisher waren 4K bei max. 60 hz möglich. Da konnte man Karten mit 30-60 fps in 4K verkaufen. Das wird sich aber dieses Jahr ändern.

edit: Witzig wäre es natürlich, wenn man AMDs Vegas Versuche auf den Arm nehmen und zeigen könnte welchen Benefit 120 hz BFG gegenüber Vega mit Freesync 2 haben. Aber so optimistisch bin ich dann doch nicht.

grizu
2018-02-15, 20:26:02
2080 ? bei Launch werden 2 eingetütet

Metzler
2018-02-15, 20:59:07
Ich habe Weihnachten 2014 eine GTX 970 für 320€ gekauft. Das war / ist für mich das obere Limit. Sollte die Karte kaputt gehen, müsste ich die gleiche Summe oder mehr investieren, um die gleiche Performance zu erhalten, 3 Jahre später... Für mich wäre das ein Grund, mich wieder vermehrt mit Konsolen zu beschäftigen. Mining ist nicht alleine verantwortlich für diese Kostenspirale - die GTX 1070 begann ja schon bei 500€, ergo 50% über dem initialen Preis der GTX 970. Wundert mich immer wieder, dass der Absatzmarkt groß genug ist bei diesen Preiskategorien.

Grendizer
2018-02-15, 21:12:43
ot

Korvaun
2018-02-16, 07:39:24
Ich habe Weihnachten 2014 eine GTX 970 für 320€ gekauft. Das war / ist für mich das obere Limit. Sollte die Karte kaputt gehen, müsste ich die gleiche Summe oder mehr investieren, um die gleiche Performance zu erhalten, 3 Jahre später... Für mich wäre das ein Grund, mich wieder vermehrt mit Konsolen zu beschäftigen. Mining ist nicht alleine verantwortlich für diese Kostenspirale - die GTX 1070 begann ja schon bei 500€, ergo 50% über dem initialen Preis der GTX 970. Wundert mich immer wieder, dass der Absatzmarkt groß genug ist bei diesen Preiskategorien.

GTX1070 ist ja auch locker 50% schneller und hat mehr als doppelt so viel "nutzbaren" Speicher ;) wie ne 970, ist also ganz ok der UVP. Das aktuelle Problem ist trotzdem im wesentlichen Mining und der bevorstehende Generationenwechsel bei nV. Die letzten 2 Jahre ist ja bei der Performance nix passiert.

Abgesehen davon sind aktuell Konsolen wohl so attraktiv wie nie, insbesondere auch preislich gesehen. Für eine 1080 kann man auch 2 komplette PS4Pro kaufen, für eine 1080ti gibts dann 2 Xbox OneX :)

Ph0b0ss
2018-02-16, 11:50:06
GTX1070 ist ja auch locker 50% schneller und hat mehr als doppelt so viel "nutzbaren" Speicher ;) wie ne 970, ist also ganz ok der UVP.

Wenn das so weitergehen sollte, also Leistung pro Euro konstant, müssen wir dann (bei einer Leistungsverdopplung der GPUs alle 3 Jahre) in 15 Jahren für eine Midrange Karte 16.000€ zahlen.

Leonidas
2018-02-16, 13:11:04
Korrekt, eigentlich sollte das Ziel der Entwicklung ja sein, kostennormiert immer deutlich mehr Performance zu bekommen. Das ist zu den aktuellen Gfx-Preisen obsolet geworden, obwohl die 1000er Serie durchaus 1a Technik bietet.

Vorschlag zur Güte: NV kann sich die erneute Preiserhöhung bei der 80er Serie nur leisten, wenn es dick Mehrperformance gibt, was 10nm wahrscheinlich werden läßt. Bei niedriger oder mittlerer Mehrperformance wird es dagegen kaum Preiserhöhungen geben. Auch NV muß speziell bei den Gamern schauen, das man es nicht übertreibt.

Launchpreise:
970 ...... 329$
980 ...... 549$
980 Ti ... 649$
1070 ..... 379$/449$
1080 ..... 599$/699$
1080 Ti .. 699$

aceCrasher
2018-02-16, 13:42:38
Bei mehr als 800 für eine non-Titan Enthusiast Karte würde ich auch nicht mehr mitgehen. Selbst wenn man das Geld hat, irgendwann wird für mich einfach die psychische Überwindung zu groß. Ich hoffe, dass sie bei der TI bei ~800 bleiben, die Produktionskosten im Vergleich zu Pascal @Launch sollte schließlich nicht viel größer geworden sein. Größere Chips vs. Ausgereifter Prozess.

Platos
2018-02-16, 13:48:40
Interessant wird es dann, wenn man sich mal die Steigerung in der Leistung pro Preis ansieht.

GTX 960....199$ - FHD Perf.-Index 340% ---> 1.709% im FHD Index Pro 1$
GTX 1060...299$ - FHD Perf.-Index 590% ---> 1.973% Pro 1$ (L/P Steigerung +15.493%)

GTX 970....329$ - FHD Perf.-Index 510% ---> 1.550%/$
GTX 1070...449$ - FHD Perf.-Index 800%---> 1.782%/$ (L/P Steigerung +14.940%)

GTX 980....549$ - FHD Perf.-Index 600% ---> 1.093%/$
GTX 1080...699$% - FHD Perf.-Index 960% ---> 1.373%/$ (L/P Steigerung +25.665%)

GTX 980Ti....649$ - FHD Perf.-Index 750% ---> 1.156%/$
GTX 1080Ti...699$ - FHD Perf.-Index 1150% ---> 1.645%/$ (L/P Steigerung + 40.365%)

Die Steigerung des Leistung/Preis-Verhältnis stieg eigentlich nur um +15% bei den unteren Karten und gegen oben hin steigt das L/P eigentlich mehr. Wobei der Listenpreis von 699$ für die 1080Ti damals etwas realitätsfern war. Da wäre 749$ realistischer gewesen, dann wäre der anstieg auch "nur" ca. 32% gewesen.

Edit: Das sind natürlich nur die Listenpreise. Die jetzigen Preise sind natürlich viel schlechter.

PHuV
2018-02-16, 15:48:28
Launchpreise:
970 ...... 329$
980 ...... 549$
980 Ti ... 649$
1070 ..... 379$/449$
1080 ..... 599$/699$
1080 Ti .. 699$
Schön, daß Du es mal dokumentiert hast. Man sieht deutlich, daß die Preiserhöhungen in den letzten Jahren keine Einbildung sind.

Wobei man aber fairerweise sagen muß, als damals die 8800 GTX neu rauskamen, habe ich im ersten Launch für 2 mit SLI auch ca. 1350 € hingelegt.

Edit: Das sind natürlich nur die Listenpreise. Die jetzigen Preise sind natürlich viel schlechter.
Und sie waren eben zu den direkten Launches auch viel schlechter. Das beruhigte sich immer erst nach ca. 4-8 Wochen, je nachdem, wie gefragt die Karten waren. Hier hatte Nvidia immer die letzten Jahren doch Volltreffer gelandet.

Wenn man dazu noch die guten Quartalszahlen von Nvidia (https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2018)bedenkt, die Großteils auf dem Gamermarkt beruhen, kassieren sie einen guten Gewinn, sprich die Fertigungskosten sind fast gleich, die Gewinne höher.

|MatMan|
2018-02-16, 16:30:27
Meiner Meinung nach hängt praktisch alles davon ab, wie lange Ampere durchhalten muss, also wann ein 7nm Nachfolger kommt. Das entscheidet auch über den Fertigungsprozess. Kommt der Nachfolger eher zeitnah (~1 Jahr), spricht das IMO für 12nm und aggressivere Preise. Die Fertigung ist inzwischen recht günstig und man braucht genügend Umsatz und Hype bei dem etwas kleineren Sprung.
Muss Ampere länger durchhalten (~2 Jahre wie Pascal), dann kann man den anfangs teureren Prozess nehmen und für den größeren Leistungssprung auch mehr Geld verlangen.

Zum Thema Mining: nVidia wird nicht auf zahlende Kundschaft verzichten. Eher werden sie versuchen den Minern mehr Geld aus der Tasche zu ziehen. Generell freut sich nVidia sicher über die Umsätze der Miner. Ein guter Teil ihres "Gaming" Umsatzes kam in letzter Zeit bestimmt von Minern. Auch traue ich denen zu entsprechende Mengen zu liefern, gerade wenn Ampere in 12nm kommt.

AlphaNUSS
2018-02-16, 17:14:09
Warum sind die Karten in den USA eigentlich so viel billiger? Sind das alles Preise ohne Steuer?

maximus_hertus
2018-02-16, 17:23:42
Warum sind die Karten in den USA eigentlich so viel billiger? Sind das alles Preise ohne Steuer?

Jau, in den USA wird alles immer ohne MwSt. angegeben. Selbst im Ladengeschäft sind es immer Netto-Preise. Es gibt immer wieder lustige Berichte, wie Urlauber verdutzt sind, dass an der Kasse ein andere Preis angezeigt wird als am Preisschild :D

Adam D.
2018-02-16, 19:44:04
Muss Ampere länger durchhalten (~2 Jahre wie Pascal)
Das hat mit "müssen" glaub ich überhaupt nix zu tun, sondern vielmehr mit "können". Wenn der Konkurrent mit einem Jahr Verspätung mit dem Launch einer krüppligen 1070ti ausgekontert werden kann, dann zwingt dich überhaupt niemand dazu, auf die Tube zu drücken. Und da wir bis 2019 keine neuen AMD-Karten sehen werden, wir das wohl wieder so ein Trauerspiel.

scully1234
2018-02-16, 23:31:19
, dann zwingt dich überhaupt niemand dazu, auf die Tube zu drücken..


autonomes Fahren,AI, und die Server Sparte zwingt dazu,will man seine Marktposition behalten oder bestenfalls weiter ausbauen, und das zieht zwangsläufig die anderen Abteilungen mit

Zudem ist Jensen nicht Brian Krzanich der sich mal eben auf dem ausruht was man Polster nennt

|MatMan|
2018-02-17, 00:17:54
Das hat mit "müssen" glaub ich überhaupt nix zu tun, sondern vielmehr mit "können".
Ja klar, das "müssen" war auf die aktuelle komfortable Situation bezogen, wo man den sonst üblichen Refresh nach einem Jahr weglassen konnte. Dadurch musste Pascal halt 2 Jahre halten und konnte das auch (das musste man ja schon vor Jahren entscheiden!). Ampere wird wohl auch ohne Refresh auskommen müssen und können, falls es noch knapp 2 Jahre bis zu 7nm GPUs dauert.
Nvidia wird trotz der aktuellen Situation auf die Tube drücken und aggressiv auf 7nm gehen, wie eben auch AMD.

@scully1234:
Die Deep Learning Schiene ist doch schon ziemlich losgelöst von den Consumer GPUs. Einen V100 Nachfolger wird man bringen sobald es technologisch und wirtschaftlich möglich ist.

Leonidas
2018-02-17, 04:24:57
Im Tesla-Bereich hat NV guten Wettbewerb, daher wird die rein technologische Entwicklung immer weitergehen. Ergo wird sich NV zumindest technologisch nicht ausruhen.

Bei Gaming-Produkten könnte man aber in der Tat vom Gas runtergehen. Wenn sie es schaffen könnten, +40% unter 12nm hinzubekommen, ohne die Chipflächen wesentlich zu erhöhen, wäre dies eine nette Zwischengeneration, die nach 2J Pascal trotzdem gut weggeht - und wirtschaftlich für NV genial wäre.

-=Popeye=-
2018-02-17, 04:59:40
Sehe dass jetz nicht so problematisch, mit Maxwell 2 haben sie es auch hinbekommen einen guten Chip mit veralteter Technologie auf die Beine zu stellen.

basix
2018-02-17, 09:59:01
Maxwell war aber schon ein Spezialfall. Diese Art von Leistungssteigerung hinzubekommen halte ich für unrealistisch. Wenn sie die Chipgrösse stark erhöhen (400mm2 für GA104 und 600m2 für GA102), dann vielleicht. Sonst eher nicht. Überraschen lasse ich mich gerne, Wunder erwarte ich aber nicht.

Mit den genannten Chipgrössen würde Perf/mm2 ja trotzdem einen guten Sprung hinlegen.

=Floi=
2018-02-17, 15:51:26
Bei Gaming-Produkten könnte man aber in der Tat vom Gas runtergehen. Wenn sie es schaffen könnten, +40% unter 12nm hinzubekommen, ohne die Chipflächen wesentlich zu erhöhen, wäre dies eine nette Zwischengeneration, die nach 2J Pascal trotzdem gut weggeht - und wirtschaftlich für NV genial wäre.

wo sind +40% vom gas gehen?
an der 1080ti sieht man, dass das auch nicht von nichts kommt. Chipfläche ist auch nicht alles.

Leonidas
2018-02-18, 04:17:01
Für 2J Differenz sind +40% schon arg mager. Bei 10nm-Einsatz winken +80%.

HOT
2018-02-18, 09:06:33
Quatsch :freak: Bei 10 winken maximal 10% mehr als bei 12. Deswegen macht mans ja auch nicht, weil da auch 1/3 mehr Kosten winken. Begrab das doch endlich, die 10 sind total sinnlos für NV.

horn 12
2018-02-18, 09:35:44
40% wären die angepeilten GTX 1080 TI plus 10 bis 15%
und eine GTX 2070 auf etwa GTX 1080TI Performance oder knapp dahinter.

BlacKi
2018-02-18, 14:10:10
40% wären die angepeilten GTX 1080 TI plus 10 bis 15%
und eine GTX 2070 auf etwa GTX 1080TI Performance oder knapp dahinter.
40% wäre ein 4k index von 185%, die 1080ti hat 175%4k.

15% über die 1080ti sind ca 200%4k. 200%4k sind dagegen 53% und nicht wie von dir vermutet 40%.

just sayin...

PHuV
2018-02-18, 18:33:02
Für 2J Differenz sind +40% schon arg mager. Bei 10nm-Einsatz winken +80%.
Das kannst Du so ziemlich vergessen, weil Nvidia und Co. genau wie die CPU-Hersteller, mittlerweile bei Fertigungsprozess an physikalischen Limits kratzen. Solche optimitischen Steigerungen sind nur noch möglich, wenn man die Chipfläche entsprechend vergrößert (siehe Volta) und/oder durch parallel betriebene Chips (siehe CPUs).

Tesseract
2018-02-18, 18:57:05
Das kannst Du so ziemlich vergessen, weil Nvidia und Co. genau wie die CPU-Hersteller, mittlerweile bei Fertigungsprozess an physikalischen Limits kratzen. Solche optimitischen Steigerungen sind nur noch möglich, wenn man die Chipfläche entsprechend vergrößert (siehe Volta) und/oder durch parallel betriebene Chips (siehe CPUs).

sehe ich auch so. die kosten pro transistor gehen nicht mehr so schnell runter wie in der vergangenheit. maxwell und pascal haben beide extrem viel durch die architektur rausgeholt (TBR, hartes turbo-binning, tiefgehende optimierungen auf hohen takt pro voltage), nachfolger werden es wohl schwer haben solche sprünge zu wiederholen ohne deutlich am transistorcount zu drehen und das treibt dann wieder den preis nach oben. vielleicht zieht nvidia wie von 40nm auf 28nm oben eine zusätzliche klasse ein die dann bei 1500€+ liegt.

reaperrr
2018-02-19, 00:18:20
Für 2J Differenz sind +40% schon arg mager. Bei 10nm-Einsatz winken +80%.
Kepler war die letzte Architektur von NV, die noch ineffizient genug war, um beim Nachfolger ohne bzw. mit nur leichten Prozessverbesserungen einen größeren Sprung machen zu können.

Nach allen bisherigen Infos ist 10nm nicht viel besser als damals 20nm (verglichen mit dem jeweiligen Vorgänger), und NV hat sowohl 20nm als auch 16nm ausgelassen und Maxwell in 28nm gebracht, bestimmt nicht nur zum Spaß.

NV wird für Ampere noch auf 12FFN setzen und frühestens Mitte 2019 dann einen 7nm-Shrink mit mehr Einheiten und Takt, dafür weniger Architekturverbesserungen bringen. Ampere wird wohl ungefähr zu Pascal, was Maxwell zu Kepler war, nur wahrscheinlich kein ganz so großer Sprung.

Leonidas
2018-02-19, 03:03:47
Quatsch :freak: Bei 10 winken maximal 10% mehr als bei 12.

Nach allen bisherigen Infos ist 10nm nicht viel besser als damals 20nm (verglichen mit dem jeweiligen Vorgänger),


Bitte, wirklich? Fakten vs. Dichtung:
https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen

Korvaun
2018-02-19, 07:49:31
Ich habe wirklich Probleme damit Ampere einzuschätzen. Es ist eigentlich nichts außer dem Codenamen sicher:
Fertigungsprozeß, Architektur, Größe?
Hat nV aggressiv entwickelt oder Aufgrund der schwachen Konkurrenz nur rel. wenig getan?
2 Jahre seit Pascal, wie lange liegt Ampere schon fertig in der Schublade? Wie weit ist der Nachfolger schon oder hat nV Ampere lange entwickelt und so mehr Verbesserungen reinstecken können?
Für mich ist dadurch alles drin, also von 2080 ca. 1080ti bis 2080 >30% vor 1080ti...

AffenJack
2018-02-19, 09:13:00
Gamersnexus hat schon vorher drüber geredet, dass Ampere nicht der Name der neuen Gen ist und hat das jetzt nochmal wiederholt.

https://www.youtube.com/watch?time_continue=1&v=mfFSgqa4Ar0

Laut GN gibt es also nur Turing als nächste Architektur und dementsprechend auch Gamingarchitektur. Also genau das gleiche was Reuters sagt.

Leonidas
2018-02-19, 09:49:26
Namen sind letztlich Schall und Rauch. Geschäftsstrategie und vorhandene technische Möglichkeiten bestimmen, was es letztlich geben wird. Egal welchen Namen das Kind tragen wird.

Bucklew
2018-02-19, 09:49:47
Spannend, knapp 4 Wochen vor der Präsentation wissen wir: Nix ;D

Thunder99
2018-02-19, 10:46:23
Und es gibt gute Gerüchte die von Ampere sprechen. Also irgendjemand schreibt nur ab ;).

Wir wissen aber nach wie vor sehr wenig...

Palpatin
2018-02-19, 10:48:28
Auf heise.de stand vor 5 Tagen das der Profi Chip Ampere heißt und der Gamer Chip Turing, hatte mich etwas gewundert das das hier kaum diskutiert wurde.
https://www.heise.de/newsticker/meldung/Bericht-Naechster-Nvidia-Grafikchip-heisst-Turing-und-soll-noch-im-Maerz-erscheinen-3969359.html

Triniter
2018-02-19, 11:41:17
Auf heise.de stand vor 5 Tagen das der Profi Chip Ampere heißt und der Gamer Chip Turing, hatte mich etwas gewundert das das hier kaum diskutiert wurde.
https://www.heise.de/newsticker/meldung/Bericht-Naechster-Nvidia-Grafikchip-heisst-Turing-und-soll-noch-im-Maerz-erscheinen-3969359.html
Das bezieht sich aber nur auf die Reuters Meldung. Keine Ahnung wie viel man da wirklich rausziehen kann.

Timbaloo
2018-02-19, 12:40:53
Also ich glaube so langsam, dass NV da unterschiedlichen potentiellen Lücken unterschiedliche Gerüchte eingepflanzt hat um die Lücken aufzuspüren :D

Im Ernst, irgendwie krass wie man genau keine Details mitbekommt.

Ich glaube das einzige was wir wissen ist, dass der Gaming-Chip auf 12nm basiert :P

scully1234
2018-02-19, 12:43:17
Spannend, knapp 4 Wochen vor der Präsentation wissen wir: Nix ;D

Das ist nunmal nicht Nvidias Niveau ein halbes Jahr vorher auf den Putz zu hauen
„ Take it, deal with it“ ohne Anspielungen auf den Mitbewerber

BoMbY
2018-02-19, 12:54:30
Ich glaube das einzige was wir wissen ist, dass der Gaming-Chip auf 12nm basiert :P

Das ist auch nur ein Gerücht - außer Du kennst eine belastbare Quelle? Man weiß eigentlich nur, dass der GV100 den 12FFN-Prozess nutzt.

HOT
2018-02-19, 13:25:42
Das ist auch nur ein Gerücht - außer Du kennst eine belastbare Quelle? Man weiß eigentlich nur, dass der GV100 den 12FFN-Prozess nutzt.
Die optimieren den Prozess nicht nur für diesen einen Chip.

BoMbY
2018-02-19, 14:44:41
Naja, normalerweise baut man auch keine 815 mm² Chips.

Hübie
2018-02-19, 15:19:52
Aber hat doch auch was Gutes, nix zu wissen. Man kann nur überrascht werden und wenn wir in den vergangenen Jahren eines gelernt haben, dann dass Jensen immer für Überraschungen gut ist. :D

Daredevil
2018-02-19, 15:22:21
Dito :)
Geheimhaltung bringt halt Spannung, wann gibts das noch heutzutage?
Das Galaxy S9 liegt offen, iPhones werden Wochenlang vorher geleaked, einzig die GPUs bekommen es in etwa hin, noch für Überraschungen zu sorgen, oder eben auch nicht. :D
Oh wobei... Microsoft hatte da mal was mit dem Surface Book, das war noch so ein "One more Thing".

Ich tippe mal auf +20-30% Leistung bei gleichbleibender Verlustleistung und wäre damit ziemlich zufrieden, aber beim Preispunkt kann ich aufgrund der gestiegenen Nachfrage absolut nichts abschätzen. ( Für mich ist eine 1080ti schon fast sowas wie eine "NextGen". )
Bin gespannt, was Nvidia für einen RAM verbaut.

Downhill
2018-02-19, 15:41:04
Also ich glaube so langsam, dass NV da unterschiedlichen potentiellen Lücken unterschiedliche Gerüchte eingepflanzt hat um die Lücken aufzuspüren :D
Glaub ich langsam auch, ja :D
Sollte Jensen jemals Zeit haben, irgendwelche Foren zu lesen, würde er sich vermutlich kaputtlachen :P

Eins ist aber doch schon sicher, die nächsten Gamingchips basieren jedenfalls auf Volta Ampere Turing oder ner ganz anderen Architektur und werden als GeForce 20xx 11xx sonstwas verkauft.

X-Bow
2018-02-19, 15:55:55
Ach nach der Q4 Ergebnis-Konferenz tippe ich auf ein Pascal Shrink^^ Gegenwetten um ein Kasten Bier der Region werden gerne angenommen ;-)

Hübie
2018-02-19, 16:17:15
Welche Region? :D

X-Bow
2018-02-19, 16:27:50
Schwarzwald^^

Hübie
2018-02-19, 16:38:10
Puh. Glaube ich kenne kein Bier von dort. :D

scully1234
2018-02-19, 17:56:54
Puh. Glaube ich kenne kein Bier von dort. :D

Tannenzäpfle???
Wette gilt=)

Jensen macht das wie bei der Titan V u nein kein Pascal Refresh sonder Volta Gene mit etwas mehr secret Sauce der parallelen Entwicklung

Ps: Versandgebühr trägt Verlierer:P

Dimon
2018-02-19, 18:29:25
Tannenzäpfle???
Wette gilt=)

hmm da gibts noch mehr :biggrin:

pixeljetstream
2018-02-19, 19:15:10
Vampuring mit 666 Bit Interface. So oft wie sich der Namen ändert wird's am Ende der Heisenberg.

scully1234
2018-02-19, 19:26:43
die werden doch nicht das gesamte wissenschaftliche Namensschema auf einmal verheizen wollen...

Bei Einstein wirds dann langsam eng

Timbaloo
2018-02-19, 19:51:47
Dann kommen halt Geisteswissenschaften dran. Bei den Preisen will man auch bald eher darüber philosophieren wie toll doch so eine Karte wäre :D

matty2580
2018-02-21, 20:56:45
Früher war das Forum hier eine Inspiration für eine neue Gen von Nvidia/AMD. Bei Vega war das teilweise auch der Fall, auch wenn Vega gleich eine Leistungsklasse niedriger erschien, und dass über ein Jahr später als Pascal, und der Miningwahnsinn alles noch mehr verzerrt seit über einem Jahr.

Ist zu Ampere wirklich nicht mehr bekannt als der Name selbst?
Und selbst der Name ist ja nicht unbedingt sicher?

Haben wir jetzt wirklich den Punkt erreicht den Leo seit dem Tod von 3dfx beschrieben hat, dass es bei der wichtigsten Komponente im PC kaum noch Konkurrenz gibt?

horn 12
2018-02-21, 21:19:24
Man munkelt gar das Ampere erst / Herbst bis Spätherbst kommt...
und zuerst nur die Mining Karten.

matty2580
2018-02-21, 21:28:12
Unwahrscheinlich, da Nvidia den 2-Jahres-Zyklus seit vielen Jahren bei einer neuen Architektur bisher nicht durchbrochen hat.
Und warum Nvidia es bei dieser Gen (vermutlich) auch nicht machen wird, hat Leo in dieser News gut argumentiert:

Die teilweise geäußerte These, das nVidia gegenüber AMD ja gar nichts neues/besseres liefern muß, zieht zudem nur teilweise: Sicherlich besteht diese grundsätzliche Situation – aber jene kann sich auch wieder ändern, spätestens mit den 7nm-Angeboten der Navi-Generation im nächsten Jahr hat AMD wieder ein neues, heißes Eisen im Feuer. Ewigkeiten könnte sich nVidia mit einer Terminverzögerung also nicht Zeit lassen. Zudem gilt generell, das fertige Hardware ausgeliefert und nicht zurückgehalten wird – dies wäre ja auf Halde liegendes Kapital. Die entscheidende Gegenthese liegt allerdings in den Zeiträumen zwischen Chip-Konzeption und letztlicher Auslieferung: Das jetzt eine derart schwache Wettbewerbs-Situation vorliegt, konnte nVidia bei der Konzeption der GeForce 2000 Serie vor 2-3 Jahren noch nicht ermessen, dies ist ja eher eine Entwicklung der jüngeren Zeit. Ergo konnte nVidia seinerzeit auch noch gar nicht auf die Bremse treten, musste jederzeit von einer starken Konkurrenz seitens AMD ausgehen – und wird daran ausgerichtet die Ampere-Grafikchips zumindest so konzipiert haben, das nVidia jederzeit alle Möglichkeiten in der Hand behält. Aus dieser Warte heraus betrachtet ist ein Zurückfahren des technologischen Fortschritts wegen des derzeit schwachen Wettbewerbs speziell bei der Ampere-Generation nicht unbedingt wahrscheinlich.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-89-februar-2018

Daredevil
2018-02-21, 22:33:17
Ich sehe auch den Sinn nicht einer Mining Karte für den Privatmarkt. Nvidia hat nichts zu verschenken, die können auch aus ihren Gaming Karten eine Mining Karte machen.

Auch wenn sie es nicht so sagen, denen kann es doch egal sein, wer nun ihre Karten kauft.

scully1234
2018-02-21, 22:42:00
Auch wenn sie es nicht so sagen, denen kann es doch egal sein, wer nun ihre Karten kauft.

Kann es nicht, da am stabilen Gamermarkt, auch andere Geschäftzweige gebunden sind,Monitorhersteller,Festplatten ,Controller,Spieleindustrie ec pp

Sich hier die gesamte Infrastruktur wegbrechen zu lassen ,kann nicht in deren Interesse liegen ,wenn man über den Tellerrand schaut

Je eher hier also Maßnahmen ergriffen werden, gegen diese gierigen Schürfer, um so besser für die Gesellschaft

Zudem entzieht man Kriminellen gleich noch den Nährboden, in dem sie sich gerade wie die Maden vermehren,und der Planet wirds uns auch danken

Hübie
2018-02-21, 22:43:43
Das sieht man bei NVIDIA nicht so relaxed wie du. Es ist eben nicht egal, da man über Jahrzehnte einen Kundenstamm, eine Marke, einen Namen aufgebaut hat, der ziemlich TROI (;)) ist. Das ist die Basis, welche auch schon vor den Minern Milliarden umgesetzt hat. Die willst du nicht verärgern, glaube mir. Der Mining-Markt ist ein aufkommender Markt und wie schon oft zu beobachten war durchläuft dieser gerade unsichere Zyklen (Regulierung, Konkurrenz, Verbreitung etc..). Darauf baut man keine Häuser. Noch nicht. Wo die Reise hin geht ist also noch gar nicht wirklich abzusehen.
Was abzusehen ist, ist dass man mit einem AI-Chip (INT8-ALUs, FP16-ALUs, keine TMUs/ROPs etc.) so oder so gutes Geld verdienen kann und sich am know-how bedienen könnte. Solch ein ASIC wäre auch für Mining sicher nicht uninteressant.

Edit: ninja'ed by scully1234 ;D

BlacKi
2018-02-21, 22:48:48
so siehts aus, die absatzzahlen sind für die sicher geil, aber der mining markt ist so fragil, das man da besser kein festes standbein versucht aufzubauen.

worauf horn anspielte war sicher diese news.

https://www.pcgamesn.com/nvidia-geforce-next-gen-graphics-card-release

irgendwie liest sich das ziemlich satire mäßig und würde es deshalb nicht so ernst nehmen.

horn 12
2018-02-21, 22:49:09
Aber gerade dort schneit AMD dem Konkurrent NV gewaltig in die Schuhe!

Daredevil
2018-02-21, 23:08:19
Kann es nicht, da am stabilen Gamermarkt, auch andere Geschäftzweige gebunden sind,Monitorhersteller,Festplatten ,Controller,Spieleindustrie ec pp

Sich hier die gesamte Infrastruktur wegbrechen zu lassen ,kann nicht in deren Interesse liegen ,wenn man über den Tellerrand schaut

Je eher hier also Maßnahmen ergriffen werden, gegen diese gierigen Schürfer, um so besser für die Gesellschaft

Zudem entzieht man Kriminellen gleich noch den Nährboden, in dem sie sich gerade wie die Maden vermehren,und der Planet wirds uns auch danken
Ich glaube im Gegensatz zu dir eben nicht, dass man nach 2018 noch überhaupt großartig was mit GPU Mining anfangen kann, eben weil der Big Player des Minings, Ethereum, den Ausstieg des Proof of Work vorbereitet.

Ob Nividia nun 250k Mining Karten baut und 750k Gaming Karten oder gleich 1 Mio Gaming Karten.... wenn die Mining Kontingente aufgebraucht sind, wird als Privatmann so oder so der Gaming Markt geschröpft, falls er das will. Es sei denn, Nvidia baut klammheimlich Bremsen ein, die eben die Performance drücken. Erstmal muss man überhaupt mal schauen, was eine Mining Karte überhaupt sein soll. Professionell gibt es ja schon Mining Karten von Nvidia, das betrifft aber eh nicht die Endkunden.

Man baut auf kein Pferd, welches bald nicht mehr geritten wird. Die können sich an AMD ja die gescheiterte Erfahrung anschauen. :D

N0Thing
2018-02-22, 01:11:04
Man munkelt gar das Ampere erst / Herbst bis Spätherbst kommt...
und zuerst nur die Mining Karten.

Wer munkelt das denn bitte?

SKYNET
2018-02-22, 01:12:38
evtl. gibt es auch die derbe enttäuschung... speedmässig bleibt alles beim alten, nur der verbrauch wird um 40% gesenkt :P

reaperrr
2018-02-22, 01:41:38
evtl. gibt es auch die derbe enttäuschung... speedmässig bleibt alles beim alten, nur der verbrauch wird um 40% gesenkt :P
Jep, weniger Verbrauch, aber auch weniger Speicher pro € für uns Konsumenten; kleinere Chips, billigere Boards und Kühlung und damit höhere Margen für Nvidia. So wird's laufen =)

BlacKi
2018-02-22, 03:56:50
nenene, ich glaube immernoch an +-60% auf die 1080 im april mit 16gb.

Bucklew
2018-02-22, 09:29:11
Wer munkelt das denn bitte?
Im Horn12-Institut für garantiert falsche Spekulationen :up:

Auf seinen Wundertreiber für Vega warten wir jetzt ja auch schon seit Monaten.

Der_Korken
2018-02-22, 11:15:39
evtl. gibt es auch die derbe enttäuschung... speedmässig bleibt alles beim alten, nur der verbrauch wird um 40% gesenkt :P

Technologisch wäre das für Nvidia dennoch ein Riesenwurf, denn die Effizienz würde um 66% steigen. Selbst bei 12nm vs 14nm wären das immer noch geschätzt 50% Effizienz allein aus der Architektur. Damit könnte Nvidia die Gewinne von 7nm komplett in Flächenreduktion bzw. Designverbreiterung reinbuttern, da man selbst dann immernoch effizient genug wäre. Aber mich würde das, wie schon mehrfach gesagt, wundern bei dem hohen Niveau auf dem sich Maxwell und Pascal schon bewegen.

vinacis_vivids
2018-02-22, 14:30:36
nenene, ich glaube immernoch an +-60% auf die 1080 im april mit 16gb.

Gleich am Ersten 😂

basix
2018-02-22, 15:18:29
nenene, ich glaube immernoch an +-60% auf die 1080 im april mit 16gb.

Wenn dazu die 70er SKU mit 400 Euro rauskommt, ist die gekauft. Zumindest als Übergang, bis die grossen 7nm Chips kommen ;D

Aber ich bezweifle, dass dies so günstig werden würde. Bei der Performance ist es ebenfalls fraglich. Aber wie immer, ich hoffe auf eine positive Überraschung ;)

Palpatin
2018-02-22, 15:33:50
Wenn dazu die 70er SKU mit 400 Euro rauskommt, ist die gekauft. Zumindest als Übergang, bis die grossen 7nm Chips kommen ;D

Klar mit 16gb für 400€ bei den aktuellen Speicherpreisen.......
Zumal die 1070 8gb lieferbar aktuell bei ca. 570€ liegt. :rolleyes:

Thunder99
2018-02-23, 07:49:42
+50$/€ erwarte ich wenn die Chips gut sind. Erhöhte Produktionskosten werden wenn möglich weitergegeben.

Und zum Thema Fortschritt denke ich könnte full DX12 auf Vega Basis da sein (Tier 3) und besseres AC samt Effizienz Verbesserung. Das ist ordentlich und ein Upgrade Wert wenn man kein Pascal hat (oder kleinen Pascal)

Korvaun
2018-02-23, 08:06:20
evtl. gibt es auch die derbe enttäuschung... speedmässig bleibt alles beim alten, nur der verbrauch wird um 40% gesenkt :P

Das wäre extrem schlecht für Spieler und super für Miner, also genau das falsche Signal. Die Verfügbarkeit wäre dann gleich 0 für Spieler.

Speziell nV sollte noch im Auge behalten das Konsolen aktuell ein extrem gutes Preis/Lesitungs-Verhältnis im Vergleich zu "GamerPCs" mit ordentlichen Grakas haben. Da wird wohl so mancher aktuell eher eine Konsole (insbesondere PS4Pro/OneX) anschaffen als eine neue GraKa...

Adam D.
2018-02-23, 08:27:36
Speziell nV sollte noch im Auge behalten das Konsolen aktuell ein extrem gutes Preis/Lesitungs-Verhältnis im Vergleich zu "GamerPCs" mit ordentlichen Grakas haben. Da wird wohl so mancher aktuell eher eine Konsole (insbesondere PS4Pro/OneX) anschaffen als eine neue GraKa...
Scheint, wenn man sich die Umsätze bei Nvidia anschaut, kein allzu großes Problem zu sein...

Sollte sich die Spekulation über eine Trennung von Gamer- und Mining-Karten bewahrheiten, bin ich schon gespannt, wie sich der Markt entwickelt. Wenn man für eine 2070 (UVP) mehr zahlen muss als für eine PS4Pro - was ziemlich sicher genau so eintreten wird -, dann hat man irgendwie schon ein absurdes Level erreicht.

Korvaun
2018-02-23, 08:40:15
Mal sehen ob nV den UVP an die aktuelle Situation anpasst um selber nochmal extra am Miningboom mitzuverdienen... 2070 UVP599, 2080 UVP699, Founder Editions natürlich nochmal nen 100er teurer und nur bei nV bestellbar, dafür aber verfügbar ;)

Troyan
2018-02-23, 08:56:50
Scheint, wenn man sich die Umsätze bei Nvidia anschaut, kein allzu großes Problem zu sein...

Sollte sich die Spekulation über eine Trennung von Gamer- und Mining-Karten bewahrheiten, bin ich schon gespannt, wie sich der Markt entwickelt. Wenn man für eine 2070 (UVP) mehr zahlen muss als für eine PS4Pro - was ziemlich sicher genau so eintreten wird -, dann hat man irgendwie schon ein absurdes Level erreicht.

Du wirst 100% pro mehr für eine 2070 bezahlen als für eine PS4 Pro. Sony senkt doch massiv die Preise, weil die Pro ein ziemlicher Ladenhüter ist.

Davon abgesehen sollte eine 2070 jedoch auch fast 3x soviel Grafikleistung bieten als die Pro...

basix
2018-02-23, 09:00:57
Klar mit 16gb für 400€ bei den aktuellen Speicherpreisen.......
Zumal die 1070 8gb lieferbar aktuell bei ca. 570€ liegt. :rolleyes:

Man darf ja träumen ;)

Ich bin momentan in der Situation, wo ich gerne etwas neues hätte aber nicht zwingend brauche (die 980 Ti reicht für 1440p, wenn auch nicht überall für 60fps bei maximalen Details). Deswegen würde ich bei zu hohen Preisen nicht zuschlagen, sondern auf die 7nm Generationen warten.

Seit der 980 Ti ist nichts gekommen, was mich restlos überzeugt hätte: 1070 etwa gleich schnell, 1080 knapp +30% schneller, aber aufgrund des Preises trotzdem nicht attraktiv für einen Wechsel, Titan X / V sind viel zu teuer. Einzig die 1080 Ti würde ein schönes Performance Plus bieten bei einigermassen vertretbarem Preis. Mir war es dann aber trotzdem zu teuer für einen Wechsel (da ich es ja wie oben geschrieben nicht zwingend brauche). Bei den heutigen Preisen um 1000 Euro rum hat sich das aber sowieso definitiv erledigt.

Deshalb wäre es ein genialer Zug von Nvidia, wenn sie irgendwie die Mining-Performance limitieren könnten oder zumindest ein Produkt bringen (AI / Compute Chip?), welches die normalen Gamer-Karten nicht lukrativ für Mining aussehen lassen. Nicht nur aus Gamer Sicht wäre das gut, sondern auch für Nvidia: Positives Marketing, erhältliche Karten für Gamer (AMD kann ja auch kaum liefern), wahrscheinlich auch insgesamt höherer Umsatz und höhere Margen sowie bessere Kontrolle der Märkte.

Adam D.
2018-02-23, 09:10:00
Du wirst 100% pro mehr für eine 2070 bezahlen als für eine PS4 Pro. Sony senkt doch massiv die Preise, weil die Pro ein ziemlicher Ladenhüter ist.

Davon abgesehen sollte eine 2070 jedoch auch fast 3x soviel Grafikleistung bieten als die Pro...
Ich bin schon immer PC-Gamer gewesen, ich weiß, was ich für mein Geld bekomme. Inzwischen haben die Abstände aber Ausmaße angenommen, dass ich mich schon frage, ob sich das noch lohnt.

Ich wette, dass Nvidia die UVP bei Ampere nochmal anhebt, von den Marktpreisen gar nicht erst zu sprechen.

Aber offensichtlich kann man es durchziehen, s. Preisentwicklung bei Smartphones.

Troyan
2018-02-23, 09:11:54
Huh? PS4 Pro war 399€ für eine Leistung im besten Fall auf GTX1060 Niveau. Xbox One X gibt dir für 500€ die Leistung einer GTX1070.

Natürlich ist Mining zur Zeit ein Problem. Aber die Pro und One X sind in Anbetracht der Leistung doch sehr überteuert.

Adam D.
2018-02-23, 09:16:39
Huh? PS4 Pro war 399€ für eine Leistung im besten Fall auf GTX1060 Niveau. Xbox One X gibt dir für 500€ die Leistung einer GTX1070.

Natürlich ist Mining zur Zeit ein Problem. Aber die Pro und One X sind in Anbetracht der Leistung doch sehr überteuert.
Bitte was? Besteht eine Konsole für dich nur aus GPU-Leistung? Wenn man sich bezogen auf die Qualität der Multi-Plattform-Titel ansieht, was man für 399€ bekommt, dann ist das verglichen mit einer GTX 1070ti für 550€ ganz akzeptabel.

Eine PS4Pro gibt es für 370€ lieferbar. Dafür krieg ich eine GTX1060.

woodsdog
2018-02-23, 09:22:08
Bitte was? Besteht eine Konsole für dich nur aus GPU-Leistung? Wenn man sich bezogen auf die Qualität der Multi-Plattform-Titel ansieht, was man für 399€ bekommt, dann ist das verglichen mit einer GTX 1070ti für 550€ ganz akzeptabel.

Eine PS4Pro gibt es für 370€ lieferbar. Dafür krieg ich eine GTX1060.

Zumal man ja noch zusätzlich den Wert einer weiteren PS4 Pro braucht, um der GraKa eine Platform zu geben...

unsinniger Vergleich.

Troyan
2018-02-23, 09:22:43
Und zu jeder Grafikkarte wird auch immer gleich ein neuer PC verkauft... Diese Diskussion ist mühselig. 90% der Leute, die sich eine dGPU kaufen, haben schon einen PC. Der Rest, der kauft sich einen neuen PC, weil sie den auch wollen.

Ist genau die selbe, falsche Argumentation, wie mit den APU-Zeug.

woodsdog
2018-02-23, 09:25:46
mühselig wie deine völlig aus der Luft gegriffen Zahlen.

Lass die unsinnigen Vergleiche einfach.

Troyan
2018-02-23, 09:30:33
Bei Steam hat die GTX1060 die GTX970/GTX960 als erfolgreichste Karte abgelöst. Du meinst also, dass alle GTX1060 User sich gleichzeitig auch einen neuen PC gekauft haben?

Leute, Leute. Es sollte doch langsam klar sein, dass PC-Gaming deswegen floriert, weil die Leute eben nur noch eine neue GPU kaufen müssen. Der komplette Unterbau kann Jahre bestehen ohne auch nur angefasst zu werden.

woodsdog
2018-02-23, 09:40:36
Bei Steam hat die GTX1060 die GTX970/GTX960 als erfolgreichste Karte abgelöst. Du meinst also, dass alle GTX1060 User sich gleichzeitig auch einen neuen PC gekauft haben?

Leute, Leute. Es sollte doch langsam klar sein, dass PC-Gaming deswegen floriert, weil die Leute eben nur noch eine neue GPU kaufen müssen. Der komplette Unterbau kann Jahre bestehen ohne auch nur angefasst zu werden.

Nebelkerzen zum ablenken und Leuten Sachen in den Mund legen. Lass das.

Beleg mal lieber dein Gefasel, das 90% der dGPU Besitzter nur ihre Graka tauschen.

Ansonsten ist das auch alles ziemlich offtopic was wir hier verzapfen.

BlacKi
2018-02-23, 09:41:29
Wenn dazu die 70er SKU mit 400 Euro rauskommt, ist die gekauft. Zumindest als Übergang, bis die grossen 7nm Chips kommen ;D

Aber ich bezweifle, dass dies so günstig werden würde. Bei der Performance ist es ebenfalls fraglich. Aber wie immer, ich hoffe auf eine positive Überraschung ;)
da gebe ich dir recht, die wird mindestens 500€ kosten als FE und bei den aktuellen marktpreisen am anfang bestimmt 600€ und mehr.

Adam D.
2018-02-23, 09:50:00
da gebe ich dir recht, die wird mindestens 500€ kosten als FE und bei den aktuellen marktpreisen am anfang bestimmt 600€ und mehr.
Einzige Hoffnung: Nvidia zerlegt softwareseitig die Mining-Performance und die Turing-Karten sind in der Tat Mining-Geforces. Ich hoffe echt, dass der Launch etwas Bewegung in den Markt bringt.

Bucklew
2018-02-23, 10:18:42
Einzige Hoffnung: Nvidia zerlegt softwareseitig die Mining-Performance und die Turing-Karten sind in der Tat Mining-Geforces. Ich hoffe echt, dass der Launch etwas Bewegung in den Markt bringt.
Das ist in der Tat die einzig sinnvolle Lösung.

Wobei, machen wir uns nichts vor: Dadurch, dass "Dank" der Miner NVIDIA der einzige Hersteller von kaufbaren Gaming-Grafikkarten ist, steigen die Preise selbstverständlich auch.

AMD sollte lieber mal schleunigst aufhören Blockchain-Treiber zu machen und sich lieber mal Gedanken um die Gamer-Kunden machen. Sonst hat NVIDIA in ein paar Jahren 100% Marktanteil dort :rolleyes:

Hübie
2018-02-23, 10:19:09
Also ich würde mich nicht wundern, wenn schon etliche das PC-Upgrade mit einer Konsole ersetzt haben. Mich interessiert die XBOX ONE X auch sehr. Langsam kommt mein PC in die Jahre und 1440p geht gerade noch so. Wird in Zukunft aber düster aussehen. So schnell wird sich die Lage nicht bessern.
Es gab ja kürzlich auch einen Preisanstieg bei Wafer-Supplier; zusätzlich zu den erhöhten Kosten pro Transistor... Speicher ist auch nicht günstig. Vor Mitte 2019 erwarte ich keine Entspannung der Marktsegmente. Selbst so Tüddelkram wie Gehäuse, Netzteile oder Lüfter sind teilweise unverhältnismäßig teuer (z.B. Corsair RGB Lüfter...). Als ich ein Kind war habe ich mit meinem Dad LEDs verlötet und es interessierte keine Sau. Heute geht nichts mehr ohne. X-D Welch Ironie...

Thunder99
2018-02-23, 17:26:25
Erfolgreiches Marketing ist das Stichwort ;D

Nvidia kann ja die Miner durch den Treiber ausschließen wenn sie eine extra Miner Karter haben. Wenn es dann nicht mehr rentiert den Treiber freischalten. Haben sie in anderer Form ja bei der Titan Serie gemacht ;)

Grendizer
2018-02-23, 20:31:42
Ist der Anteil der PC Only Zocker wirklich so hoch ? Ich habe neben dem PC immer auch mindestens 1 Gerät der aktuellen Konsolengeneration. Aktuell eine PS4 Pro.

BlacKi
2018-02-23, 20:39:52
ich dachte ebenfalls ich könnte mich an die ps4 irgendwie gewöhnen, aber es ging einfach nicht. von dem gedanken bin ich komplett geheilt.

Hübie
2018-02-23, 21:25:07
Ja also grundsätzlich bin ich dem aufgeschlossen. Autorennen sind auf einem TV mit ner XBOX One X sicherlich etwas geiler als auf dem PC-Stuhl mit Pad. Auch so Abenteuerspiele könnte ich mir vorstellen, da mein Weibchen sicherlich mit gucken würde. So lange man da nicht herum ballern muss komme ich mit einem Pad wunderbar klar. :smile:

Das ich Pascal als erste Gen seit Fermi übersprungen habe bereue ich nicht, aber wenn die Next Gen sau teuer oder nicht verfügbar bzw. beides wird, dann ist halt essig mit Ultra Details.

x-force
2018-02-23, 21:32:32
Ja also grundsätzlich bin ich dem aufgeschlossen. Autorennen sind auf einem TV mit ner XBOX One X sicherlich etwas geiler als auf dem PC-Stuhl mit Pad.

aber auf shooter und modding generell verzichten?
vom guten willen von ms oder sony abhängig sein, was z.b. die unterstützung deines lenkrades oder anderer hardware in der zukunft angeht?
monatlich für online gaming zahlen?
kein kompromisslos flüssiges gaming mehr?

scully1234
2018-02-23, 21:54:05
Autorennen sind auf einem TV mit ner XBOX One X sicherlich etwas geiler als auf dem PC-Stuhl mit Pad. .

Autorennen auf der Xbox macht bestimmt "mehr Spaß" als auf dem PC mit all seinen Freiheiten:P


http://www.pcgameshardware.de/Eingabegeraet-Hardware-154122/Specials/3-Achsen-Rennsimulator-mit-180-Grad-Leinwand-und-3-Beamern-1113397/


vom guten willen von ms oder sony abhängig sein, was z.b. die unterstützung deines lenkrades oder anderer hardware in der zukunft angeht?



:up:

TheAntitheist
2018-02-23, 22:25:15
Bei Steam hat die GTX1060 die GTX970/GTX960 als erfolgreichste Karte abgelöst. Du meinst also, dass alle GTX1060 User sich gleichzeitig auch einen neuen PC gekauft haben?

Leute, Leute. Es sollte doch langsam klar sein, dass PC-Gaming deswegen floriert, weil die Leute eben nur noch eine neue GPU kaufen müssen. Der komplette Unterbau kann Jahre bestehen ohne auch nur angefasst zu werden.
ist doch scheiss egal, dein Vergleich war total Hirnrissig und dämlich, Ende der Diskussion. die PS4 pro ist total billig im Gegensatz zu einer dGPU, das ist ein Fakt. Das muss aber auch so sein, da an der PS kaum jemand Geld verdient, an einer dGPU aber min. 5 Firmen etwas verdienen wollen.

Hübie
2018-02-23, 22:36:21
aber auf shooter und modding generell verzichten?
vom guten willen von ms oder sony abhängig sein, was z.b. die unterstützung deines lenkrades oder anderer hardware in der zukunft angeht?
monatlich für online gaming zahlen?
kein kompromisslos flüssiges gaming mehr?

Ganz ehrlich? Ich habe gar nicht mehr die Zeit und Lust so herum zu tüddeln. Plug & play hat auch mal einfach einen Vorteil. Im Falle von Autorennen bin ich da echt nicht anspruchsvoll und wir sprechen hier eher von Need for Speed als von Formel 1 2017. :smile: Online spiele ich eh nicht. Autorennen laufen auf der XOX doch flüssig... :confused:

ist doch scheiss egal, dein Vergleich war total Hirnrissig und dämlich, Ende der Diskussion. die PS4 pro ist total billig im Gegensatz zu einer dGPU, das ist ein Fakt. Das muss aber auch so sein, da an der PS kaum jemand Geld verdient, an einer dGPU aber min. 5 Firmen etwas verdienen wollen.

Wobei ich mal den Immersionsgrad in Geld umgemünzt habe und man an der Konsole einen geilen TV mit guter Soundanlage oder guten Kopfhörern braucht um die gleiche Immersion zu erreichen (Hören, Sehen, Fühlen). PC ist zwar in der Relation teurer, aber weniger als du denkst (15%). Das dies natürlich subjektiv ist, sollte auch dir klar sein. :wink: Btw: Über Sound redet man bei Konsolen gar nicht...
Ich habe hier eine Xonar mit 192 kHz, 24 Bit und ein Steelseries Siberia. Da muss ne XOX/PS4P erst mal ran kommen.

Wir sind hier arg off topic. Gerne im extra Thread oder per PN... :biggrin:

Adam D.
2018-02-24, 16:27:41
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Preisanstieg-Q3-2018-1250922/

Also Hoffnung auf sinkende Preise bleiben weiter Illusion.

Daredevil
2018-02-24, 16:42:20
Ja gut.... ich meine...
https://cointelegraph.com/news/china-mining-co-bitmain-shows-higher-2017-profits-than-us-gpu-giant-nvidia-report-finds?utm_source=dlvr.it&utm_medium=facebook
Chinese mining hardware giant Bitmain has reportedly made higher profits in 2017 than long time American graphics processing unit (GPU) manufacturer Nvidia, CNBC reported Feb. 23.

CNBC writes that according to a report published Feb. 21 from investment research company Bernstein, the four-year-old Bitmain reportedly made between $3 and $4 billion in operating profit in 2017, whereas Nvidia, founded 24 years ago, made about $3 billion during the same period.

Bitmain, founded in 2013 by Jihan Wu and Micree Zhan, uses Application-Specific Integrated Circuit (ASIC) cards to mine Bitcoin (BTC), sells ASIC-powered AntMiner BTC mining rigs, and also operates “mining pools”, a system in which cryptocurrency miners share resources and split rewards.

Trotzdem glaube ich nicht an anhaltende Preise, zumindest nicht mit Mining als Grund. :)
Ich mache gerade mit einer einzigen GTX1080 ~2€ am Tag ohne Abzug von Stromkosten, für wen soll das bitte ein Anreiz sein, sich eine 600€ GTX1080 zu kaufen? Momentan einfach für niemanden.

Adam D.
2018-02-24, 16:48:53
Trotzdem glaube ich nicht an anhaltende Preise, zumindest nicht mit Mining als Grund. :)
Ich mache gerade mit einer einzigen GTX1080 ~2€ am Tag ohne Abzug von Stromkosten, für wen soll das bitte ein Anreiz sein, sich eine 600€ GTX1080 zu kaufen? Momentan einfach für niemanden.
Mining ist ja nur eine Komponente, die Nachfrage scheint ja primär aufgrund der Speicherknappheit nicht befriedigt werden zu können.

Troyan
2018-02-24, 21:49:11
Tweaktown behaupten, dass sie eine Quelle haben, die behauptet, das es zur GTC neue Geforce-Karten geben werde: https://www.tweaktown.com/news/60992/nvidia-launch-new-geforce-gtx-series-during-gtc-2018/index.html

maximus_hertus
2018-02-24, 22:38:48
Tweaktown behaupten, dass sie eine Quelle haben, die behauptet, das es zur GTC neue Geforce-Karten geben werde: https://www.tweaktown.com/news/60992/nvidia-launch-new-geforce-gtx-series-during-gtc-2018/index.html

Irgendwie ist dem Autor auch nicht ganz klar, was Sache ist. Erst wird die GTX auf der GTC im März gelauncht, dann heißt es: „NVIDIA should be launching their new cards in late-April or early-May. NVIDIA traditionally hosts an Editor's Day to unveil their new GeForce graphics cards, but my source said this is being shifted around to GTC 2018.“

Für mich hört es sich an, als ob man auf der GTC den Journalisten NDA Material anvertraut und der Öffentlichkeit lediglich mitteilt, dass es einen neuen Chip / King geben wird. Jedoch keine unabhängigen Benchmarks und ggf. auch keine konkreten Modelle.

Der „echte“ Launch folgt dann Ende April / Anfang Mai.

Warten wir mal ab was passiert :)

OBrian
2018-02-25, 03:19:11
Mining ist ja nur eine Komponente, die Nachfrage scheint ja primär aufgrund der Speicherknappheit nicht befriedigt werden zu können.
...die aber zumindest teilweise sicherlich auch auf den Mining-Boom zurückgeht.

Leonidas
2018-02-25, 04:02:06
TweakTown haben leider keine wirklich überzeugende Trefferquote. 50/50 ist damit die Chance, das das passt. Es passt natürlich zu den bisherige Gerüchten. Aber genau darin liegt eine zusätzliche Gefahr: Man könnte zu sehr einseitig in eine Richtung denken.

Ich würde jedenfalls gern mal neue Infos aus gänzlich anderer Richtung als Meldungen über Messen und mögliche Vorstellungstermine lesen. Wo ist ein Leak aus einer Benchmark- oder Import-Datendank?

Platos
2018-02-25, 15:02:40
TweakTown haben leider keine wirklich überzeugende Trefferquote. 50/50 ist damit die Chance, das das passt. Es passt natürlich zu den bisherige Gerüchten. Aber genau darin liegt eine zusätzliche Gefahr: Man könnte zu sehr einseitig in eine Richtung denken.

Ich würde jedenfalls gern mal neue Infos aus gänzlich anderer Richtung als Meldungen über Messen und mögliche Vorstellungstermine lesen. Wo ist ein Leak aus einer Benchmark- oder Import-Datendank?

Das sind doch die typischen Gerüchte von der Art: Irgendjemand spekuliert mal frei und ein anderer stempelt es als Gerücht ohne Quelle ab und der Überübernächste sieht es dann mal fast schon als Insidergerücht und dann berichten alle von dem aus. Und schon berichten alle das selbe, also muss es doch stimmen.

Also wie du sagst, solche Quellen sind nichts Wert und ich will auch zuerst mal etwas aus Datenbanken sehen.

Adam D.
2018-02-25, 15:03:49
...die aber zumindest teilweise sicherlich auch auf den Mining-Boom zurückgeht.
Die Quellen nennen ja vordergründig immer den Smartphone-Markt. Aber wird sich alles gegenseitig bedingen.

LadyWhirlwind
2018-02-25, 22:55:06
Die Quellen nennen ja vordergründig immer den Smartphone-Markt. Aber wird sich alles gegenseitig bedingen.

Eine neue Fab hochzuziehen ist teuer und dauert. Entsprechend konservativ wird investiert. Steigt die nachfrage sehr schnell an, dann sind die bestehenden Kapazitäten irgendeinmal ausgelastet und dann steigen die Preise.

HOT
2018-02-26, 08:30:01
Die Quellen nennen ja vordergründig immer den Smartphone-Markt. Aber wird sich alles gegenseitig bedingen.
Das ist ne Sache der Mengen. Die Smartphones legten letztes Jahr von 2-3 GB (also 2-3 8Gbit-Chips) auf 4-6GB (also 4-6 8Gbit Chips) zu. Das dürfte 95% des Wachstums im RAM-Markt ausmachen, das sollte man lieber nicht unterschätzen.

Rampage 2
2018-02-26, 09:01:22
Das ist ne Sache der Mengen. Die Smartphones legten letztes Jahr von 2-3 GB (also 2-3 8Gbit-Chips) auf 4-6GB (also 4-6 8Gbit Chips) zu. Das dürfte 95% des Wachstums im RAM-Markt ausmachen, das sollte man lieber nicht unterschätzen.

Aber allerspätestens mit 8GB RAM wird die absolute Obergrenze für die nächsten 3-5 Jahre erreicht sein - ich kann mir nicht vorstellen, dass auch nur ein einziges Smartphone in den nächsten Jahren mehr als 8GB RAM sinnvoll nutzen geschweige denn brauchen wird;)

Das Argument mit den Smartphones dürfte damit bereits erledigt sein, da der RAM-Anstieg (von 2-3 auf 6-8GB) bereits geschehen ist, und die großen Speicherproduzenten ihre Kapazitäten einfach dem Anstieg entsprechend anpassen müssen - ein weiterer Anstieg dürfte für die nächsten 3-5 Jahre wenig wahrscheinlich sein.

Lange Rede, kurzer Sinn: spätestens nachdem Samsung & co. ihre Produktionsvolumen dem aktuellen und letzten (für die nächsten Jahre) Anstieg adaptiert haben, sollten die RAM-Preise wieder auf ihr altes Level zurückfinden...

R2

HOT
2018-02-26, 12:14:20
Richtig, sehe ich auch so. Dieses Jahr wird noch 4-6GB bleiben, weiterhin mit 8Gbit-Chips, nächstes bringt dann 4-8GB, also 2-4 16Gbit Chips. Das wird mittelfristig für eine deutliche Entspannung sorgen. Ältere Smartphones, die man dann ja noch länger kaufen können wird, bleiben natürlich bei 8Gbit. Für 2018 ist also ein eher moderates Wachstum zu erwarten. Die Kapazitätserhöhungen und Chip-Shrinks, die ja alle Hersteller jetzt durchführen, Micron und SKHynix gehen IIRC auf ~18nm runter, Samsung noch weiter, müssten mMn so ab Q4 dann greifen.

mboeller
2018-02-26, 13:25:17
Aber allerspätestens mit 8GB RAM wird die absolute Obergrenze für die nächsten 3-5 Jahre erreicht sein - ich kann mir nicht vorstellen, dass auch nur ein einziges Smartphone in den nächsten Jahren mehr als 8GB RAM sinnvoll nutzen geschweige denn brauchen wird;)

R2

natürlich braucht man 16GB im Smartphone! Zumindest das Marketing braucht es... denn mehr ist immer besser! mehr dpi, mehr fps, mehr GHz ... und auch mehr ROM und RAM.

HOT
2018-02-26, 14:01:04
Das erschöpft sich aber spätestens dann, wenn Kosten oder Verbrauch aus dem Ruder laufen.

=Floi=
2018-02-26, 14:14:18
der markt ist viel zu groß. es kommen noch die ganzen schwellenläder, welche von unter 1gb aufsteigen und dort wird das wachstum noch wie damals bei uns anstehen.
Es kommt auch drauf an, was google mit android macht. schneller speicher und kurze ladezeiten oder alles in den ram laden. ram braucht auch energie.

Es wird in den nächsten jahren auch der pc mit 32gb pro system anstehen.

Zu hoffen, der markt wächst nicht weiter halte ich für nicht richtig. Der markt wird noch extrem wachsen. IOT braucht bald auch 256mb bis 1gb ram.
Es muss einfach massiv an kapazität aufgebaut werden. China hat es kapiert!
Denke NV wird anfangs keine extremen lieferschwirigkeiten haben, weil zB die 1080ti EOL ist und ein puffer durch die nicht gebauten alten 8gb karten vorhanden sein sollte.
Das sollte für den ersten schub ausreichen um eine ausreichende anzahl an 16gb karten liefern zu können. Eventuell zahlt NV auch anfangs einfach mehr.

HOT
2018-02-26, 14:28:40
Wie gesagt, die Hersteller shinken jetzt erst mal 8Gbit, da wird also schon massiv Kapazität frei, dann werden ja dieses Jahr auch noch neue Kapazitäten geschaffen und 16Gbit stehen an, damit werden dann 16GB-DIMMs Singlesided und es wird 32GB-DIMMs geben. Neue Smartphones halbieren dann die Chips mit 16Gbit. Dann brauchst für 6GB eben nur noch 3 16Gbit-Chips. All dies wird das Wachstum schon übertreffen und den Markt entspannen, allerdings ist das ein mittelfrister Prozess, also ca. bis Mitte 2019 wäre dann eine Normalisierung der Speicherpreise gegeben meiner Einschätzung nach.

Ob AMD und NV Speicher in ausreichenden Mengen bekommen wird davon abhängen, wieviel sie dafür bereit sich zu zahlen. Apple und Samsung zahlen ja offenbar extra an die Speicherhersteller um Engpässe zu vermeiden. Wenn sich die Herstellung von GDDR6 lohnt für die Hersteller, wirds da auch keinen Mangel geben. Das lässt natürlich nix gutes für Ampere erwarten preistechnisch.

Käsetoast
2018-02-26, 22:38:20
Rein aus Interesse wo es hier gerade angesprochen wird: Sind Hersteller wie Samsung da nicht eher an LP-DDR Varianten interessiert? Inwiefern besteht da produktionstechnisch ein Unterschied zu rein auf hohen Takt / hohen Verbrauch ausgelegten Speicher? Geht es einfach nur darum wie viele Produktionslinien grundsätzlich auf einen Speichertyp ausgelegt werden, so dass vom Volumen her für den anderen Typ nur noch wenig Spielraum bleibt? Ließen sich solche Linien mit relativ wenig Aufwand dann "umrüsten" um den anderen Speichertyp herzustellen, so dass im Zweifel irgendwann in absehbarer Zukunft dann auch mehr Speicher für potente Grafikkarten abfiele?

Wäre schön wenn die Preise im Grafikkartensegment wieder ein wenig mehr in Richtung der Preise rücken würden, zu denen NVIDIA und AMD die Karten eigentlich verkaufen und ich will, falls Ampere / Turing dann ähnlich gute Mining Qualitäten haben werden wie Vega, keinen Preisanstieg sehen wie wir ihn derzeit bei den Vega Karten haben...

HOT
2018-02-26, 22:59:08
LP-DDR = DDR mit niedrigerer Spannung. Sind natürlich exakt die selben Chips. GDDR und HBM sind andere DRAMs. Auch DDR3 und 2 werden noch produziert.

MasterElwood
2018-02-27, 00:43:27
Aber allerspätestens mit 8GB RAM wird die absolute Obergrenze für die nächsten 3-5 Jahre erreicht sein - ich kann mir nicht vorstellen, dass auch nur ein einziges Smartphone in den nächsten Jahren mehr als 8GB RAM sinnvoll nutzen geschweige denn brauchen wird;)


Also die 4GB vom S8 waren mir DEUTLICH zu wenig - und auch die 6GB von meinem Note 8 sind zwar VIEL besser - kommen aber auch ab und zu an ihre Grenzen. Richtige Power User wie ich sehen also 8GB jetzt schon als "wünschenswert" - ned "Obergrenze" :wink:

Nebenbei: Seit man die Notes und Galaxis an Monitore hängen und als PC nutzen kann - gibts für SINNVOLLEN Speicherbedarf sowieso keine Obergrenze mehr :biggrin:

rentex
2018-02-27, 04:21:35
Also die 4GB vom S8 waren mir DEUTLICH zu wenig - und auch die 6GB von meinem Note 8 sind zwar VIEL besser - kommen aber auch ab und zu an ihre Grenzen. Richtige Power User wie ich sehen also 8GB jetzt schon als "wünschenswert" - ned "Obergrenze" :wink:

Nebenbei: Seit man die Notes und Galaxis an Monitore hängen und als PC nutzen kann - gibts für SINNVOLLEN Speicherbedarf sowieso keine Obergrenze mehr :biggrin:

Und wieviele Smartphonebesitzer gehören zur Power User Fraktion🙄

Loeschzwerg
2018-02-27, 06:46:04
Was macht man denn als Power User am Tablet/Smartphone?

Thunder99
2018-02-27, 07:58:14
Wahrscheinlich 20.000 Tabs offen :freak:

SKYNET
2018-02-27, 10:40:04
Was macht man denn als Power User am Tablet/Smartphone?


die ganze zeit candy crush zocken X-D

Daredevil
2018-02-27, 11:39:58
Was macht man denn als Power User am Tablet/Smartphone?
Schon allein wenn du TouchWiz, oder wie das auch immer nun genannt wird nutzt, bist du ein Power User, weil es mit wenig Ram ziemlich träge werden kann.
PS: Its the Ampere Thread :D

MasterElwood
2018-02-27, 12:08:38
Was macht man denn als Power User am Tablet/Smartphone?

Z.B als Autofahrer: Navi + Radarwarner als Overlay + über Whatsapp telefonieren (natürlich über BT - also erlaubt) - und schon bist du an der Grenze mit 4GB.

Oder UBER Fahrer: Uber Driver App + Navi im Split screen + Musik streamen im Hintergrund + Radar Warner als Overlay. Wenn du jetzt noch eine Flughafen App im Hintergrund laufen hast weil du verfolgen musst wann die Maschine von deinem Kunden landet - is es sogar schon bei 6GB knapp :biggrin:

Und ja - es braucht ned viel um am Phone "power user" zu sein. Brauchst nur Split-Screen nutzen - also 2 apps gleichzeitig - und schon raucht die Hardware ;D

Genug OT :smile:

PHuV
2018-02-27, 12:10:49
Was macht man denn als Power User am Tablet/Smartphone?
Das will ich auch gerne wissen. Man kann doch jederzeit diverse Apps wieder schließen.
Z.B als Autofahrer:
:
Oder UBER Fahrer:
:

Und ja - es braucht ned viel um am Phone "power user" zu sein. Brauchst nur Split-Screen nutzen - also 2 apps gleichzeitig - und schon raucht die Hardware ;D
Ach, muß ich gleich mal testen. :tongue:

MasterElwood
2018-02-27, 12:11:11
Und wieviele Smartphonebesitzer gehören zur Power User Fraktion🙄

Bei rund 50 Millionen verkauften Galaxy pro Serie reichen 2 Prozent dass es eine Million sind :biggrin:

MasterElwood
2018-02-27, 12:17:47
Ach, muß ich gleich mal testen. :tongue:

Du - das is KEIN Scheiss! Als ich Uber Fahrer war, hat sich mein S8 nach so halben Stunde regelmäßig in eine Dia-Show verwandelt! Bis ich irgendwann draufgekommen bin dass das Ding voll heiß war im Cover! Dann hab ich begonnen das Ding ohne Cover zu verwenden - und die Probleme waren weg...

Loeschzwerg
2018-02-27, 12:28:03
Danke. Ich behaupte jetzt einfach mal dass die Apps dann durch die Bank extrem verschwenderisch programmiert wurden. So kann man den Bedarf natürlich auch nach oben treiben ^^

mironicus
2018-02-27, 16:40:28
Wenn neue Karten erscheinen, sollte man die am besten sofort zum UVP kaufen, bevor die Miner wieder zuschlagen, am Ende steigen die Preise auf utopische vierstellige Beträge

Rampage 2
2018-02-27, 17:26:39
[...] allerdings ist das ein mittelfrister Prozess, also ca. bis Mitte 2019 wäre dann eine Normalisierung der Speicherpreise gegeben meiner Einschätzung nach. [...]


Willst du damit sagen, dass man es sich abschminken kann, noch im Sommer oder Herbst 2018 DDR4-Arbeitsspeicher für akzeptable Preise zu bekommen:frown:

Das wäre echt bitter - ich will möglicherweise den Unterbau auswechseln (CPU + RAM + Mainboard).

R2

Hübie
2018-02-27, 18:14:04
TweakTown haben leider keine wirklich überzeugende Trefferquote. 50/50 ist damit die Chance, das das passt. Es passt natürlich zu den bisherige Gerüchten. Aber genau darin liegt eine zusätzliche Gefahr: Man könnte zu sehr einseitig in eine Richtung denken.

Ich würde jedenfalls gern mal neue Infos aus gänzlich anderer Richtung als Meldungen über Messen und mögliche Vorstellungstermine lesen. Wo ist ein Leak aus einer Benchmark- oder Import-Datendank?

Führst du Buch darüber? :freak: Das Problem ist dass hints häufig Interpretationssache sind. Ein Beispiel: Unter der Hand erfuhr ich, dass 2017 kein Volta für Gaming kommt. Die Aussage stimmt ja auch soweit. Trotzdem kam da die 3000-Dollar-Titan-V, welche man sich nach belieben in den PC schrauben kann um damit zu Zocken; adressiert ist diese an einen anderen Markt, aber Märkte bilden sich auch dort wo man es nicht erwartet oder nicht unbedingt möchte. Ähnlich geht es wahrscheinlich jeglichen News sites die mit "industry sources" quatschen.

Eigentlich waren Gerüchte noch nie deutlich formuliert und falls doch, dann mit viralen Gedanken (iirc hat AMD einiges von Tahiti geleaked um NV Angst zu machen - und die hatten Angst :freak:).

Edit: Ich erwarte auch keine Entspannung vor 2019. Wenn Mining so weiter geht, dann wird es eh hässlich. Die Halbleiter-Produktion kann eben nicht mal eben so hoch gefahren werden. ASML hat genau so begrenzte Kapazitäten wie Carl Zeiss (welche die Optiken herstellen). Es gibt nicht viele Firmen mit dieser Expertise - schon gar nicht von sub 20 nm Strukturen.

=Floi=
2018-02-27, 19:09:17
Wenn neue Karten erscheinen, sollte man die am besten sofort zum UVP kaufen, bevor die Miner wieder zuschlagen, am Ende steigen die Preise auf utopische vierstellige Beträge

hört doch mit solchen kurzschlussreaktionen auf. Auch bei NV sollte man erstmal auf das produkt schauen was es taugt und auf die customs warten!

Ravenhearth
2018-02-27, 19:19:46
hört doch mit solchen kurzschlussreaktionen auf. Auch bei NV sollte man erstmal auf das produkt schauen was es taugt und auf die customs warten!
Naja, langsamer als der Vorgänger wird Ampere wohl nicht ;D

BoMbY
2018-02-27, 20:02:27
Vielleicht nicht langsamer, aber alles andere sind reine Gerüchte bisher. Man kann aber davon ausgehen, dass die Karten wohl deutlich teurer werden, und dazu dann nochmal der "Founder's Edition" Aufschlag für einen Blower-Kühler - dieses Mal liegt da der Preis vermutlich im vierstelligen Bereich für die xx80.

scully1234
2018-02-27, 20:09:01
Du kannst schon noch die UVP von den Marktschreierpreisen trennen:freak:


Und nein Nvidia wird die selbst nicht für "über 1000" anbieten im eigenen Shop

Für Waküfans ,bietet der Nvidia Shop mit der FE nun sogar zum ersten Mal ,eine attraktive Alternative, sollten die Händler gleich weiter so pushen beim Preis

Denn dort bleiben die Preise stabil

Ravenhearth
2018-02-27, 20:18:14
Ich kann mir nicht vorstellen, dass Nvidia die Preise signifikant anhebt. $699 wie bei Launch der GTX 1080 FE bzw. GTX 1080 Ti finde ich realistisch.

scully1234
2018-02-27, 20:21:28
Warum auch?

Um sich selber ins Bein zu schießen,wenn der Minigboom nachlässt

Deren Marge ist bei solch einem Chipnachfolger von GP104 mehr als gut bedient in der 600/700 Euro Liga

Für die 1000 Euro Preisregion haben sie immer noch den Großen mit Titan Label

BoMbY
2018-02-27, 20:55:21
Ich kann mir nicht vorstellen, dass Nvidia die Preise signifikant anhebt. $699 wie bei Launch der GTX 1080 FE bzw. GTX 1080 Ti finde ich realistisch.

Sie haben es doch schon durch die Blume angekündigt (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Preisanstieg-Q3-2018-1250922/)? Gut, vielleicht nicht vierstellig - dann halt $999/€999 weil's besser aussieht.

=Floi=
2018-02-27, 20:55:32
Naja, langsamer als der Vorgänger wird Ampere wohl nicht ;D

mit geht es eher um die sekundären negativpunkte. An der performance zweifel ich weniger. Der chip könnte aber aufgrund von hotspots zB erheblich weniger boosten als pascal oder er bleibt wieder bei 2ghz.
Der chip könnte übermässig kastriert sein. --> full chip bei nem refresh
Schlechte kühler. Cost Down. Softwareseitige bremsen für mining karten und für tegra.
Bugs.
Zu viel neues, welches schlecht funktioniert.

Auch bei NV läuft nicht alles perfekt und so eine gute karte wie eine custom 1080ti muss erstmal getoppt werden.

Ravenhearth
2018-02-27, 21:05:04
Sie haben es doch schon durch die Blume angekündigt (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Preisanstieg-Q3-2018-1250922/)? Gut, vielleicht nicht vierstellig - dann halt $999/€999 weil's besser aussieht.
Da steht nur, dass die Preise im Handel durch die Miner weiter steigen, auch weil man mangels Speicherchips nicht genug Karten produzieren kann. Aber das heißt doch nicht, dass Nvidia die UVP dann gleich bei nem Tausender ansetzt. Spätestens wenn die Preise wieder fallen, schneidet man sich damit ins eigene Fleisch.

maximus_hertus
2018-02-27, 21:15:55
Eine 2080 wird ziemlich sicher nicht bei 999 Euro landen. Aktuell würde ich auf 699 USD tippen. Evtl. 749 USD für die FE.

Daredevil
2018-02-27, 21:17:04
Wenn Nvidia sagt, der Preise der Karten steigen noch bis ins Q3 nach oben durch das Mining, dann sagt Nvidia auch gleich mit, dass der die Kurse im Crypto Markt weiter kontinuierlich nach oben steigen.

Das ist aber absolut nicht in Stein gemeißelt, dass die "GPU Mining Coins" dieses Jahr durch die Decke gehen.

scully1234
2018-02-27, 21:53:05
Sie haben es doch schon durch die Blume angekündigt (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Preisanstieg-Q3-2018-1250922/)? Gut, vielleicht nicht vierstellig - dann halt $999/€999 weil's besser aussieht.

Sie haben die Marktsituation bewertet nix weiter

Sowohl die Gründe wurden benannt ,als auch eine voraussichtliche Entspannung der Lage, gerade letzeres bedingt das die UVP niedriger liegt

Das du daraus die Apokalypse strickst, mit Preisen von 1000 Euro für den Midrangechip , muss an was anderen liegen;)


Die UVP nebst Nvidias eigener Shop, stellt damit noch keine Allgemeingültigkeit mit dem Thema her, denn das war wie schon gesagt auf den freien Markt gemünzt

PHuV
2018-02-28, 15:24:52
Eine 2080 wird ziemlich sicher nicht bei 999 Euro landen. Aktuell würde ich auf 699 USD tippen. Evtl. 749 USD für die FE.
Wie kommt Ihr alle auf 2080? :confused: Die Nameskonvention läge auf GTX 1180 und 1170. Und ich sage, es wird nicht weniger als 799 $.

Thunder99
2018-02-28, 15:54:48
Klingt besser :D

Ravenhearth
2018-02-28, 17:25:44
Bei einer neuen Gen ändert sich halt immer der erste Buchstabe, 1080 -> 1180 wäre viel zu klein.

JaniC
2018-02-28, 17:32:32
http://abload.de/img/gfg9bsuo.png

20 wäre logisch, irgendwie. 11 aber auch? Wie man's betrachtet. Ich vote für 20.

Dieser Thread ist so geil, 60 Seiten wilde Spekulationen, ohne das irgendwer irgendwas weiss.
Nagut, ist auch das Spekulationsforum, aber trotzdem. Schon geil, wie jeder ins Blaue (Grüne?) rät.

HOT
2018-02-28, 17:36:36
1180 ist viel zu sperrig, einfach nicht marketingtauglich.

r3ptil3
2018-02-28, 17:45:51
Tippe auf Geforce 280...

Der_Korken
2018-02-28, 17:49:54
Wenn hier schon fleißig Namen spekuliert werden, werfe ich mal X180 in die Runde (X=10, X180 = 1180) :D. Wobei mich bei Geforce GTX X180 das Doppel-X stört. Man könnte das GTX aber auch einfach weglassen.

Grendizer
2018-02-28, 17:50:36
280 gab es schon

LadyWhirlwind
2018-02-28, 18:47:11
Gefühlt ist zwischen 1080 und 1180 nur ein kleiner Sprung, weil beides mit 1 anfängt. Da macht eine 2080 aus Marketingsicht mehr Sinn.

Hübie
2018-02-28, 19:28:07
Ich persönlich stehe ja darauf wenn der Name bleibt, aber das Produkt geändert wird. Das macht man in der Automobilindustrie seit Äonen. =)

Was AMD & NVIDIA da manchmal verzapfen ist einfach nur zum :facepalm:

Es gab kein richtiges 100er lineup (nur Müll, Graupen, Schrott und Krüppel), 300er nur als Refresh am Notebook (ebenso die 800er) und nach 900 nennt man es 10er Serie obwohl es 1.000 sind. :rolleyes: Dann noch das Titan-Debakel wo man drei Mal das X verwurstet hat und Z für Mist verballert wurde wo es doch so tolle mystische Buchstaben gibt wie K, M oder P. X-D

Von AMD fangen wir besser nicht an. Da sind wir morgen noch nicht fertig.

Bucklew
2018-02-28, 20:09:56
Fand es sehr gut von NVIDIA, mit der 900er Serie (und dann später mit der 1000er) reinen Tisch zu machen und nur Chips mit der neuen Architektur auszuliefern.

Deutlich besser, als das Gemenge, das AMD da betreibt. Man schaue sich alleine mal bei der 200er Reihe die Anzahl der unterschiedlichen Video-Co-Prozessoren, mit wiederum unterschiedlichen Fähigkeiten an. Da ist von 2.2 (nicht mal komplett MPEG2) bis 5.1 alles dabei. Wer soll da durchblicken?

BoMbY
2018-02-28, 21:17:03
Deutlich besser, als das Gemenge, das AMD da betreibt. Man schaue sich alleine mal bei der 200er Reihe die Anzahl der unterschiedlichen Video-Co-Prozessoren, mit wiederum unterschiedlichen Fähigkeiten an. Da ist von 2.2 (nicht mal komplett MPEG2) bis 5.1 alles dabei. Wer soll da durchblicken?

Klar, alles total übersichtlich bei NVidia im Vergleich: https://en.wikipedia.org/wiki/Nvidia_PureVideo#Table_of_GPUs_containing_a_PureVideo_SIP_block

Nur leider auch erst innerhalb der aktuellen Serie ... abgesehen davon dass die auch immer noch uralte Mobile-Krüppel verkaufen, die nichts können, nur der Name wurde nicht geändert.

Bucklew
2018-02-28, 21:39:40
Klar, alles total übersichtlich bei NVidia im Vergleich: https://en.wikipedia.org/wiki/Nvidia_PureVideo#Table_of_GPUs_containing_a_PureVideo_SIP_block
Jupp:
62716
Danke, dass du meinen Punkt nochmal so schön bestätigt hast :up:

Nur leider auch erst innerhalb der aktuellen Serie ... abgesehen davon dass die auch immer noch uralte Mobile-Krüppel verkaufen, die nichts können, nur der Name wurde nicht geändert.
Das ist eben genau der Unterschied AMD vs. NVIDIA. Der eine verkauft alten Schrott als Neu, der andere labelt nicht um ;)

scully1234
2018-02-28, 22:48:14
der andere labelt nicht um ;)

im Umlabeln sind beide Weltmeister, besonderst bei OEM Ware

SKYNET
2018-02-28, 23:55:40
Jupp:
62716
Danke, dass du meinen Punkt nochmal so schön bestätigt hast :up:


Das ist eben genau der Unterschied AMD vs. NVIDIA. Der eine verkauft alten Schrott als Neu, der andere labelt nicht um ;)

stimmt... wie war das nochmal mit der FX damals? mehr als ne aufgebohrte GF4Ti wars auch nicht... :P und bei AMD fallen wenigstens nicht die GPUs von dem PCB des mainboards... ;D

und nein, ich habe nix gegen nvidia, hätte ich die 1060 vor 3 wochen für den preis von meiner 580 bekommen(bisschen günstiger als UVP = umgerechnet unter 270€), hätte ich die genommen, dann müsste ich mir nun keine gedanken machen wie ich den max. verbrauch ohne gross leistungseinbussen zu haben, auf unter 200W drücken kann :redface:

horn 12
2018-03-01, 00:11:29
Wohl wieder nur Gerüchte oder aber weitaus mehr ?

https://wccftech.com/rumor-nvidias-gtx-2080-flagship-graphics-cards-will-be-priced-significantly-upwards-of-699-msr-up-to-1500/

maximus_hertus
2018-03-01, 00:37:48
Hältst du nVidia für so blöd? Warum sollen die so viel negative Presse riskieren + mieses Marketingpotential?

Wenn überhaupt, wird es wie bei Pascal ablaufen. Es wird eine UVP geben, die erstmal nur auf dem PApier existiert. Dennoch wird diese (zu niedrige) UVP von allen als die ultimative UVP gefeiert. Dazu gibt es dann die FE, die natürlich deutlich teurer ist.

Für die GTX 2080 könnte das so aussehen:
MSRP Custom: 699 USD
FE: 799 USD
Founder Special Edition: 999 USD

Die "Special" Edition ist in den ersten Wochen dafür da, die Nachfrage einigermaßen zu befriedrigen, da sie zuerst die einzige lieferbare ist. Man bekommt zB mehrere Games + xx Stunden für GeForce Now (quasi als Werbung für den Dienst).

In 1 - 2 Monaten sind wir schlauer. Ich "wette" jedoch, dass mindestens eine UVP für die 2080 bei max 749 USD liegen wird, unabhängig ob der Preis realistisch ist.

Bucklew
2018-03-01, 09:04:26
stimmt... wie war das nochmal mit der FX damals?
Ja, wenn ich über die letzten Generationen rede, macht es immer Sinn mit Geschichten aus Stalingrad zu kommen :up:

Hübie
2018-03-01, 09:18:57
Bedeutet ja auch irgendwie, dass man in den vergangenen 10 Jahren vieles richtig gemacht hat. :smile:

Igor TH
2018-03-01, 10:02:45
Alles kann ich (noch) nicht schreiben ohne meine Quellen zu verbrennen, aber bald mehr. Aktuell muss das erst mal reichen:
Nvidias Ampere muss arbeiten, Turing darf spielen. Aber später. (http://www.tomshardware.de/nvidia-turing-ampere-launch-delay,news-259127.html)

Thunder99
2018-03-01, 10:09:14
Wow, danke für das Gerücht :up:. Ein Häppchen mehr :D

Igor TH
2018-03-01, 10:13:29
Es ist kein Gerücht, aber wie gesagt - alles zu seiner Zeit. Ich habe meine Reisepläne ja nicht wegen vager Gedankenspiele geändert. Dafür ist mir die Kohle zu schade.

Hugo78
2018-03-01, 10:16:00
Titan ACDC zum Ampere Release?

Hübie
2018-03-01, 10:25:48
Wo wir doch von unlogischen Namensgebungen sprachen. Turing für Gamer und Ampére für HPC (u.a. AI). :facepalm:
Was rauchen die?
Ist natürlich schade, dass man jetzt noch länger warten muss, aber mir persönlich kommt es sehr entgegen. :D
Wenn Ampére einen Display-Ausgang hat, werden damit 100%ig Spiele gebencht. Ich mein: c'mon selbst GP100 & GV100 hat man da durch gejagt. :naughty:

Igor TH
2018-03-01, 10:32:48
Turing als Selbstmörder hat auch G'schmäckle.

Wenn Ampere wirklich mit Displayausgang kommt und die Treiber was taugen, werde ich sie wohl diesmal testen.

Adam D.
2018-03-01, 10:39:31
Wenn das wirklich stimmt, ist das wirklich das letzte Zeichen um den Liftetime-Award für den traurigsten Zustand des Grafikkartenmarktes zu vergeben.

MadPenguin
2018-03-01, 10:42:39
Sagte ich doch :) warum sollte Nvidia Gas geben, wenn von der anderen Seite nichts kommt...
Und beim Preis und bei der Leistung werde ich auch nicht weit daneben liegen.
Nvidia war und ist ein absolut tüchtiger Geschäftspartner. Die verschenken nichts, eher im Gegenteil. Was bei der Marktsituation natürlich vollkommen richtig ist.

Troyan
2018-03-01, 10:47:49
nVidia bringt Turing, wenn sie damit bereit sind. Es macht null Sinn bei TSMC Pascal in großen Mengen zu produzieren, nur um dann mit erneuten großen Mengen Turing in den Gaming-Markt zu bringen.

Imo nimmt sich nVidia-Zeit genug Karten zu produzieren. Der Ansturm wird ja immens sein, da im Gaming-Markt die Leute auf "kostengünstige" Karten seit Monaten warten.

MadPenguin
2018-03-01, 10:49:34
nVidia bringt Turing, wenn sie damit bereit sind. Es macht null Sinn bei TSMC Pascal in großen Mengen zu produzieren, nur um dann mit erneuten großen Mengen Turing in den Gaming-Markt zu bringen.

Imo nimmt sich nVidia-Zeit genug Karten zu produzieren. Der Ansturm wird ja immens sein, da im Gaming-Markt die Leute auf "kostengünstige" Karten seit Monaten warten.

Freut mich, dass du kostengünstig unter Anführungszeichen gesetzt hast :D

Igor TH
2018-03-01, 10:53:11
Billig wirds nicht :D

Rancor
2018-03-01, 11:01:36
Ich brauche ne Ablösung für meine 1070..... Jetzt muss ich noch länger warten... Langsam nervt es

Adam D.
2018-03-01, 11:09:38
Sagte ich doch :) warum sollte Nvidia Gas geben, wenn von der anderen Seite nichts kommt...
Gas geben würde ich jetzt als Ausdruck verwenden, wenn Sommer 2017 wäre :freak: Zwei ganze Jahre für einen Refresh und 12 Monate davon kann sich ein normaler Mensch eigentlich keine neue Karte leisten. Das ist schon krass.

Der_Korken
2018-03-01, 11:11:40
Ich brauche ne Ablösung für meine 1070..... Jetzt muss ich noch länger warten... Langsam nervt es

Kann ich gut verstehen. Ich hatte mit vor 1,5 Jahren eine RX470 als "Übergangskarte" gekauft, um damals die Zeit bis Vega/Volta zu überbrücken. Jetzt könnte ich die wahrscheinlich noch mit Gewinne weiterverkaufen :freak: und ein Zeitpunkt, wann ich die für einen guten Preis gegen was schnelleres tauschen kann ist nicht in Sicht. Du solltest nur hoffen, dass deine Karte nicht abnippelt. Einen schlechteren Zeitpunkt kann es kaum geben.

AlphaNUSS
2018-03-01, 11:16:56
Ich brauche ne Ablösung für meine 1070..... Jetzt muss ich noch länger warten... Langsam nervt es
Ich brauche Ablösung für meine HD 6870 :D

Triniter
2018-03-01, 11:17:40
Billig wirds nicht :D
Der Kommentar von dir macht mich stutziger bzw. ärgert mich mehr als der vermutlich spätere Release...

maximus_hertus
2018-03-01, 11:21:26
nVidia leistet Aufbauhilfe für AMD :D

Spätsommer: GTX 20880 Launch, FE only, mieser Preis, maue Lieferbarkeit
Herbst 2018: Customkarten verfügbar, jedoch teuer und mäßig verfügbar
Xmas 2018: UVP Preise können teilweise erreicht werden, jedoch kaufen die Miner immer noch alles leer. Jetzt kann man auch noch auf die neue AMD Gen warten :D

Ich bin gespannt, ob die (PC)Spiele im kommenden Winter deutlich höhere Anforderungen haben werden als aktuell. Viele Gamer konnten bzw. können gar nicht aktuelle Grafik-Hardware kaufen und verharren mit ihren alten GTX 900/700/600 Karten, die zudem teilweise VRAM-Krüppel sind.

Noch ist es keine "Katastrophe", aber wenn es bis 2019 dauert, bis es wieder KArten zu vernünftigen PReisen (und lieferbar) zu kaufen gibt, könnte das für einen "Knacks" im PC Gaming bedeuten.

Ich bin ja vielmehr gespannt, wie sich die Anforderungen in den künftigen Spielen entwickeln. Der PC-Gamer hat ja kaum eine Möglichkeit aktuelle Grafikhardware zu kaufen. Setzt man für 1080p Ultra zB eine GTX 1070/1080 vorraus, würde man einen Großteil der potentiellen Käufer verprellen.

Igor TH
2018-03-01, 11:23:29
Kann ja sein, Jensen brauch wieder 'ne neue Mopedjacke. Das kostet nun mal... ;)

Was ich damit sagen wollte:
Auf das Preisniveau der vergangegen Jahre werden wir wohl noch länger warten müssen. Wenn selbst bei den Boardpartnern die BoM in der Summe unterm Strich schon deutlich teurer ausfällt, wird das auf den Endkunden durchschlagen. So der so.

Rampage 2
2018-03-01, 11:29:20
Ich brauche ne Ablösung für meine 1070..... Jetzt muss ich noch länger warten... Langsam nervt es

Ist doch halb so schlimm - Vorstellung im Mai oder Juni/Computex und Marktstart Juli oder August/Gamescom.

Was sagt der spätere Starttermin über die mögliche Verwendung von 7nm aus? Wann beginnt bei TSMC dessen Massenfertigung?

R2

maximus_hertus
2018-03-01, 11:32:45
Was ich damit sagen wollte:
Auf das Preisniveau der vergangegen Jahre werden wir wohl noch länger warten müssen. Wenn selbst bei den Boardpartnern die BoM in der Summe unterm Strich schon deutlich teurer ausfällt, wird das auf den Endkunden durchschlagen. So der so.

Das bezieht sich aber eher auf die Custom Karten? Natürlich muss nV auch für die FE mehr für die Materialien (Speicher etc.) bezahlen, jedoch kann ich mir schwerlich vorstellen, dass eine FE eine höhere UVP als 750, max 799 USD haben wird. Mit Steuern landet man schon bei 750 USD ganz schnell im Bereich von "realen" 850+ USD.

Aktuell sieht man ja bei nV und AMD, dass man quasi nur auf die Miner schimpft. Die 499 / 399 USD UVP für die Vega Karten waren von Anfang an ein Marketing-Stunt, geschadet hat es eher nicht.

Igor TH
2018-03-01, 11:36:19
Ist doch halb so schlimm - Vorstellung im Mai oder Juni/Computex und Marktstart Juli oder August/Gamescom.
Was sagt der spätere Starttermin über die mögliche Verwendung von 7nm aus? Wann beginnt bei TSMC dessen Massenfertigung?
R2Im Mai bekommen die Boardpartener erst einmal die Specs. Über die Schritte von BoM bis zur MP/Ramp habe ich ja mittlerweile schon genüg geschrieben. Das dauert für gewöhnlich mindestens zwei Monate. Der kolportierte Launchtermin im Juli kann nicht die Customs betreffen, das wäre zu kurzfristig.

@maximus_hertus
Die UVP der 1080 war damals deutlich niedriger. Und eine 2xxx wird erst einmal die neue Mittelklasse, die echte Oberklasse kommt eh später. Bei 750 Euro wäre man ja schon auf dem jetzigen Oberklasse-Niveau der 1080 Ti.

Wenn Nvidia Eier hätte, würde man die Turing-Karten in Regenbogen-Verpackung launchen. :D

maximus_hertus
2018-03-01, 11:45:39
Was sagt der spätere Starttermin über die mögliche Verwendung von 7nm aus? Wann beginnt bei TSMC dessen Massenfertigung?

R2

Kann man immer noch quasi ausschließen. Apple und Co. sind viel zu groß, die bekommen zuerst alle 7nm Kapazitäten. Siehe frühere Nodes.

Wenn ich das richtig im Kopf habe, dauerte es bei den 16nm von November 2013 (Risk Production) bis Mai 2016 (also 30 Monate) zur ersten GeForce Karte.

Bei 28 nm HP ging die RP in Q2 2010 los, die erste GeForce kam im März 2012, also rund 2 Jahre.

7nm Risk Production ging im April 2017 los. Erste GeForce Karten würde ich nicht vor 2019 erwarten.

maximus_hertus
2018-03-01, 11:49:48
@maximus_hertus
Die UVP der 1080 war damals deutlich niedriger. Und eine 2xxx wird erst einmal die neue Mittelklasse, die echte Oberklasse kommt eh später. Bei 750 Euro wäre man ja schon auf dem jetzigen Oberklasse-Niveau der 1080 Ti.

Wenn Nvidia Eier hätte, würde man die Turing-Karten in Regenbogen-Verpackung launchen. :D

Die 1080 FE hatte eine UVP von 699 USD bzw. 789 Euro (da war der Euro / USD Kurs nicht sehr vorteilhaft für uns). Niedriger als die 699 USD würde ich nicht erwarten. Wenn VRAM und Co. auch noch teurer werden, sind 699 USD eher das Minimum was man erwarten sollte? Oder habe ich jetzt einen Denkfehler?

Loeschzwerg
2018-03-01, 11:51:03
Warten auf 2020, dann räumt Intel den Grafikmarkt auf :uup:


Wenn Nvidia Eier hätte, würde man die Turing-Karten in Regenbogen-Verpackung launchen. :D

;D Böse

Was soll denn Turing bzw. die 2000er Serie nun sein? Nur ein Shrink und mehr Takt oder steckt da auch etwas mehr Technik (abseits GDDR6) dahinter?

Igor TH
2018-03-01, 11:53:25
@Löschzwerg:
Ist immer noch besser als GTX 2080 FE also "Freitod Edition"
DAS wäre dann wirklich böse ;)

Die Specs hat man auf Mai verschoben. Das kann man so oder so interpretieren. Oder aber TSMC zickt rum. Kann durchaus möglich sein.

Loeschzwerg
2018-03-01, 11:56:28
Stimmt, aber ich bin mir nicht sicher ob ich die Verpackung dazu sehen möchte :freak:

Igor TH
2018-03-01, 11:59:17
Stimmt, aber ich bin mir nicht sicher ob ich die Verpackung dazu sehen möchte :freak:

Hier ist sie, noch als Renderbild:

https://static.webshopapp.com/shops/047985/files/061156116/sarg-aus-hartkarton.jpg

PHuV
2018-03-01, 12:11:54
Wenn Nvidia Eier hätte, würde man die Turing-Karten in Regenbogen-Verpackung launchen. :D
Ich verstehe diese Andeutung nicht. :confused:

Loeschzwerg
2018-03-01, 12:15:16
https://de.wikipedia.org/wiki/Regenbogenfahne#Symbol_der_Lesben-_und_Schwulenbewegung

Hier ist sie, noch als Renderbild:

https://static.webshopapp.com/shops/047985/files/061156116/sarg-aus-hartkarton.jpg

Herrlich, ich mag deinen Humor http://www.smilie-harvester.de/smilies/ROFL/lachen.gif

AffenJack
2018-03-01, 12:22:56
Die UVP der 1080 war damals deutlich niedriger. Und eine 2xxx wird erst einmal die neue Mittelklasse, die echte Oberklasse kommt eh später. Bei 750 Euro wäre man ja schon auf dem jetzigen Oberklasse-Niveau der 1080 Ti.


Wenn deine Infos stimmen, dann wird es keine Turing Oberklasse geben. Man wird 2019 keine 12nm Produkte mehr launchen und es ist unwahrscheinlich, dass Nv ihre 7nm und 12nm Chips nach der gleichen Architektur benennt.

Ist doch halb so schlimm - Vorstellung im Mai oder Juni/Computex und Marktstart Juli oder August/Gamescom.

Was sagt der spätere Starttermin über die mögliche Verwendung von 7nm aus? Wann beginnt bei TSMC dessen Massenfertigung?

R2

Für 7nm immernoch zu früh. Apple, Qualcomm werden alle 7nm Kapazitäten dieses Jahr verbrauchen. 10nm schiene bei so einem späten Launch aber wieder im Bereich des Möglichen. Bei 12nm muss man 2019 auch wieder 7nm Chips bringen um gegen AMD 7nm zu konkurieren. Aber vielleicht hat man sich überlegt, dass man doch 10nm nimmt und den Standard 7nm Prozess überspringt. Stattdessen Anfang 2020 auf 7nm mit EUV geht.

PHuV
2018-03-01, 12:22:58
Ah, Turing und Regenbogen, verstehe.

Echt, erst Juli gibts neue Karten? :eek::eek:

Rancor
2018-03-01, 13:03:11
Hätte mir damals doch die 1080TI kaufen sollen, als die Preise niedrig waren....

basix
2018-03-01, 13:18:38
Hätte mir damals doch die 1080TI kaufen sollen, als die Preise niedrig waren....

Geht mir ähnlich...aber wer konnte damals ahnen, dass Vega 64 solch ein Rohrkrepierer wird und sich die Mining Madness noch verstärkt hat.

Tesseract
2018-03-01, 13:33:21
Geht mir ähnlich...aber wer konnte damals ahnen, dass Vega 64 solch ein Rohrkrepierer wird und sich die Mining Madness noch verstärkt hat.

der hohe preisanstieg der 1080Ti kam doch erst wochen bzw. monate nach den ersten neutralen reviews der V64.

Bucklew
2018-03-01, 13:49:36
Dass NVIDIA die Gamerkarte erst im Sommer/Herbst vorstellt, ergibt wenig Sinn, da die Pascal-Chips schon zu lange EoL sind.

Vielleicht keine Präsentation auf der GTC, aber sicher kurze Zeit später. Ala Pascal.

fondness
2018-03-01, 14:01:04
Dass NVIDIA die Gamerkarte erst im Sommer/Herbst vorstellt, ergibt wenig Sinn, da die Pascal-Chips schon zu lange EoL sind.


Wer sagt, dass die Pascal-Karten schon "lange EoL" sind?

Adam D.
2018-03-01, 14:28:17
Wer sagt, dass die Pascal-Karten schon "lange EoL" sind?
Ging vor einigen Wochen durch die News, IMO bezog sich das aber ausschließlich auf GP102 :confused:

maximus_hertus
2018-03-01, 14:34:31
Ging vor einigen Wochen durch die News, IMO bezog sich das aber ausschließlich auf GP102 :confused:

Jau, es war nur vom GP102 die Rede.

Igor TH
2018-03-01, 14:41:28
Zwischen EOL und nicht (mehr / momentan) bestellbar liegt auch noch ein gewisser Unterschied. ;)

Man kann Dinge auch nicht mehr produzieren und trotzdem noch ausreichend lagend haben. Batchweise Produktion ist gar nicht mal so unüblich. Oder man schießt bei Bedarf wieder einen Schub nach. Je nachdem...

Trotzdem ist eine Verschiebung eine Verschiebung und bleibt dies auch. Nur muss man sich sicher fragen, warum man bei NV erst ohne Not auch den Boardpartnern gegenüber eine Schedule kommuniziert, um dann alles mal eben so ein Vierteljahr wieder nach hinten raus zu scheiben. Klar kann man nun spekulieren. Im Schnitt braucht ein Boardpartner 2-3 Monate vom Briefing bis zum Start der Massenproduktion, solange es nichts gravierend Neues wird. Der blödeste Faktor sind harte ODM-Produkte wie die Kühler, die man ja erst bestellen kann, wenn die Platine steht. Und die hat man erst, wenn man die Specs hat und die BoM steht. Was nützt einem der fertige Kühler, wenn man nachher die geplanten SMD-Caps nicht bekommt und stattdessen wieder olle Becher draufmatschen muss, dort dann aber der Kühler im Weg ist?

N0Thing
2018-03-01, 14:57:38
Ich dachte mal eben so produzieren wäre nicht so einfach. Planung in der Foundry, Boards, Kühler und der ganze Kram müssen abgestimmt und vorhanden sein. Und jetzt ist bei Bedarf oder batchweise produzieren gar nicht mal so unüblich?

Igor TH
2018-03-01, 15:03:27
Es kommt immer aufs Produkt und den Umfang an. Man kann Ressourcen fest bestellen, zusätzliche Optionen offenlassen und vieles mehr. Wenn sich die Chips nicht fundamental unterscheiden, kann man sogar Packaging-Ressourcen weitervererben. Man muss ja auch überlegen, ob Nvidia TSMC mit dem GP102 wirklich richtig auslasten kann, oder ob man die Chips von Haus aus in Rotation und schubweise in unterschiedlichen Mengen herstellt.

Beispielsweise kann man in bestimmten Intervallen produzieren und dies auch lange vorab so planen und bestellen. Wird dann etwas knapp wie durchs Mining, ist halt gerade mal nichts lieferbar. Kühler bestehen aus mehreren Komponenten und so kann man vieles auch ohne neues Tooling weiterverwenden. Das beste Beispiel ist doch Asus' Kühler auf der R9 290X, den man sich bei Maxwell abgestaubt hat. Das allerdings war etwas zu gewagt :D

Beim GP 102 sehe ich eher, dass es noch genügend Bundles aus GPUs und Speicher gibt, um bis zum Sommer hinzukommen. Sollte eine kolportierte GTX 2080 dann in etwa gleich schnell sein, wird es der GTX 1080 Ti ergehen wie der 980 Ti. Zumal die 1080 Ti eh nur eine Art Abfallprodukt der echten GP102-Karten war. Die aktuellen Preise der 1080 Ti sprechen eher nicht für einen überschnellen Ausverkauf. Zu teuer.

X-Bow
2018-03-01, 15:13:37
Hat jemand einen Link zu den Infos das der Chip EoL ging die sich nicht auf die Aussage von Hübie beziehen? Weil es kommt mir einfach seltsam vor das nVidia eine "neue" Grafik veröffentlicht wenn zeitgleich der Chip dafür EoL sein soll (Titan X Collector's Edition).

Igor TH
2018-03-01, 15:16:17
Titan X Collector's EditionDas ist keine neue Karte, sondern ein limitierter Marketing-Furz ;)

Oder aber man hat noch viel zu viele fertige GP102 auf Halde liegen und schiebt deshalb die Neuen nach hinten...

Adam D.
2018-03-01, 15:17:42
Wahrscheinlich geht Pascal einfach noch zu gut weg, um Turing im Frühling launchen zu müssen. Bessere Yields, bessere Verfügbarkeit beim Launch, AMD kontert das Jahr eh nicht mehr.

AffenJack
2018-03-01, 15:22:59
Trotzdem ist eine Verschiebung eine Verschiebung und bleibt dies auch. Nur muss man sich sicher fragen, warum man bei NV erst ohne Not auch den Boardpartnern gegenüber eine Schedule kommuniziert, um dann alles mal eben so ein Vierteljahr wieder nach hinten raus zu scheiben. Klar kann man nun spekulieren. Im Schnitt braucht ein Boardpartner 2-3 Monate vom Briefing bis zum Start der Massenproduktion, solange es nichts gravierend Neues wird. Der blödeste Faktor sind harte ODM-Produkte wie die Kühler, die man ja erst bestellen kann, wenn die Platine steht. Und die hat man erst, wenn man die Specs hat und die BoM steht. Was nützt einem der fertige Kühler, wenn man nachher die geplanten SMD-Caps nicht bekommt und stattdessen wieder olle Becher draufmatschen muss, dort dann aber der Kühler im Weg ist?

Nun, ich kann mir da unterschiedliche Gründe vorstellen. Einerseits eine Knappheit an GDDR6 oder eben generell Ram und man möchte genügend vorproduzieren. Andererseits weißt du von den Boardpartnern und Customs, aber das heißt nicht, dass es das gleiche für die FE bedeutet. Nvidia wäre auch zuzutrauen erstmal zu einem erhöhten Preispunkt nur die FE zu launchen. Damit könnte man selber die Gewinne abgreifen und nicht wie im Moment die Distris und AIBs. Sobald man dann genug liefern kann, kämen die Customs ins Spiel für einen niedrigeren Preis.

Ravenhearth
2018-03-01, 15:39:08
Also wenn Turing dann nach deutlich über 2 Jahren wegen 12nm nur 30-40% auf Pascal drauflegt, fände ich das schon etwas mau. Klar, mit Blick auf AMD muss Nvidia nicht viel machen, aber die größte Konkurrenz kommt mit Pascal aus eigenem Hause. Bei so einem verhältnismäßig kleinen Sprung würde ich die Gen einfach überspringen, vor allem falls Nvidia die UVP merklich anheben sollte. Daher erscheint mir 10nm immer wahrscheinlicher - oder vielleicht ist es auch nur der Wunsch :redface:

X-Bow
2018-03-01, 16:07:43
Das ist keine neue Karte, sondern ein limitierter Marketing-Furz ;)

Na das war mir schon klar, deswegen war das neue auch in "" ;)

Hübie
2018-03-01, 17:36:46
Ehrlicherweise hieß es dass Pascals big chip EOL gegangen ist und ich vermutete dass es sich um GP102 handelt. Konnte ja nicht ahnen dass alle Welt das von Leo aufschnappt weil denen langweilig ist. Kann sich ebenso gut um GP100 handeln, daran hatte ich nicht gedacht. Zum damaligen Zeitpunkt deckte es sich einfach zu gut mit der nicht-Verfügbarkeit in sämtlichen NVIDIA-Shops und auch der Mangel im Einzelhandel. Es ist eben wie ich sagte: Du bekommst nen hint und musst da schon gut zwischen den Zeilen lesen können. ;)

crux2005
2018-03-01, 18:38:22
Alles kann ich (noch) nicht schreiben ohne meine Quellen zu verbrennen, aber bald mehr. Aktuell muss das erst mal reichen:
Nvidias Ampere muss arbeiten, Turing darf spielen. Aber später. (http://www.tomshardware.de/nvidia-turing-ampere-launch-delay,news-259127.html)

Wenn es so weiter geht, kommt Ampere für Spieler erst im Sommer. :(

Und jetzt bitte was neues leaken. :D

Hübie
2018-03-01, 18:46:07
Hier geht's dann weiter mit Turing: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587130

horn 12
2018-03-01, 18:46:45
Nun wird auch immer klarer was AMD mit Poor Volta gemeint haben könnte...
Macht AMD die Hausaufgaben mit Bravour,- so sollte eine RX56 mit einer GTX 2070 in etwa
mithalten können und GTX 2080 wäre knapp vor AMD Vega RX 64

Das in Vega schlummerndes Potential steckt ist mal gewiss und nun mit Optimierung am Treiber (durch Aufstockung des Programmierer Personals)
könnte die Bremse gelöst werden, zumal auch die Primitive Shader doch nochmals aus dem Grabe getragen werden könnten.

Igor TH
2018-03-01, 18:48:30
Ampere für Spieler wird es nie geben. Maximal irgendwann wieder die Ausschuss-Chips als Titan A für nerdige Söhne betuchter Zeitgenossen. :D

@horn 12:
Man kann sich Vega auch mit Gewalt schönreden (oder- schreiben). Da die kolportierte 2080 wohl abermals die neue Mittelklasse sein wird, degradierst Du damit selbst eine Vega64 zur Mittelklasse oder besser Vega56 zur oberen Einsteigerklasse bzw. unteren Mittelklasse. Wenn die Leistungsaufnahme noch weiter sinkt, z.B. 1080 Ti Performance für deutlich unter 200 Watt, wird das noch alberner.

spotz
2018-03-01, 19:01:58
Hmmm 2080 ist Mittelklasse? Wird der empfohlene VK da nicht so um die 500 € sein? Vielleicht bin ich da nicht mehr so up to date, aber der Preisbereich ist für mich nicht "Mittelklasse". Wird aber wohl an mir liegen.

Bucklew
2018-03-01, 19:21:31
Nun wird auch immer klarer was AMD mit Poor Volta gemeint haben könnte...
AMD wird gar nicht gewusst haben, was Volta ist.

Macht AMD die Hausaufgaben mit Bravour,- so sollte eine RX56 mit einer GTX 2070 in etwa
mithalten können und GTX 2080 wäre knapp vor AMD Vega RX 64
Bitte was? Zwei (!) Jahre nach Pascal soll NVIDIA fast null Mehrleistung liefern?

Hör doch bitte das trollen auf :facepalm:

Igor TH
2018-03-01, 19:28:19
Nur mal zur Erinnerung:
Bei der 1080 rief alles, dass es ja nichts anders als Nvidias neue Mittelklasse sei, die vorerst die Rolle der "Oberklasse" übernahm. Leistung deutlich besser als die der 980 Ti. Preis in etwa ähnlich. Und alle haben in Austin hyperventiliert. Aber alles andere als High-End. D

Relic
2018-03-01, 19:28:43
Hmmm 2080 ist Mittelklasse? Wird der empfohlene VK da nicht so um die 500 € sein? Vielleicht bin ich da nicht mehr so up to date, aber der Preisbereich ist für mich nicht "Mittelklasse". Wird aber wohl an mir liegen.

Die Preise hängen vom Marktgefüge ab (keine richtige Konkurenz durch AMD = Mittelklasse wird teuer) danach kannst du nicht gehen... Chipgröße ist ein viel besserer Indikator für Mittelklasse oder nicht und da ist die 1080 und wird auch die 2080 Mittelklasse sein.

Bucklew
2018-03-01, 19:50:39
Chipgröße ist ein viel besserer Indikator für Mittelklasse oder nicht und da ist die 1080 und wird auch die 2080 Mittelklasse sein.
Und Vega ist kein Deut schneller als die 1080 aber HighEnd?

:facepalm:

Chipgröße sagt doch nix über HighEnd oder nicht aus. Entscheidend ist, was hinten bei rum kommt.

Tesseract
2018-03-01, 19:52:43
chipgröße ist kein wirklicher indikator mehr, da ist selbst die 1080Ti nur mittelklasse. in den letzten generationen sind die strukturen immer feiner geworden, die kosten pro transistor aber nicht wirklich gesunken daher gibt es "echte" high-end-chips im gaming-markt überhaupt nicht mehr - von der Titan V mal abgesehen.

Mancko
2018-03-01, 20:04:26
Trotzdem ist eine Verschiebung eine Verschiebung und bleibt dies auch. Nur muss man sich sicher fragen, warum man bei NV erst ohne Not auch den Boardpartnern gegenüber eine Schedule kommuniziert, um dann alles mal eben so ein Vierteljahr wieder nach hinten raus zu scheiben.

Vielleicht denkt man sich ja, dass es bei der schwachen Konkurrenzsituation erstmal besser ist nur mit eigenen Karten (FEs) zu starten. So ein paar Monate nur eigene Karten ohne AIB Karten ist doch durchaus lukrativ.

Igor TH
2018-03-01, 20:05:29
Die News bitte noch einmal lesen :)

Botcruscher
2018-03-01, 21:43:04
chipgröße ist kein wirklicher indikator mehr, da ist selbst die 1080Ti nur mittelklasse.

Natürlich ist und bleibt es der Indikator. Was soll an 471mm² Mittelklasse sein? Ihr vergesst bei dem Streit eh die Aufteilung von NV im oberen Segment in Performance und Highend.
Die bisherigen 314mm² sind auf jeden Fall Gewinnoptimierung pur. Da wird sich auch nichts ändern.

Vielleicht denkt man sich ja, dass es bei der schwachen Konkurrenzsituation erstmal besser ist nur mit eigenen Karten (FEs) zu starten. So ein paar Monate nur eigene Karten ohne AIB Karten ist doch durchaus lukrativ.

Lohnt nicht. Der Image-Schaden wiegt weit höher als die paar Kröten. Die Karten gehen ja eh weg. Da kann auch einfach der Preis ein wenig optimiert werden. Von den letzten Produktstart kann doch exakt der Ablauf abgeleitet werden.

Bucklew
2018-03-01, 21:47:08
Natürlich ist und bleibt es der Indikator. Was soll an 471mm² Mittelklasse sein?
Nichts, aber 484mm² sind auf jeden Fall Mittelklasse :freak:

(also leistungsmäßig!)

scully1234
2018-03-02, 15:56:22
Die bisherigen 314mm² sind auf jeden Fall Gewinnoptimierung pur.


Natürlich ist das einer der Vorteile die sich ergeben wenn man technologisch voraus ist

Aber wenn Nvidia das Kunststück schaffen würde, mit nem hypothetischen 200mm² Chip die Vorgängergeneration u die des Mitbewerbers gleichermaßen zu bügeln, dann ist der Chip auch per se Highend ,sofern man sich entschließen sollte darüber erstmal nix größeres anzubieten , selbst wenn die Marge dann hypothetisch auf 400% ansteigen sollte

Was zählt ist auf dem Platz,und nicht wieviel Silizium in der Arena liegt...

fondness
2018-03-03, 11:44:34
Ging vor einigen Wochen durch die News, IMO bezog sich das aber ausschließlich auf GP102 :confused:

Manche Leute haben sich das zusammen gereimt, weil die NV-Chips wegen des Minings knapp wurde. Aber eine belastbare Quelle, dass NV bereits die Produktion von Paccal eingestellt hat, gab es nie. Da sieht man mal wieder, wie schnell aus purer Spekulation vermeidliche Fakten werden.

Hübie
2018-08-23, 09:26:30
Ist mit der Vorstellung von Turing, Ampére eigentlich vom Tisch? Gab es intern eine Umbenennung oder entschied man sich für das "andere" Projekt? Ampére 7nm HPC 2019 wäre jetzt meine Spekulation, sollte es denn noch ein Lebenszeichen geben...

Es wäre wünschenswert wenn der erste Beitrag aktuell gehalten werden würde. :rolleyes: