Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Aus der bisherigen "GeForce RTX 4070" scheint eine ...
Leonidas
2022-09-15, 12:49:44
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-aus-der-bisherigen-geforce-rtx-4070-scheint-eine-geforce-rtx-4080-12gb-zu-werde
Falls die 4070 tatsächlich 4080 12GB heißt und z.B. 700 Dollar kosten soll bin ich auf die Reaktion der AMD Fraktion hier gespannt.
Da wurde ja jeder Preisvergleich des 5600X mit dem 3600 entrüstet zurückgewiesen. Der Preisvergleich musste mit dem 3600X sein.
Irgendwie bezweifle ich aber, dass diese Fraktion jetzt die 4080 12GB mit dem Preis der 3080 vergleichen wird...
madshi
2022-09-15, 13:17:07
MLID tutet jetzt auch in das gleiche Horn. Wobei MLID auch die Option ins Spiel bringt, daß die 12GB Karte "4070 Ti" getauft werden könnte, aber seine Quellen deuten wohl eher 4080 an.
Platos
2022-09-15, 13:28:07
Eine Frechheit, wenn das so kommt.
Ich denke auch, falls das so kommt, dass dann die 4080 12GB (4070) als super günstig angepriesen wird und die richtige 4080 dann teurer gemacht wird.
Naja es hat alles 2 Seiten, auf der einen Seite könnte man sich natürlich mit dem 4080er Namen einen höheren Preis erlauben ohne sofort unangenehm aufzufallen, andererseits werden die Reviewer die Karte aber dann auch hauptsächlich mit einer 3080er vergleichen.
Eigentlich kann das nur gut gehen, wenn man richtig schnell ist, und sich von der 3080er entsprechend absetzen kann.
Meridian12
2022-09-15, 13:34:29
Soll das Dummenfang werden.
Die Leute sollen denken eine 4080 zu kaufen mit 12GB, obwohl es nur eine 4070 ist?
Wie soll dann die 4080 16GB heissen? Wohl kaum genauso und nur durch den Speicher unterscheidbar.
Entweder will NVIDIA die Leute abzocken oder sie haben sich was geniales ausgedacht, was uns nur noch nicht aufgefallen ist.
madshi
2022-09-15, 13:45:25
Der Fairness halber sollte man erwähnen, daß TSMC 4nm natürlich deutlich teurer als Samsung 8nm ist. Von daher ist es verständlich, daß Nvidia gerne etwas höhere Preise nehmen würde.
Der Hauptgrund ist aber ganz einfach der, daß Nvidia wohl noch eine unglaublich große Menge an Ampere Chips übrig hat, die sie noch verkaufen müssen. MLID sagt, das dauert vielleicht noch ein ganzes Jahr, um die alle loszuwerden. Und wenn Nvidia jetzt eine 4070 für übliche xx70 Preise verkaufen, dann müssten sie die Ampere Karten so stark im Preis senken, daß sie da große Verluste machen würden. Deshalb wahrscheinlich die Umbenennung auf 4080, damit sie entsprechend höhere Preise nehmen können, und deshalb dann die Ampere Karten noch möglichst lang ohne zu große Verluste verkaufen können.
Die große Frage ist, ob AMD denen da einen Strich durch die Rechnung machen wird. Ich hoffe es!
Eine Frechheit, wenn das so kommt.
Von AMD lernen heißt siegen lernen.
Da gingen die Fans ja auch auf die Barrikaden, wenn jemand den 5600X mit dem 3600 verglichen hat.
Der Vergleich müsste natürlich der 3600X sein.
Schon gab es keine so riesige Preiserhöhung mehr.
Jetzt wird eine 4070 halt eine 4080, also wird der Preis der 4080 mit der 3080 verglichen.
Was AMD recht ist, ist Nvidia nur billig.
Das das Lächerlich² ist? Natürlich.
Aber AMD hat ja vorgemacht, dass das eben perfekt funktioniert.
Wenn Kunden beschissen werden wollen, werden sie eben beschissen.
Da braucht sich doch keiner drüber wundern.
Platos
2022-09-15, 14:05:56
Ja, ist schon verständlich, da sie ja die letzten 2 Jahre im Miningboom so klägliche Umsätze machen konnten...
GerryB
2022-09-15, 14:11:40
Wie soll dann die 4080 16GB heissen?
SUPER
darüber ne 4080Ti als 4090 salvage
madshi
2022-09-15, 14:13:29
Ja, ist schon verständlich, da sie ja die letzten 2 Jahre im Miningboom so klägliche Umsätze machen konnten...
Hey, ich bin auch für niedrige Preise. Ich versuche nur, daß auch aus Nvidias Sicht zu sehen. Ist doch klar, daß die ihre noch massenweise vorhandenen Ampere Chips/Karten nicht mit großem Verlust verkaufen wollen. Das würde ich dann auch nicht als "Frechheit" bezeichnen, sondern einfach als vernünftiges Verhalten in einer Marktwirtschaft.
Wenn aber nun AMD gleiche Leistung für weniger Geld anbietet, dann bleibt Nvidia keine andere Wahl als ihre Preise entsprechend zu senken. Daher hoffe ich, daß AMD das dann auch wirklich macht, und sich nicht einfach an Nvidias Preisgestaltung anpaßt.
Lehdro
2022-09-15, 14:18:12
Soll das Dummenfang werden.
Ja.
Wie soll dann die 4080 16GB heissen? Wohl kaum genauso und nur durch den Speicher unterscheidbar.
Lass mich dir folgende Karte vorstellen:
GTX 1060: 3 GiB (https://www.computerbase.de/2016-09/geforce-gtx-1060-3gb-test/), 5 GiB (https://www.computerbase.de/2017-12/geforce-gtx-1060-5g/), 6 GiB und 6 GiB mit GDDR5X (https://www.computerbase.de/2019-01/msi-geforce-gtx-1060-armor-gddr5x-test/#abschnitt_andere_technik_gleiche_leistung). Die 3 & 6 GiB Versionen gab es auch noch mit GP104 statt GP106 (https://www.computerbase.de/2017-12/geforce-gtx-1060-5g/). Die meisten Versionen davon Unterscheiden sich in mehr als nur ihrer Speicherkapazität.
Ansonsten verweise ich auf 3080 10G und 12G.
Entweder will NVIDIA die Leute abzocken oder sie haben sich was geniales ausgedacht, was uns nur noch nicht aufgefallen ist.
Beides. Sie wissen dass sie alles verkaufen können solange nur Nvidia drauf steht, das ist quasi das "geniale". Jetzt geht es nur noch darum den Preis/Namen zu rechtfertigen.
Kleebl00d
2022-09-15, 14:26:05
Ich weiß nicht. Ich hab das erste Mal mit den Fermis so richtig Kontakt mit Computerhardware von Nvidia gehabt, daher bin ich da quasi sozialisiert wurden. Mir ist klar, dass daher mein Einschlag kommt.
Aber eine x80-Karte auf Basis des drittgrößten Chips? Was zum Geier?!
Bei den eben angesprochenen Fermis war sogar noch der x70er auf dem größten Chip. Und bewegte sich preislich auf ganz anderem Terrain, welches heutzutage ziemlich verweist da liegt.
Der Hauptgrund ist aber ganz einfach der, daß Nvidia wohl noch eine unglaublich große Menge an Ampere Chips übrig hat, die sie noch verkaufen müssen. MLID sagt, das dauert vielleicht noch ein ganzes Jahr, um die alle loszuwerden. Und wenn Nvidia jetzt eine 4070 für übliche xx70 Preise verkaufen, dann müssten sie die Ampere Karten so stark im Preis senken, daß sie da große Verluste machen würden. Deshalb wahrscheinlich die Umbenennung auf 4080, damit sie entsprechend höhere Preise nehmen können, und deshalb dann die Ampere Karten noch möglichst lang ohne zu große Verluste verkaufen können.
Und was interessieren den Käufer alte Chips die man überproduziert hat? Deshalb soll man diesen alten Müll noch kaufen und werden neue Gens so aufgestellt, das sie kaum schnrller. Nvidia ist einfach ein Drecksladen...wenn die sich verkalkulieren soll es der Gamer austragen. Behaltet es.
Und Leo schreibt extra nicht max PT.
4090 660w
4080 16g 516w
4080 12g 360w
Er hält mal wieder Infos zurück! Wer soll diesen aufgeblasenen Mist kauf.
Man sieht klar das die 12g eigentlich eine 4070 ist, die werden alle über 1k kosten. Deshalb nennt man sie 4080. So ein Lacher. Nur um Ampere weiter verkaufen zu können. Da werden die Erstkäufer von Lovelace mal wieder richtig verarscht.
Zudem ist es Nvidia Problem wenn sie n4 als 5nm von TSMC brauchen um AMD in die Schranken zu weisen. Die lachen sich jetzt schon schlapp und Nvidia tut alles das mehr Gamer verlieren.
Ich kaufe kein Ampere mehr, dann halt RDNA3. FyNv.
Meridian12
2022-09-15, 14:56:40
Hey, ich bin auch für niedrige Preise. Ich versuche nur, daß auch aus Nvidias Sicht zu sehen. Ist doch klar, daß die ihre noch massenweise vorhandenen Ampere Chips/Karten nicht mit großem Verlust verkaufen wollen. Das würde ich dann auch nicht als "Frechheit" bezeichnen, sondern einfach als vernünftiges Verhalten in einer Marktwirtschaft.
Du machst aber einen großen Denkfehler.
Die Preise bei NVIDIA sind aktuell ,wenn man die ganz großen Karten ausnimmt, kaum unter UVP zu haben.
Und wahrscheinlich ist die UVP 3 mal der Preis, den NVIDIA für eine Karte bezahlt hat.
Also die 1000 Euro Karte wird wohl eher so 350 Euro NVIDIA gekostet haben.
Somit könnte NVIDIA ohne Verlust die Karte für 400 Euro verkaufen.Die meisten Ausgaben wurden schon mit den verkauften Karten gedeckt.
Gehälter,Ausgaben für die neue Generation, Kosten für TSMC usw sind alle schon bezahlt (wobei Gehälter natürlich weiterlaufen).
Geht teilweise natürlich nicht, weil viele Karten natürlich an Händler für zB 600 Euro verkauft wurden und die sich natürlich verarscht vorkämen, wenn NVIDIA diese Karten, für 600 Euro an die Händler verkauft hat,selber für 400 Euro anbietet.
Die eigentlich Produktionskosten sind oftmals viel,viel niedriger als viele glauben.
Beispiel, wenn Mercedes eine 50t Euro C Klasse für einen Crashtest hergeben, dann hat sie dass nicht 50t Euro gekostet, sondern 10-12t Euro.Denn soviel hat das Fahrzeug gekostet an Material und Herstellung.
Nicht 50t Euro.
Entwicklungskosten, Gehälter usw braucht man bei diesem Testfahrzeug nicht beachten. Die hatte man so oder so und werden von den Endkunden bezahlt. Aber Mercedes hat das Fahrzeug halt keine 50t Euro gekostet.
madshi
2022-09-15, 15:07:04
Nvidia hat aber gar nicht die Möglichkeit, selbst die ganzen Karten zu bauen, um die Ampere-Chips umzusetzen, dafür sind einfach zu viele Ampere-Chips übrig. Nvidia braucht die AIBs, um beim Absatz der Ampere Karten zu helfen, und damit läuft das ganze über AIBs, Distributoren, Händler usw, und jeder schlägt seine übliche Marge oben drauf. Warum sollte z.B. ein Händler dazu bereit sein, Karten ohne Gewinn zu verkaufen? Er würde sich einfach weigern. Und das gleiche gilt auch für Distributoren und AIBs.
Von daher, selbst wenn die Hardware-Kosten nur 350 Euro sind, kannst Du die Karte ohne Verlust kaum unter 700 Euro verkaufen. Du kannst aber keine 700 Euro für eine Ampere-Karte nehmen, wenn es eine 4070 für 600 Euro gibt, die schneller als die 3090 Ti ist!
Hey, ich bin auch für niedrige Preise. Ich versuche nur, daß auch aus Nvidias Sicht zu sehen. Ist doch klar, daß die ihre noch massenweise vorhandenen Ampere Chips/Karten nicht mit großem Verlust verkaufen wollen.
Selbst wenn sie alle bereits produzierten Ampere-Karten verschenken würde, hat Ampere wesentlich mehr Geld eingespielt als man es jemals erwarten konnte.
Meridian12
2022-09-15, 15:20:39
Nvidia hat aber gar nicht die Möglichkeit, selbst die ganzen Karten zu bauen, um die Ampere-Chips umzusetzen, dafür sind einfach zu viele Ampere-Chips übrig. Nvidia braucht die AIBs, um beim Absatz der Ampere Karten zu helfen, und damit läuft das ganze über AIBs, Distributoren, Händler usw, und jeder schlägt seine übliche Marge oben drauf. Warum sollte z.B. ein Händler dazu bereit sein, Karten ohne Gewinn zu verkaufen? Er würde sich einfach weigern. Und das gleiche gilt auch für Distributoren und AIBs.
Von daher, selbst wenn die Hardware-Kosten nur 350 Euro sind, kannst Du die Karte ohne Verlust kaum unter 700 Euro verkaufen. Du kannst aber keine 700 Euro für eine Ampere-Karte nehmen, wenn es eine 4070 für 600 Euro gibt, die schneller als die 3090 Ti ist!
Da hast du Recht. Mein Beispiel basiert rein auf NVIDIA hat die fertige Karten und gibt sie an die Händler.
Nur Grafikchip bedeutet aber natürlich auch, dass von den 350 Euro nur 200 Euro NVIDIA an Kosten hat.Die 350Euro (Beispielwert, heisst nicht preis ist so bei NVIDIA :D) basieren ja auf die fertige Karte im Verkaufskarton.
Corpsi
2022-09-15, 15:23:30
Ich denke, die Ausführungen in der News treffen es genau. Letztlich soll hier der kleinere Chip als vermeintliche xx80-Lösung aufgewertet werden und einen höheren Preispunkt einnehmen. Die "richtige" 4080 rückt dann noch weiter hoch.
Nachdem es aktuell zwei 3080-Karten gibt, hat Nvidia da wohl eine gute Möglichkeit gesehen, darauf aufzubauen.
Es ist aber echt bedenktlich, dass die kleineren Chips tnedenziell immer weiter nach oben im den Kartenklassen wandern. Die "eigentliche" 7050ti wird dann sicher irgendwann noch die 7080. :)
Ich denke, die Ausführungen in der News treffen es genau. Letztlich soll hier der kleinere Chip als vermeintliche xx80-Lösung aufgewertet werden und einen höheren Preispunkt einnehmen. Die "richtige" 4080 rückt dann noch weiter hoch.
Nachdem es aktuell zwei 3080-Karten gibt, hat Nvidia da wohl eine gute Möglichkeit gesehen, darauf aufzubauen.
Es ist aber echt bedenktlich, dass die kleineren Chips tnedenziell immer weiter nach oben im den Kartenklassen wandern. Die "eigentliche" 7050ti wird dann sicher irgendwann noch die 7080. :)
Ich tippe, dass das einmalig ist, um ein gutes Stück des absurd hohen Preisniveuas zu sichern, ohne zu viel Kritik einzustecken für erhöhte Preise.
Eine 4070 heißt jetzt 4080 12GB und wird ca. 700 Dollar kosten. Also keine Preiserhöhung zur 3080.
Die 4080 16GB wird sich an der 3080TI orientieren, irgendwo bei 950-1000 Dollar.
Das wird dann das Preisniveau der 5xxx Generation sein, bei der es eher keine Namensänderungen geben wird.
Wie oben schon gesagt wurde hat AMD ja bewiesen, dass das klappt.
Der 5600X wurde überall mit dem 3600X verglichen, anstatt mit dem 3600.
Damit war der Preisanstieg niedriger.
Nvidia hofft jetzt, dass das bei ihnen genauso läuft.
Ob das klappt weiß ich nicht, möglich - aber AMD hat eine bessere Anhängerschaft, daher bin ich mir nicht sicher.
Zumindest hier im Forum wüten ja schon mal diverse Leute (zu recht, ich wüte auch), die äußerst pikiert waren falls jemand den 5600X mit dem 3600 verglichen hat.
Nur: Damit, dass ihr es bei AMD verteidigt habt, sorgt ihr eben dafür, dass Nvidia denkt: Geil, machen wir auch.
Natürlich nicht ihr als Einzelperson, was interessiert Nvidia ein deutsches Forum.
Aber generell war im Internet - Youtube, englische Foren - ja sehr häufig der 5600X mit dem 3600X verglichen worden, gerade auch bei MSRP.
Es war abzusehen, dass andere Firmen mit solchen Namensmanöver nachziehen.
Mir ist völlig gleichgültig welche Bezeichnung eine Grafikkarte trägt.
Mir ist nur Folgendes Wichtig:
- Bringt sie die von mir erwartete Leistungssteigerung (inkl. Speicherausstattung, Lautstärke usw.)?
- Bleibt sie innerhalb der von mir kalkulierten Preisspanne?
Wenn diese Forderungen nicht erfüllt sind warte ich halt weiter.
Complicated
2022-09-15, 16:43:01
CPU und GPU Markting miteinander zu vergleichen ist nicht gerade zielführend.
Cubitus
2022-09-15, 17:00:47
Wenn die 4080 eigl die 4070er ist und die 4080 jetzt nicht unbedingt schneller als eine 3090er ist, bei den vollen Lagern, fährt Nvidia damit doch zweigleisig.
Nvi will die alte (HighEnd) Genration lukrativ halten, aber auch die neue Genration verkaufen, Luft nach oben ist ja immer, wenn es sein muss.
Platos
2022-09-15, 17:04:15
Nein?
nvidia will die alten Top-Karten so schnell wie möglich loswerden. Nicht umsonst geben sie Rabatte intern (angeblich) und haben den Listenpreis gesenkt.
Cubitus
2022-09-15, 17:07:47
Nein?
nvidia will die alten Top-Karten so schnell wie möglich loswerden. Nicht umsonst geben sie Rabatte intern (angeblich) und haben den Listenpreis gesenkt.
Die Karten bekommst du aber auch mit Rabatt nicht los.
Vor allem wenn eine 4080er 12G wesentlich schneller als eine 3090(ti) mit 24G ist.
Deswegen Gang runterschalten, die 4070er einfach zur 4080er mit weniger Speicher um gelabelt und die Version 16G ist dann minimal besser und etwas weiter von der 3090(ti) entfernt.
Natürlich nimmst du noch die erwähnten Site-Effekte bei dieser neuen Gestaltung mit.
Nvidia hat sich dabei schon etwas gedacht, denke die Entscheidung ist ziemlich kurzfristig gefallen, gerade wegen den vollen Lagern.
Die 12G Version könnte bei erfolgreichen Abverkäufen auch wieder in eine 4070er um gelabelt werden und der Preis evtl auch gesenkt werden, Spielraum gäbe es genug.
arcanum
2022-09-15, 17:50:20
3090(ti) und 4080 "12G" werden sich wahrscheinlich nicht viel geben und je nach auflösung wird mal die eine, mal die andere vorne liegen.
zudem gibt es seit ein paar wochen einen ausverkauf im bereich >=3080 und gerade 3090 und 3090ti gehen im vergleich zum jahresanfang sehr günstig weg. ich denke die lager sind schnell leer und bereit für >=4080 wenn man die preise unter 1000€ hält.
Schnitzl
2022-09-15, 17:59:22
Ich tippe, dass das einmalig ist, um ein gutes Stück des absurd hohen Preisniveuas zu sichern, ohne zu viel Kritik einzustecken für erhöhte Preise.
Eine 4070 heißt jetzt 4080 12GB und wird ca. 700 Dollar kosten. Also keine Preiserhöhung zur 3080.
Die 4080 16GB wird sich an der 3080TI orientieren, irgendwo bei 950-1000 Dollar.
Das wird dann das Preisniveau der 5xxx Generation sein, bei der es eher keine Namensänderungen geben wird.
Wie oben schon gesagt wurde hat AMD ja bewiesen, dass das klappt.
Der 5600X wurde überall mit dem 3600X verglichen, anstatt mit dem 3600.
Damit war der Preisanstieg niedriger.
Nvidia hofft jetzt, dass das bei ihnen genauso läuft.
Ob das klappt weiß ich nicht, möglich - aber AMD hat eine bessere Anhängerschaft, daher bin ich mir nicht sicher.
Zumindest hier im Forum wüten ja schon mal diverse Leute (zu recht, ich wüte auch), die äußerst pikiert waren falls jemand den 5600X mit dem 3600 verglichen hat.
Nur: Damit, dass ihr es bei AMD verteidigt habt, sorgt ihr eben dafür, dass Nvidia denkt: Geil, machen wir auch.
Natürlich nicht ihr als Einzelperson, was interessiert Nvidia ein deutsches Forum.
Aber generell war im Internet - Youtube, englische Foren - ja sehr häufig der 5600X mit dem 3600X verglichen worden, gerade auch bei MSRP.
Es war abzusehen, dass andere Firmen mit solchen Namensmanöver nachziehen.
Natürlich vergisst du, dass nVidia das schon früher gemacht hat... :rolleyes:
ich frage ich immer wieder, warum bei nVidia es jedesmal versucht wird schönzureden.
Macht AMD danach dasselbe, wird ein RIESENFASS aufgemacht.
P.S.: Wedge, du kannst dich gerne wieder anmelden :tongue:
Leider unwahrscheinlich, aber man kann ja noch hoffen, dass AMD den Grünen so richtig in die Suppe spuckt.
Blase
2022-09-15, 19:03:39
Selbst wenn die das so machen. Bedeutet ja praktisch, dass die "kleine" 4080 sich kaum merklich von der 3080 wird absetzen können (20 Prozent?!). Das wird sowohl von der Fachpresse, als auch von der informierten Käuferschaft entsprechend "gewürdigt" ;) Wenn dann unterm Strich kein vernünftiger Preispunkt unter der Karte steht, werden die Empfehlungen entsprechend aussehen. Und wenn AMD hier nicht völlig Mist macht, können die ihre Produkte entsprechend (preislich) platzieren und schon sieht die kleine 4080 wie eine ganz miese Karte aus. Ich mag den Satz ja nicht - aber in diesem Fall wird der Markt das schon richten...
MfG Blase
Natürlich vergisst du, dass nVidia das schon früher gemacht hat... :rolleyes:
Namensänderung für Preiserhöhungen?
Kann mich nicht erinnern, jedenfalls nicht seit ich mich für GraKas interessiere (ca. 10 Jahre)
Soll jetzt nicht heißen, dass es das nicht gab, ich kann mich aber nicht dran erinnern.
War das nicht immer xx60, xx70, xx80, xx90?
Platos
2022-09-15, 19:13:29
Natürlich vergisst du, dass nVidia das schon früher gemacht hat... :rolleyes:
ich frage ich immer wieder, warum bei nVidia es jedesmal versucht wird schönzureden.
Macht AMD danach dasselbe, wird ein RIESENFASS aufgemacht.
P.S.: Wedge, du kannst dich gerne wieder anmelden :tongue:
So ganz nach dem Motto: Wenns der andere vorher gemacht hat, ist es bei mir ok :confused:
Es ist bei allen zu kritisieren. Wer damit angefangen hat, spielt keine Rolle. Wir sind hier nicht im Kindergarten bei "Er hat aber zuerst angefangen".
Falls die 4070 tatsächlich 4080 12GB heißt und z.B. 700 Dollar kosten soll bin ich auf die Reaktion der AMD Fraktion hier gespannt.
Da wurde ja jeder Preisvergleich des 5600X mit dem 3600 entrüstet zurückgewiesen. Der Preisvergleich musste mit dem 3600X sein.
Was ja auch logisch ist. Den 3600 vergleicht man nun mal mit dem 5600, weil das der direkte Nachfolger ist. Den 3600X mit dessen Nachfolger, dem 5600X. Insofern war die Entrüstung vollkommen gerechtfertigt.
Von AMD lernen heißt siegen lernen.
Da gingen die Fans ja auch auf die Barrikaden, wenn jemand den 5600X mit dem 3600 verglichen hat.
Der Vergleich müsste natürlich der 3600X sein.
Schon gab es keine so riesige Preiserhöhung mehr.
[...]
Das das Lächerlich² ist? Natürlich.
Aber AMD hat ja vorgemacht, dass das eben perfekt funktioniert.
Wenn Kunden beschissen werden wollen, werden sie eben beschissen.
Da braucht sich doch keiner drüber wundern.
Blöd nur, dass es auch einen 5600 ohne X gibt. Vielleicht erst mal über die Prozessoren informieren, bevor man haltlosen Mist labert! Aber gut, über AMD darf man ja immer lästern, ist ja schließlich AMD. Nur nie irgend was böses über Intel oder NVidia, die sind ja unfehlbar und haben einen Heiligenschein.
So ganz nach dem Motto: Wenns der andere vorher gemacht hat, ist es bei mir ok :confused:
Es ist bei allen zu kritisieren. Wer damit angefangen hat, spielt keine Rolle. Wir sind hier nicht im Kindergarten bei "Er hat aber zuerst angefangen".
Ja klar. Aber gerade das Beispiel mit dem 5600X ist nun mal Bullshit, weil es auch einen 5600 ohne X gibt. Der ist nur später auf den Markt gekommen. Ändert aber nun mal nichts dran, dass der 5600X der Nachfolger des 3600X ist.
Für nvidia hat sich der Chinesiche Markt verschlossen, irgendwie muss ja 400 Mil. Dollar im Quartal reingeholt werden... Die "Fake" Geforce 4070 gibts dann mit tollen 10 Gigabyte?
Tangletingle
2022-09-15, 22:43:01
wird hier immer noch genug leute geben die sich sowas schön reden. mir übrigens scheiß egal welcher vendor das macht. mist bliebt mist auch wenn er sugarcoated ist.
Meridian12
2022-09-15, 23:13:06
Wobei wir hier in Preisregionen sind, wo eher kein Laie mal so mir nix dir nix einen Spontankauf macht, ohne sich vorher genau über die Karte zu informieren.
Sprich, bei 800+ Euro wird man nicht viele Dumme finden.
Für zB 600 Euro wird es den Käufern wohl egal sein, ob sie eine eigentlich 4070 mit Namen 4080 kaufen.
Tangletingle
2022-09-15, 23:20:15
Wobei wir hier in Preisregionen sind, wo eher kein Laie mal so mir nix dir nix einen Spontankauf macht, ohne sich vorher genau über die Karte zu informieren.
Sprich, bei 800+ Euro wird man nicht viele Dumme finden.
Für zB 600 Euro wird es den Käufern wohl egal sein, ob sie eine eigentlich 4070 mit Namen 4080 kaufen.
ach was:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=612286
Und Leo schreibt extra nicht max PT.
4090 660w
4080 16g 516w
4080 12g 360w
Er hält mal wieder Infos zurück!
Man sieht klar das die 12g eigentlich eine 4070 ist.
nein leo schreibt es doch. er sieht es doch genauso, musst nur zu ende lesen. nur ohne direkte konkurrenz kann nv machen was sie wollen, amd kommt leider zu spät und rdna 2 ist langsamer. das ist die krux.
das schlimme ist eher, dass sich die lovelace karten bereits seit august in den nv lagern stappeln sollen und sie so tun als wären die nicht verfugbar, bzw. knapp. das ist abzocke vom feinstem.
einfach nicht kaufen, genau das trifft es. hat ja bei ampere aich geklappt.
Leonidas
2022-09-16, 04:51:55
3090(ti) und 4080 "12G" werden sich wahrscheinlich nicht viel geben und je nach auflösung wird mal die eine, mal die andere vorne liegen.
Gemessen am TSE-Wert sollte die 4080-12G zwischen 3090 und 3090Ti herauskommen. Aber da die Bandbreite klar niedriger ist, könnte die 4080-12G auch eher zur 3090 tendieren bzw. einfach unter höheren Auflösungen nicht so gut wie unter FullHD sein.
Und Leo schreibt extra nicht max PT.
4090 660w
4080 16g 516w
4080 12g 360w
Wurde in Text und Tabelle erwähnt.
Midnight-3DC
2022-09-16, 08:11:16
Als jemand, der eher an den kleineren Modellen interessiert ist, frage ich mich hier eher ob diese dann auch alle eine Stufe runter rutschen.
Leo hatte ja schon mehrfach vorgerechnet, dass der prognostizierte Performancegewinn der 4090 gegenüber dem "Vorgängermodell" zwar noch ziemlich groß ist, dann aber nach unten hin im Sortiment stark nachläst. Was würde denn so ein umlabeln für die dann tatsächlich 4070 und 4060 genannten Karten bedeuten? Das engt ja zwangsläufig auch den Spielraum für die Karten ein wenn sie a) schneller als der direkte Vorgänger und b) langsamer als das aktuell darüber liegende Modell sein sollen.
Ich sehe da schon für eine 4060 grandiose 5-10% Performancegewinn auf die 3060 rauskommen.
Na ja, mir letzten Endes auch egal. Ich halte es wie der Gast weiter oben und richte mich unabhängig vom Namen rein nach Performance/Watt und Performance/EUR. Falls die Karten in einer oder beiden Kategorien entäuschend sind wäre das einfach ein weiterer Grund diese Generation auszulassen (bzw. gespannt darauf zu sein was die Konkurenz so treibt).
Krischi
2022-09-16, 08:18:10
Gemessen am TSE-Wert sollte die 4080-12G zwischen 3090 und 3090Ti herauskommen. Aber da die Bandbreite klar niedriger ist, könnte die 4080-12G auch eher zur 3090 tendieren bzw. einfach unter höheren Auflösungen nicht so gut wie unter FullHD sein.
Und ziemlich genauso war es mit der normalen 3070 vs. der 2080Ti. Die 3070 orentierte sich eher dahin, aber "oben rum" verließ es sie dann eher mal als die 2080Ti.
Warum auch imm nVidia das tut, können wir nur spekulieren, aber es fühlt sich nicht "schön" an aus Verbrauchersicht.
Geldmann3
2022-09-16, 09:20:06
Vielleicht tun sie das, weil sie den aktuellen Kunden suggerieren wollen, dass sie nun mehr als die Performance des ehemaligen Topmodells für deutlich weniger Geld bieten. Jedoch wollen sie bald ja wieder neue Kunden haben, also wird der Speicher etwas verkrüppelt, damit die Karten in der Zukunft nicht so gut skalieren. Man will zufriedene Kunden jetzt, aber Kunden, die in 2-6 Jahren auf jeden Fall nach mehr dürsten.
Man stelle sich mal vor, die RTX 3070 hätte 16GB Vram. Das wäre doch völlig verrückt. Damit hätte man den Kunden ein Produkt an die Hand gegeben, mit dem man noch für viele Jahre alles bei sehr hohen Textureinstellungen spielen kann, wenn man mit der internen Auflösung runtergeht. Nein, das Ding soll gewreckt sein, in 3 Jahren.
Wobei sich diese Einstellung, jetzt, mit etwas mehr Konkurrenz wohl, wenigstens leicht, ändert.
Asaraki
2022-09-16, 09:28:48
Natürlich ist es eine Verschiebung nach oben.
Andererseits ist es nicht so dumm wenn die xx80 ungefähr die gleichen Watt braucht wie der Vorgänger, so aus Upgradesicht. Für den Laien ist es besser wenn die Karte mit dem gleichen Netzteil läuft und wie „Experten“ können schlecht behaupten man hätte uns getäuscht oder? ^^
Steht und fällt mit dem Preis :-)
Leonidas
2022-09-16, 09:39:08
Korrekt. Der Preis kann diese Namenswahl "gut machen" oder genauso auch "unterirdisch machen". Ist nur die Frage, welche Chancen man beiden Varianten angesichts der Historie von nVidia einräumt ;)
Asaraki
2022-09-16, 10:11:54
Naja das ist bei allen grossen Firmen doch klar, ne ;-)
if canRaisePrice and not customerWillBeAngry
then $$$
madshi
2022-09-16, 10:27:29
Naja das ist bei allen grossen Firmen doch klar, ne ;-)
if canRaisePrice and not customerWillBeAngry
then $$$
Ich würd das anders formulieren:
price = sane
while not customerWillRefuseToPay(price) do
price = price + 100
if customerWillBeAngry(price) then
dontCare
Blöd nur, dass es auch einen 5600 ohne X gibt. Vielleicht erst mal über die Prozessoren informieren, bevor man haltlosen Mist labert! Aber gut, über AMD darf man ja immer lästern, ist ja schließlich AMD. Nur nie irgend was böses über Intel oder NVidia, die sind ja unfehlbar und haben einen Heiligenschein.
Blödsinn, es hat ewig keine 5600 gegeben.
In der Zeit musste man natürlich den 5600X mit dem 3600 vergleichen.
Und Heiligenschein? Keine Kritik bei Nvidia? Lächerlich² wurde das Manöver von Nvidia genannt. Das hast du sogar selber zitiert, wieso "vergisst" du das und lügst?
Wieso haust du Fake-News raus nach denen es bei Nvidia nicht kritisiert würde? Nvidia wird völlig zu recht für diesen Schwachsinn mit der 4080 12GB kritisiert.
Eurde in Text und Tabelle erwähnt.
Sry ja habs gefunden. Danke für den Hinweis.
Redirion
2022-09-16, 11:59:20
Blödsinn, es hat ewig keine 5600 gegeben.
In der Zeit musste man natürlich den 5600X mit dem 3600 vergleichen.
kannst du auch begründen, warum du so vehement den Vergleich von 5600X zu 3600 suchst?
Wenn ich mir die Performance-Zahlen z.B. vom Computerbase-Test anschaue, ergibt sich ein sehr stimmiges Bild. Dort wird der 5800X mit dem 3800XT verglichen und der 5600X mit dem 3600XT.
Bei beiden ermittelt CB eine durchschnittliche Performance-Verbesserung bei Spielen auf 720p von 28%. Hätte man den 5600X gegen den 3600 antreten lassen, wäre die Steigerung höher.
Dass der 5600X 65W TDP hat, liegt einfach darin begründet, dass das der Sweetspot bei Zen3 ist und man bei 6 aktiven Kernen nun mal auch nicht zwangsweise ein höheres TDP-Budget braucht. Das heißt aber deswegen nicht, dass der 5600X mit dem 3600 zu vergleichen ist.
Oh bitte Intel mach eine gescheite Grafikkarte im oberen Segment. Zu dritt können, die sich schkecht nur höhere Preise vorgeben...
Und wo ist die antimonopol Kommission?
Leonidas
2022-09-17, 04:23:13
Und wo ist die antimonopol Kommission?
Die verbraucht ihre Arbeitszeit in Berufungen für die (immer noch nicht abgeschlossenen) Fälle von anno 2000.
Damit kostet dann ab sofort eine x070 auch über 1000$. Nvidia ist echt ein Laden, man man.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.