PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias GA102-150 gestrichen, GA102-250 nun gleich mit 20 GB Speicher


Leonidas
2020-10-30, 05:40:19
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ga102-150-gestrichen-ga102-250-nun-gleich-mit-20-gb-speicher

Gast
2020-10-30, 08:09:12
Wahrscheinlich kündigt nVidia diese 3080Ti direkt vor Verkaufsstart von AMDs 6800er an, damit sie uns auch wirklich wie eine Karotte vor der Nase hängt und ja niemand AMD kauft.

MD_Enigma
2020-10-30, 08:32:03
Meiner Meinung nach ist der Unterschied zwischen 16 und 20 GB VRAM nicht wirklich kaufentscheidend, da ist der Preis dominant. Wobei 10 vs 16 GB für mich ein KO-Kriterium wären.

bad-sign
2020-10-30, 08:54:26
Ein hoch auf Konkurrenz!

huey
2020-10-30, 09:02:43
Schön zu sehen was auch hier Konkurrenz bewirken kann denn ein Grund für die doch sehr geringen Speichermengen Ende 2020 waren ja ausschließlich die Marge und bis dato fehlende Konkurenz.

Naja in der Generation wäre der Unterschied zwischen 16GB und 20GB für mich auch nicht Kaufentscheidend, aber zw. 10/12GB und 16GB wiederum schon.

Es wäre schön wenn man in zukünftigen Reviews den Bandbreitenverlust und den damit einhergehenden Performanceverlust schon mal testen könnte.

Mega-Zord
2020-10-30, 09:03:11
Für 999 USD wäre eine RTX 3080 Ti wirklich sehr interessant. Aber wenn die RX 6900 XT wirklich das liefert, was AMD so präsentiert und die Karte verfügbar ist, dann sollte die 3080 Ti wirklich nur 999 USD kosten... naja vielleicht 10%-NV-Fanboy-Aufschlag (den ich übrigens auch zahlen würde).

Flusher
2020-10-30, 09:05:13
Also ein Preis jenseits der 999 $ für eine 3080 Ti wäre völlig absurd. Für eine Karte die kaum mehr als die verdoppelte Speichermenge einer 3080 bietet welche ihrerseits bei 699$ steht, kann man nicht den doppelten Preis aufrufen. Selbst die 999 $ wurden noch vor der Vorstellung der 6900XT als teuer beschrieben und ist erst jetzt plötzlich "akzeptabel" weil eben jene auch zu einem Preis von 999$ ins Rennen geführt wird.

Crazy_Borg
2020-10-30, 09:26:53
Naja, die 3080 TI hätte ja auch ein paar mehr Shadercluster.
Ob die was rausreissen bezweifel ich mal.

Sind nun eh bereits in so abgehobene Preisregionen abgedriftet, da wird es die Kunden eh nicht stören. Wer 1000$ für 'ne Grafikkarte über hat, kann auch 1200$ bezahlen.
Ist für mich nur noch absurd. Jaja, mit dieser Ansicht bin ich in diesem Forum völlig falsch. :freak:

Gast Ritis
2020-10-30, 09:32:58
Meiner Meinung nach ist der Unterschied zwischen 16 und 20 GB VRAM nicht wirklich kaufentscheidend, da ist der Preis dominant. Wobei 10 vs 16 GB für mich ein KO-Kriterium wären.
Mit Xbox One und PS4 waren 8GB gesetzt, die Xbox One X hat mehr geboten, abe die PS4 Pro blieb bei 8 GB auch für fast 4k.
Dass die für Spiele davon Teile ans OS abgeben mussten ist geschenkt, beim PC muss immer etwas mangels Optimierung überprovisioniert werden. Richtig war für diese Generation 8GB, wenn es nicht genügte dann nur in absoluter Ausnahme. Die Games und künftigen vielfachen Refreshes dieser Gen werden mit 8GB oder 10GB noch gut zurecht kommen.

Mit den neuen Konsolen sind wir bei 16GB mit sehr schneller SSD Anbindung.
Da sind 16GB für die Generation gesetzt. Mit etwas Glück wird ein 10GB Beschleuniger bei PCIe4 und genügend dualChannel DDR4 System-Ram da auch genügen. Für die XseriesX müssen die Coder sich auch auf 10GB schnellen Speicher plus 6GB "langsameren" Speicher einstellen. Der ist aber immernoch Faktor 10 schneller als PCIe4x16 und Latenzmässig besser angebunden.

Man darf sich mit 10GB keine Illusion machen es wäre alles viel besser als mit neuer Konsole. Wird auch hackelig werden, grundsätzlich funktionieren sollte es schon. Aber besser wie auf der Konsole wird es sicher nicht. Schon gar nicht mit DLSS wenn das NN auch noch im VRAM Platz finden muss.

Mit der grossen Unbekannten der SSD in den Konsolen würde ich auch lieber minimum 16GB nehmen. Aber ich verkneife mir das jetzt und hole mir sobald die GPU zu langsam ist eine Konsole, die machen in den Anfangsjahren immer viel Spass. In 1-2 Jahren kann man dann ohne grosse Unsicherheiten den PC mit DDR5 und vielleicht schon PCIe5x16 (64GB/s) neu aufbauen, das sollte das VRAM Thema noch weiter entspannen.

Knuddelbearli
2020-10-30, 09:45:21
Hmm direkt schade das AMD nicht gleich noch eine 6900 XT mit 32 GB brachte, ruhig zum selben Preispunkt wie die 3090.

ChaosTM
2020-10-30, 09:50:48
Hmm direkt schade das AMD nicht gleich noch eine 6900 XT mit 32 GB brachte, ruhig zum selben Preispunkt wie die 3090.


Die erwarte ich bald. Spätesten wenn NV die 16/20er und die 48GB Titan ankündigt..

Dschounz
2020-10-30, 10:08:17
Die erwarte ich bald. Spätesten wenn NV die 16/20er und die 48GB Titan ankündigt..

Falls die Gerüchte stimmen (nVidia ändert ja zur Zeit so schnell die Pläne wie andere die Unterhose :freak:), bleibt aber noch sehr lange das VRam-Problem von 8GB im Bereich der 3070 für nVidia ohne Konter bestehen...hier sollte AMD evtl. noch mal langfristig über den Preis der 6800 nachdenken, um die Karte besser zu positionieren, wenn die 3070er besser verfügbar werden.

ChaosTM
2020-10-30, 10:13:51
Könnte sein, dass AMD nicht genug CPUs hat die kaputt genug sind für 60SM. Da könnten ev. ein paar zum freischalten anfallen falls man nicht den Laser ansetzt.
499 wäre aber besser, gute Verfügbarkeit vorausgesetzt.

Daredevil
2020-10-30, 10:16:09
Was haben die sich denn eigentlich auch gedacht, die Lücke nicht direkt zu stopfen mit einer Ti... ._.
Da dreht man sich am Ende doch im Kreis, egal ob man ne 3080 oder 3090 hat. wenn nun der Zwitter aus beiden für 999€ kommen würde.
Wenig Aufpreis von der 3080 und viel mehr Wert, deutlich günstiger als die 3090 ohne große Einschränkungen.
Nvidia ist echt ungewohnt verplant dieses Jahr, so richtig fest haben sie wohl gerade nichts in der Hand, wie z.B. mit der schnellen "Super" Umsetzung bei Turing.

Schakar
2020-10-30, 10:18:13
Ich denke, alles unter "Der Spitze" hat NVidia bereits aufgegeben derzeit. Da schaut man nur noch Richtung "wir sind die Besten" und arbeitet intern mit Volllast an der 40x0 Generation.

Aber ob sie damit durchkommen? Ich erinner nur an Intels "wir sind immer noch SingelCore Meister" ;). Eine CPU Generation später und ... "ätschibätschi, nu nich mehr" seitens AMD.

Wie lange AMD das halten kann? Ka, vieleicht hat Intel ja schon was im Zauberhut für die 12te (?? wo simmer immo ??) Generation an I-CPUs.
PS: auf jeden Fall erstmal nen neuen Sockel ... neuer Sockel immer gut ... und wenn wir Dummy-Pins an die DIEs kleben *g*.

Knuddelbearli
2020-10-30, 10:29:00
Was haben die sich denn eigentlich auch gedacht, die Lücke nicht direkt zu stopfen mit einer Ti... ._.
Da dreht man sich am Ende doch im Kreis, egal ob man ne 3080 oder 3090 hat. wenn nun der Zwitter aus beiden für 999€ kommen würde.
Wenig Aufpreis von der 3080 und viel mehr Wert, deutlich günstiger als die 3090 ohne große Einschränkungen.
Nvidia ist echt ungewohnt verplant dieses Jahr, so richtig fest haben sie wohl gerade nichts in der Hand, wie z.B. mit der schnellen "Super" Umsetzung bei Turing.


Ich vermute mal sie haben sich vom Intrface verwirren lassen und dachten dann die Performance die ihre Spione melden kann doch niemals stimmen ^^

Und als dann der Infinity Cache langsam durchgesickert ist wars zu spät

:biggrin:;D:freak:

Daredevil
2020-10-30, 10:37:33
Jo, irgendwie sowas ist sicherlich plausibel.
Andererseits hat AMD auch einfach dieses große Problem "Bandbreite" sehr elegant umgangen und ausnahmsweise mal technisch stark vorgelegt.
Ich meine Nvidia muss sich bei solch einer Bandbreite entweder in GDDR6X Regionen begeben, die unheimlich ineffizient und teuer sind, oder HBM nehmen, was einfach selbst nur teuer ist.
Dieses Kunststück mit "nur" GDDR6 hinzulegen, ist wahrlich magisch von AMD.

Ich denke, Nvidia hat aktuell auch mehr Probleme mit dem Speicher, als mit den GPUs selbst, die sind in 8nm ziemlich effizient, nur alles drumherum frisst den Vorteil massiv auf. Meine Erfahrung im Sweetspot haben ja gezeigt, dass die GPU selbst am Ende 50w verbraucht und der Rest herum ~160w. Selbst wenn Nvidia Ampere in 5nm fertigen würde, das drumherum geht halt nicht so schnell weg.
GDDR6X ist echt Nvidias Alptraum. ^^

Deswegen würde eine "3080ti" erstmal nichts wirklich ändern bzw. das verringern der Speicherchips wäre ein Fortschritt zur 3090, also halt 10x2GB.

Knuddelbearli
2020-10-30, 10:56:48
Da lohnt sich eben das AMD viel Erfahrung bei CPUs hat, angeblich ist der Cache ja größtenteils 1:1 die Technik des L3 Caches bei Zen 3, weshalb ich auch den Verdacht habe das daran SAM gekoppelt ist und man da dann einfach den L3 des Ryzen 5000 als weiteren infinity Cache hernimmt der über PCI-E 4.0 schnell angesprochen wird, zumindest noch weit schneller als der RAM.

Gast
2020-10-30, 10:57:20
Oh man tun mir die Leute leid die es auf sich genommen haben eine 30XX zu kaufen, es tatsächlich auch für den UVP geschafft haben, nur um dann einige Monate später festzustellen, das Ampere Beta (alle verfügbaren ampere karten) noch schlechter altert als Turing, da so schnell obsolet. Auf der anderen Seite war diese Entwicklung für alle informierten schon seit Moanten absehbar. Man kann nur hoffen das einige was drauß lernen und keine Ampere Karte vor dem Refresh kaufen ..

Legendenkiller
2020-10-30, 11:01:00
hm also für eine 3080Ti sehe ich irgendwie keine Platz oder wenn dann nur als 3090light mit 20 Gbyte für nur 1399€.
Eine 3070ti macht viel mehr Sinn aber die "darf" eigentlich nicht mehr Ram haben als eine 3080.

Zu den knappen Speichermengen hatte ich ja auch die Vermutung einer geplanten Obsoleszenz, duch die GRakas schneller gegen neue ersetzt werden müssten.
Dagegen spricht, das neue Grakas dann weningstens ein klein bischen mehr Speicher haben müssten, was sie aber nicht haben. 8Gbyte 1070/2070/3070 oder 2080TI 11Gbyte vs der viel schnelleres 3080 mit 10Gbyte.

Also doch schlechte Ausbeute von hochtaktbaren GDDR6X ?
Dann könnten sie zwar ohne Probleme eine 3070Ti mit 12-16 Gbyte bringen, was aber eine 3080 mit 10 Gbyte wieder blöd aussehen lässt. Es also auch nicht geht ohne die 3080 mit 20 Gbyte zu bringen die sie dann erst recht nicht liefern könnten.
Eigentlich können sie nur eine 3070TI mit paar mehr Shader und 9Gbytte ram bringen die dann die 6800XT sauber kontern kann.
Andererseits war Nvidia schon bei der 20xx Serie beim Ram ohne Sichtbare Not so kausrig... wirklich nur wegen der Marge oder Architekturbedingt ?

PS:
Ich glabe Nvidia wird erstmal versuchen auf RT und ihren DSLL KI-Spezials rumzureiten und an der Hardware garnix ändern.
Bei RT speziell mit DSLL sind sie sehrwahrscheinlich klar schneller und viele schauen halt nur auf RT-FPS, egal wie wenig Spiele es dafür wirklich gibt oder sie selber spielen. Aber sie könnten wenn es sie geben wird ;-)
Solange die Leute kaufen ist Wunschdenken oder Gemecker doch egal.

Mega-Zord
2020-10-30, 11:20:45
Sind nun eh bereits in so abgehobene Preisregionen abgedriftet, da wird es die Kunden eh nicht stören. Wer 1000$ für 'ne Grafikkarte über hat, kann auch 1200$ bezahlen.
Ist für mich nur noch absurd. Jaja, mit dieser Ansicht bin ich in diesem Forum völlig falsch. :freak:

Es darf ja jeder selber entscheiden, wie viel Geld er wofür ausgeben möchte. Da darf gerne jeder seine Ansicht haben. Das ist ja auch nicht nur ein Problem hier im Forum, sondern der arrogante Stil, der in jedem Forum an den Tag gelegt wird. Da wird 3070-Käufern unterstellt, dass sie Speicherkrüppel kaufen. Der AMD-User wird ausgelacht, weil X21 nicht so tolle DLSS hat. Ich habe mir hier und auch in anderen Foren teilweise echte Beschimpfungen anhören müssen, weil ich mein Geld bisher gerne NV gegeben habe. Da wird einem dann unterstellt, dass man selber das Problem ist. Das ganze muss natürlich immer möglichst abwertend geschrieben werden.

Die 3DCenter-Coomunit ist ja auch eher AMD-lastig.

ChaosTM
2020-10-30, 11:24:10
Eher NV - kritisch als AMD lastig. Das Lineup macht so wenig Sinn..

maximus_hertus
2020-10-30, 11:45:18
Irgendwie ändern sich jeden Tag nVs Pläne. Da machen Gerüchte und Leaks ja fast keinen Sinn mehr ^^ Völlig egal, ob sie zu dem Zeitpnkt stimmten oder nicht.

Es ist sehr lange her, als man das letzte Mal nV so "konfus" gesehen hat, quasi in einem Daueraltert ohne richtigen Plan (gefühlt).

Schaun mer mal, ob das uns Users helfen wird. Selbst die 3070, die ja als P/L Wunder betitelt wird, ist weit von bezahlbar entfertn (für sehr viele). Die beiden Preispunkte 299 und 399 sollten dann irgendwann auch besetzt werden. Ärgerlich, dass das wohl erst 2021 passieren wird, bzw., falls die Gerüchte stimmen, nV gar nichts bieten wird (6GB = Office Karte in 2021).

Grafikspachtel
2020-10-30, 12:03:07
Man kann Nv anrechnen, dass sie den Preemptive Paperlaunch perfektioniert haben.
Mir war allerdings schon zu dem Zeitpunkt, als herauskam, wie absurd die 3080 außerhalb ihres Sweetspots geprügelt wurde, klar, dass Navi dicht dran sein müsste, weil Nv sich ja sonst ähnlich hätte ausruhen können wie zu Turing-vs-RDNA1-Zeiten, wo AMD noch nichtmal ansatzweise oben mitspielen konnte.

Ampere scheint mir eher ein Profitmargen-Ding zu sein, dank eines Superdeals mit Samsung - aber eben auch nur ein etwas besserer 10nm-Prozess.
Wenn Nv wollte, hätten Sie Ampere in 7nm bei TSMC fertigen lassen können - und ich würde fest davon ausgehen, dass die Karten dadurch deutlich energieeffizienter geworden wären. Das passiert halt, wenn man die Füße auf den Tisch legt, im Glauben, dass man unaufholbar vorne liegt.

hq-hq
2020-10-30, 12:06:45
Wahrscheinlich kündigt nVidia diese 3080Ti direkt vor Verkaufsstart von AMDs 6800er an, damit sie uns auch wirklich wie eine Karotte vor der Nase hängt und ja niemand AMD kauft.

:freak: das wäre schlau von nVidia

die würd mir schon schmecken die Karotte, nur zu Weihnachten hätte ich gern wieder neue HW - falls es überhaupt irgendwas zu kaufen gibt

Platos
2020-10-30, 12:07:32
Naja, die 3080 TI hätte ja auch ein paar mehr Shadercluster.
Ob die was rausreissen bezweifel ich mal.

Sind nun eh bereits in so abgehobene Preisregionen abgedriftet, da wird es die Kunden eh nicht stören. Wer 1000$ für 'ne Grafikkarte über hat, kann auch 1200$ bezahlen.
Ist für mich nur noch absurd. Jaja, mit dieser Ansicht bin ich in diesem Forum völlig falsch. :freak:

Wer 1200 zahlen kann, kann auch 1400 Zahlen. Wer 1400 Zahlen kann, kann auch 1600 Zahlen. Wer 1600 Zahlen kann, kann auch 1800 Zahlen. Wer 1800 Zahlen kann, kann auch 2000 Zahlen...


Ja, genau dorthin führt so eine Denkweise.

Gast
2020-10-30, 12:36:46
Es darf ja jeder selber entscheiden, wie viel Geld er wofür ausgeben möchte. Da darf gerne jeder seine Ansicht haben. Das ist ja auch nicht nur ein Problem hier im Forum, sondern der arrogante Stil, der in jedem Forum an den Tag gelegt wird. Da wird 3070-Käufern unterstellt, dass sie Speicherkrüppel kaufen. Der AMD-User wird ausgelacht, weil X21 nicht so tolle DLSS hat. Ich habe mir hier und auch in anderen Foren teilweise echte Beschimpfungen anhören müssen, weil ich mein Geld bisher gerne NV gegeben habe. Da wird einem dann unterstellt, dass man selber das Problem ist. Das ganze muss natürlich immer möglichst abwertend geschrieben werden.

Die 3DCenter-Coomunit ist ja auch eher AMD-lastig.

Das ist auch der Grund warum ich auf meinen "Gast Status" nicht verzichten werde. Wenn ich mir ansehe wie hier mit nVidia Entusiast kunden umgesprungen wird, dann bleibe ich lieber nicht reproduzierbar erkennbar.
Ich bin zZt sehr zufriedener NV Nutzer, und ich freue mich über die Performanceentwicklung bei beiden Entwicklern. Aber die Häme mit der hier vor allem auf der AMD Fanseite, zumindest nach meinem Eindruck, geschrieben wird hält mich von einer Registrierung ab.
Es ist übrigens nicht relevant für mich, ob die Community diese Entscheidung für gut oder falsch hält. So wie meine Kaufentscheidungen treffe ich auch diese für mich selbst und unabhängig.

Ex3cut3r
2020-10-30, 12:59:21
Nvidia ist doch momentan tot. Mit welcher rationalen Entscheidung kann man den nun einen Geforce Kauf rechtfertigen? Mit gar keinen! AMD hat, mehr VRAM, weniger Stromverbrauch, und ist 5% schneller. Und lieferbar ist sowie keine Ampere Karte und wenn doch, viel zu teuer.

Crazy_Borg
2020-10-30, 13:02:16
@Platos
Ja, und? :rolleyes:
Ich bezog mich auf die posts vor meinem wo der Preis kritisiert wurde a la "max 1000€, für 1200€ hat die 3080TI zu wenig Mehrleistung" (meine Interpretation).

Wir reden hier von Preisen, zu denen andere Leute Gebrauchtwagen kaufen. Bei dem Preisniveau finde ich es eben völlig absurd haarklein über gute/schlechte Preis/Leistung zu diskutieren. Ob der Hersteller da nun als UVP 1000€ oder 1200€ drantackert ist dem Käufer Wurst, er hat das Geld zur Verfügung.
Hast du schonmal jemanden gesehen der rumschimpft dass das diesjährige Ferrarimodell zu teuer ist?
Im Bekanntenkreis ist häufiger die Frage ob man die 160€ für eine GTX1650 ausgeben, oder ob man doch auf 210€ ansparen sollte für eine 1660 wegen dem mehr VRAM damit die Karte länger nutzbar bleibt.

Ich wollte nur auf das hochgradig Bizarre hinweisen.
/MeinSenf und so :wink:

WedgeAntilles
2020-10-30, 13:19:55
Wir reden hier von Preisen, zu denen andere Leute Gebrauchtwagen kaufen. Bei dem Preisniveau finde ich es eben völlig absurd haarklein über gute/schlechte Preis/Leistung zu diskutieren. Ob der Hersteller da nun als UVP 1000€ oder 1200€ drantackert ist dem Käufer Wurst, er hat das Geld zur Verfügung.
Hast du schonmal jemanden gesehen der rumschimpft dass das diesjährige Ferrarimodell zu teuer ist?
Im Bekanntenkreis ist häufiger die Frage ob man die 160€ für eine GTX1650 ausgeben, oder ob man doch auf 210€ ansparen sollte für eine 1660 wegen dem mehr VRAM damit die Karte länger nutzbar bleibt.

Ich wollte nur auf das hochgradig Bizarre hinweisen.
/MeinSenf und so :wink:

Ist aber - entschuldigung - halt Blödsinn was du schreibst.
Natürlich ist auch im viele hundert Euro-Bereich Preis-Leistung nach wie vor ein Faktor.
Nicht bei jedem, schließlich sind wir in einem Preissegment, bei dem es manchen relativ egal ist ob es 300 Euro mehr oder weniger sind.
Aber das trifft nur auf einen Teil der Käuferschicht zu. Ob das jetzt 75% sind, oder 25%? Keine Ahnung.

Aber selbstverständlich ist es nicht egal, ob ne GraKa 700 Euro oder 900 Euro oder 1100 Euro kostet.

Railer
2020-10-30, 13:35:08
Was in dem Artikel leider nicht angesprochen wird, aber einen ziemlich großen Faktor sowohl bei der Kaufentscheidung, als auch beim Umkrempeln des nVidia-Produktportfolios darstellt ist DLLS 2.0 bzw. dessen zukünftige Formen. Bei einem zu AMD vergleichbaren Produkt würde nVidia durch DLSS klar im Vorteil sein.
Zudem ist die RT-Performance und dessen Ausprägung (Vulkan) bei AMD noch gänzlich unklar. nVidia muss sich also gar nicht mal so sehr fürchten, wie es im Artiekl dargestellt wird.

Was ich aber nicht verstehe ist, warum nVidia die 3070 20G und 3080 20G einfach gestrichen hat. Das wären aus meiner Sicht genau die richtigen Konkurrenz-Produkte zu AMD. Mehr Speicher, mehr RT-Leistung (vermutlich) + DLSS. AMD wäre zwar günstiger, kann diese Punkte aber nicht bitten.

MasterElwood
2020-10-30, 13:51:42
Oh man tun mir die Leute leid die es auf sich genommen haben eine 30XX zu kaufen, es tatsächlich auch für den UVP geschafft haben, nur um dann einige Monate später festzustellen, das Ampere Beta (alle verfügbaren ampere karten) noch schlechter altert als Turing, da so schnell obsolet. Auf der anderen Seite war diese Entwicklung für alle informierten schon seit Moanten absehbar. Man kann nur hoffen das einige was drauß lernen und keine Ampere Karte vor dem Refresh kaufen ..

Was soll "obsolete" sein an einer 3080? Das jedes Jahr ein Refresh kommt ist immer klar - und ich will die Leistung JETZT - ned paar prozent mehr in MONATEN :facepalm:

Crazy_Borg
2020-10-30, 13:55:25
Ist aber - entschuldigung - halt Blödsinn was du schreibst.
Natürlich ist auch im viele hundert Euro-Bereich Preis-Leistung nach wie vor ein Faktor.
Nicht bei jedem, schließlich sind wir in einem Preissegment, bei dem es manchen relativ egal ist ob es 300 Euro mehr oder weniger sind.
Aber das trifft nur auf einen Teil der Käuferschicht zu. Ob das jetzt 75% sind, oder 25%? Keine Ahnung.

Aber selbstverständlich ist es nicht egal, ob ne GraKa 700 Euro oder 900 Euro oder 1100 Euro kostet.

Blödsinn nicht, nur meine Meinung. :tongue:
Natürlich hat (die gleiche) Karte für 1000€ und für 1200€ ein anderes P/L Verhältnis. Schon allein rechnerisch.
Mir kommt das nur seltsam entrückt von der Realität vor. Hier wird es als normal angesehen, Karten jenseits der 1000€ zu kaufen. Wir reden hier nicht von 1, 2 Leuten. Nein, gefühlt das halbe Forum.
Das war vor ein paar Jahren schlicht undenkbar. Eine RTX3070, so schnell sie auch sei, für 500€ ist "Mittelklasse". Ja, nvidia hat das vorangetrieben.

Mein erster Post war nur als flappsiger Spruch gedacht. ich wollte nur sowas wie ein Selbstreflektion starten. Vielleicht war auch nur meine Milch heute morgen schlecht. :freak:
Wir bewegen uns auf Top Gear Niveau, wo Ferrari, Lamborghini und McLaren verglichen werden. Schön dass es diese Vergleiche gibt, aber die Selbstverständlichkeit der Diskussion (um die Normalität dieser Preise) drum herum hat mich verblüfft. Und ich bin auch nicht James May...
Es sollte keine Kritik daran sein das überhaupt verglichen wird. Sorry wenn das so rüberkam.

MasterElwood
2020-10-30, 13:55:50
Nvidia ist doch momentan tot. Mit welcher rationalen Entscheidung kann man den nun einen Geforce Kauf rechtfertigen? Mit gar keinen! AMD hat, mehr VRAM, weniger Stromverbrauch, und ist 5% schneller. Und lieferbar ist sowie keine Ampere Karte und wenn doch, viel zu teuer.

Kein DLSS mit Moment (und Qualität ungewiss)

RT-Performance anscheinend unterirdisch

Kein CUDA (jeden der neben Zocken auch nur ein BISSI was anderes macht, bremst/blockiert das immens)

Demolition_Man
2020-10-30, 14:11:13
Bei den Preisen fragt man sich, ob man in naher Zukunft den Preis eines kleinen Neuwagens für ein Graka ausgeben muß. Inzwischen 575€ für die nur drittschnellste Karte. Ich spiele seit 1994 am PC und habe mit der Voodoo 1 als erstem richtigem 3D Beschleuniger angefangen. Aber diesen Wucher bin ich nicht mehr bereit mitzugehen. Hoffentlich führt MS oder Sony bald vollen Maus und Tastatur Support ein, dann steht sofort eine Konsole hier am Computertisch. Und nein, es liegt nich am vorhandenen Budget ...

Tigerfox
2020-10-30, 14:16:04
Also wenn ein eine bisher nur einem wenige Tage alten Gerücht genannte Grafikkarte, die völlig überraschend ein erst kurz vorher gerüchteweise gecanceltes, und vorher auch nur gerüchteweise bekanntes Modell ersetzen sollte, laut einem neuen Gerücht doch nicht erscheint, würde ich einfach mal davon ausgehen, dass das alles Mumpitz war.

Nv braucht irgendwas zwischen 3070 und 3080, dringender als zwischen 3080 und 3090. Die angebliche 3080Ti 20GB macht null Sinn, die killt die 3080 und 3090 gleichermaßen.

Flinx
2020-10-30, 14:34:31
Der Mangel an Verfügbarkeit bei 3080er Karten kann auch durch die höhere Herstellungszeit gegeben sein. Wenn ich doppelt soviele Mannstunden brauche, kann ich auch nur halb soviele Karten herstellen. Zusätzliche Maschinen oder mehr Arbeitskräfte....bei vielleicht sehr geringer Marge...würde ich als Hersteller bei so starker Konkurrenz eher nicht in Erwägung ziehen.

Ex3cut3r
2020-10-30, 14:50:21
Kein DLSS mit Moment (und Qualität ungewiss)

RT-Performance anscheinend unterirdisch

Kein CUDA (jeden der neben Zocken auch nur ein BISSI was anderes macht, bremst/blockiert das immens)

DLSS hab ich trotz einer 2080 seit Sep. 2018 vlt. 2-3 mal nutzen können. RT genau so. Cuda, hat mich nie interessiert, da ausschließlich Zocker am Privat PC. Das sind also die berühmten letzen Strohhalme. :biggrin:

Knuddelbearli
2020-10-30, 14:53:15
Der Mangel an Verfügbarkeit bei 3080er Karten kann auch durch die höhere Herstellungszeit gegeben sein. Wenn ich doppelt soviele Mannstunden brauche, kann ich auch nur halb soviele Karten herstellen. Zusätzliche Maschinen oder mehr Arbeitskräfte....bei vielleicht sehr geringer Marge...würde ich als Hersteller bei so starker Konkurrenz eher nicht in Erwägung ziehen.

Jetzt ist AMD Schuld daran das NV Karten nicht lieferbar sind da sie dafür sorgen das die Marge von NV zu gering ist ... :freak:

MasterElwood
2020-10-30, 14:54:07
DLSS hab ich trotz einer 2080 seit Sep. 2018 vlt. 2-3 mal nutzen können. RT genau so. Cuda, hat mich nie interessiert, da ausschließlich Zocker am Privat PC. Das sind also die berühmten letzen Strohhalme. :biggrin:

Weils DICH nicht interessiert sind es "Strohhalme"? :facepalm:

Komm - hörma auf über das Thema. Bringst so nix.

Gast
2020-10-30, 15:09:45
Der Mangel an Verfügbarkeit bei 3080er Karten kann auch durch die höhere Herstellungszeit gegeben sein. Wenn ich doppelt soviele Mannstunden brauche, kann ich auch nur halb soviele Karten herstellen. Zusätzliche Maschinen oder mehr Arbeitskräfte....bei vielleicht sehr geringer Marge...würde ich als Hersteller bei so starker Konkurrenz eher nicht in Erwägung ziehen.Dafür nimmt man heutzutage Maschinen. Die sind vorhanden und man könnte durchaus ein paar mehr Karten herstellen als Nvidia GPU und RAM liefert - bedeutend ein paar mehr.

Gast
2020-10-30, 15:19:27
Ich versteh nicht warum sich NV so wirr verhaelt. Man kann auch einfach mal chillen und ein relativ gutes Produkt im Preis senken und n halbes Jahr spaeter ein Refresh Linup bringen. Wegen ein paar Prozent und ein paar GB Speicher mehr oder weniger so ein hin und her? Das ist doch nur kontraproduktiv. Entweder man hat ein Produkt entwickelt, bringt es auf den Markt so wie man es vorgesehen hat und steht dazu, oder man kann auch gleich den Laden schliessen. ;) Die Marge bei den Produkten ist doch astronomisch hoch. Macht man halt mal etwas weniger Gewinn. Das NVs "wir sparen an der Speicherkapazitaet soweit, das sie gerade noch so ausreichend ist" irgendwann mal nach hinten los geht, das war schon lange abzusehen. Daraus kann man dann lernen und es spaeter richtig machen. Aber so?

Gast
2020-10-30, 15:20:02
Als Freund des Nvidia Lagers fällt mir auch auf, das ein Ex3cut3r hier massiv gegen nvidia eintritt und seine Meinung an jeder Stelle mehrfach kund tut.

Wir wissen nichts über die Hintergründe zum Lieferengpass bei Nvidia und noch weniger über den Lieferzustand bei AMD. Daher heißt es Ruhe bewahren.

Mega-Zord
2020-10-30, 15:28:24
Preise regelt der Markt, nicht NV oder AMD! Ob Features genutzt werden, entscheiden Spieleentwickler, jeder User für sich, ob diese für ihn sinnvoll sind. Man kann ja gerne seine Meinung dazu haben, aber anderen Leuten die Rationalität abzusprechen ist einfach nur arrogant.

Platos
2020-10-30, 16:28:51
@Platos
Ja, und? :rolleyes:
Ich bezog mich auf die posts vor meinem wo der Preis kritisiert wurde a la "max 1000€, für 1200€ hat die 3080TI zu wenig Mehrleistung" (meine Interpretation).

Wir reden hier von Preisen, zu denen andere Leute Gebrauchtwagen kaufen. Bei dem Preisniveau finde ich es eben völlig absurd haarklein über gute/schlechte Preis/Leistung zu diskutieren. Ob der Hersteller da nun als UVP 1000€ oder 1200€ drantackert ist dem Käufer Wurst, er hat das Geld zur Verfügung.
Hast du schonmal jemanden gesehen der rumschimpft dass das diesjährige Ferrarimodell zu teuer ist?
Im Bekanntenkreis ist häufiger die Frage ob man die 160€ für eine GTX1650 ausgeben, oder ob man doch auf 210€ ansparen sollte für eine 1660 wegen dem mehr VRAM damit die Karte länger nutzbar bleibt.

Ich wollte nur auf das hochgradig Bizarre hinweisen.
/MeinSenf und so :wink:

Eine Grafikkarte ist kein Ferrari.

Diese "Es ist teuer, deswegen darf es beliebig (noch) teuer sein" Begründungen sind absoluter Blödsinn, sorry. Es gibt keine rationale Begründung dafür, denn prozentual ist es sehr wohl viel. Wenn du (in dieser Sache) nicht mit Geld umgehen willst (können tust du es vlt. schon), dann ist das deine Sache. (Edit: Eigentlich ja nicht nur. Denn damit schadest du allen anderen Marktteilnehmer.)

Andere (auch die, die genug Geld haben), wollen aber etwas sehen für ihr Bares. Stichwort Preisleistung.

Aber Gott sei Dank haben wir auf der Welt Leute, die die Preise nach oben treiben, indem sie jeden Preis mitmachen;).

Preise regelt der Markt, nicht NV oder AMD! Ob Features genutzt werden, entscheiden Spieleentwickler, jeder User für sich, ob diese für ihn sinnvoll sind. Man kann ja gerne seine Meinung dazu haben, aber anderen Leuten die Rationalität abzusprechen ist einfach nur arrogant.

Genau, und der Markt besteht bei z.B einer 3090 anscheinend offensichtlich aus Leuten, die jeden Preis mitmachen ;-)

Stimmt natürlich auch nur dann, wenn AMD was zum Kontern hat (was ja spätestens seit Pascal nicht mehr der Fall war).

MasterElwood
2020-10-30, 16:39:27
Preise regelt der Markt, nicht NV oder AMD! Ob Features genutzt werden, entscheiden Spieleentwickler, jeder User für sich, ob diese für ihn sinnvoll sind. Man kann ja gerne seine Meinung dazu haben, aber anderen Leuten die Rationalität abzusprechen ist einfach nur arrogant.

THIS!

Ich hab meine 3080 auch erst NACH der BN Vorstellung bestellt. Die Roten tun so als wäre BV die eierlegende Wollmilchsau. Das ist es nicht. BN hat in einigen Sachen gleichgezogen, in einigen ist es vorne - in anderen hinten. Einiges hat es - dafür hat es Anderes garnicht.

Ob man jetzt rot oder grün kauft - hängt davon ab welche Features man bevorzugt - weder rot noch grün ist in ALLEN Sachen besser oder schlechter. Wer einem das einreden will - lügt

Gast
2020-10-30, 16:48:49
Preise regelt der Markt, nicht NV oder AMD! Ob Features genutzt werden, entscheiden Spieleentwickler, jeder User für sich, ob diese für ihn sinnvoll sind. Man kann ja gerne seine Meinung dazu haben, aber anderen Leuten die Rationalität abzusprechen ist einfach nur arrogant.

Dem muss ich widersprechen. Bei nur zwei Marktteilnehmern regelt der Markt nicht mehr viel. Zudem sind Menschen alles andere als rationale Wesen. Ich bezweifel sogar, dass sie grundsaetzlich Vernunftbegabt sind. Das trifft naemlich nur auf eine Minderheit mehr oder weniger zu. Oder sagen wir so: Das Potential ist da, genutzt wird es jedoch nicht. Sonst wuerde es im Marketing auch um Fakten und nicht vor allem um Emotionen gehen. ;)

Daredevil
2020-10-30, 16:49:03
Vielleicht liegts ja daran, dass er beim Kauf der 2080 auch seelisch belastet wurde Seitens AMD Fans und das nun weitergeben muss. Wenn man in der Schule gemobbt wird, mobbt man halt weiter, wa. :D
Ne echt, solange man nicht den Workload des Users kennt, kann man gar keine Aussage treffen, was passt oder nicht und mal davon ab, muss man auch einfach nicht alles kommentieren, wenn man fucking nicht nach der Meinung gefragt wird.
Dass Nvidia jetzt offensichtlich ins Hintertreffen geraten ist und man nun auch noch darauf aufsteigt und darauf rumreiten, ist halt ein-zwei mal okay, aber drölf mal "Speicherkrüppel" im Forum zu erwähnen ist hart kindisch für diejenigen, die halt Bock auf so ne Karte haben.

Oder wie Ex3 schon 2017 zur TitanXP schrieb:
Quatsch braucht kein Mensch so eine Karte, ist außerdem ein Speicherkrüppel Deluxe mit der Rohleistung @ 2000mhz Nächstes Jahr in März gibt diese Leistung für 350-500€ (hängt von AMD ab) mit der 1170 @ Volta und mit 16GB VRAM. Aber trotzdem viel Spaß damit :up:

Nun.

Aber btt. :<
Was meint ihr?
Eher eine "3080ti" mit 10x2GB, oder dann doch das Interface beschränkt und dann 20x1GB? Ersteres hat doch mehr Vorteile, wenn es weniger Bausteine sind, oder?
Nur gibts halt ja noch keine 2GB Chips, soweit ich weiß. Ist halt die Frage, wie dringend Nvidia es halt hat, oder dann doch noch auf das "richtige" Produkt wartet.
An Nachfrage mangelt es ja gerade nicht. :D

Gast
2020-10-30, 17:26:04
Aber ob sie damit durchkommen? Ich erinner nur an Intels "wir sind immer noch SingelCore Meister" ;). Eine CPU Generation später und ... "ätschibätschi, nu nich mehr" seitens AMD.


Man darf allerdings nicht vergessen, das AMD auf 7nm ist, Nvidia immer noch auf 10nm+++.

Dabei dürfte für AMD maximal ein minimaler Vorsprung <10% herausschauen, mit gleichen Waffen wäre Nvidia also immer noch deutlich vorne.

Und im Gegensatz zu Intel ist Nvidia nicht auf eine eigene Fertigung festgelegt sondern kann sich frei am Markt bedienen wie AMD auch.

Gast
2020-10-30, 17:45:20
Weils DICH nicht interessiert sind es "Strohhalme"? :facepalm:

Komm - hörma auf über das Thema. Bringst so nix.
Na ja, mal bitte die grüne Brille abnehmen und eine Außenperspektive einsetzen. Ich zB mache noch recht viel mit meinem PC neben dem spielen, benötige aber dafür keine CUDA, sondern eher CPU Kerne. Ist eben nicht jeder ein Content Creator etc..

Wieviele der aktuell am meisten gespielten Spiele unterstützen denn bitte sehr DLSS? Sogar DLSS v2 kämpft noch mit Problemen und sieht nicht in jedem unterstützem Spiel super toll aus.

Und zu RT kann ja jeder eine eigene Meinung haben, aber die handvoll Spiele die es aktuell sinnvoll einsetzen sind nun wahrlich nur für wenige ein echter Kaufgrund.

CUDA, DLSS & RT Power mögen ja für manche totale Game Changer sein, aber für andere sind sie dafür recht belanglos bzw. unerhebliche Merkmale.

Mega-Zord
2020-10-30, 18:19:10
Eine Grafikkarte ist kein Ferrari.

Diese "Es ist teuer, deswegen darf es beliebig (noch) teuer sein" Begründungen sind absoluter Blödsinn, sorry. Es gibt keine rationale Begründung dafür, denn prozentual ist es sehr wohl viel. Wenn du (in dieser Sache) nicht mit Geld umgehen willst (können tust du es vlt. schon), dann ist das deine Sache. (Edit: Eigentlich ja nicht nur. Denn damit schadest du allen anderen Marktteilnehmer.)

Andere (auch die, die genug Geld haben), wollen aber etwas sehen für ihr Bares. Stichwort Preisleistung.

Aber Gott sei Dank haben wir auf der Welt Leute, die die Preise nach oben treiben, indem sie jeden Preis mitmachen;).



Genau, und der Markt besteht bei z.B einer 3090 anscheinend offensichtlich aus Leuten, die jeden Preis mitmachen ;-)

Stimmt natürlich auch nur dann, wenn AMD was zum Kontern hat (was ja spätestens seit Pascal nicht mehr der Fall war).

Man man man, du scheinst echt Probleme zu haben. In der VWL-Vorlesung wohl zu Hause geblieben?

mac_skull
2020-10-30, 18:50:47
Ich frage mich wirklich, was Nvidia eine solche 3080Ti bringt...gerade zu dem Preis? Wäre es nicht sinnvoller einfach die 3090 auf 1100-1300 Euro zu senken um gegen die große AMD konkurrenzfähig zu sein? Bei der jetzigen Konfiguration würde die 3090 doch defacto ohnehin obsolet werden, da würde man meiner Meinung nach doch besser fahren, wenn man diese einfach im Preis senkt, oder sehe ich da was falsch?
Eine 3080 Ti macht meiner Meinung nach nur Sinn, wenn sie preislich deutlich näher an der 3080 liegt. Der größte Kritikpunkt an letzterer ist doch ohnehin nur der mangelhafte Speicher. Die Leistung ist +- die gleiche wie AMD (etwa 5% sind zwar messbar aber wohl kaum spürbar) und der etwas höhere Verbrauch dürfte meiner Meinung nach die wenigsten potentiellen Käufer wirklich stören.

Ex3cut3r
2020-10-30, 20:13:32
Vielleicht liegts ja daran, dass er beim Kauf der 2080 auch seelisch belastet wurde Seitens AMD Fans und das nun weitergeben muss. Wenn man in der Schule gemobbt wird, mobbt man halt weiter, wa. :D
Ne echt, solange man nicht den Workload des Users kennt, kann man gar keine Aussage treffen, was passt oder nicht und mal davon ab, muss man auch einfach nicht alles kommentieren, wenn man fucking nicht nach der Meinung gefragt wird.
Dass Nvidia jetzt offensichtlich ins Hintertreffen geraten ist und man nun auch noch darauf aufsteigt und darauf rumreiten, ist halt ein-zwei mal okay, aber drölf mal "Speicherkrüppel" im Forum zu erwähnen ist hart kindisch für diejenigen, die halt Bock auf so ne Karte haben.

Oder wie Ex3 schon 2017 zur TitanXP schrieb:


Ich wurde echt mal gerne wissen, was ihr dir persönlich getan habe? Das jetzt schon das zweite mal diese Woche, dass du so gegen mich persönlich stichelst. Was soll das? Wenn dir, meine Meinung nicht passt, kannst du mich gerne auf Ignore setzen. Aber hör doch auf mich anzugehen. Wieso sollte in einem Tech Forum gemobbt werden? :confused: Und danach dann auch noch meine Meinung anpassen? Gehts noch? Der einzige der hier versucht Mobbing zu betreiben bist du.

MasterElwood
2020-10-30, 21:36:22
CUDA, DLSS & RT Power mögen ja für manche totale Game Changer sein, aber für andere sind sie dafür recht belanglos bzw. unerhebliche Merkmale.

Is ja ok - und wenn die 6800XT im Gegenzug der 3080 um 20 oder 30 Prozent davongezogen wäre - dann hätte man auch entsprechenden Gegenwert.

Hat man aber nicht. Man HAT die Features nicht, man ist nur ungefähr gleichschnell - und das einzige was man als Ausgleich anbietet - sind 6GB mehr Speicher. Das reicht halt ohne rote Brille nicht.

Knuddelbearli
2020-10-31, 11:04:50
Ich frage mich wirklich, was Nvidia eine solche 3080Ti bringt...gerade zu dem Preis? Wäre es nicht sinnvoller einfach die 3090 auf 1100-1300 Euro zu senken um gegen die große AMD konkurrenzfähig zu sein? Bei der jetzigen Konfiguration würde die 3090 doch defacto ohnehin obsolet werden, da würde man meiner Meinung nach doch besser fahren, wenn man diese einfach im Preis senkt, oder sehe ich da was falsch?
Eine 3080 Ti macht meiner Meinung nach nur Sinn, wenn sie preislich deutlich näher an der 3080 liegt. Der größte Kritikpunkt an letzterer ist doch ohnehin nur der mangelhafte Speicher. Die Leistung ist +- die gleiche wie AMD (etwa 5% sind zwar messbar aber wohl kaum spürbar) und der etwas höhere Verbrauch dürfte meiner Meinung nach die wenigsten potentiellen Käufer wirklich stören.

Preisenkung hat immer das Risiko die Fanboys gegen einen Aufzubringen, gerade bei haloprodukte wie die 3090, wo NV fast verlangen kann was sie will da es nunmal das schnellste Produkt ist.

Dan lieber ein neues Produkt, das fällt dann den Fanboys nicht so auf und für Leute die sowieso immer das schnellste wollen ist das sowieso egal solange sie auch nur 1% langsamer ist.

mac_skull
2020-10-31, 15:13:11
Klingt irgendwie bescheuert...und leider ziemlich plausibel^^
Wenn sie die 3080 Ti zu dem Preispunkt ins Rennen schicken, frag ich mich aber warum sie dann die 3080 20Gb gestrichen haben? Die zum Preis der 10Gb variante (+~50 Euro) wäre ein durchaus attraktives Produkt gegen die 6800 von AMD und meiner Meinung nach bräuchte Nvidia dagegen (XT und XL) deutlich dringender was als in der Preisregion um 1000 Euro:confused:

N0Thing
2020-11-01, 02:52:25
RT-Performance anscheinend unterirdisch

Was man bisher gehört hat, liegt AMD ca. auf dem Niveau einer 2080Ti beim Raytracing. Dies würde nach deiner Logik bedeuten, dass jede Turing-GPU unterirdische RT-Performance hätte. Und eine 3080 mit 20% besserer Performance wäre dann immerhin schrottig bis gammlig, oder wie würdest du es einschätzen?

___
https://www.igorslab.de/3dmark-in-ultra-hd-benchmarks-der-rx-6800xt-ohne-und-mit-raytracing-aufgetaucht/

MasterElwood
2020-11-01, 04:12:46
Was man bisher gehört hat, liegt AMD ca. auf dem Niveau einer 2080Ti beim Raytracing. Dies würde nach deiner Logik bedeuten, dass jede Turing-GPU unterirdische RT-Performance hätte. Und eine 3080 mit 20% besserer Performance wäre dann immerhin schrottig bis gammlig, oder wie würdest du es einschätzen?

___
https://www.igorslab.de/3dmark-in-ultra-hd-benchmarks-der-rx-6800xt-ohne-und-mit-raytracing-aufgetaucht/

Exakt. Das is auch was die ganze Welt damals geschrien hat "RT ist sogar auf einer 2080TI noch viel zu langsam". Dafür hat NV DLSS um das auszugleichen. AMD hat das (noch) nicht.

TheGood
2020-11-01, 08:16:01
Exakt. Das is auch was die ganze Welt damals geschrien hat "RT ist sogar auf einer 2080TI noch viel zu langsam". Dafür hat NV DLSS um das auszugleichen. AMD hat das (noch) nicht.

Naja mein Verständnis war dass das RT auf einer 2080TI immerhin gut nutzbar war. Natürlich nicht wenn man 4K und 60 FPS anstrebt.

Das rechnet natürlich nicht ein dass die Welt sich in 2 Jahren auch weiterentwickelt hat und das heutzutage durchaus zu wenig ist.

Tigerfox
2020-11-02, 11:01:20
Eine Grafikkarte ist kein Ferrari.

Diese "Es ist teuer, deswegen darf es beliebig (noch) teuer sein" Begründungen sind absoluter Blödsinn, sorry. Es gibt keine rationale Begründung dafür, denn prozentual ist es sehr wohl viel. Wenn du (in dieser Sache) nicht mit Geld umgehen willst (können tust du es vlt. schon), dann ist das deine Sache. (Edit: Eigentlich ja nicht nur. Denn damit schadest du allen anderen Marktteilnehmer.)

Andere (auch die, die genug Geld haben), wollen aber etwas sehen für ihr Bares. Stichwort Preisleistung.

Aber Gott sei Dank haben wir auf der Welt Leute, die die Preise nach oben treiben, indem sie jeden Preis mitmachen;).

Genau so ist es, in gewissen Preisklassen spielt der MArtk und vernünftiges Preis-Leistungsdenken keine Rolle mehr. Habe ich mal sehr deutlich gemerkt, als ich den neuen BMW 8er damals bei den ersten konkreteren Infos kritisierte, weil er im Prinzip das gleiche Konzept wie der 6er hat (luxuriöser Grandtourer auf 5er-Basis mit identischer Technik, aber durch hochwertigeren Innenraum und Image 10-20.000€ teurer) und dafür nochmal 15-20.000€ mehr abruft, was durch nichts als die Höherpositionierung gerechtfertigt wurde.
Ein Nutzer, der behauptete, einen M4 CS und einen M760i und noch irgendein Luxus-SUV zu haben, klärte mich auf, dass der 8er gerade dadurch für Menschen wie ihn interessanter würde, weil er damit noch seltener und für Normalos unerreichbarer würde und so mehr Prestige habe.
Gleiches kann man daran sehen, dass überteuerte limitiere Sondermodelle von z.B. Porsche, die für eine bischen Optimierung exorbitante Preisaufschläge fordern, meist schon vor Beginn der Produktion ausverkauft sind, weil Sammler und Spekulanten sich diese Prestigeobjekte in die Garage stellen, letztere als Wertanlage.

Genau, und der Markt besteht bei z.B einer 3090 anscheinend offensichtlich aus Leuten, die jeden Preis mitmachen ;-)
Genau, in dieser Klasse gibt es Jahren einfach keinen Markt mit Wettbewerb mehr, daher kann er auch nichts regeln. Man konnte im CPU-Markt lange Jahre sehen, was die Abwesenheit von Konkurrenz bewegt und was AMDs erneuerte Konkurrenzfähigkeit nun bewegt.
Dennoch ist es in meinen Augen nur eine Ideologie, dass "der Markt alles regelt". Wenn niemand den Markt regelt, führt das sehr schnell zu extremen Auswüchsen, die zu Lasten der Konsumenten und Angestellten gehen.

Preise regelt der Markt, nicht NV oder AMD! Ob Features genutzt werden, entscheiden Spieleentwickler, jeder User für sich, ob diese für ihn sinnvoll sind. Man kann ja gerne seine Meinung dazu haben, aber anderen Leuten die Rationalität abzusprechen ist einfach nur arrogant.
S.o.. Selbst da, wo AMD wieder konkurrenzfähig ist, kann man nur begrenzt von einem Markt sprechen. In den späten 2000ern hat der Markt vielleicht die Preise geregelt, aktuell regelt NV die bzw die "Enthusiasten", die bereit sind, mit diesen Preisen mitzuziehen.
Normale, vernünftige Menschen würden eine realistische Grenze setzen, die den Wert einer Graka im Verhältnis zu Anderem sieht, z.B. zu einem Kleinwagen oder einem TV. Eine Graka egal welcher Preisklasse ist eine mieserable Investition, weil sie nach wenigen Jahren kaum noch zu gebrauchen ist, wenn man aktuelle Spiele spielen will, und man auch mit dem Topmodell nur relativ kurzfristig ohne Einschränkungen die höchste Qualität fahren kann. Der Vorteil, den man qualitätsmäßig bei einem aktuellen Topmodell gegenüber deutlich günstigeren Modellen hat, ist schon so gering, dass der Aufpreis in keinem Verhältnis steht. Wenn man dann noch in Betracht zieht, wie groß dieser Vorteil im nächsten oder übernächsten Jahr noch ist, erst recht nicht. Kauft man dagegen wenige Klassen darunter, muss man kaum Einbußen hinnehmen, zahlt aber fast 50% weniger.
Die Lösung für solche Enthusiasten scheint aber darin zu liegen, einfach bei jeder Generation das Topmodell zu kaufen. Insgesamt fördert dieses Verhalten den Preisanstiegt.
Gerade bei Pascal und Turing kam aber gefühlt noch hinzu, dass NV die Situation der mangelnden Konkurrenz wirklich eiskalt ausgenutzt hat und auch für Karten, die für anständige Leistung in 1080p und 1440p in aktuellen Games wirklich nötig waren, deutlich mehr Geld verlangt hat. Preislich wäre für viele eine 1660Ti oder 2060 der Rahmen, der seit Ewigkeiten für eine neue Graka alle 2-3 Jahre als angemessen empfunden wird. Diese ermöglichten aber v.a. in 1440p tatsächlich nichtmal zum Release ein uneingeschränktes Vergnügen, anders als frühere Modelle in dem Preisbereich.
Vernünftig wäre nun gewesen, die Zähne zusammenzubeißen und trotzdem seinen gewohnten Preisrahmen einzuhalten, oder die Generation auszulassen. Zu viele dürften aber eingeknickt sein und mindestens in der gewohnten Leistungsklasse für einige hundert € mehr als zuvor gekauft haben.

Ich frage mich wirklich, was Nvidia eine solche 3080Ti bringt...gerade zu dem Preis? Wäre es nicht sinnvoller einfach die 3090 auf 1100-1300 Euro zu senken um gegen die große AMD konkurrenzfähig zu sein? Bei der jetzigen Konfiguration würde die 3090 doch defacto ohnehin obsolet werden, da würde man meiner Meinung nach doch besser fahren, wenn man diese einfach im Preis senkt, oder sehe ich da was falsch?
Eine 3080 Ti macht meiner Meinung nach nur Sinn, wenn sie preislich deutlich näher an der 3080 liegt. Der größte Kritikpunkt an letzterer ist doch ohnehin nur der mangelhafte Speicher. Die Leistung ist +- die gleiche wie AMD (etwa 5% sind zwar messbar aber wohl kaum spürbar) und der etwas höhere Verbrauch dürfte meiner Meinung nach die wenigsten potentiellen Käufer wirklich stören.

Preisenkung hat immer das Risiko die Fanboys gegen einen Aufzubringen, gerade bei haloprodukte wie die 3090, wo NV fast verlangen kann was sie will da es nunmal das schnellste Produkt ist.

Dan lieber ein neues Produkt, das fällt dann den Fanboys nicht so auf und für Leute die sowieso immer das schnellste wollen ist das sowieso egal solange sie auch nur 1% langsamer ist.

Klingt irgendwie bescheuert...und leider ziemlich plausibel^^
Wenn sie die 3080 Ti zu dem Preispunkt ins Rennen schicken, frag ich mich aber warum sie dann die 3080 20Gb gestrichen haben? Die zum Preis der 10Gb variante (+~50 Euro) wäre ein durchaus attraktives Produkt gegen die 6800 von AMD und meiner Meinung nach bräuchte Nvidia dagegen (XT und XL) deutlich dringender was als in der Preisregion um 1000 Euro:confused:

Ich verstehe es einerseits auch nicht, hätte aber auch keine der möglichen Lösungen für sinnvoll gehalten.
Eine 3080 20GB wäre nicht sinnvoll, weil sie wegen des Speichers deutlich teurer sein müsste, ohne in Benchmarks mehr als 1-2% Mehrleistung zu zeigen, weil abseits von 8K 99% der Spiele in 4K mit dem Speicher auskommen, oder eben selbstständig die Texturauflösung runterdrehen, so dass man bei mehr Speicher auch nichts davon bemerkt, dass dies nicht stattfindet. Dafür hätte ein solches Modell aber die 3090 bedrängt, da der Leistungsunterschied gering ist und viele sie nur wegen des Speichers kaufen.
Die 3090 deutlich günstiger zu machen hätte die Erstkäufer sicherlich erzürnt, ja.
Aber jede Aufwertung der 3080 zu einer 3080Ti, egal wie gering, drängt mindestens die 3090, je nach Spezifikationen auch die 3080 in die Bedeutungslosigkeit.
Eine 3090 ist nur 11% schneller als die 3080 in UHD, mit gleichem PT sogar nur 6%, hat aber ~20% mehr Ausführungseinheiten und ~23% mehr Speicherbandbreite, aber eben nur ~9% mehr PT. Jetzt kann man argumentieren, dass sich eine 3080Ti mit 15% mehr Ausführungseinheiten und doppeltem Speicher, aber gleicher Spandbreite und gleichem PT(?) da bestenfalls in die Mitte setzt, aber damit liegen zwischen den drei Karten nur Abstände im mittleren einstelligen Prozentbereich. Das ist viel zu wenig.
Die 3080 würde das überleben, wenn sie strikt 10GB bleibt und die Ti strikt 20GB, weil dann immernoch ein ordentlicher Preisunterschied da wäre. Die 3090 wäre aber obsolet, sie würde nurnoch von denen gekauft, die wirklich immer das Beste haben müssen oder zumindest den größtmöglichen Speicher. Selbst ein Preisaufschlag von wenigen hundert € wäre nicht mehr zu rechtfertigen.

Überdies bliebe so eine Karte, nach allem, was wir über den GA103 wissen, als zweite zwingend GA102-basierte Karte und damit in der Produktion fast genauso teuer wie die 3090, während die 3080 und die wohl verschobene 3070Ti auf den günstigeren GA103 zurückgreifen können.

Leonidas
2020-11-02, 12:40:01
Wäre es nicht sinnvoller einfach die 3090 auf 1100-1300 Euro zu senken um gegen die große AMD konkurrenzfähig zu sein?


Preissenkungen sind schwer realisierbar. Sie stehen gegen das Selbstverständnis von NV und stehen gegenüber den Aktionären als schlechtes Zeichen. Das Argument von Knuddelbearli mit den Fanboys kommt noch hinzu.

ChaosTM
2020-11-02, 12:43:27
Die 90er gehen doch weg wie nix.. gerade wieder erlebt in einem anderen Forum. Da gabs 4 EVGA :)

https://www.computeruniverse.net/de/search?query=rtx%203090

Msi Gaming zb..

bushMills
2020-11-05, 13:18:04
Nunja, das die NV-spione nur das Interface und GDDR6 gemeldet haben, der Cache wurde halt übersehen. :-) (war vlt nur eine Sekretärin) Das Ganze bringt NV nun wirklich ins Schwitzen. Bestimmt hatten sie Lachanfälle bekommen und an ihren uneinholbaren Vorteil gedacht und nun stehen sie mit runtergelassen Höschen da und haben wieder versucht der Meute 8gb Karten schmackhaft zu machen. Natürlich gibts da auch wieder Experten die das gut finden, genauso wie das absurde Preismodell bis zur 3090.

Naja was solls, das Problem was NV hat ist dieser GDDR6x Speicher. Ich denke deshalb lahmt die ganze Produktion und wird auch nicht besser werden. Deshalb hat man auch die Zwischenlösungen mit 20gb gestrichen. Alle BWLer der Firma und natürlich auch externe Berater :smile: grübeln jetzt, was man mit dem zusammengesparten Ram nun anfangen kann. :smile:

So richtig macht nur die 3070TI Sinn, aber das wiederum schmeckt NV nicht, weil man die 3080 und 3090 gleich einstampfen kann und die bösen Aktionäre vlt. einen Kopf fordern. Preise senken wäre die Lösung und gut für die Verbraucher, aber das fällt NV ja mal so richtig schwer, dafür gibts in der Firma garantiert keine Powerpoint-Folie. :smile: