PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 3080 Ti zurückgestuft auf 12 GB Speicher


Leonidas
2021-02-07, 08:36:55
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-3080-ti-zurueckgestuft-auf-12-gb-speicher

Gast Ritis
2021-02-07, 08:55:34
Damit würde man aus Ti einen Marketingwitz machen. Aber mit Super war denen schon klar dass der Durchschnittskunde sich veräppeln lassen will.
Bei den Preisen zur Zeit darf man sich nicht wundern wenn das so weiter geht.

00-Schneider
2021-02-07, 09:42:28
Dumm gefragt: Ab wann braucht man mehr als 12GB?

Leonidas
2021-02-07, 09:44:12
Darüber läuft eine breite Diskussion, die Ansichten sind sehr verschieden. Sagen wir es so: Eine gewisse Fraktion hat dafür Bedarf, andere Enthusiasten-Nutzer leben dagegen gut mit 10-12 GB.

Semmel
2021-02-07, 09:48:34
Etwaige Refreshs, basierend auf Erkenntnissen über etwaige Portfolio-Schwächen, wären dann nicht vor Jahresende 2021 denkbar, könnten zu diesem späten Zeitpunkt jedoch zugunsten nachfolgender Grafikkarten-Generationen vielleicht gleich ganz aufgegeben werden.

Das kommt alles drauf an, was die Hersteller vor haben.
Eine Refresh-Generation wäre die Möglichkeit die UVPs "gesichtswahrend" zu erhöhen, wenn sie das denn wollen.
Das könnte nötig sein, falls die Nachfrage wegen lukrativem Mining auch nach Produktionserhöhung immer noch das Angebot übersteigt.

Gast
2021-02-07, 10:27:59
Rohrkrepierer, da die VRAM Menge nicht zur höhen Chippower passt. Wenn 10GB zu wenig sind, reißen 12GB auch nichts mehr.

Gast
2021-02-07, 10:33:32
Dann bleiben die 3090 mit 24GB und die 3060Ti mit 12GB die einzigen aktuellen Nvidia Karten, bei denen man sich nicht an den Kopf fassen muss.

Grundkurs
2021-02-07, 11:11:31
Das kommt alles drauf an, was die Hersteller vor haben.
Eine Refresh-Generation wäre die Möglichkeit die UVPs "gesichtswahrend" zu erhöhen, wenn sie das denn wollen.
Das könnte nötig sein, falls die Nachfrage wegen lukrativem Mining auch nach Produktionserhöhung immer noch das Angebot übersteigt.

Mittlerweile wird sogar massenhaft mit RTX 3000 Notebooks gemint.
https://www.computerbase.de/2021-02/ethereum-mining-nvidia-geforce-rtx-3000-notebook/

Die Mining-Kundschaft scheint den Herstellern erkennbar lieber zu sein als die ewig nörgelnden und Gewährleistungsrecht-verwöhnten Endkunden.
Für 2021 sehe ich für den Gaming-Bereich schwarz bei den Preisen.

MD_Enigma
2021-02-07, 11:21:11
Dumme Frage vielleicht, aber eignen sich die AMD GPUs nicht so gut zum Minen?

BlacKi
2021-02-07, 11:28:45
Damit würde man aus Ti einen Marketingwitz machen. Aber mit Super war denen schon klar dass der Durchschnittskunde sich veräppeln lassen will.
Bei den Preisen zur Zeit darf man sich nicht wundern wenn das so weiter geht.meinst du die karte oder die leaks?



das die leaks nicht stimmen ist tatsächlich schon ziemlich bedenklich, denn die 20gb versionen geistern schon sehr lange herum, im prinzip schon seit anfang. das grounded bezüglich leaks, egal wieviele seiten dazu leaken als speku.


veräppeln lassen sich doch nur leute, die an etwas geglaubt haben das es nie gab. haben sich die leute veräppeln lassen, die gesagt haben ich warte auf die 3080 20gb? und von wem? von nv? von amd? die karten sind so oder so rar, letztendlich tut es nichts zur sache ob die karte 12 oder 20gb hat, die wird so oder so zu teuer.

Dumme Frage vielleicht, aber eignen sich die AMD GPUs nicht so gut zum Minen?es mangelt an allen karten, die nehmen sogar laptops zum minen, die erheblich schlechteres pl verhältniss haben.

Leonidas
2021-02-07, 12:00:39
Dumme Frage vielleicht, aber eignen sich die AMD GPUs nicht so gut zum Minen?


Das kleinere Speicherinterface soll da schlechter sein. Wenn AMD ordentlich liefern könnte, würde man NV jetzt ordentlich Steam-Anteile abnehmen.

konkretor
2021-02-07, 12:10:16
Es ist völlig wumpe ob die Karte 12 oder 20 GB RAM haben wird.

Die werden fast alle im Mining rig landen.

Sollte sie verfügbar sein ist auch wumpe, die Leute werden es trotzdem kaufen, mangels Alternativen.


Wir sind aktuell in einem Käufer Markt da ist egal was anbietest.

iamthebear
2021-02-07, 12:27:32
Also derzeit landet alles bei den Minern egal ob AMD oder Intel, selbst Notebooks werden schon eingesetzt. Falls die Ethereum Kurse da bleiben wonsie sind könnten AMD GPUs eventuell in einem halben Jahr lieferbar sein und Nvidia erst in 1 Jahr.

Lehdro
2021-02-07, 12:31:48
Damit bleiben also 3090 24 GiB und 3060 12 GiB die einzigen sinnvollen Karten in NVs Lineup. Das ist eher nicht so toll....

The_Invisible
2021-02-07, 12:58:59
Also derzeit landet alles bei den Minern egal ob AMD oder Intel, selbst Notebooks werden schon eingesetzt. Falls die Ethereum Kurse da bleiben wonsie sind könnten AMD GPUs eventuell in einem halben Jahr lieferbar sein und Nvidia erst in 1 Jahr.

Alles schei*e derzeit, hab die Grafikkartensektion bei Geizhals noch nie so leer gesehen, könnte wahrscheinlich sogar meine olle 2070er teurer verkaufen als ich sie vor 2 Jahren gekauft habe. Dazu noch die ganzen Fake-Angebote bei ebay und Co, 500 EUR für eine 3070, ja genau haha

Leonidas
2021-02-07, 13:59:58
eBay-Beispiel?

Skizzo
2021-02-07, 15:55:00
Schon traurig. Ich war drauf aus, mir eine 30er zu besorgen... Raytracing 2. Generation und für Videobearbeitung und Co mit genügend Speicher ausgestattet (hätte hier schon gerne 16GB gesehen) und natürlich endlich mal wieder die Spielesettings hochdrehen.
Dann kam die Verfügbarkeitsschiene, damit einhergehend diese Mondpreise - da braucht man eigentlich gar nicht mehr von irgendwelchen UVPs reden. Werde ich wohl noch einige Zeit mit meiner 970 rumgurken... schade schade.

Prinzenrolle
2021-02-07, 16:01:26
Rohrkrepierer, da die VRAM Menge nicht zur höhen Chippower passt. Wenn 10GB zu wenig sind, reißen 12GB auch nichts mehr.

Wenn der Speicherbedarf bei 11 GB liegt, reichen 12, 10 aber nicht.
Kleine Rechnung.

Daredevil
2021-02-07, 16:10:10
12GB ist der Sweetspot, das passt.
FullHD > 8GB
WQHD > 12GB
UHD+ > 24GB

Mit den Werten bekommt man den Großteil der Spiele ( Spiel Profile ) abgefertigt ( Ausnahmen bestätigen die Regel ). 10GB waren für WQHD knapp, für 4K aber eh zu wenig, für FullHD viel zu viel.
Nvidia geht hier auch mit ( ökologisch ) gutem Beispiel vorran, ähnlich wie Apple. Sie verbauen soviel Speicher wie man benötigt und nicht "zuviel", was dann in Ressourcen Verschwendung endet. Natürlich pushen sie damit auch die Gewinnmarge, das ist ja auch klar.
Bei einer 6800 wird man z.B. selten bis nie die 16GB Speicher füllen und gleichzeitig spielbare Frameraten herbei zaubern, zahlt aber trotzdem für den Speicher, aber ich lasse mich gerne eines besseren belehren. ^^

ChaosTM
2021-02-07, 16:45:10
Es geht auch nicht nur darum was jetzt reicht, sondern ich plane die neue Karte wieder mindestens 3 Jahre zu verwenden.
Als 4k User fühlen sich 12GB nach 3,5 Jahren mit 11GB einfach nicht richtig an. 10GB waren sowieso absolut indiskutabel.

Bleibt dann eigentlich nur mehr AMD übrig, weil 2k für die dicke Karte von NV abzudrücken bin ich einfach nicht bereit.
Aber momentan ist das sowieso alles nur Schall und Rauch dank dem Mining Wahnsinn und der allgemeinen Verfügbarkeit.

Daredevil
2021-02-07, 17:55:15
Wenn 12GB "zu wenig" sind, sind es 16GB aber nun einmal auch bei einer "4K+ Karte".
Und da wiederum bleibt dann nur eine 3090, wenn man keine Kompromisse eingehen will.
Jeder kann sich das drehen und wenden wie er möchte, wer Angst vor Speicherknappheit hat, muss halt mehr Geld in die Hand nehmen und/oder Abstriche machen.

PS: Ist natürlich läsch, knapp "3090" Leistung zu bringen mit 12GB, wenn man damit halt auch 4K betreiben könnte. Aber wenn die Karte ~999$ kostet, passt das schon. Der Rest ist halt Premium Aufschlag mit der 3090 für Loite mit zuviel Geld/zu hohen Ansprüchen.
Andersrum hat nicht jeder nen 4K Monitor und 20GB wären einfach "umsonst" auf der Karte, auch blöd.


Als 4k User fühlen sich 12GB nach 3,5 Jahren mit 11GB einfach nicht richtig an. 10GB waren sowieso absolut indiskutabel.

Du kannst ja dann am besten einschätzen, ob 11GB schon bei 4K schon zu wenig sind.
Wie war da denn so der Schnitt? Haben 11 GB gereicht, oder nicht?

Ich hatte mit ner 2080ti z.B. nur Probleme, wenn ich mehr als 4K bespaßen wollte, z.B. in Frostpunk@6K. Sonst hat es gereicht oder wahrscheinlicher, ich habe es einfach nicht bemerkt. ( Wenn sich da Texturen runter geregelt haben? )

ChaosTM
2021-02-07, 18:07:42
Da sind wir eben verschiedener Meinung. 16GB sollten reichen, wenn man nicht unbedingt RT Ultra will/braucht, was die 6800+ Serie voraussichtlich sowieso nicht stemmen kann.
Die minimalen optischen Unterschiede sind mir persönlich den Aufpreis einfach nicht wert.

Daredevil
2021-02-07, 18:12:25
Einerseits sagst du, dass du genug Ram für die nächsten Jahre willst und dir 12GB zu wenig sind, passt so.
Andererseits sagst du aber auch, dass 16GB total ausreichend sein sollten, außer wenn man RT nutzt, passt auch.
Worauf basieren denn diese Werte, das sich der Bedarf in Zukunft zwischen 12-16GB bewegt?
Warum sind es nicht weniger, warum sind es nicht mehr? Das ist ja schon ne Punktlandung. ^^

ChaosTM
2021-02-07, 18:27:18
Du gehst davon aus, dass 4k doppelt soviel Speicher braucht wie WQHD. Dem ist definitiv nicht so. 8/12/16 macht mehr Sinn.
Und da ist dann noch der Preisunterschied (auf dem Papier) von über 100% zwischen der 6800XT und der 3900er. Ist für manche wie auch mich dann doch relevant.
Du wirst mich nicht überzeugen.

Daredevil
2021-02-07, 18:58:49
Ich will dich auch gar nicht überzeugen. ( Warum sollte ich das tun? ^^ )
Wo habe ich denn geschrieben, dass ich davon ausgehe, dass 4K doppelt so viel Speicher als WQHD braucht?
Und wieso ist jetzt 8/12/16 das Optimum und sind 24GB dann "zu viel", also wieso sollte kein Spiel mehr als 16GB nutzen?
Ich dachte du hast Angst vor der Zukunft.

Der Preis der 24GB Karte ist schwachsinnig hoch, da sind wir sicher einer Meinung.
Dir gings ja um die "Zukunftssicherheit" und ich habe lediglich deinen Ansatz nicht verstanden, ich verstehe den ehrlich gesagt immer noch nicht, außer das du halt fiktive Grenzen setzt.

Gast Ritis
2021-02-07, 19:20:00
Eigentlich ist es ganz einfach, eine GPU die auf dem Niveau oder höher als die aktuellen Konsolen liegt braucht Minimum genauso viel VRAM. Schon allein weil das die neue Zielgrösse für die Entwickler ist, dort wird zwar auch der Game Code und das OS noch untergebracht, aber auch mehr optimiert und auf PC braucht es Überprovisionierung. Den Vorteil der Texturkomprimierung können die PC-GPUs in dieser Gen nicht mehr retten, da ist jetzt Gleichstand. GPUs für 4K müssen einfach mit 16GB kommen wenn die länger als 2 Jahre Freude machen sollen. Bei einer 1440p Karte sind 12 GB wohl OK, wegen der XsS.

Früher gabs mehr RAM wegen der Bandbreite, das machen heute Cache wett.
Die VRAM Grösse sind künftig relativ harte Grenzen für die Assets, die nur dur schneller Nachladen via PCIe4/5 gerettet werden wenn zu klein....

Gast
2021-02-07, 19:23:08
Da sind wir eben verschiedener Meinung. 16GB sollten reichen, wenn man nicht unbedingt RT Ultra will/braucht, was die 6800+ Serie voraussichtlich sowieso nicht stemmen kann.
Die minimalen optischen Unterschiede sind mir persönlich den Aufpreis einfach nicht wert.
Welchen Einfluß auf den Speicherverbrauch hat denn die Anzahl die Strahlen? Ansonsten reduziert sich die ganze Argumentation auf "Mein Hersteller hat exakt die richtige Menge verbaut"

konkretor
2021-02-07, 19:53:22
https://www.computerbase.de/2021-02/nvidia-geforce-rtx-3000-verfuegbarkeit-alternate/

Wird noch schlimmer werden, wenn selbst Wave sich genötigt fühlt etwas zur Verfügbarkeit zu sagen

Nazar
2021-02-07, 20:22:17
Wenn 12GB "zu wenig" sind, sind es 16GB aber nun einmal auch bei einer "4K+ Karte".
Und da wiederum bleibt dann nur eine 3090, wenn man keine Kompromisse eingehen will.
Jeder kann sich das drehen und wenden wie er möchte, wer Angst vor Speicherknappheit hat, muss halt mehr Geld in die Hand nehmen und/oder Abstriche machen.

PS: Ist natürlich läsch, knapp "3090" Leistung zu bringen mit 12GB, wenn man damit halt auch 4K betreiben könnte. Aber wenn die Karte ~999$ kostet, passt das schon. Der Rest ist halt Premium Aufschlag mit der 3090 für Loite mit zuviel Geld/zu hohen Ansprüchen.
Andersrum hat nicht jeder nen 4K Monitor und 20GB wären einfach "umsonst" auf der Karte, auch blöd.


Du kannst ja dann am besten einschätzen, ob 11GB schon bei 4K schon zu wenig sind.
Wie war da denn so der Schnitt? Haben 11 GB gereicht, oder nicht?

Ich hatte mit ner 2080ti z.B. nur Probleme, wenn ich mehr als 4K bespaßen wollte, z.B. in Frostpunk@6K. Sonst hat es gereicht oder wahrscheinlicher, ich habe es einfach nicht bemerkt. ( Wenn sich da Texturen runter geregelt haben? )

What? :freak:
Wenn 12GB VRAM zu wenig sind, dann sind 16GB VRAM auch zu wenig? :eek: ;D
Ja ne, is klar.... :freak:
Es geht doch darum (man sollte schon auf die Argumente der anderen Personen eingehen), dass wenn vorher schon 11GB zu wenig waren (unterstützt ja deine These bis hierhin), dass die Einführung einer --->neuen<--- !!highend!! G-Karte mit weniger als 11 GB VRAM überhaupt keinen Sinn ergibt und die Aufstockung auf 12GB VRAM einer Verarschung gleich kommt, da der Unterschied nur au dem Papier zum Tragen kommt. Und das alles auch noch bezogen auf den zu erwartenden Nutzungszeitraum (Zukunftssicherheit) von mehr als 2 Jahren.
Nochmal! Was möchtest du mit deiner Nebelkerze, dass dann 16GB auch nicht reichen, eigentlich bezwecken, außer vom Thema abzulenken?
Eventuell sollten einige nV "Fans" mal nachschlagen, was der Begriff Highend für eine Bedeutung hat!? :freak:
Wie wäre es mal mit Argumenten, statt mit dieser Kakofonie von Blödsinn?
Aber für "Fans" liegt diese Latte wohl immer zu hoch.... :rolleyes:

DCS 11GB sind zu wenig, wenn man Highend haben möchte und das schon vor Jahren. Aber gut, es soll Leute geben, die angebliches Highend kaufen, damit sie dann in 4K mit den Qualitätsreglern alles nach unten drehen dürfen.
Aber man gut, dass eine 3060 mit 12GB VRAM kommt.... OMFG... sofort die 3080 mit 10GB VRAM verkaufen.. einfach den BQ Regler nach unten drehen und schon macht die 3080 überhaupt keinen Sinn mehr... besser doch gleich bei der 1080 TI oder 2080 Ti bleiben.. :eek:
Argumente Baby... Argumente... ;D

Daredevil
2021-02-07, 21:19:25
Versuchs nochmal in nem anständigen Ton, dann antworte ich dir vielleicht.

WedgeAntilles
2021-02-07, 21:22:59
Dir gings ja um die "Zukunftssicherheit" und ich habe lediglich deinen Ansatz nicht verstanden, ich verstehe den ehrlich gesagt immer noch nicht, außer das du halt fiktive Grenzen setzt.
Dabei ist es doch sooo einfach.
Jede Rammenge, die AMD setzt ist EXAKT richtig.
Mehr Ram ist völlig unnötig und schlicht zu viel.
Weniger Ram ist viel zu wenig und reicht nirgens hin.
Du siehst, es ist ganz leicht :)

Gast
2021-02-07, 22:11:44
Dann bleiben die 3090 mit 24GB und die 3060Ti mit 12GB die einzigen aktuellen Nvidia Karten, bei denen man sich nicht an den Kopf fassen muss.
Immerhin 2 mehr als es bei mir bei AMD sind. Daher bist noch ganz gut dran.

Knuddelbearli
2021-02-07, 22:28:13
Wieso Änderung? Würde eher vermuten alle bisherigen Gerüchte waren falsch (Und damit die bisherigen "Quellen" in Zukunft im entsprechendem Auge zu betrachten), glaub nicht das NV jetzt zum angeblich 4ten male alles umwirft ...

ChaosTM
2021-02-07, 23:04:49
Dabei ist es doch sooo einfach.
Jede Rammenge, die AMD setzt ist EXAKT richtig.
Mehr Ram ist völlig unnötig und schlicht zu viel.
Weniger Ram ist viel zu wenig und reicht nirgens hin.
Du siehst, es ist ganz leicht :)


So kann man es natürlich auch interpretieren. Es ist in dem Fall aber eine einfache Kosten/Nutzen Rechnung.
Bei 650 vs 1500 Euronen (Listenpreis) nehme ich die mit 16GB und nicht die mehr als doppelt so teuren 24GB.
16GB scheinen mir angesichts der aktuellen Konsolengeneration und deren Speicherbestückung ausreichend zu sein für die nächsten paar Jahre, selbst in 4k. Hierbei kann ich mich natürlich täuschen.

Hätte NV eine Karte mit 20GB, dürfte diese gerne auch eine Tausender kosten und ich würde sie der Karte von AMD vorziehen.
Mehr Speicher ist immer gut, aber eben nicht um jeden Preis.

Ich habe einen gewissen Bias Richtung AMD das geb ich zu, aber der kommt nur dann zum Tragen, wenn sich die 2 Produkte sehr ähneln bezüglich Preis/Leistung. Das ist in diesem speziellen Fall aber absolut nicht gegeben.

Rampage 2
2021-02-07, 23:21:27
Dumm gefragt: Ab wann braucht man mehr als 12GB?

Für 4K wird/könnte man wohl bis zu 16GB brauchen. Für noch höhere Auflösungen (5K, 6K, 8K) evtl. noch mehr als 16GB -> 24GB.

Für 1440p und darunter sollten 12GB in 99% der Fälle ausreichen - die Frage ist nur, inwiefern das Zuschalten von Raytracing (in 1440p) sogar eine 12GB-Karte überfüllt und 16GB Grafikspeicher erforderlich werden?

16GB ist definitiv der Sweetspot (4K und 1440p) und 12GB das akzeptable Minimum für 1440p.

R2

Sardaukar.nsn
2021-02-07, 23:54:25
Sweetpot ist eine 3080 mit 10GB. Die Nachfrage ist derart hoch das UVP 699€ Modelle für das Doppelte am Markt (Ebay und Co.) den Besitzer wechseln.
Ich glaube wenn über Nacht 1 Million 3080 10GB auf den Markt kämen, die gingen alle weg. Wahrscheinlich direkt in China oder Iran. Was der deutsche luxus Käufer lieber hätte spielt doch keine ernste Rolle in dem Geschäft.

Mel85
2021-02-08, 00:41:39
Wer zum Beispiel von einer GTX 1080Ti auf eine RTX3080 wechselt, was von der Performance und dem "strahlenden" Featureset her ja sinnvoll sein kann, ist beim RAM gleich mal schlechter gestellt und hat ein Gigabyte weniger. :freak:
Das ist zwar kein Beinbruch aber ein gutes Beispiel wie man bei NVIDIA im Gegensatz zu früher beim RAM von Enthusiasten Karten geizt. Ich verstehe nicht ganz warum die 3080er nicht gleich mit 12 GByte daher kam.:confused:
Eben weil die Karte für Auflösungen vermarktet wird bei denen 10 GByte knapp werden können.

Ex3cut3r
2021-02-08, 01:45:22
10GB sind in 4K und mit RT Spiegelungen schon wirklich knapp, es reicht für CP77 grade so aus. Aber man stelle sich jetzt mal vor, die Texturen wären nochmal eine ecke besser, dann wurde es schon problematisch werden. Intressant wirds in IMO erst in 2 Jahren, wenn die alten Konsolen aka PS4 und die Xbox wegfallen, und die PS5 und neue Xbox den Takt angebeben. Glaube nicht das 10GB dann im gleichen Szenario sorgenfrei reichen. Nur ist ne 3080 in 2 Jahren auch nichts mehr dolles. Und die ganzen Ampere User haben doch wieder als erstes ne 4080 im PC stecken. Wahrscheinlich zum Preis für 1500€ als Standard. :freak:

Irgendwie hat das Marketing einen Meilenstein erreicht. Der typische PCler wechselt alle 2 Jahre die GPU aus, jetzt mit RT gibt es dafür auch einen kräftigen Grund, aber selbst ohne RT war dies schon vorher zu beobachten. KA, warum. Die meisten PS3 Ports ab 2010 waren ja alles andere als anspruchsvoll, und trotzdem wurde von Fermi auf Kepler und von Kepler auf Maxwell gewechselt, schon damals wurde sich darum geschlagen, und wer hier als erstes ein Bild von der Verpackung gepostet hat, wie z.B. Turri, Blaire, Godmode, Tobi, und Co. waren dann die Helden.....eigentlich ziemlich krank. ;D :freak:

BlacKi
2021-02-08, 05:30:53
https://www.computerbase.de/2021-02/nvidia-geforce-rtx-3000-verfuegbarkeit-alternate/

Wird noch schlimmer werden, wenn selbst Wave sich genötigt fühlt etwas zur Verfügbarkeit zu sagenwtf, was soll man dazu sagen...

Semmel
2021-02-08, 06:20:48
https://www.computerbase.de/2021-02/nvidia-geforce-rtx-3000-verfuegbarkeit-alternate/

Wird noch schlimmer werden, wenn selbst Wave sich genötigt fühlt etwas zur Verfügbarkeit zu sagen

Es kommt also ein noch schlechteres Angebot und das trifft auf eine noch höhere Nachfrage durch die weiter steigenden Kryptowährungspreise.

D.h. wir können uns auf noch höhere Preisniveaus gefasst machen.

Mit einer Normalisierung der Preise rechne ich nicht mehr vor 2022, wobei ich wie schon früher gesagt nicht mehr davon ausgehe, dass wir das alte Preisniveau jemals wieder ganz erreichen.

Legendenkiller
2021-02-08, 08:15:00
12 Gbyte ist ok.

Ich befürchte allerdings das die sich dauerhaft bei den preisen der 2080ti einpendelt,m also 1200€ ... wenns gut läuf.

Da sie sehr nah an eine 3090 rann kommt ist zu befürchtenm das sie eher 1500€Straßenpreis bekommen wird. Damit dann definitv auserhalb meiner Preislage.

Die 3070Ti bekommt dann wohl blos 10 Gbyte... und vermutlich auch eher knapp unter 1000€... ist dann auch nicht interessant.

Die 3060 mit 12 gbyte ist für mich aber interesannter... befürchte aber das sie auch nicht unter 500€ fällt ... was dann auch zu teuer ist ...

JVC
2021-02-08, 09:03:23
"GeForce RTX 3080 Ti zurückgestuft auf 12 GB Speicher"

Schade, 20Gb für 999.- wären ne Überlegung wert gewesen.
Aber nur 12Gb für 4K+ und trotzdem 999.-, ist mir eindeutig zu wenig RAM für den Preis.
Dadurch ist es eine WQHD Karte und für mich mit 4K+ uninteressant.
Dagegen erscheint ja die 6900 XT mit vernünftigen 16Gb für 999.- fast als "Schnäppchen"...

FHD 8Gb, WQHD 12Gb, 4K 16Gb... Der Meinung kann ich mich nur anschließen.

Ich denke, NV hebt sich "die vernünftige Speichermenge" für den 10nm SUPER Refresh auf...

M.f.G. JVC

Leonidas
2021-02-08, 09:18:03
Wieso Änderung? Würde eher vermuten alle bisherigen Gerüchte waren falsch (Und damit die bisherigen "Quellen" in Zukunft im entsprechendem Auge zu betrachten), glaub nicht das NV jetzt zum angeblich 4ten male alles umwirft ...


Möglich, aber nicht gerade die wahrscheinlichste Lösung.

Für die 3080/20GB gar es schon Roadmaps seitens der Gfx-Hersteller.
Für die 3080Ti/20GB vielfältige EEC-Einträge und andere Hinweise.

Gast
2021-02-08, 09:27:59
https://www.computerbase.de/2021-02/nvidia-geforce-rtx-3000-verfuegbarkeit-alternate/

Wird noch schlimmer werden, wenn selbst Wave sich genötigt fühlt etwas zur Verfügbarkeit zu sagen

"Noch schlimmer"? Wie soll das bei der 3080 aussehen? Dort ist bezüglich Verfügbarkeit ja kaum Luft nach unten, will nvidia demnächst anfangen bereits ausgelieferte Karten wieder einzusammeln? :D

Calypso
2021-02-08, 09:52:48
Die Preissteigerung betrifft doch aber nicht nur die CPUs und GPUs - Technik ist doch ganz allgemein zur Zeit extrem rar und damit weit überteuert. Bei SSDs soll nun wieder ein Controller fehlen, so dass deren Preise steigen, AVRs gibt es auch nur zu maßlos überzogenen Preisen und im PC Bereich sowieso alles. Kann man nur hoffen, dass sich das irgendwann bessert und zur Zeit nichts ausfällt, aber ich fürchte eher, wir werden dauerhaft auf einem sehr hohen Preisniveau ankommen und bleiben.

Gast
2021-02-08, 16:22:49
"Noch schlimmer"? Wie soll das bei der 3080 aussehen?


Noch schlimmer heist einfach, die wenigen vorhandenen Grafikkarten werden noch teurer.

Kapitalismus lässt grüßen, Angebot und Nachfrage und so.

thomas62
2021-02-08, 20:32:47
Hi,

wenn ich euch alle so lese...

Komme ich mir vor wie der letzte Dreck.

Glaube bin Suizid gefährdet.

Mega-Zord
2021-02-09, 09:09:03
eBay-Beispiel?

Suche einfach mal nach verkauften 2080 Ti und Ko. Dann nimm die mit einem Stock Picture und klicke in die Angebote rein. Dann kommt ganz oft eine Fehlermeldung. Das heißt dann das der Verkäufer gelöscht wurde... aus Gründen.

Ich sehe gerade, dass sie anscheinend die beendeten Angebote bereinigt haben. Da war vor einigen Tagen noch jeder zweite Verkauf so ein Fake-Verkauf. Ich glaube aber nicht, dass das Problem dadurch beseitigt wurde.

Leonidas
2021-02-09, 09:15:53
Aus dem Angebot selber war der Fake nicht offensichtlich?

Mega-Zord
2021-02-09, 09:17:02
Klick mal folgende Liste durch ;)

https://www.ebay.de/sch/i.html?_from=R40&_nkw=rtx+2080+ti&_sacat=0&LH_BIN=1&_sop=15

Ich denke, dass alle Verkäufe unter 600 EUR demnächst auch wieder ausgeblendet sein werden. Ich habe da mal ein paar durchgeklickt und dass sind alles User, die eigentlich nicht sehr aktiv sind und vorher sowas nie verkauft haben. Ich gehe mal von geklauten Passwörtern aus.

Dass es den User in 2 Wochen noch gibt, darf bezweifelt werden.
Verkauf: https://www.ebay.de/itm/NEU-ASUS-ROG-STRIX-RTX2080Ti-O11G-Nvidia-Gforce-Grafikkarte-NEU-/254814000829?hash=item3b541916bd%3Ag%3Afm4AAOSwxwdf4Iab&nma=true&si=2hwv0YGDL9K3%252BgZK9C0WAVABv7A%253D&orig_cvip=true&nordt=true&rt=nc&_trksid=p2047675.l2557
Profil: https://www.ebay.de/usr/symon942012?_trksid=p2047675.l2559

FastAndy
2021-02-09, 13:01:16
Hab zwar selbst 24GB, aber 12 sind fernab des Forums, bei normalen Usern, immer noch viel und völlig ausreichend.
Alternatve / Wave kriegt verhältnissmäßig viele KArten rein. Die werden schon wissen wie es da um die Lieferbarkeit steht.

Irgendwie hat das Marketing einen Meilenstein erreicht. Der typische PCler wechselt alle 2 Jahre die GPU aus, jetzt mit RT gibt es dafür auch einen kräftigen Grund, aber selbst ohne RT war dies schon vorher zu beobachten. KA, warum. Die meisten PS3 Ports ab 2010 waren ja alles andere als anspruchsvoll, und trotzdem wurde von Fermi auf Kepler und von Kepler auf Maxwell gewechselt, schon damals wurde sich darum geschlagen, und wer hier als erstes ein Bild von der Verpackung gepostet hat, wie z.B. Turri, Blaire, Godmode, Tobi, und Co. waren dann die Helden.....eigentlich ziemlich krank. ;D :freak:

Was kümmert dich so sehr, wofür andere ihr Geld ausgeben? Lass sie doch und leb dein eigenes leben.
PS: Gibt auch "Helden" die Bilder ihres PCs mit reingekritzelter Konfig in der sig haben. Das ist echt cringe, aber manche hier sind wohl noch nicht volljährig.

bardh
2021-02-09, 14:31:40
Ich verstehe nicht ganz warum die 3080er nicht gleich mit 12 GByte daher kam.:confused:
Eben weil die Karte für Auflösungen vermarktet wird bei denen 10 GByte knapp werden können.

Ein User hier hat im Speku-Thread schon mal geschrieben, dass die Karte aus Sicht der Mining-Community eigentlich sehr passend zugeschnitten wurde. Sehr schneller Speicher, 10Gb, tiefer Verbrauch im Mining... :freak:

Wenn man die anderen Modelle anschaut (3070, 3060 Ti), dann trifft das auch da ziemlich gut zu. Alles Modelle, die bei Minern extrem begehrt sind.
Eigentlich muss man nur zwei Generationen zurückgehen, eine 1070 hatte ja schon 8Gb, kaum zu glauben.

Und bei der Ti könnte man fast meinen, dass dies ja fast indirekt zugegeben wurde. Zuerst eine 3080 mit 20Gb in Aussicht, gestrichen, 3080 TI mit 20Gb, gestrichen und nun ist man bei 12Gb. Fokus wurde wohl nicht mehr auf AMD gelegt, sondern wie gesagt auf das Mining.

Daredevil
2021-02-09, 14:46:32
Wenn es auf Mining zugeschnitten wäre, dann wären das 5-6GB GDDR6X auf einer 1660ti(Whatever) und sicherlich nicht mehr als 10GB, weil komplett unnütz.

bardh
2021-02-09, 14:48:49
Wenn es auf Mining zugeschnitten wäre, dann wären das 5-6GB GDDR6X auf einer 1660ti(Whatever) und sicherlich nicht mehr als 10GB, weil komplett unnütz.

Ja, aber die können keinen 2080 Nachfolger mit 5-6Gb rausbringen. Von demher trifft einiges zu, das Minimum an Speicher verbauen.

Daredevil
2021-02-09, 14:50:06
Wenn die ne 1060 mit 4GB GDDR5X rausbringen können, können die bestimmt auch noch andere Dinge. :D
https://www.idealo.de/preisvergleich/OffersOfProduct/6292775_-mining-p104-4g-4gb-asus.html

Die Ideale "versteckte" Karte wäre wohl eher ne abgespeckte 3070 mit 6GB GDDR6X Speicher, also 10GB und der dicke 3080 ist nicht optimal, wirklich nicht. Fürs FHD-WQHD Gaming jedoch schon.

Gast
2021-02-09, 16:35:46
Wenn die ne 1060 mit 4GB GDDR5X rausbringen können, können die bestimmt auch noch andere Dinge. :D
https://www.idealo.de/preisvergleich/OffersOfProduct/6292775_-mining-p104-4g-4gb-asus.html

Häh, GDDR5X war ja der Grund, dass Turing eigentlich ziemlich schlecht fürs Mining war, zumindest die Highend-Karten die diesen benutzt haben.

Gast
2021-02-10, 01:15:24
Nochmal zurück auf Start: Für 20GB braucht Nvidia sinnvollerweise 16GBit GDDR6X. Wäre der ausreichend verfügbar, würde man den auch höchstwahrscheinlich auf Karten verkaufen. Ansonsten machen 12GB wirtschaftlich mehr Sinn, da man mehr Karten mit der Liefermenge verkaufen kann und sogar die PCBs identisch sind. Die ganze restliche Diskussion, ob man 2% mehr oder weniger hat, geht Nvidia wohl selbst am Arsch vorbei.

Lehdro
2021-02-10, 14:15:59
Häh, GDDR5X war ja der Grund, dass Turing eigentlich ziemlich schlecht fürs Mining war, zumindest die Highend-Karten die diesen benutzt haben.
Was zum? Da stimmt ja mal gar nichts:
- Turing hat GDDR6
- Pascal hatte GDDR5X auf den großen Karten (GTX 1080, 1080Ti, Titans + die Sondermodelle fürs Mining/Neuauflagen)
- GDDR5X war per se nicht schlechter fürs minen, gerade mit ETHPill und dem Unlock der vollen Speichergeschwindigkeit beim Minen ging da einiges

Und um fürs Mining interessant zu sein braucht man mehr als "nur" viel Speicherbandbreite. Alleine für ETH brauchst du auch eine brauchbare Speichermenge (momentan >5 GiB afaik) und einen vernünftigen Speichercontroller. Umso besser wenn die Karte effizient bleibt wenn man quasi nur den Speicher auslastet -> siehe Radeon VII, die mit ~140W quasi volle Leistung abliefert. Die RTX 3000 sind da deutlich durstiger.

Wenn man noch andere Sachen als ETH minen will, wird auf einmal auch die Rechenleistung sehr interessant. Da kommt es dann ganz auf den Algorithmus und die Architektur an.