Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 5070 kommt angeblich auf GB205-Basis mit nur 12 GB VRAM
Leonidas
2024-10-10, 14:52:27
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-5070-kommt-angeblich-auf-gb205-basis-mit-nur-12-gb-vram
Es ist und bleibt krank: 250Watt für eine 70er Karte, wieder +25% verglichen mit der 4070.
Speicher und Preis spreche ich gar nicht erst an.
Meine prinzipielle Grenze sind 200W, damit schaue ich mal, was die neue 5060 dann kann. Wird nur unkaufbar, weil wahrscheinlich mit 8GB startend?
Cubitus
2024-10-10, 15:25:54
Für die neuesten Spiele mit Unreal Engine 5 sind 12 GB auch für 4K ausreichend. Letztendlich hängt alles von der Auflösung ab.
Eine 70er non TI ist maximal für 2560*1440p konzipiert. Für höhere Auflösungen gibt es andere Modelle.
Ich verstehe die Aufregung ehrlich gesagt nicht.
Unter diesem Gesichtspunkt wird die 4070 Super TI interessant.
Könnte ein guter Tipp werden, vor allem wenn die Serie parallel weiterverkauft wird.
Leonidas
2024-10-10, 15:44:25
Jede Karte größer als 5070 hat GB203-Chip und damit möglicherweise mehr VRAM.
ChaosTM
2024-10-10, 15:55:35
Für die neuesten Spiele mit Unreal Engine 5 sind 12 GB auch für 4K ausreichend. Letztendlich hängt alles von der Auflösung ab.
Eine 70er non TI ist maximal für 2560*1440p konzipiert. Für höhere Auflösungen gibt es andere Modelle.
Ich verstehe die Aufregung ehrlich gesagt nicht.
Unter diesem Gesichtspunkt wird die 4070 Super TI interessant.
Könnte ein guter Tipp werden, vor allem wenn die Serie parallel weiterverkauft wird.
Beim VRAM zu sparen ist eine klarte Marketing Strategie.
"aber man kann ja immer die Details runter drehen"
Da das aber eine 4060 Level GPU ist, kann man das vielleicht verschmerzen.
basix
2024-10-10, 15:57:52
Für die neuesten Spiele mit Unreal Engine 5 sind 12 GB auch für 4K ausreichend. Letztendlich hängt alles von der Auflösung ab.
Eine 70er non TI ist maximal für 2560*1440p konzipiert. Für höhere Auflösungen gibt es andere Modelle.
Ich verstehe die Aufregung ehrlich gesagt nicht.
Unter diesem Gesichtspunkt wird die 4070 Super TI interessant.
Könnte ein guter Tipp werden, vor allem wenn die Serie parallel weiterverkauft wird.
Naja, 600$ zahlen und dann auch in 1440p Details reduzieren? Nicht so geil. Ich weiss, in den meisten Games reichen 12 GByte. Heute. Und insbesondere die UE5 ist sehr sparsam mit dem VRAM und wird es mit dem neuen MegaLights vermutlich noch mehr werden. So ein wirklich rundes Gefühl hinterlässt es dennoch nicht. 16GB wäre ideal und wie du sagst, die 4070 Ti Super ist da eigentlich schon ziemlich gut. Momentan ist die einfach noch zu teuer. Dropped die 4070 Ti Super auf 600 Euro, wäre das meine Empfehlung und nicht eine gleich teure 5070 mit nur 12 GByte. Blackwell müsste ansonsten ein richtiges Killer Feature bieten, um mich zu überzeugen. Vielleicht ist es Vega HBCC mässiges Auslagern des VRAM :D
dildo4u
2024-10-10, 16:02:13
Ohne Konsolen mit mehr Ram werden 12GB nicht Kritisch, die 5700 hat nur noch ein Drittel der 5090 Leistung.
Der Sprung ist minimal von einer 4070Super.
Aroas
2024-10-10, 16:08:54
Ohne Konsolen mit mehr Ram werden 12GB nicht Kritisch...
Sowas kann nur von Leuten kommen, die noch nie etwas von Grafikmods gehört haben.
Legendenkiller
2024-10-10, 16:15:31
och 12 Gbyte passen schon noch bei Grafikkarten bis 400€. Jetzt ist halt nur noch die Frage vieviel die 5070 kosten soll :rolleyes:
PS: man darf und kann jederzeit von seinen Recht ein Produkt nicht kaufen zu müssen, gebrauch machen :smile:
Korvaun
2024-10-10, 16:26:56
Sowas kann nur von Leuten kommen, die noch nie etwas von Grafikmods gehört haben.
Ernsthaft jetzt? Wie viele Leute benutzen Grafikmods? 0,1%? Oder eher 0,001% aller Grafikkarten-Käufer? Das hat für nV nun wirklich NULL Relevanz bei der Entwicklung...
Mega-Zord
2024-10-10, 16:30:22
Ich verstehe die Aufregung ehrlich gesagt nicht.
Man regt sich hier im WeinCenter aber gerne auf.
Beim VRAM zu sparen ist eine klarte Marketing Strategie.
"aber man kann ja immer die Details runter drehen"
Andere Karte oder halt Konkuttenz-Produkt von AMD kaufen
Sowas kann nur von Leuten kommen, die noch nie etwas von Grafikmods gehört haben.
Interessiert aber niemanden bei NV, dass sich 0,0...1% der "Kunden" aufregen, anstatt einfach ein anderes Produkt zu kaufen.
Shink
2024-10-10, 16:30:24
NVidia doing NVidia things. Der Erfolg gibt ihnen ja Recht.
MiamiNice
2024-10-10, 16:33:08
Ernsthaft jetzt? Wie viele Leute benutzen Grafikmods? 0,1%? Oder eher 0,001% aller Grafikkarten-Käufer? Das hat für nV nun wirklich NULL Relevanz bei der Entwicklung...
Stimmt. Für NV ist einzig relevant regelmäßig möglichst viel Kohle abzugreifen und der HW nur eine begrenzte Haltbarkeit zu verpassen. Letztes macht man über den VRam.
Lehdro
2024-10-10, 16:48:22
12 GiB erneut für eine Karte in dem Preisbereich ist echt heftig. Das war bei der 4070 schon mit Zähneknirschen verbunden, nun ist es indiskutabel. Wenn NV allerdings den Preis auf 399$ setzt, kann man zufrieden sein.
Ach halt, das ist ja gar kein "wünsch-dir-was". Schade.
Mega-Zord
2024-10-10, 17:08:19
Wir leben halt nicht vor 25 Jahren, als man man eine Hand voll Konkurrenz-Grafikchips gab. Intel als Kunkurrent zündet nicht, hat sogar ganz andere Probleme. Hoffentlich kann AMD wenigstens im oberen Midrange etwas liefern. 5080 und 5090 werden wohl ohne Konkurrenz laufen. Aber ich denke, dass man gerade bei der 5070 nicht weiniweini machen muss, sondern man kann einfach zur AMD-Lösung mit 16 oder 20 GB greifen.
The_Invisible
2024-10-10, 17:09:05
Es ist und bleibt krank: 250Watt für eine 70er Karte, wieder +25% verglichen mit der 4070.
Speicher und Preis spreche ich gar nicht erst an.
Meine prinzipielle Grenze sind 200W, damit schaue ich mal, was die neue 5060 dann kann. Wird nur unkaufbar, weil wahrscheinlich mit 8GB startend?
Das ist bei NV eh leicht, einfach 200W PT einstellen und gut ist und/oder UV machen. Meine 4090 schwirrt immer bei so -+300W herum...
The_Invisible
2024-10-10, 17:10:50
Wir leben halt nicht vor 25 Jahren, als man man eine Hand voll Konkurrenz-Grafikchips gab. Intel als Kunkurrent zündet nicht, hat sogar ganz andere Probleme. Hoffentlich kann AMD wenigstens im oberen Midrange etwas liefern. 5080 und 5090 werden wohl ohne Konkurrenz laufen. Aber ich denke, dass man gerade bei der 5070 nicht weiniweini machen muss, sondern man kann einfach zur AMD-Lösung mit 16 oder 20 GB greifen.
Glaub nicht das AMD seine Karten herschenken will oder einen Preiskrieg starten will wo man auch im AI-Zug drinnen ist, da wirds AMD typisch ein besseres Preis/Leistungs Verhältnis bzw mehr VRAM geben und das wars.
VfBFan
2024-10-10, 17:27:31
Besseres P/L-Verhältnis bei 4 GB mehr VRAM wäre ja nicht nichts.
Von wegen "und das war's". :-)
Bei passendem Stromverbrauch und nicht zu weit zurückhängender RT-Leistung wäre der Wunschzettel ja schon fast komplett erfüllt. Aber mal abwarten und schauen.
Platos
2024-10-10, 18:13:15
Es ist und bleibt krank: 250Watt für eine 70er Karte, wieder +25% verglichen mit der 4070.
Speicher und Preis spreche ich gar nicht erst an.
Meine prinzipielle Grenze sind 200W, damit schaue ich mal, was die neue 5060 dann kann. Wird nur unkaufbar, weil wahrscheinlich mit 8GB startend?
Artikel wohl nicht gelesen?
Es geht darum, was die Karten aushalten müssen, nicht was die Karten ziehen.
Jedes Mal das gleiche vor dem Launch :D
MiamiNice
2024-10-10, 18:39:20
Ja, die selbe Enttäuschung vor jedem Launch.
Erst sickern 600 W durch, dann doch nur irgendwas um 500, PT wohl nur bis max. 560 - 600 Watt. Nicht mal ein PT freies Bios wird da helfen, da nur ein Stromstecker im ref. Design. Hoffentlich baut Asus noch einen 2. Stecker auf das Board, für den Spaß.
Platos
2024-10-10, 18:45:43
Selbst mit 3 Stecker wird nicht mehr gezogen (werden dürfen), als die Platine ab kann. Ausser natürlich die machen dann auch eine andere Platine.
Dürfen die Boardhersteller solche Spezifikationen anpassen?
MiamiNice
2024-10-10, 18:57:29
Viele Hersteller bauen eigne Boards für die Karten. Das ist ja auch der Grund, warum man eher keine Ref Karte kaufen will. NV spart gerne. Die Karten speziell von Asus haben eigentlich immer das beste Layout und die qualitativ besten Bauteile an Board. Außerdem werden die Platinen bei Asus komplett maschinell bestückt, was Fehler minimiert.
Andere Hersteller machen das auch, aber niemand so gut wie Asus.
Beispiel:
3090 NV https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-rtx-3080-reference-board-designs-pictured
3090 Asus https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/2.html
Altehardware
2024-10-10, 18:57:33
Das die ue5 relativ wenig speicher zieht liegt am streaming der engines prio hat ram vram ssd
Das beduetet dwenn deien gpu nur 12gb vram hat das spiel aber insgemsat 20gb für2160p braucht wird der großteil in den ram ausgelagert und beim streaming der daten in den vram die Qualität verringert
Der Ladevorgang ist
cpu lädt daten von ssd idealerweise in den ram und dann in den vram dann zurück in den ram (Zweitabbild)
Und die vergangenen frames werden gelöscht.
Der Flaschenhals ist also die pcie4 x16 brücke was dann maximal zu Aufpoppende Texturen führt siehe stafield das dies gerne macht
Weniger schlimm ist es bei borderlands 3 das muss auf ner ssd sein.
Die Zeiten wo ein spiel total in den fps einbricht bei zu wenig vram ram sind lange vorbei. Wenn was zu langsam ist bricht das spiel mit Fehlern ab oder stellt alles falsch dar.
Oft haben dann gpu mit zu wenig vram dann mehr fps weil diese weniger rendern.
daher 12gb reichen definitiv nicht für 2160p aus da sind die 24gb essentiell mittlerweile.
1080p kommt so gerade mit 12gb raus.
aufkrawall
2024-10-10, 19:26:15
12 GiB erneut für eine Karte in dem Preisbereich ist echt heftig. Das war bei der 4070 schon mit Zähneknirschen verbunden, nun ist es indiskutabel.
4070-Besitzer freuts. Wobei mit DirectStorage hoffentlich UE5 noch weniger VRAM als ohnehin schon belegen wird. Ob wir das noch zu Lebzeiten sehen werden, will ich jetzt aber auch nicht beschwören. :freak:
ChaosTM
2024-10-10, 19:35:15
4060er Besitzer,
aber nicht die mit 8GB..
Die sind schon jetzt forked
sensemann86
2024-10-10, 20:00:28
Also wer sich jetzt noch ne Karte kaufen will, sollte unter den Umständen lieber zu ner 4070 Ti Super greifen statt zu ner 4070 Super, oder?
Hänge derzeit auf ner 1070 und will bis zu meinem Geburtstag nächsten Monat mal was neues haben.
Ich finde es wirklich frustrierend, dass die 5080 erneut nur mit 16 GB VRAM ausgestattet sein soll. Das bedeutet, dass sie wahrscheinlich nicht viel schneller sein wird als die 4080 und vermutlich nur knapp das Niveau der 4090 erreichen kann – und das bei denselben 16 GB. Käufer werden dadurch noch stärker zu den 90er-Karten verleitet.
12 GiB erneut für eine Karte in dem Preisbereich ist echt heftig. Das war bei der 4070 schon mit Zähneknirschen verbunden, nun ist es indiskutabel. Wenn NV allerdings den Preis auf 399$ setzt, kann man zufrieden sein.
Ja, und vor allem wird das nicht weniger. Im Gegenteil, mit den immer detailierteren Charakteren und dem zunehmend verwendeten Pathtracing wird der Speicherbedarf wachsen.
Mal als kleine Kostprobe von Otis_Inf: Der arbeitet an einer Mod, wo man die Gesichter verändern kann. In UE5 Hellblade 2 sind zum Beispiel 800 Knochen für das Gesicht. Texturentapeten sind schon lange nicht mehr der relevante Punkt für steigenden Speicherbedarf..
ChaosTM
2024-10-10, 21:10:20
Jop, 16GB wären ein Witz, aber man sollte nicht alles glauben
was Kimi so verbreitet
aufkrawall
2024-10-10, 21:19:13
Die anderen Optionen bedeuten aber Mindereinnahmen für Nvidia. Von daher nicht unplausibel.
Es ist und bleibt krank: 250Watt für eine 70er Karte, wieder +25% verglichen mit der 4070.
Naja, was willste erwarten, TSMC tritt quasi jetzt auch auf der Stelle und macht einen auf Intel-Fab.
Die Nummer mit Silizium ist nahezu durch. Da wird noch irgendwann bis 2030 ein Node kommen, der noch mal paar gute Effizienzgewinne abwerfen wird, dann ist der Drops aber endgültig gelutscht.
Platos
2024-10-10, 21:23:38
Es ist doch eig. eh klar, dass nach 3070 zu 4070 mit 8GB zu 12GB jetzt nach nur einer Generation nochmals mehr Speicher kommt. Ebenso ist es klar, dass von 3080 zu 4080 mit 10GB zu 16GB nicht nach einer Generation nochmals mehr Speicher kommt.
Das war doch zu erwarten. Alles andere wäre eine Überraschung.
Iscaran
2024-10-10, 22:32:27
Für mich:
1.) wird die Karte zu teuer sein
2.) und viel zu viel Stromverbrauch haben
Dazu kommt noch, dass 12 GB schon ein zu kleiner Sprung wären. Ich würde mir schon eher 16 GB beim nächsten GPU Sprung vorstellen.
Aber erst wenn 1.) und 2.) passen.
The_Invisible
2024-10-10, 22:34:52
Wobei, was braucht den wirklich mehr als 16GB, mehr sehe ich eigentlich nur wenn der VRAM als Cache herhält. Klar mehr ist immer gut, aber zb mit einer 3080 kann man heute die UE5 Games noch immer gut zocken, da limitiert ja eher schon wieder die Rechenleistung.
downforze
2024-10-11, 00:29:49
Weil es nur UE5 Spiele gibt oder wie? Einmal ordentliche Schatteneffekte in einem modernen Spiel und das war es mit 12 GB. Da die 5070 sicher nicht billiger wie die 4070 wird, die heute noch 550€ kostet, wird das ein sehr schlechter Deal werden. Könnte die Chance für AMD im Mittelfeld sein, wenn sie es nicht wieder verkacken.
Aroas
2024-10-11, 01:26:40
Ernsthaft jetzt? Wie viele Leute benutzen Grafikmods? 0,1%? Oder eher 0,001% aller Grafikkarten-Käufer? Das hat für nV nun wirklich NULL Relevanz bei der Entwicklung...
Ob das für NVidia irgendeine Relevanz hat, ist doch völlig egal.
Die Aussage, die ich zitiert habe, sprach davon, dass 12GB nicht kritisch seien. Und das ist nunmal schlicht und ergreifend falsch.
Altehardware
2024-10-11, 04:51:16
Die zukunfts engine sind
ue5
unity6
cry engine 6 (unklar soll 2025 kommen)
Alles wird darin in Zukunft designt
Die Ausnahmen
Ubisoft anvil und snowdrop.
Microsoft idtech6 (cod doom wolfenstein) creation engine2 (bethesda)
Unklar was mit den 2d engines passiert (legacy engines auf basis von id3 und gamebryo eol seit 2012) ob die portiert werden auf die unity6 bzw ue5? Sehr wahrscheinlich.
Hikaru
2024-10-11, 07:05:05
Die Karten speziell von Asus haben eigentlich immer das beste Layout und die qualitativ besten Bauteile an Board. Außerdem werden die Platinen bei Asus komplett maschinell bestückt, was Fehler minimiert.
Dumm nur das Asus Karten beim Spulenfiepen ganz vorne liegen;)
LoganKell
2024-10-11, 08:16:48
Soll Nvidia machen was sie wollen, ich spiel dabei nicht mit. Spitzenmodelle wie 3090, 4090 etc. zu stark überhöhten Preisen rausbringen und den Rest nur markinal verbessern, nee danke. :P
Meine nächste Graka, wenn von NVidia, sollte mindestens plus 80%-100% Performence bringen und min. 24GB Ram haben zu meiner aktuellen 3080Ti (12GB).
Da hat im Moment sogar die 4080 Super nur ca. 38% Mehrperformence. Eine 4090 zwar ca. 80% aber dafür Mondpreise.
Die 3080Ti hab ich jetzt fast 3 Jahre und komme immer noch sehr gut unter 3440x1440 zurecht. Im Moment kann ich mich noch entspannt zurück lehnen und auf die 50er Nvidia Refresh warten und schauen ob die meine Anforderungen entgegen kommen. ;D;D;D
Goser
2024-10-11, 09:02:19
hm dann eben zwei Versionen einmal mit 24 GB und einmal mit 12.
Irgendwie schon merkwürdige Entwicklung, die 3060 hatte auch 12GB und wie alt ist die inzwischen..
Exxtreme
2024-10-11, 09:07:33
Solange die Kunden das kaufen, gibt es für Nvidia keinen Grund das Verhalten zu ändern.
@LoganKell von 3080Ti lohnte sich nur ein Upgrade auf 4090 imho. Und wenn das mit der 50x0 alles so kommt wie die Gerüchte sind. Ein Upgrade wird sich nur lohnen wenn man z.B. von 4060 auf min. 5080 bzw 5070Ti oder von 4070 oder 4080 auf 5090. Wie teuer war die 4070 beim Markteintritt 800€ oder 900€ wenn ich mich nicht täusche.
redpanther
2024-10-11, 09:17:29
hm dann eben zwei Versionen einmal mit 24 GB und einmal mit 12.
Das ist ohnehin so eine Frage die ich mir stelle. Warum verkaufen Nvidia/AMD nicht alle Karten in 2 RAM Ausführungen?
Der Aufwand den Doppelten RAM auf die Karte zu klatschen sollte doch, so wie ich es mitbekommen habe, relativ überschaubar sein.
Irgendwelche "Modder" machen das ja sogar nachträglich für zb 2080Tis wie ich gelesen habe.
Sowohl AMD (mehr) und NV (weniger) hatten solche duale Ausführungen ja auch im Angebot. Warum aber so wenige?
Leonidas
2024-10-11, 09:39:13
Das ist ohnehin so eine Frage die ich mir stelle. Warum verkaufen Nvidia/AMD nicht alle Karten in 2 RAM Ausführungen?
nVidia: Damit Du die nicht ewig benutzen kannst, sondern auch mal wieder upgraden musst.
AMD: Die Karten werden normalerweise mit passender VRAM-Menge designt, Verdopplung lohnt da nicht mehr.
Crazy_Borg
2024-10-11, 09:48:27
Auch weil bei 2 Ramgrössen die Karte mit der kleineren RAM Menge preislich stark abfällt.
Durch den ohnehin schon geringeren Speicher ist die Karte weniger interessant, auch wenn sie deutlich weniger kostet. Nutzer werden immer zur grösseren tendieren.
(Solange der Speichertyp gleich ist, kennt noch jemand die Einsteigerkarten mit jeweils einer GDDR3 und einer DDR2 Version?).
Damit fällt die kleinere am Markt aufgrund weniger interesse preislich immer weiter ab, daher oft schlechtes Geschäft für Händler / Großhändler.
Man schaue sich die Preisentwicklung bei intel ARC 770 mit 8GB zu 16GB (limited) an.
Egal was nvidia dann AMD für preisliche oder ramtechnische Steilvorlagen gibt, verkacken wird es AMD dennoch.
Tradition.
Sage ich als langjähriger AMD Nutzer. :freak:
redpanther
2024-10-11, 09:52:59
Auch weil bei 2 Ramgrössen die Karte mit der kleineren RAM Menge preislich stark abfällt.
Durch den ohnehin schon geringeren Speicher ist die Karte weniger interessant, auch wenn sie deutlich weniger kostet. Nutzer werden immer zur grösseren tendieren.
Ist das dein Gefühl oder gibts dazu auch harte Zahlen?
Das wäre doch vorteilhaft für den Hersteller wenn der Kunde immer zur größeren Karte greift, wenn er den Preis so einstellt, das er mit dieser mehr Gewinn macht?
nVidia: Damit Du die nicht ewig benutzen kannst, sondern auch mal wieder upgraden musst.
AMD: Die Karten werden normalerweise mit passender VRAM-Menge designt, Verdopplung lohnt da nicht mehr.
Finde ich bei NV nicht Überzeugend. Wer kauft sich denn eine Neue karte, weil er "zu wenig RAM" hat?
Die Karte hat zu wenig Performance oder es fehlen Feature, aber zu wenig RAM? Glaube ich eher selten.
AMD: Dann verkaufen sie halt mit Halben RAM, aber günstiger? Könnte ja auch einigen Reichen die das ganze nicht so kritisch sehen und sich über einen günstigeren Preis freuen?
MiamiNice
2024-10-11, 10:07:53
Dumm nur das Asus Karten beim Spulenfiepen ganz vorne liegen;)
Ist jetzt hier bissel OT, naja nur so halb,:
Solche Karten baut man gerne um. Kühler runter, Chip lacken, Flüssigmetall auf den Chip, WaKü Block drauf. Mit Wärmeleitpads an und zwischen den Spulen reduziert man diese Geräusche deutlich. Allerdings sollte man auch dazu sagen, dass die meisten Karten an Spulenfieben leiden, das ist kein Asus Problem. Bei Asus halten die Karten zumindest technisch einen hohen Standard ein. Bei vielen anderen Herstellern ist die Qualität zweifelhaft. Muss man sich halt überlegen, was man in der Kiste haben mag. Die Dinger kosten immerhin gute 2, bzw. jetzt wahrscheinlich 3k. Dafür kaufen sich andere ihr erstes Auto XD
Lehdro
2024-10-11, 11:18:45
Die Entkoppelung der "Mittelklasse" zum Highend/Enthusiast Segment sehe ich sehr kritisch, sowohl was Preise als auch Performance angeht. Das fängt bei der reinen Rechenleistung an, geht über die VRAM Ausstattung bis hin zur Anbindung. Letzteres ist derzeit komplett recht kritisch (zumindest solange der VRAM noch reicht), wird aber, sofern Direct Storage irgendwann doch mal einschlägt, eventuell ein großes Problem: Gerade die Karten, die durch ihre begrenzte Speicherkapazität am ehesten von DS profitieren sollten, sind genau in dem Bereich am meisten beschnitten. Somit könnten die VRAM Spar-Kärtchen gleich in zweierlei Hinsicht schlecht altern - die Kapazität erfordert mehr Streamingaktivität und das geht zu Lasten der eingekürzten Bandbreite durch die PCIe-Beschneidung. Wenn jetzt selbst die Oberklasse (xx70er Karten) mit dem VRAM Sparen so weitermacht, forciert das in gewisser Weise eine Ausrichtung auf aggressiveres Streaming (ob mit oder ohne DS) bei moderneren Engines, mitsamt aller Nachteile (CPU-lastigkeit und unrunde FPS, Streamingqualität der Texturen, Popup etc). Da NV die absolute Marktoberhand in dem Bereich vorweisen kann, wird sich demnach alles nach denen ausrichten. Das heißt NV drängt hier diese Karten (xx60er mit x8 PCIe und wenig VRAM) per Portfolioausgestaltung langfristig in die (geplante) Obsoleszenz, selbst wenn neue Technologien wie Direct Storage das eigentlich verhindern sollten.
Die Spaltung des Marktes in drei grobe Klassen wird noch massiv für Kopfschmerzen sorgen:
-> Rundum sorglos Produkte wie xx90er Karten werden weiterhin die Grenzen des mach- und vertretbaren austesten und preislich massiv abgehoben sein
-> Die Oberklasse wird alle Features bedienen können, aber der Abstand zur nächsthöheren Klasse wird von einem Canyon zu einem Ozean anwachsen (siehe generationell Leistungssprünge xx90->xx90 vgl. zu xx80 -> xx80)
-> Die Mittelklasse und drunter werden Features nur auf dem Papier haben, aber praktisch an allen Ecken und Enden massive Pferdefüße vorweisen (VRAM, Rechenleistung, Anbindung) so dass die praktische Anwendbarkeit stark in Frage stehen wird
Da stellt sich dann schon die Frage wie zukünftige AAA- Engines/Titel mit diesem Spagat umgehen wollen und was NVs langfristiges Ziel sein wird, gerade im Bezug auf den Großteil der Nutzer dieser Karten.
Sardaukar.nsn
2024-10-11, 11:33:00
Also meine ASUS 4090 TUF hat keine Probleme mit Spulenfiepen. Im Praxisgerechten Einsatz (beim mir bis 120PFS/Hz) ist sie absolut lautlos.
Ja, ich kann kann mit deaktiviertem G-Sync, V-Sync und 1000+ FPS in irgendwelchen Menüs leichte Geräusche provozieren. Spielt das im Alltag eine Rolle? Klares Nein.
etp_inxession
2024-10-11, 13:15:36
Sage ich als langjähriger AMD Nutzer. :freak:
Hmm, du hast eine RX 6800.
Hier von "Verkacken" reden ist irgendwie deplatziert, oder?
Die RX 6800 non XT, ist mitunter die genialste Grafikkarte der letzten Jahre.
Herstellerübergreifend.
Die hatte nur das Problem mit dem hohen Preis in der Krisenzeit (Corona/Mining/etc).
Eine RX 6800 bei 399 - 499 € ... hätte die GTX 970 als bisherigen Verkaufsschlager abgelöst.
Lehdro
2024-10-11, 13:17:31
Also meine ASUS 4090 TUF hat keine Probleme mit Spulenfiepen. Im Praxisgerechten Einsatz (beim mir bis 120PFS/Hz) ist sie absolut lautlos.
Ja, ich kann kann mit deaktiviertem G-Sync, V-Sync und 1000+ FPS in irgendwelchen Menüs leichte Geräusche provozieren. Spielt das im Alltag eine Rolle? Klares Nein.
Hmm. (https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/)
Asus schneidet generell recht schlecht ab was das angeht. Wenn man nicht selber Hand anlegt und ausreichend "nachdämmt" (sofern das überhaupt geht) wäre Asus einer eher schlechte Wahl was das angeht. Das hat aber halt nichts mit der sonstigen Qualität zu tun, sondern allein mit diesem Aspekt. Für mich wäre damit eine solche Karte aber durch, das Drama hatte ich schon mit der GTX 480 mit Wakü @ OC, die je nach Lastszenario echte Orgien singen konnte.
Sardaukar.nsn
2024-10-11, 14:03:38
Ich kenne diesen Thread im Luxx, hab da auch schon Videos hochgeladen weil meine Karte leise ist. Passt aber dort nicht ins Konzept. Dank Keller MoRa läuft mein PC in allen Zuständen mit 0-db, also da bin ich schon sehr kritisch und auch entschlossen. Wäre das Spulenfiepen meiner TUF ein Thema, hätte uch schon längst gehandelt. Ist es aber nicht, die Karte ist im Alltag bis 120FPS lautlos.
MiamiNice
2024-10-11, 14:09:11
Mein PC ist auch lautlos bei normalen Use/Gaming. Wird erst mit Furmark und 960 Watt Gesamtverbrauch (mit Stromgerät an der Steckdose gemessen) ein wenig lauter wahrnehmbar weil die 4 200er Noctua Lüfter am MoRa auf über 400 U/min beschleunigen ;D Und selbst dann ist er noch leiser als wahrcheinlich 90 Prozent der Rechner von anderern 3DC Usern ;)
aufkrawall
2024-10-11, 14:24:43
So gut wie jede 4090 wird bei 450W nennenswert surren, wenn man keinen Hörschaden hat. Ist nur die Frage, ob das nur wahrnehmbar, oder schon nervtötend ist. Und dass Asus dahingehend einen schlechten Track Record hat, kann jeder sehen, der es wahrhaben will.
Es kann sich natürlich mit jeder neuen Revision oder Generation von Karten ändern. Meine 4070S Evo ist etwa dahingehend ziemlich gut, aber muss natürlich auch nicht repräsentativ sein.
Shaft
2024-10-11, 16:11:43
Für die neuesten Spiele mit Unreal Engine 5 sind 12 GB auch für 4K ausreichend. Letztendlich hängt alles von der Auflösung ab.
Eine 70er non TI ist maximal für 2560*1440p konzipiert. Für höhere Auflösungen gibt es andere Modelle.
Ich verstehe die Aufregung ehrlich gesagt nicht.
Unter diesem Gesichtspunkt wird die 4070 Super TI interessant.
Könnte ein guter Tipp werden, vor allem wenn die Serie parallel weiterverkauft wird.
Da bin ich anderer Ansicht.
Nehmen wie an, es ist genug Leistung da, dann gehe ich gerne das maximale an Setting, ebenso bis auf 4K. Dann ist es Blöd wenn natürlich der Speicher ausgeht.
Jemand wie ich, der auch gerne Textur Packs nutzt, wirds dann besonders heikel.
Von daher alte Regel, man kann nie genug Speicher haben. Die 5070 hat schon ihre Berechtigung auch ausreichend Speicher zu haben.
Tigerfox
2024-10-12, 15:10:55
Das ist ohnehin so eine Frage die ich mir stelle. Warum verkaufen Nvidia/AMD nicht alle Karten in 2 RAM Ausführungen?
Der Aufwand den Doppelten RAM auf die Karte zu klatschen sollte doch, so wie ich es mitbekommen habe, relativ überschaubar sein.
Irgendwelche "Modder" machen das ja sogar nachträglich für zb 2080Tis wie ich gelesen habe.
Das funktioniert leider aktuell nicht so "einfach" wie bei den Mods für RTX 2000 und 3000-GPUs.
Man kann an jeden Speichercontroller ein oder zwei Speicherchips anbinden. Aktuelle Speichercontroller teilen ihr Speicherinterface in 32Bit-Controller auf, bei 256Bit also 8 Controller, bei 192Bit 6 usw..
Die RTX 3090 hatte für die 24GB einfach doppelt so viele Module wie die 3080 12GB und 3080Ti, die zusätzlichen waren auf der Rückseite verbaut. Deshalb brauchte die 3090 ein angepasstes PCB mit einer anderen Rückseite. Gerade bei GDDR6X, der sehr heiß wird, ist Speicher auf der Rückseite AFAIK auch schwer zu kühlen.
Damals waren 1GB-Module (in Spezifikationen immer als 8Gb bezeichnet) das höchste der Gefühle. Spätestens mit RTX 4000 wurden 2GB-Module (bzw. 16Gb) eingeführt. Die Speichermengen stiegen deshalb nicht oder kaum, weil bei Ada Lovelace das Speicherinterface bei den meisten GPUs reduziert wurde (bei der 4080 und 4070TiS auf 256Bit von 320/384Bit bei 3080 10GB/12GB, 3080Ti und 3090(Ti), bei der 4070, 4070S und 4070Ti auf 192Bit von 256Bit bei 3060Ti, 3070Ti). Die 3090Ti und 3060 haben schon 2GB-Module verwendet.
Die bekannten Mods basieren nun darauf, dass man größere, tlw. auch schnellere GDDR6(X)-Module auf alte Karten verlötet, weil man keine zusätzlichen verlöten kann, außer in wenigen Fällen wie der 3080 10GB oder 3060 8GB, weil dort nicht nur Lötstellen auf dem PCB vorhanden sind, sondern i.d.R. auch Versionen mit 12GB existieren. Bei anderen Karten funktionierten die Mods selten in Spielen. Irgendwer hat wohl auch eine 2080Ti mit völlig übertriebenen 44GB erzeugt, indem eine 2080Ti-GPU mit dem identischen PCB zur Titan RTX mit rückseitigen Lötstellen verwendet wurde, so dass 22x2GB GDDR6 zum Einsatz kamen. Es war nicht möglich, den deaktiverten Speichercontroller durch Verbinden mit weiteren Speicherbausteinen zu aktivieren.
Bei den 4000er Karten wären solche Mods erst möglich, wenn es größere Speicherbausteine gibt. Die RTX 4060Ti 16GB nutzt dagegen 8x2GB an nur 4 Controllern, vier Module vorne, vier hinten.
Und das ist nun auch ersteinmal das Problem bei den RTX 5000. Die Größe der Speicherinterfaces ist bei den meisten Karten gleich geblieben, GDDR7 startet auch erstmal mit 2GB. Jedoch werden im nächsten Jahr erstmals Module mit der "krummen" Größe von 3GB (bzw. 24Gb) kommen, also ein Zwischenschritt vor der sonst üblichen Verdopplung. 1,5GB bzw. 12Gb waren von diversen Speicherherstellern auch mal angekündigt gewesen, aber nie erhältich.
Es ist davon auszugehen und in diversen Gerüchten auch schon angekündigt, dass es entweder im Verlauf des nächsten Jahres Versionen der normalen RTX 5000-Karten mit 1,5-fachem Speicher geben wird, oder spätestens mit einem "Super"-Refresh. Das wären dann also 12GB an 128Bit wie der 5060, 18GB an 192Bit wie bei der 5070, 24GB an 256Bit wie bei der 5080 und bis 48GB an 512Bit wie bei der 5090.
Ist das dein Gefühl oder gibts dazu auch harte Zahlen?
Das wäre doch vorteilhaft für den Hersteller wenn der Kunde immer zur größeren Karte greift, wenn er den Preis so einstellt, das er mit dieser mehr Gewinn macht?
Harte Zahlen wohl eher nicht, aber das dürfte schon ein Grund sein, Karten wie die 3070(Ti) und sogar 3080 10GB ließen sich schon tlw. zu Release, spätestens jetzt in Situationen bringen, wo sie in 1440p mit RT oder sogar in UHD ohne RT noch deutlich mehr als nur gerade so spielbare fps gebracht haben, in UHD mit RT dann aber komplett unspielbar sind oder matschige oder fehlende Texturen liefern. 8GB sind heute auch schon tlw. in 1440p problematisch. Auch die 3080Ti wird wahrscheinlich eher durch Speichermangel als durch mangelnde Rohleistung ersetzt werden müssen, die 4070TiS setzt sich in UHD mit RT wegen der zusätzlichen 4GB deutlich stärker von der 4070Ti ab als anderswo.
Man könnte argumentieren, dass bei vielen Karten gerade im unteren und mittleren Preissegment der Preisabstand zur nächst schnelleren Karte tlw. so gering ist, vor allem zwischen luxoriösen Varianten der langsameren und billigen Exemplaren der schnelleren Karte, dass der Aufpreis für doppelten Speicher (hieße aktuell ja noch doppelte Menge an Speicherchips und verändertes PCB) zu hoch wäre und die Karte gegenüber der nächstschnelleren unattraktiv machen würde.
Allerding hat das zuletzt bei Kepler und Maxwell auch geklappt. Schon von GTX 660Ti, 670 und 680 gab es einige Modelle mit 3GB bzw. 4GB statt 2GB, bei GTX 760, 770 und 780 gab es dann von fast jeder Karte zwei Versionen, bei der GTX 960 auch noch. Und damals waren die Preise so niedrig wie lange nicht und nie wieder danach und der Preiskampf sehr hart. Seitdem gab es bis zur 4060Ti keine einzige Nvidia-GPU mehr mit einer lediglich verdoppelten Speichergröße.
Finde ich bei NV nicht Überzeugend. Wer kauft sich denn eine Neue karte, weil er "zu wenig RAM" hat?
Die Karte hat zu wenig Performance oder es fehlen Feature, aber zu wenig RAM? Glaube ich eher selten.
Doch, ist mir mehrfach passiert, aber natürlich wäre in beiden Fällen die Leistung mit ausreichend VRAM trotzdem nicht üppig gewesen. Die erste war meine 8800GT 512MB, die ich von 2008 bis 2013 im Einsatz hatte (als armer Student). 512MB waren 2008 guter Standard, es hätte auch eine Version mit langsamer taktenden 256MB gegeben, aber das war schon zu Release zu wenig. Es hätte aber eben auch schon 1GB gegeben, was aber noch ein paar Jahre später das höchste der Gefühle war. Ab 2011 hab ich dann in 1920x1200 gespielt.
Ich hatte dann in den letzten Jahren der Karte, also schon länger als man eine Karte nutzen sollte, Fälle, wo der Speicher zu knapp wurde und die Karte deshalb einbrach, aber auch mit ausreichend Speicher hätte ich vielleicht gerade so spielbare Frames gehabt.
Ähnlich ging es mit der nächsten Karte, eineer GTX 670 2GB. Die hab ich Anfang 2014 gebraucht gekauft, günstiger als eine neue, langsamere 760. Ich habe vorher intensiv nach einer gebrauchte 670, 680 oder 770GB mit 4GB geguckt, aer die hat wohl kaum jemand gekauft, so dass ich keine gefunden habe.
So ab 2018 wurde dann der Speicher knapp, z.B. in Kingdom Come, dass ich aber intensiv erst in der Pandemie 2020 gespielt habe, weshalb ich meine aktuelle RTX 2070 gekauft habe. Mit reduzierten Details war KC mit der 670 meist noch spielbar, in bestimmten Szenen stieg aber der Speicherbedarf stark an und es wurde unspielbar.
Dabei muss man beachten, dass in all diesen Jahren wenig Zeit zum Spielen hatte und selten aktuelle Blockbuster direkt zu Release gespielt habe. Aktuell bin ich auch aus Platzgründen wieder zu 1920x1200@60Hz verdammt, mein neuer 34" UWQHD mit 3440x1440@144Hz musste eingelagert werden. An dem wäre meine RTX 2070 wahrscheinlich schon überfordert.
Auch deshalb würde ich aktuell keine Karte unter 16GB kaufen und warte lieber auf eine 5070Ti/S mit 24GB.
hq-hq
2024-10-12, 22:39:43
hm 12GB VRAM ist schon bissl doof bei 4k
auf der anderen Seite kenne ich jetzt nichts (was ich gespielt hab) was wirklich über 16GB benötigen würde, aber 12 wird gern mal überschritten (was ja nicht heisst mit nur 12GB VRAM einen spürbaren Impact zu erfahren)
kann man dann auf DLSS pokern und Raytracing runterdrehen
bei 4k sollst du halt nach NVidia dann mindestens eine 5080 kaufen :biggrin:
wie schon geschreiben wurde, die 5090 wird autohot :freak: und unter 5080 so lala
ChaosTM
2024-10-12, 23:01:25
Das funktioniert leider aktuell nicht so "einfach" wie bei den Mods für RTX 2000 und 3000-GPUs.
Man kann an jeden Speichercontroller ein oder zwei Speicherchips anbinden. Aktuelle Speichercontroller teilen ihr Speicherinterface in 32Bit-Controller auf, bei 256Bit also 8 Controller, bei 192Bit 6 usw..
Die RTX 3090 hatte für die 24GB einfach doppelt so viele Module wie die 3080 12GB und 3080Ti, die zusätzlichen waren auf der Rückseite verbaut. Deshalb brauchte die 3090 ein angepasstes PCB mit einer anderen Rückseite. Gerade bei GDDR6X, der sehr heiß wird, ist Speicher auf der Rückseite AFAIK auch schwer zu kühlen.
Damals waren 1GB-Module (in Spezifikationen immer als 8Gb bezeichnet) das höchste der Gefühle. Spätestens mit RTX 4000 wurden 2GB-Module (bzw. 16Gb) eingeführt. Die Speichermengen stiegen deshalb nicht oder kaum, weil bei Ada Lovelace das Speicherinterface bei den meisten GPUs reduziert wurde (bei der 4080 und 4070TiS auf 256Bit von 320/384Bit bei 3080 10GB/12GB, 3080Ti und 3090(Ti), bei der 4070, 4070S und 4070Ti auf 192Bit von 256Bit bei 3060Ti, 3070Ti). Die 3090Ti und 3060 haben schon 2GB-Module verwendet.
Die bekannten Mods basieren nun darauf, dass man größere, tlw. auch schnellere GDDR6(X)-Module auf alte Karten verlötet, weil man keine zusätzlichen verlöten kann, außer in wenigen Fällen wie der 3080 10GB oder 3060 8GB, weil dort nicht nur Lötstellen auf dem PCB vorhanden sind, sondern i.d.R. auch Versionen mit 12GB existieren. Bei anderen Karten funktionierten die Mods selten in Spielen. Irgendwer hat wohl auch eine 2080Ti mit völlig übertriebenen 44GB erzeugt, indem eine 2080Ti-GPU mit dem identischen PCB zur Titan RTX mit rückseitigen Lötstellen verwendet wurde, so dass 22x2GB GDDR6 zum Einsatz kamen. Es war nicht möglich, den deaktiverten Speichercontroller durch Verbinden mit weiteren Speicherbausteinen zu aktivieren.
Bei den 4000er Karten wären solche Mods erst möglich, wenn es größere Speicherbausteine gibt. Die RTX 4060Ti 16GB nutzt dagegen 8x2GB an nur 4 Controllern, vier Module vorne, vier hinten.
Und das ist nun auch ersteinmal das Problem bei den RTX 5000. Die Größe der Speicherinterfaces ist bei den meisten Karten gleich geblieben, GDDR7 startet auch erstmal mit 2GB. Jedoch werden im nächsten Jahr erstmals Module mit der "krummen" Größe von 3GB (bzw. 24Gb) kommen, also ein Zwischenschritt vor der sonst üblichen Verdopplung. 1,5GB bzw. 12Gb waren von diversen Speicherherstellern auch mal angekündigt gewesen, aber nie erhältich.
Es ist davon auszugehen und in diversen Gerüchten auch schon angekündigt, dass es entweder im Verlauf des nächsten Jahres Versionen der normalen RTX 5000-Karten mit 1,5-fachem Speicher geben wird, oder spätestens mit einem "Super"-Refresh. Das wären dann also 12GB an 128Bit wie der 5060, 18GB an 192Bit wie bei der 5070, 24GB an 256Bit wie bei der 5080 und bis 48GB an 512Bit wie bei der 5090.
Harte Zahlen wohl eher nicht, aber das dürfte schon ein Grund sein, Karten wie die 3070(Ti) und sogar 3080 10GB ließen sich schon tlw. zu Release, spätestens jetzt in Situationen bringen, wo sie in 1440p mit RT oder sogar in UHD ohne RT noch deutlich mehr als nur gerade so spielbare fps gebracht haben, in UHD mit RT dann aber komplett unspielbar sind oder matschige oder fehlende Texturen liefern. 8GB sind heute auch schon tlw. in 1440p problematisch. Auch die 3080Ti wird wahrscheinlich eher durch Speichermangel als durch mangelnde Rohleistung ersetzt werden müssen, die 4070TiS setzt sich in UHD mit RT wegen der zusätzlichen 4GB deutlich stärker von der 4070Ti ab als anderswo.
Man könnte argumentieren, dass bei vielen Karten gerade im unteren und mittleren Preissegment der Preisabstand zur nächst schnelleren Karte tlw. so gering ist, vor allem zwischen luxoriösen Varianten der langsameren und billigen Exemplaren der schnelleren Karte, dass der Aufpreis für doppelten Speicher (hieße aktuell ja noch doppelte Menge an Speicherchips und verändertes PCB) zu hoch wäre und die Karte gegenüber der nächstschnelleren unattraktiv machen würde.
Allerding hat das zuletzt bei Kepler und Maxwell auch geklappt. Schon von GTX 660Ti, 670 und 680 gab es einige Modelle mit 3GB bzw. 4GB statt 2GB, bei GTX 760, 770 und 780 gab es dann von fast jeder Karte zwei Versionen, bei der GTX 960 auch noch. Und damals waren die Preise so niedrig wie lange nicht und nie wieder danach und der Preiskampf sehr hart. Seitdem gab es bis zur 4060Ti keine einzige Nvidia-GPU mehr mit einer lediglich verdoppelten Speichergröße.
Doch, ist mir mehrfach passiert, aber natürlich wäre in beiden Fällen die Leistung mit ausreichend VRAM trotzdem nicht üppig gewesen. Die erste war meine 8800GT 512MB, die ich von 2008 bis 2013 im Einsatz hatte (als armer Student). 512MB waren 2008 guter Standard, es hätte auch eine Version mit langsamer taktenden 256MB gegeben, aber das war schon zu Release zu wenig. Es hätte aber eben auch schon 1GB gegeben, was aber noch ein paar Jahre später das höchste der Gefühle war. Ab 2011 hab ich dann in 1920x1200 gespielt.
Ich hatte dann in den letzten Jahren der Karte, also schon länger als man eine Karte nutzen sollte, Fälle, wo der Speicher zu knapp wurde und die Karte deshalb einbrach, aber auch mit ausreichend Speicher hätte ich vielleicht gerade so spielbare Frames gehabt.
Ähnlich ging es mit der nächsten Karte, eineer GTX 670 2GB. Die hab ich Anfang 2014 gebraucht gekauft, günstiger als eine neue, langsamere 760. Ich habe vorher intensiv nach einer gebrauchte 670, 680 oder 770GB mit 4GB geguckt, aer die hat wohl kaum jemand gekauft, so dass ich keine gefunden habe.
So ab 2018 wurde dann der Speicher knapp, z.B. in Kingdom Come, dass ich aber intensiv erst in der Pandemie 2020 gespielt habe, weshalb ich meine aktuelle RTX 2070 gekauft habe. Mit reduzierten Details war KC mit der 670 meist noch spielbar, in bestimmten Szenen stieg aber der Speicherbedarf stark an und es wurde unspielbar.
Dabei muss man beachten, dass in all diesen Jahren wenig Zeit zum Spielen hatte und selten aktuelle Blockbuster direkt zu Release gespielt habe. Aktuell bin ich auch aus Platzgründen wieder zu 1920x1200@60Hz verdammt, mein neuer 34" UWQHD mit 3440x1440@144Hz musste eingelagert werden. An dem wäre meine RTX 2070 wahrscheinlich schon überfordert.
Auch deshalb würde ich aktuell keine Karte unter 16GB kaufen und warte lieber auf eine 5070Ti/S mit 24GB.
Danke, du solltest für eine Spielzeitung/Webseite oder ein Buch schreiben.
Ich hab alles mit Freude gelesen.
Mir fielen ein oder 2 kleine "Fehler" auf, aber die hab ich schon wieder vergessen.
best Textwall seit einiger zeit
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.