PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 4060 Ti, 4060 & 4050 sollen im Zeitrahmen Mai/Juni ...


Leonidas
2023-03-29, 15:05:10
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-ti-4060-4050-sollen-im-zeitrahmen-maijuni-antreten

Aroas
2023-03-29, 15:31:53
Nachdem sich ja nun recht deutlich herauskristallisiert, dass lediglich 8GB Grafikspeicher selbst in FullHD Auflösung in so manchem Spiel nicht mehr für High/Ultra Einstellungen, sind sämtliche Modelle unterhalb der RTX 4070 bzw. RX 7700XT doch eh vollkommen uninteressant.

Ich nutze derzeit zwar noch immer eine RTX 2070 Super mit 8GB und stelle, wenn nötig, die Details bzw. die Auflösung entsprechend runter.
Aber wenn ich mir eine neue Karte kaufen wollte/müsste, würde ich definitiv keine mehr mit nur 8GB kaufen.
Selbst ein 12GB Modell wäre mir da nicht "zukunftssicher" genug.

Gast
2023-03-29, 15:49:39
Nachdem sich ja nun recht deutlich herauskristallisiert, dass lediglich 8GB Grafikspeicher selbst in FullHD Auflösung in so manchem Spiel nicht mehr für High/Ultra Einstellungen, sind sämtliche Modelle unterhalb der RTX 4070 bzw. RX 7700XT doch eh vollkommen uninteressant.

Wer erwartet bei einer 60er/50er Karte dass diese für max. Einstellungen taugt?

MiamiNice
2023-03-29, 15:52:20
Ja, ist total der Witz.

Lehdro
2023-03-29, 16:21:46
Wer erwartet bei einer 60er/50er Karte dass diese für max. Einstellungen taugt?
In 1080p? Eine 60er (Vanilla oder TI) sollte das schon packen...die xx50er muss das nicht.
Ab xx70 dann WQHD und ab xx80 kann man dann teilweise sogar über 4k nachdenken.

Exxtreme
2023-03-29, 16:36:25
Wer erwartet bei einer 60er/50er Karte dass diese für max. Einstellungen taugt?

Ernsthaft? Es ist abzusehen, dass diese Grafikkarten kaum billiger sein werden als meine Radeon 5700 XT vor 4 Jahren und auch kaum tauglicher für moderne Spiele. Sprich, man hat jetzt 4 Jahre lang quasi Stillstand was Preis-/Leistung angeht. Und das ist es halt was viele Leute wurmt. Willst du eine spürbar schnellere Grafikkarte als ein 4 Jahre altes Modell dann lege aber bitte auch das Doppelte auf den Tisch.

Aroas
2023-03-29, 17:29:41
Wer erwartet bei einer 60er/50er Karte dass diese für max. Einstellungen taugt?

Bei den Preisen, die NVidia für die Dinger aufruft bzw. aufrufen wird, sollte zumindest in FullHD die höchste Detailstufe möglich sein.
Ist das nicht der Fall, sind die Karten schlicht zu teuer.

GerryB
2023-03-29, 17:41:37
statt auf ne 4050-6GB zu warten, wäre aktuell ne 6700-10GB@299€ incl. 1xGame gar net sooo verkehrt
(ob ne 4050 preiswerter wird, who knows)

MD_Enigma
2023-03-29, 18:00:22
Ernsthaft? Es ist abzusehen, dass diese Grafikkarten kaum billiger sein werden als meine Radeon 5700 XT vor 4 Jahren und auch kaum tauglicher für moderne Spiele. Sprich, man hat jetzt 4 Jahre lang quasi Stillstand was Preis-/Leistung angeht.
Ich befürchte dass man das sehr bewusst macht. Die einzige logische Erklärung ist, dass man die Fertigung nicht wie gewohnt billiger hinbekommt und deswegen die Preise steigen. Gewohnheit umfasst hierbei auch den Wunsch nach gleichzeitig hören Margen.

Aroas
2023-03-29, 18:14:28
statt auf ne 4050-6GB zu warten, wäre aktuell ne 6700-10GB@299€ incl. 1xGame gar net sooo verkehrt


P/L mäßig ein top Angebot derzeit.

Leider ist das schlicht das falsche Kartenmodell.
Das Ding hat eine TDP von 175 Watt. Da braucht man keinen riesigen Triple Fan Kühler mit über 30cm Länge.

Diese teils unnötig großen Kühler auf vielen Kartenmodellen sind ein weiterer Punkt, der mich an den aktuellen Produkten häufig stört. Bei den High End Modellen mit 300W und mehr Verbrauch, kann ich das ja durchaus nachvollziehen.
Aber auf den Mittelklasse Karten, die teils nicht einmal 200W verbrauchen, braucht es diese Riesenkühler definitiv nicht. Aber die Hersteller klatschen sie halt auch dort einfach drauf, weil sie sich so noch mehr Geld sparen, weil sie keine entsprechend kleineren Kühler extra entwickeln müssen.
Diese Ersparnis wird aber natürlich selbst eingesteckt und nicht etwa an den Kunden weitergegeben.

crnkoj
2023-03-29, 18:46:03
Tatsächlich muss man sich langsam überlegen warum diese ganzen neuen Spiele so viel vram und auch systemram (!) benötigen???
Anstatt in jedem Thread, meist von den gleichen, ständig zu lesen "zu wenig vram", sollte auch etwas mehr Druck auf die Spieleentwickler ausgeübt werden,damit diese es besser optimieren und nicht alpha Software verkaufen. Auf den Konsolen geht es doch auch!
Nun will man auf einer x60 Karte 16gb RAM, auf x70 zumindest 20, x80 am besten gleich 32 und bei der x90 am besten 48gb. Das gleiche gilt für AMD natürlich auch.
So gesehen ist die 7900xt dann den Erwartungen der Leute hier grob gerecht (Performance einer x70ti mit 20gb RAM).
...

Aroas
2023-03-29, 19:00:36
Nun will man auf einer x60 Karte 16gb RAM, auf x70 zumindest 20, x80 am besten gleich 32 und bei der x90 am besten 48gb. Das gleiche gilt für AMD natürlich auch.


Blödsinn. Wir wollen einfach Karten, deren Preislagen zur Ausstattung passen.

Würde NVidia eine RTX 4060 für max. 300€ anbieten, wären 8GB weniger ein Problem.
Wäre dann einfach eine max. FullHD Karte in der entsprechenden Preisregion.

Aber die Karten werden nunmal nicht zu solch einem Preis verkauft, sondern wohl eher für 400€ und mehr.
Und für dieses Geld will zumindest ich eine GPU haben, die mehr als nur FullHD packt bzw. mit der mir nicht nach 1-2 Jahren Nutzungszeit der Speicher ständig limitiert.

Immer detailreichere, höher Aufgelöste Texturen brauchen nunmal entsprechend viel Speicher.
Dagegen kann auch ein Spieleentwickler wenig tun.

EDIT: In Zeiten, in denen Speicherhersteller wie Samsung und Co. lauthals über eingebrochene Nachfrage und hohe Lagerbestände jammern und deshalb die Preise im Keller sind, ist diese elende VRAM Knauserei noch viel unverständlicher.

madshi
2023-03-29, 19:58:40
Das Ding hat eine TDP von 175 Watt. Da braucht man keinen riesigen Triple Fan Kühler mit über 30cm Länge.

Diese teils unnötig großen Kühler auf vielen Kartenmodellen sind ein weiterer Punkt, der mich an den aktuellen Produkten häufig stört.
Sehe ich völlig anders. Ich liebe überdimensionierte Cooler. Nur so kriegen wir gute Temps bei niedrigen Noise-Levels. Solange die Karte in mein Gehäuse paßt, kann der Cooler fast nicht zu groß für mich sein.

GerryB
2023-03-29, 20:08:47
Jo, ne 30cm-Graka sollte man in ein vernünftiges Mini-Gehäuse@25€ reinbekommen:
https://geizhals.de/aerocool-cs-103-accs-pc11014-11-a2166402.html?hloc=de
Mit gescheitem Kühler ist dann auch ca. 25% OCing kein Problem.

btw.
Wenn ne 4050 ähnlich schwach wird wie ne 3060, dann siehts in RE4 mau aus:

Legendenkiller
2023-03-30, 09:06:39
Ist eigentlich Ram soooooooo teuer ? das damit so rumgegeizt wird.
Oder ist der eher geplante/eingebaute Obselestens?

Eine kleine Karte braucht genauso viel Speicher für Texturen wie eine große.
Texturgröße hat praktisch keine Performaceeinfluss.
Eine 4060 mit 16GB kann die Texturen genauso gut anzeigen wie eine 4080.

Ich kenn noch Zeiten wo lowend Karten mit genauso viel Speicher wie Highendmodell angeboten wurden ...
Wo dann selbst Tester gesagt haben das ist sinnlos weil das 32/64bit Speicherinterface den garnicht sinnvoll befüllen kann.
Also sowas wie heute eine 4050 mit 24Gbyte Ram.

Aber warum kann man einen 4050 nicht in 6/12 GB anbieten ?
Eine 4060 mit 8/16GB und eine 4070 nit mit 12/24GB ?
Und dann kann der Käufer entscheiden ob er den Aufpreis bezahlt.

Aber ne 4050 mit 6GB ist echt sowas von... naja dafür kostet sie ja dann sicher blos 150€ oder so.

Pirx
2023-03-30, 09:27:47
ist sicher geplante Obsoleszenz

Exxtreme
2023-03-30, 09:40:07
Texturgröße hat praktisch keine Performaceeinfluss.

Doch, es hat. Je größer die Textur, desto mehr RAM-Bandbreite braucht man und auch Texelfüllrate.

bestMAN
2023-03-30, 09:58:13
schnell werden sie wohl sein, die neuen 4060/4070 - aber der Preis passt trotzdem nicht.
Das Thema begann ja mit der 4090. Tolle Performance (bis dahin einfach unerreicht) zum hohen Preis.
Da kann man nicht erwarten, die folgenden 4xxx-GPUs zu Preisen der 3XXX-GPUs zu bekommen.
Der preisliche Einstieg (evtl 4050) wird wohl bei 300€ sein, eine 4060 zu 500€.

Lord Wotan
2023-03-30, 10:10:25
Schade das die 4060 ti nicht mindestens 12 GB hat. Gerade wegen Diablo 4, wäre sie eine Kaufalternative. Denn ich kaufe keine neue Karte weit über 500 Euro.

Gastanjette
2023-03-30, 10:18:12
gäähn

so wie das ausgelegt wird werden wir weiterhin keinen Rutsch im P/L sehen. Auch im nuen Mid2Low-End.
Das ist was für Leute, die dieses Jahr ne höhere Modellnummer wie letztes Jahr sehen wollen ohne irgend einen Plan ob das gut oder schlecht ist.

Ich hoffe AMD schmeisst endlich kleine leistungsfähige billige Grafikchips in Masse auf den Markt. Gibt ja genug Leute, die einfach nur PC-gamen wollen ohne mit HW posen zu müssen. Was fehlt sind die modernen GPUs, AM4 und DDR4 war noch nie so billig wie heute ;D

Exxtreme
2023-03-30, 10:31:47
gäähn

so wie das ausgelegt wird werden wir weiterhin keinen Rutsch im P/L sehen. Auch im nuen Mid2Low-End.
Das ist was für Leute, die dieses Jahr ne höhere Modellnummer wie letztes Jahr sehen wollen ohne irgend einen Plan ob das gut oder schlecht ist.

Ich hoffe AMD schmeisst endlich kleine leistungsfähige billige Grafikchips in Masse auf den Markt. Gibt ja genug Leute, die einfach nur PC-gamen wollen ohne mit HW posen zu müssen. Was fehlt sind die modernen GPUs, AM4 und DDR4 war noch nie so billig wie heute ;D

Das Problem ist, Nvidia hat offenbar immer noch Lagerbestände an Altmaterial, die für 200 Tage reichen würden. Deshalb hatten sie auch laut letztem Quartalsbericht zwei Milliarden(!!!) USD an Lagerkosten. Das muss man sich an der Zunge zergehen lassen.

Und deshalb kannst du vergessen, dass Nvidia die Preise senken wird für Ada. Wenn sie es tun dann dürfen sie massivste Abschreibungen vornehmen weil Turing unverkäuflich wird und sie es verschrotten werden.

Und ich glaube, AMD will Nvidia nicht zu arg weh tun. ;) Sowas kann später nämlich ordentlich nach hinten losgehen. Man sieht sich immer mindestens zwei Mal im Leben.

bestMAN
2023-03-30, 10:52:07
AMD wird nvidia nicht wehtun, da hast du wohl Recht.
Aber mit VRAM werden sie schon wieder ein bisschen winken (7800XT)

Gast
2023-03-30, 11:10:21
Und deshalb kannst du vergessen, dass Nvidia die Preise senken wird für Ada. Wenn sie es tun dann dürfen sie massivste Abschreibungen vornehmen weil Turing unverkäuflich wird und sie es verschrotten werden.
Turing? Oder meinst du Ampere? Ich würde nicht ausschließen, dass sogar noch Turing im Lager liegt, aber ich hätte eher Ampere erwartet.

Exxtreme
2023-03-30, 11:12:29
Turing? Oder meinst du Ampere? Ich würde nicht ausschließen, dass sogar noch Turing im Lager liegt, aber ich hätte eher Ampere erwartet.

Ja, hast recht. Ich meinte Ampere. X-D Davon haben sie noch zig Tonnen auf Lager.

Gast
2023-03-30, 11:13:19
Das Problem ist, Nvidia hat offenbar immer noch Lagerbestände an Altmaterial, die für 200 Tage reichen würden. Deshalb hatten sie auch laut letztem Quartalsbericht zwei Milliarden(!!!) USD an Lagerkosten. Das muss man sich an der Zunge zergehen lassen.

Und deshalb kannst du vergessen, dass Nvidia die Preise senken wird für Ada. Wenn sie es tun dann dürfen sie massivste Abschreibungen vornehmen weil Turing unverkäuflich wird und sie es verschrotten werden.

Und ich glaube, AMD will Nvidia nicht zu arg weh tun. ;) Sowas kann später nämlich ordentlich nach hinten losgehen. Man sieht sich immer mindestens zwei Mal im Leben.

Ich glaube nicht, dass sie 2 Milliarden Lagerkosten haben. Sie haben einfach Bestand im Wert von vielleicht 2 Milliarden. Das ist aber ein grosser Unterschied.

Leonidas
2023-03-30, 11:20:46
Aber mit VRAM werden sie schon wieder ein bisschen winken (7800XT)

7800XT ist aber leider schon wieder Midrange. Klar, selbst da kann man gegenüber den 12GB von NV anstinken. Aber im Mainstream wird auch AMD leider nur 8GB liefern.

Wunschtraum: AMD hat hintenrum einen Exklusiv-Deal mit einem Speicherhersteller für 3GB-Speicherchips - und kann als einziger die 7600er Serie mit 12 GB VRAM ausliefern.

Gast
2023-03-30, 12:00:01
Je größer die Textur, desto mehr RAM-Bandbreite


Jein, theoretisch zwar möglich, praktisch aber sehr Unwahrscheinlich. Für jedes bilineare Sample müssen 4 Texel gelesen werden, dabei ist es unerheblich ob die 4 Texel aus einer niedrig oder hoch aufgelösten Textur kommen.
Theoretisch sollte sich die Hitrate im Texturcache mit weniger bzw. niedriger aufgelösten Texturen zwar erhöhen, bei den heutigen Cachegrößen sollte das aber keinen praktischen Unterschied machen.
Selbst der Unterschied zwischen Bilinear zu Trilinear und Anisotrop, was die Texturzugriffe und die benötigte Füllrate vervielfacht ist heute vernachlässigbar gering.


braucht man und auch Texelfüllrate.

Nein, überhaupt nicht eine TMU liest immer 4 Texel und interpoliert diese bilinear zu einem output. Die Quelle der Samples hat dabei genau 0 Einfluss auf die Füllrate.

Gast
2023-03-30, 12:02:27
Schade das die 4060 ti nicht mindestens 12 GB hat. Gerade wegen Diablo 4, wäre sie eine Kaufalternative.

Laut Ingame Tooltip waren sollen die max. Details auf 8GB VRAM ausgelegt sein.
Auch wenn der VRAM-Verbrauch in der Beta massiv höher war, besteht durchaus noch Hoffnung, dass hier bis zum Release noch entsprechend optimiert wird, gewürfelt wird Blizzard die 8GB Empfehlung wohl kaum haben.

bestMAN
2023-03-30, 12:16:24
also ich brauch nicht ständig High-End, eine 3070/6700xt reicht mir allemal.
Daher wäre die 7800XT schon ein schönes Bricket, wenn der Strombedarf nicht ausufert.
Auf Vergleichstests der neuen Mittelklasse im Q3.2023 bin ich gespannt.

GerryB
2023-03-30, 12:48:22
https://www.techpowerup.com/306631/nvidia-geforce-rtx-4070-priced-at-usd-600

Da lag MLID@750$ doch zu hoch,
oder
Das war echt nur ein Versuchsballon um die "lauten" Beschwerden der "Käufer" zu testen.

--> in dem Sinne müssen wirklich die Leute auch über die kleineren Modelle ordentlich ablästern,
sonst gibts keine gescheiten UVP´s

Exxtreme
2023-03-30, 13:06:20
https://www.techpowerup.com/306631/nvidia-geforce-rtx-4070-priced-at-usd-600

Da lag MLID@750$ doch zu hoch,
oder
Das war echt nur ein Versuchsballon um die "lauten" Beschwerden der "Käufer" zu testen.

--> in dem Sinne müssen wirklich die Leute auch über die kleineren Modelle ordentlich ablästern,
sonst gibts keine gescheiten UVP´s

Das Ding wird in DE immer noch so 700 EUR kosten, ergo viel zu teuer, IMHO. Für 400 EUR wäre das ganz brauchbar.

GerryB
2023-03-30, 13:09:40
Döner@2,99€

Das waren noch Zeiten!
... ich glaube den Leuten wird momentan beim wöchentlichen Einkauf im Supermarkt die Lust vergehen.
(wenn dann die Schwätzer im TV was von nuuur 8% Inflation erzählen, ... Denen würde ich Allen das Gehalt kürzen)

Lord Wotan
2023-03-30, 17:58:51
und kann als einziger die 7600er Serie mit 12 GB VRAM ausliefern.
Was wird die Karte mit 12 GB kosten?

Gast
2023-03-30, 20:47:08
Wunschtraum: AMD hat hintenrum einen Exklusiv-Deal mit einem Speicherhersteller für 3GB-Speicherchips - und kann als einziger die 7600er Serie mit 12 GB VRAM ausliefern.
Und was spricht dagegen, dass AMD die Karte mit 8 oder mit 16GB freigibt und der Kunde wählen kann? Verstehe ich sowieso nicht, warum man das nicht öfter macht, war ja früher nicht selten.

Leonidas
2023-03-31, 04:54:14
Eigentlich hast Du Recht: Wahlmöglichkeit zwischen 8/16 GB würde das Problem lösen. Kann sich NV mit seinen vielen 12-GB-Karten nicht leisten, aber bei AMD wäre es vernünftig: Nur die 7700XT hat 12GB, aber alles darüber 16GB.

Also liebes AMD: 7600er Serie mit Wahlmöglichkeit beim Speicher? Was würde es mehr kosten?

bestMAN
2023-03-31, 09:40:03
Was wird die Karte mit 12 GB kosten?
wird es nicht geben. 12 GB erst ab 7700XT

Lord Wotan
2023-03-31, 13:56:25
wird es nicht geben. 12 GB erst ab 7700XT

Darauf bezog sich meine Frage was die Karte von AMD mit 12 GB kosten würde.

Gast
2023-04-02, 01:46:37
Und was spricht dagegen, dass AMD die Karte mit 8 oder mit 16GB freigibt und der Kunde wählen kann? Verstehe ich sowieso nicht, warum man das nicht öfter macht, war ja früher nicht selten.

Dass heutzutage GPUs im Bundle mit VRAM an die Kartenhersteller von AMD/NV verkauft werden.

NV/AMD kaufen VRAM in extremen Mengen und könne damit viel bessere Preise aushandeln als ein einzelner Kartenhersteller. Und die Bundles werden nur mit den VRAM Mengen an die Hersteller verkauft welche AMD/NV verkaufen will.

Wenn ein Kartenhersteller davon abweichen will müsste er im Extremfall den gebundelten VRAM wegwerfen und selbst welchen zu deutlich höheren Preisen einkaufen, falls es komplett anderer VRAM ist. Oder zumindest, falls er nur mehr vom gleichen VRAM verbauen will zumindest diesen deutlich teurer als von AMD/NV einkaufen, und dazu noch eine Platine für Doppelbestückungen entwickeln.

Beides ist wirtschaftlich nicht Sinnvoll, da die Karten mit doppeltem VRAM damit deutlich teurer und damit kaum verkaufbar wären.

Leonidas
2023-04-02, 05:53:16
Gut, das Angebot müsste somit NV mitorganisieren. Aber machbar ist das schon. NV hat den RAM sowieso (für irgendeine andere Karte), es geht hier ja nur das Zusammenbundlen und einen Preis festlegen.