PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Arroganz oder Berechnung?


aths
2025-04-07, 21:17:33
Oder fehlende Konkurrenz?

Wenn ich mich entsinne, gabs bei der 900-er Serie den 970-Skandal, eine Graka die angeblich ein 256-Bit-Speicherinterface hat, tatsächlich aber nur 224 Bits pro Takt übertragen konnte. Oder alternativ 32 Bit, aber nicht beides gleichzeitig. Die 1000-er Serie war dann gut, einige Freunde haben heute noch einen Laptop mit einer mobilen 1650 und zocken ihre Games. 2000-er wurde mit dem Super-Refresh interessant, die 3000-er war ein schönes Upgrade, die 4000-er eher ein Sidegrade das überwiegend mit verbessertem Upsampling lockte und Frame Generation bot, damit Fake-Frames in Benchmark-Ergebnisse einfließen können. Die 4090 erwies sich als teure, aber insgesamt unfassbar starke Karte.

Jetzt bei der 5000-er gibt es ein Mini-Update. Der Launch lief bescheiden gut. Großes Event mit viel Trara, dann keine Verfügbarkeit, Scalper-Preise, 5090-Stromstecker brennen weiterhin ab weil die sehr teure Grafikkarte nicht messen kann wie viel Strom über jede Leitung geht. Kostet so ein Modul fünf oder zehn Euro? Egal, man spart. Einigen GPUs fehlen ROPs, Laptop-Hersteller dürfen alle ihre bereits verpackten Lappis noch mal auspacken und nachtesten. Während Nvidia sagt, mobile 5000-er hätten das ROP-Problem nicht. Auch der Nvidia-Chef erzählt Grütze, 5070 habe angeblich 4090-Performance. Weil er auf einen Benchmark verweist wo mal nicht der VRAM limitiert und das neue Multi-Frame-Generation aktiv ist, also Fake-Fake-Frames mit in die Benchmarks gezählt werden.

Für PhysX fällt der 32-Bit-Support weg.

Teilweise erscheinen die aktuellen Treiber instabil, ausgerechnet bei aktivierter Frame-Generation.

Lars Weinand sitzt bei Gamestar und, naja, macht nicht die beste Figur. Er weiß offenbar nicht wie der Endkundenhandel funktioniert, fragt was native Performance sei und wo man damit hinwolle, und angesprochen auf den 5000-er Launch sagt er, wörtlich, "hat eigentlich alles sehr gut funktioniert".

Stimmt das vielleicht sogar, also aus Nvidia-Sicht?

Nvidia hat immerhin Zeit, mal wieder eine 70-er Ti zu launchen mit 16 GB RAM und schiebt eine 70-er ohne Ti mit 12 GB hinterher. Offenbar ist der Gedanke, zu hoffen dass weniger informierte Käufer bei 5070 (wie schon bei 4070) die Ti-Reviews im Kopf haben und sich günstig die Nicht-Ti kaufen, die erst mal schon schnell genug ist, aber mit ihren 12 GB VRAM eine geplante Obsoleszenz eingebaut hat. Für solche Ideen, da geben sie sich Mühe. Aber GPUs auf vollständige ROP-Ausstattung testen? Nicht wichtig.

Kann ja sein dass sie sich auf ihre AI-Beschleunigung konzentrieren, da absahnen und die Gaming-Schiene nur noch mit minimalem Budget bedienen. Der Einsteiger-Gaming-Markt wird leider gar nicht mehr mit aktuellen Nvidia-GPUs versorgt. Im Highend-Bereich gehts preislich nach oben und zieht dann auch schön den Performance- und Mainstream-Bereich nach oben. Wird ja auch gekauft. Gemeckert, ja, aber dann gekauft. Dies maximal auszunutzen ist gerade der Sinn eines börsennotierten Unternehmens. Leider scheint Nvidia inzwischen so groß, mit nun wirklich allem durchzukommen. Auch damit, mit MFG unsinnige "Benchmarks" zu nutzten, fast so wie damals als Geforce-3-Quincunx-Multisampling-Blurring gegen Geforce-2-4x-Supersampling verglichen wurde um dann zu faseln, dass die Geforce 3 damit bei gleicher Qualität sieben mal so schnell wäre. Paar Dullis kaufen dann schon, und diese lesen sowieso kein 3DCenter.

Raff
2025-04-07, 21:19:29
Für PhysX fällt der 32-Bit-Support weg.

Für CUDA generell (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=621288). Gefühlt ist Blackwell in jeder Hinsicht ein Downgrade, wenn man von MFG absieht. *seine 4090 streichelt*

MfG
Raff

Rooter
2025-04-07, 21:42:30
Arroganz oder Berechnung? Imho beides. Wenn man Marktführer ist, kann man sich halt vieles herausnehmen.

https://cdn.videocardz.com/1/2016/07/NVIDIA-GeForce-GTX-1060-vs-Radeon-RX-480-performance-1.jpg

X-D
MfG
Rooter

crux2005
2025-04-07, 21:52:39
[x] beides.

Meanwhile, Jensen im NV HQ "who did this to me?" :mad: *angryface no space*

aths
2025-04-07, 22:26:36
Für CUDA generell (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=621288). Gefühlt ist Blackwell in jeder Hinsicht ein Downgrade, wenn man von MFG absieht. *seine 4090 streichelt*

MfG
Raff
Danke für die Präzisierung, Raff, hatte das bisher nur für PhysX mitbekommen.

4090 hielt ich damals für eine dämliche Karte, viel zu teuer und so und nicht mal Ti. Eine 40-er-Serie-Level GTX 980, dachte ich. Später sah ich ein, nicht nur krasses Upgrade zur Vorgängerin 3090, auch generell eine ausgewogene Highend-Karte.

Arroganz oder Berechnung? Imho beides. Wenn man Marktführer ist, kann man sich halt vieles herausnehmen.

https://cdn.videocardz.com/1/2016/07/NVIDIA-GeForce-GTX-1060-vs-Radeon-RX-480-performance-1.jpg

X-D
MfG
Rooter
Ah, ein Balkendiagramm das nicht bei Null beginnt. Ich war mal im gleichen Raum als jemand (nicht der Chef) von Nvidia sagte, das würde man nicht mehr tun. Ist lange her.

[x] beides.

Meanwhile, Jensen im NV HQ "who did this to me?" :mad: *angryface no space*
Jensen Huang habe ich genau ein mal live reden gesehen, 2004. Da hatte er noch schwarze Haare und verteidigte dass die GeForce auf 32-Bit-Berechnung setzt (statt 24 Bit wie ATI) und er schon an 64 Bit denkt und nachsetzte "Sue me!" Also schon leicht crazy, aber nicht so cringe wie seit einigen Jahren.

ianm
2025-04-07, 23:12:38
Denke auch alle drei Gründe. Wollte zum ersten Mal einen wirklichen High End PC haben, bis auf die GPU ist das auch so. Aber diese Generation lasse ich getrost aus. Gäbe es noch 4090er zum "normalen" Preis, hätte ich sowas gekauft.

Der Fokus geht nun auf alte PC Titel im Backlog und ab und an ein WoW Abo, dafür reicht es massig. Interessantes Neues gibt es für mich im PC Bereich aber nicht wirklich, außer vielleicht Crimson Desert.
Daher ging das Geld nun an Nintendo und in Zukunft vermehrt in den Konsolenbereich. Auch da verdient Nvidia mit, allgemein scheint es denen seit Jahren zu gut zu gehen.

Fliwatut
2025-04-07, 23:16:55
Ich tippe auf "Gamers? I don't give a damn shit". Mit AI wird die Kohle gemacht.

Lawmachine79
2025-04-07, 23:40:13
Danke für die Präzisierung, Raff, hatte das bisher nur für PhysX mitbekommen.

4090 hielt ich damals für eine dämliche Karte, viel zu teuer und so und nicht mal Ti. Eine 40-er-Serie-Level GTX 980, dachte ich. Später sah ich ein, nicht nur krasses Upgrade zur Vorgängerin 3090, auch generell eine ausgewogene Highend-Karte.


Die 4090 ist im Grafikkartenolymp auf einer Stufe mit der 9800 Pro und der 8800GTX.

Generell kann ich das, was Du schreibst, nur teilweise nachvollziehen, denke aber gleichwohl, dass Du Recht hast. Wer nur Highendkarten kauft, wird von NVidia "belohnt". Ich hatte die 3090, 4090, 5090 und von jeder Karte war ich bisher absolut begeistert. Bei der 5090 kann man kaum glauben, dass das Consumertechnik sein soll (und ist es bei dem Preis wohl auch nicht mehr ;)), die Karte ist ein absolut krasses Technikmonster, AMD ist gar nicht mehr im gleichen Produktmarkt unterwegs, das ist wie 911 gegen solides Rennrad. Unter diesem Gesichtspunkt schreibst Du "Unsinn".

Dieser Gesichtspunkt stimmt aber nur für absolutes Highend. Die letzte gute Nichthighendkarte von NVidia dürfte mit viel gutem Willen die 3080 direkt zum Marktstart gewesen sein. Und das ist ja auch gewollt, das viel beschriebene "Upselling": das eine Highendmodell ist megageiles "Habenwill"-Zeug, wer mit dem Zweitbesten zufrieden ist (oder zufrieden sein will) hat direkt nur noch knapp die Hälfte der Performance (oder so ca. 60%) und darunter ist die Abstufung dann wieder super fein. Früher gab es so eine Art "90/10"-Regel, für die letzten 10% Performance muss man nochmal richtig hinblättern. Heute sind es die letzten 40-50%.

Das tut mir leid für die "junge Generation", als ich 20-25 war gab es eine Geforce Ti4200 oder davor eine Voodoo 3 3500, solche "Bang for the Buck"-Karten gibt es nicht mehr. Da ist der Zugang zu PC Gaming schwerer geworden.

ABER auch hier gibt es eine andere Seite: es gibt soviele geile Spiele und Spiele sehen mittlerweile auf mittleren und niedrigen Settings RICHTIG gut aus. Also, wenn man nicht in die "Habenwill"-Konsumfalle tappt, ist die Situation verschmerzbar.

Gouvernator
2025-04-08, 00:13:00
Der Fakt das Endkunden in großem Stil sich selber andere Speicherchips anlöten wollen, zeigt doch den wahren Ausmaß der Arroganz? Was NV abzieht ist doch schon grenzwertig kriminell. AMD übrigens genau so ---> 24Gb zu 9070XT 16Gb Downgrade. Die haben deswegen sogar den 8K Trend zur Grabe getragen, um ja kein Speicher zu verbauen, damit ihr KI Geschäft nicht zusammenbricht.
Das jetzt auch ihre Driver Scheiße sind, liegt ebenfalls am KI Geschäft. Für das was sie im Newsletter im Industrie Bereich anpreisen, müsste eigentlich jeder verfügbarer Praktikant aus dem Gaming zu den Robotern eingeteilt werden.

aths
2025-04-08, 00:27:19
Die 4090 ist im Grafikkartenolymp auf einer Stufe mit der 9800 Pro und der 8800GTX.
Japp. Hatte vorhin schon geschrieben wie skeptisch ich anfänglich war, aber die Fakten sind klar, bei der 4090 hatte ich mich geirrt. Das war ein Sprung. Teuer, aber mit Dampf.

5090: Deren Speicherbandbreite ist absurd, vielleicht irre ich mich auch heute und die 5090 geht als GPU ein in die Geschichte, die richtig lange brauchbar war. Das sind allerdings jeweils Preisbereiche, in denen kaum jemand was kauft.

5060 Ti: Wird es auch als 8-GB-Version geben. 5070: Weiterhin nur 12 GB und je nach Benchmark nur auf Niveau einer 4070 Super. 5080: Schon ganz nett, aber 80-er hieß mal: Kurz vor absolutem Highend. Ist aktuell aber eine ungefähr halbierte 5090. Von 60 zu 80, genau, eine sehr feine Abstufung und kein Modell ist ein rundes Paket. Hoffentlich gibt es eine 5050 mit 8 GB RAM von der dann aber bitte keine 5050 mit 6 GB nachgeschoben wird. (Wenn, dann bitte 5040 nennen und ich werde die Karte feiern.)

Aktuell zocke ich überwiegend Anno 1404. Sieht gut aus und braucht keine moderne GPU. Baldur's Gate 3? Läuft in 1080p auf meinem M2 Macbook Air mit den richtigen Einstellungen noch, da kommt es mir auf die Story an (wird mich der blonde Vampir beißen?) und nicht auf perfekte Grafik.

Dennoch: Beim 5000-er Launch ging richtig viel schief, nach der bereits nicht glänzenden 4000-er Serie (mit Ausnahme der 4090) ein Refresh, der nochmals peinlicher ist (abgesehen von der 5090 die mit 32 ultraschnellen GB VRAM kommt). Nvidia nimmt den Mund voll, der Chef feiert die 5070 als hätte sie die Leistung einer 4090, und dann noch die weiteren Patzer. Vielleicht sogar der schlimmste Launch für Nvidia-GPUs bisher. Gut ich bin Techniker und kein Marketing-Guru, ich hätte einfach gesagt: Leute hört zu, 5000-er wird nicht der Megaknaller aber wir basteln weiter an AI-Funktionien, es gibt mehr Speicherbandbreite so dass die Karten mit zukünftigen CPUs, die mehr Daten liefern, bessser zurechtkommen. Ihr kauft doch sowieso nur noch Geforce, bei dem Level heute kann man nicht mal eben einen krassen Performance-Sprung hinlegen, aber es hat ja noch nicht jeder Gamer eine 4000-er GPU. Wer 3000-er oder älteres hat für den haben wir mit der 5000-er ein ordentliches Angebot.

PHuV
2025-04-08, 00:28:16
090 hielt ich damals für eine dämliche Karte, viel zu teuer und so und nicht mal Ti. Eine 40-er-Serie-Level GTX 980, dachte ich. Später sah ich ein, nicht nur krasses Upgrade zur Vorgängerin 3090, auch generell eine ausgewogene Highend-Karte.

Das spricht jetzt aber nicht gerade für Deine Experise in diesem Bereich, oder? Sorry, da solltest Du bitte tatsächlich mal den roten 3D-Guru streichen.

Man sollte doch immer anhand von Fakten urteilen, und sich nicht von "Gefühlen" leiten lassen. Und Fakt ist, die 4090 war mit den Daten und zum Release hin ein Knaller (und ist es an sich nach wie vor auch noch, bis auf den Preis). Zum Rest sage ich lieber nichts, sorry Aths, Du hast in meinen Augen schon in vielen Bereichen eigentlich den Anschluß verloren, was Dich meiner Meinung nach irgendwie glaubwürdig oder lesenswert macht, daher spare ich mir lieber die Kritik.

x-force
2025-04-08, 00:34:53
Oder fehlende Konkurrenz?

Wenn ich mich entsinne, gabs bei der 900-er Serie den 970-Skandal, eine Graka die angeblich ein 256-Bit-Speicherinterface hat, tatsächlich aber nur 224 Bits pro Takt übertragen konnte. Oder alternativ 32 Bit, aber nicht beides gleichzeitig.

so war es, die screenshots von aufkrawall und mir gingen durch die foren und news.

die 4000-er eher ein Sidegrade das überwiegend mit verbessertem Upsampling lockte und Frame Generation bot, damit Fake-Frames in Benchmark-Ergebnisse einfließen können.

du unterschätzt dlss und (multi)frame gen. jensen hyped es natürlich, aber es ist keine als gold getarnte scheiße.

hast du das mal live gesehen und damit rumgespielt?


Jetzt bei der 5000-er gibt es ein Mini-Update.

die 5000er serie wird ihre performance erst im laufe der zeit zeigen. ich prognostiziere, dass der abstand zur 4000er sich im laufe der zeit verdoppelt.


Leider scheint Nvidia inzwischen so groß, mit nun wirklich allem durchzukommen.

volle zustimmung, das sind nunmal die folgen eines quasi monopols.
damit hast du auch die antwort auf die frage: berechnung


Auch damit, mit MFG unsinnige "Benchmarks" zu nutzten, fast so wie damals als Geforce-3-Quincunx-Multisampling-Blurring gegen Geforce-2-4x-Supersampling verglichen wurde um dann zu faseln, dass die Geforce 3 damit bei gleicher Qualität sieben mal so schnell wäre. Paar Dullis kaufen dann schon, und diese lesen sowieso kein 3DCenter.

nochmal: hast du damit schon selbst gespielt?
ich war, bevor ich es selbst getestet hatte, mindestens so skeptisch wie du.

->ja, man kann artefakte erkennen, ja man kann unter umständen den input lag bei zu niedriger base fps spüren, aber trotzdem wird das bild fast 4x so flüssig, wenngleich 4x nur mit über >=240hz refresh sinn macht.

edit:
auch wenn du es wahrscheinlich schon oft geöhrt hast:
deine artikel zu af,aa und co damals sind mir noch immer in positiver erinnerung, du hast eine art grundstein gelegt ;)

PHuV
2025-04-08, 00:38:02
hast du das mal live gesehen und damit rumgespielt?
:

nochmal: hast du damit schon selbst gespielt?

Und genau darin liegt doch das Problem, aths spekuliert viel und rät ohne konkrete Erfahrungs ins Blaue hinein, sorry, warum soll man das dann ernst nehmen? Blinder mit Farben und so...
Japp. Hatte vorhin schon geschrieben wie skeptisch ich anfänglich war, aber die Fakten sind klar, bei der 4090 hatte ich mich geirrt. Das war ein Sprung. Teuer, aber mit Dampf.

Und genau das ist mein Kritikpunkt an Dich. Ich habe überhaupt nichts gegen Irren, das passiert jedem, wenn nicht genug Infos da sind und man spekulieren muß. Aber Du hast Dich an der Stelle mehr oder minder bewußt für eine Sichtweise aufgrund des Preises entschieden, und sorry, das ist in allen Belangen unseriös, egal wie Du das jetzt hier für Dich rechtfertigen oder hinlegen möchte. Du wolltst etwas, entgegen der Fakten, darin negativ sehen. Natürlich kann man Nvidia aufgrund einigen Gebahrens negativ eingestellt sein, da kann man nichts objektiv schönreden. Aber man sollte auch nicht unnötig etwas schlechtreden, oder die Technik falsch bewerten, nur weil die Attitüde der Herstellers nicht paßt.
Für CUDA generell (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=621288). Gefühlt ist Blackwell in jeder Hinsicht ein Downgrade, wenn man von MFG absieht.
Warum? DP 2.1, 4:2:2 Video Encoding, 32GB schnellere VRAM, was für VR beschleunigt, bessere und mehr Tensor Cores. Man braucht sich doch nur mal an die Tatsachen zu halten, zu was dann die Gefühle? :confused: Gerade Du bist doch nahe am Geschehen und weißt es doch besser?

Daher, ich hab ja nichts gegen eine gute kontroverse Diskussion, aber wenn jetzt jeder hier nur seine Gefühle und Eindrücke mitteilt, die absolut subjektiv sind, kommen wir hier 0 weiter, und die Diskussion driftet ins Absurde ab.

Und für einen hochkomplexen Vorgang "Arroganz" zu verwenden, halte ich aus vielen Gründen für falsch. Man glaubt immer aus seiner kleinen Perspektive, daß da irgendwo ein großer Mann ist, der dann alles steuert und regelt, so wie es da unten so rauskommt. Ich behaupte mal aufgrund meiner konkreten Erfahrungen im IT-Bereich, daß es weder mit Arroganz noch mit Berechnung zu tun hat, sondern daß es zig Abteilungen gibt, die da versuchen, etwas wirtschaftlich wie gewinnbringend auf dem Markt zu werfen, und man sich aufgrund der Marktmasse und noch aktuell sicheren Weltmarktposition anders fokussiert und dadurch vielfach schlichtweg verzettelt. Kann man so bei allen IT-Giganten unserer Zeit doch gut beobachten.

BlacKi
2025-04-08, 00:49:42
Ich tippe auf "Gamers? I don't give a damn shit". Mit AI wird die Kohle gemacht.
ich verstehe nicht ganz, wie man das anders sehen kann. arroganz gehört doch zum geschäft wenn man produkte verkaufen will. das macht doch jeder hersteller.

der vorwurf von arroganz irritiert mich hier.

es ist der schlechteste launch aus kundensicht so oder so, das marketing versucht einfach zu retten was zu retten ist. dass das bei manchen aufstößt wundert mich nicht, aber auch die versuche seitens nvidia wundern mich nicht.

aths
2025-04-08, 00:59:38
Das spricht jetzt aber nicht gerade für Deine Experise in diesem Bereich, oder? Sorry, da solltest Du bitte tatsächlich mal den roten 3D-Guru streichen.

Man sollte doch immer anhand von Fakten urteilen, und sich nicht von "Gefühlen" leiten lassen. Und Fakt ist, die 4090 war mit den Daten und zum Release hin ein Knaller (und ist es an sich nach wie vor auch noch, bis auf den Preis). Zum Rest sage ich lieber nichts, sorry Aths, Du hast in meinen Augen schon in vielen Bereichen eigentlich den Anschluß verloren, was Dich meiner Meinung nach irgendwie glaubwürdig oder lesenswert macht, daher spare ich mir lieber die Kritik.
Die 4090 war ein teures, stromhungriges Monster in meiner Erinnerung. Soweit ich das sehe, blieb es eine Karte für Liebhaber oder Reiche. Die 8800 GTX oder zuvor Radeon 9800, wie Lawmachine als Vergleich anführt, waren im Vergleich fast schon Mainstream-Karten. Die 4090 hat Maßstäbe gesetzt, vor allem für Reviewer aber bei Privatkudnen eher nur für eine Handvoll Enthusiasten. Technisch herausragend, klar. In der Gamingwelt als tatsächlich genutzte Karte zum Zocken? Scheint mir eher ein Einhorn.

Auch ein Fail beim 5000-er Launch: Nvidia gibt damit an, in den ersten Wochen mehr verkauft zu haben als beim 4000-er Start. Klar, da gab es längere Zeit nur die 4090, die sich kaum jemand kaufte. Bei den 5000-ern, wenn auch nur in so geringen Stückzahlen dass die Scalper sich eine goldene Nase verdienen, auch 5080-er und 5070 Ti. Meine Sicht ist sicherlich voreingenommen, Nvidia lebt anscheinend in einer kompletten Welt der Marketing-Überstunden-Folien.


du unterschätzt dlss und (multi)frame gen. jensen hyped es natürlich, aber es ist keine als gold getarnte scheiße.

hast du das mal live gesehen und damit rumgespielt?
Bisher nicht, nur Reviews gesehen die Eingabelatenz gemessen haben. Ganz ehrlich mich interessieren da nicht die Benchmarks wo 80 fps aufgeblasen werden, da ist das Spiel schon gut spielbar und ob 80 oder 240 fps, das ohnehin schon gute Gefühl kann nur noch ein bisschen besser werden. Weiß nicht ob ein RTX-4000-er Gamer findet, dafür auf eine 5000-er gehen zu müssen. Die Frage wären Spiele mit Settings die deutlich geringere native Frameraten bringen.

PHuV
2025-04-08, 01:09:01
Es liefen doch auch die Launches davor, seit Ampere, diplomatisch formuliert, nicht gut. 3090 Top, aber zu teuer, alle GPUs darunter für die meisten nicht gut genug. 4090 genau das gleiche, mit 5090 wiederholt sich das ganze und wird sogar noch schlechter.

Aber die GPUs verkaufen sich. Und für Nvidia ist Gaming einfach nur noch ein Nebengeschäft, was sich beiläufig noch rechnet. Daß die Produktion einer 5080 mit einem UVP von 1169 € auf absolute Kante genäht ist, hat vermutlich viele, wie mich auch, überrascht.

Wenn sich etwas verkauft, trotz aller Kritik, wo ist die Motivation, dann noch etwas zu verbessern? Wie sagte es mal ein Freund von mir, als ich mit ihm über Windows Anfang der 90er diskutiere, und wie schlecht das OS eigentlich im Vergleich zu anderen ist. "Warum ein gutes Produkt machen, wenn sich das schlechte genauso gut verkauft!". Damit ist eigentlich alles gesagt. Und solange guter Gewinn erwirtschaftet wird, gibt es keinen Grund, es anders zu machen. Traurig, aber wahr. Wie ich oben sagte, man kann diesen Trend bei ALLEN Teckunternehmen sehen, daß ist nicht nur alleine Nvidia, alle US-Unternehmen, auch die Europäischen. Sobald man eine Marktmacht hat, spielt man sie aus, meistens zu Ungunsten der zahlenden Kunden, die kaum Alternativen haben.

Das wird sich erst ändern, wenn der Wind sich für eine Firma dreht, und man gewaltig Anteile am Markt verliert. AI wird noch weiter wachsen und bestimmt noch locker 4-10 Jahre so anhalten, vorsichtig geschätzt.

Daher glaube ich erst daran, daß sich bei Nvidia in der Führungsriege was tut, wenn es, so wie heute bei Intel, fast zu spät ist, und Jensen abtreten muß.

x-force
2025-04-08, 01:11:25
Bisher nicht, nur Reviews gesehen die Eingabelatenz gemessen haben. Ganz ehrlich mich interessieren da nicht die Benchmarks wo 80 fps aufgeblasen werden, da ist das Spiel schon gut spielbar und ob 80 oder 240 fps, das ohnehin schon gute Gefühl kann nur noch ein bisschen besser werden. Weiß nicht ob ein 4000-er Gamer findet, dafür auf eine 5000-er gehen zu müssen.

wie viel hz hat dein monitor?

ich freue mich ziemlich darüber bei cyberpunk auf 1440p mit 3x mfg von 50fps auf 140fps zu kommen, fühlt sich nicht wirklich schlechter als 2x an, was in ~90fps resultiert und sieht auf einem 180hz va wesentlich flüssiger aus.
man stellt einfach den dlls factor so ein, dass die base framerate passt und macht es mit mfg so flüssig es die refreshrate erlaubt.

diese beiden features dlss und mfg alleine sind locker auf dem level von pathtracing, was den einfluß auf die bildqualität angeht und ermöglichen es eigentlich erst pathtracing überhaupt zu nutzen.

PHuV
2025-04-08, 01:17:49
Die 4090 war ein teures, stromhungriges Monster in meiner Erinnerung.
Ok, Du erlaubst Dir also Urteile von etwas, was Du nicht selbst besessen hattest, keinen eigene Tests machen konntest, geschweige denn Dir irgendwie ein Bild machen konntest. Und die Tests hast Du anscheinend auch nicht so richtig genau gelesen und studiert, oder?
Soweit ich das sehe, blieb es eine Karte für Liebhaber oder Reiche. Die 8800 GTX oder zuvor Radeon 9800, wie Lawmachine als Vergleich anführt, waren im Vergleich fast schon Mainstream-Karten. Die 4090 hat Maßstäbe gesetzt, vor allem für Reviewer aber bei Privatkudnen eher nur für eine Handvoll Enthusiasten.
Du hast dann auch nicht mal hier das Forum verfolgt, oder, wo sehr viele sich eine 4090 anschafften, oder? Bei PCGH lag bei einer Umfage die 4090 mit 21% im Besitz, was keine kleine Zahl ist. Das ist deutlich mehr als eine Handvoll.
Update, sogar über 22,25% von 782 Teilnehmer:
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfragen-Q2-1444427/
23.59% bei 907 Teilnehmer
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfrage-GPU-VRAM-1452581/
Später beim Release der RX 9070/XT 10,89% bei 1432 Teilnehmer
https://www.pcgameshardware.de/Umfrage-Thema-136900/News/Community-Umfrage-1468526/
Bei CB das gleiche, 9,6 % mit 5.709 Teilnehmer.
https://www.computerbase.de/news/grafikkarten/gaming-grafikkarten-welche-gpu-habt-ihr-verbaut-und-was-darf-die-verbrauchen.92069/
und hier im 3D-Center gabs bestimmt auch mal eine Umfrage dazu.
Technisch herausragend, klar. In der Gamingwelt als tatsächlich genutzte Karte zum Zocken? Scheint mir eher ein Einhorn.
Sorry aths, das ist in meinen Augen nur schlampig. Willst Du jetzt hier nur unnötig provozieren oder wie? Wie lange bist Du denn hier schon ernsthaft nicht mehr dabei, daß Du zu so einem fahrlässigen und falschen Schluß kommst? Das ist nicht mehr peinlich, daß ist meiner Meinung nach schon erschütternd. :eek:

aths
2025-04-08, 01:27:09
Und genau das ist mein Kritikpunkt an Dich. Ich habe überhaupt nichts gegen Irren, das passiert jedem, wenn nicht genug Infos da sind und man spekulieren muß. Aber Du hast Dich an der Stelle mehr oder minder bewußt für eine Sichtweise aufgrund des Preises entschieden, und sorry, das ist in allen Belangen unseriös, egal wie Du das jetzt hier für Dich rechtfertigen oder hinlegen möchte. Du wolltst etwas, entgegen der Fakten, darin negativ sehen. Natürlich kann man Nvidia aufgrund einigen Gebahrens negativ eingestellt sein, da kann man nichts objektiv schönreden. Aber man sollte auch nicht unnötig etwas schlechtreden, oder die Technik falsch bewerten, nur weil die Attitüde der Herstellers nicht paßt.Man sollte auch nicht voreilig relativieren und mit großen Techgiganten sowie Käufern deren teuersten Produkten zu nachsichtig sein.

Im Weiteren schreibst du, wenn ich das richtig lese, über Komplexität bei großen Konzernen, und dass man sinngemäß nicht immer bösartigen Vorsatz annehmen sollte. Ich sag mal so, am Ende kommen trotzdem verbraucherfeindliche Strategien raus. Warum werde ich für ein Posting kritisiert während du einen milliardenschweren Konzern, bei dem Experten Überstunden schieben um ihr Marketing noch ein bisschen für sie vorteilhafter zu machen, gerade so ohne nach aktueller Gesetzeslage strafbar zu sein, schonst?

Warum ist kritikwürdig wenn meine Sichtweise vom Preis beeinflusst wird? Ja die 4090 war, und ist auch heute noch, eine technische Glanzleistung. Vorgestellt im Oktober 2022, eine Endverbraucher-GPU die nur Nvidia jetzt selbst übertreffen konnte. Chip-Entwickler wie AMD oder Intel kommen auch heute nicht mal in die Nähe. Zweieinhalb JAHRE später. Rede hier nur von der Rohleistung, nicht mal von den On-Top-Funktionen wie DLSS. Nur war das Ding so teuer dass sie auf dem Hardwaremarkt für die allermeisten Gamer in der Frage ob man so eine Grafikkarte kauft, keine Rolle spielte. Die 4090 sieht man aus dieser Perspektive als Kauf für CPU-Reviewer um ein GPU-Limit möglichst auszuschließen, sowie für einige gut betuchte Gamer die dringend in 4K zocken müssen.

Ok, Du erlaubst Dir also Urteile von etwas, was Du nicht selbst besessen hattest, keinen eigene Tests machen konntest, geschweige denn Dir irgendwie ein Bild machen konntest. Und die Tests hast Du anscheinend auch nicht so richtig genau gelesen und studiert, oder?

Du hast dann auch nicht mal hier das Forum verfolgt, oder, wo sehr viele sich eine 4090 anschafften, oder? Bei PCGH lag bei einer Umfage die 4090 mit 21% im Besitz, was keine kleine Zahl ist. Das ist deutlich mehr als eine Handvoll.
Japp, ich habe auch Meinungen über Grakas die ich nicht selbst besitze. Habe eine etwas seltsame Art zu posten aber möchte nicht unntötig provizieren. Die Umfragen, weißt du welche Graka in der letzten Stream-Survey (März 2025) die weit verbreiteste war? RTX 3060.

Ganz genau.

aths
2025-04-08, 01:58:41
wie viel hz hat dein monitor?

ich freue mich ziemlich darüber bei cyberpunk auf 1440p mit 3x mfg von 50fps auf 140fps zu kommen, fühlt sich nicht wirklich schlechter als 2x an, was in ~90fps resultiert und sieht auf einem 180hz va wesentlich flüssiger aus.
man stellt einfach den dlls factor so ein, dass die base framerate passt und macht es mit mfg so flüssig es die refreshrate erlaubt.

diese beiden features dlss und mfg alleine sind locker auf dem level von pathtracing, was den einfluß auf die bildqualität angeht und ermöglichen es eigentlich erst pathtracing überhaupt zu nutzen.
165 Hz auf dem Aorus-Laptop (absurd!), 144 Hz am Desktop, hier den LG-1440p-Monitor aber auf 120 Hz gestellt (damit 60-fps-Youtube-Videos nicht mikroruckeln). Hab eine Asus 4070 Super momentan, Powertarget von 220 auf 154 Watt gesenkt weil ich diesen PC auf leise Luftkühlung optimiert habe.

Hatte kurz Witcher 3 noch mal angefangen (dann fehlte leider die Zeit um wieder in die Story zu kommen), das war bei 120 fps (Settings nicht max, nur mid-high) ziemlich geil.

Zockst du mit Cyberpunk mit Controller?

PHuV
2025-04-08, 02:05:52
Man sollte auch nicht voreilig relativieren und mit großen Techgiganten sowie Käufern deren teuersten Produkten zu nachsichtig sein.
Woraus erweckt sich bei Dir ein Eindruck, daß ich relativiere oder nachsichtig sei? Ich kann - falls gewünscht - Dir das alles darlegen und beweisen und Dir Quellen liefern.

Im Weiteren schreibst du, wenn ich das richtig lese, über Komplexität bei großen Konzernen, und dass man sinngemäß nicht immer bösartigen Vorsatz annehmen sollte. Ich sag mal so, am Ende kommen trotzdem verbraucherfeindliche Strategien raus.
Es kommt auf die Perspektive an. Verbraucherfeindlichkeit bei einem Luxusprodukt ist ebenso keine objektive Wertung, es wird keiner gezwungen, GPUs zu kaufen, oder seine Freizeit mit Spielen zu verplempern.
Was interessiert Dich als CEO, Manager etc. da oben der Verbraucher, wenn er Dir Deine Ware trotzdem abkauft? Du gehst hier aus meiner Sicht mit einer vollkommen falschen Sichtweise ran, um überhaupt das Geschehnis zu kritisieren als vermeidlicher "3D-Guru".
Warum werde ich für ein Posting kritisiert während du einen milliardenschweren Konzern, bei dem Experten Überstunden schieben um ihr Marketing noch ein bisschen für sie vorteilhafter zu machen, gerade so ohne nach aktueller Gesetzeslage strafbar zu sein, schonst?
Du wirst von mir kritisiert,

weil Du neben Dir einen Titel mit 3DCenter Crew & 3D-Guru stehen hast, was eine gewisse "Experise" suggeriert, Du aber offensichtlich nicht hast
das was Du da schreibst, sorry, in vielerlei Hinsicht rein aus dem Bauch raus geschrieben wurde
Du erschreckend große Mängel in Wissen und Fakten aufweist, und mit Fehleinschätzungen und Fehlurteilen um Dich wirfst, daß es in meinen Augen nur noch peinlich ist. Du kennst nicht mal ungefähr die Zahlen selbst hier im Forum, suggerierst aber mit Deinem Titel, daß Du im Namen des Forum schreibst.
Noch erschreckender, durch einfaches normales Mitlesen, was Du anscheinend offensichtlich nicht getan hast, hättest Du die Lücken und mangelndes Wissen ganz einfach auffüllen können, und dann hättest Du eigentlich von Anfang an mitbekommen müssen, daß die 4090 technisch eine gute GPU ist. Es hätte zu Deiner Fehleinschätzung meines Erachtens gar nicht kommen dürfen. Sprich, Du bist eigentlich schon weit von dem Thema entfernt, daß Du Dir überhaupt ein Urteil erlauben könntest.

Und wo schone ich was? Wo sage ich, daß Nvidia fehlerfrei sei? Wenn Du mal hier normal mitlesen würdest, wüßtest Du, daß ich genau das nicht tue. Nur überrascht mich das Verhalten von Nvidia überhaupt nicht, weil das schon zigmal an vielen Gebieten anders vorkam, Microsoft, Oracle, Apple, SAP, nur um mal die Großen zu nennen. Oder heute erst gesehen, nicht auf IT bezogen, Wallraff mit dem Skandal um Kaufland mit den Hygieneproblemen, während der Besitzer der Schwarzgruppe Milliarden scheffelt.

Warum ist kritikwürdig wenn meine Sichtweise vom Preis beeinflusst wird?

Du siehst das wirklich nicht? :eek::confused::rolleyes:
Und genau deshalb finde ich, schon seit Jahren, viele Deine Reviews, die Du hier so schreibst, mangelhaft wie schlecht. Und so wie Du schreibst, glaubst Du noch, wie toll Du das machst.
Negative Erwartungshaltung schaltet bei Dir einen Filter an, und Du hast doch selbst gemerkt, wohin dieser Filter führt. Und dann bist Du ernsthaft überrascht, wie und warum Du Dich geirrt hast?

Und man muß IMMER trennen, Technik von Usabilität, Performance, Leistung und Preis, um wirklich objektiv darzustellen und zu schreiben, besonders in Reviews, sonst taugen sie nichts. Von Gefühlen kann man sich nichts kaufen.

Ja die 4090 war, und ist auch heute noch, eine technische Glanzleistung. Vorgestellt im Oktober 2022, eine Endverbraucher-GPU die nur Nvidia jetzt selbst übertreffen konnte. Chip-Entwickler wie AMD oder Intel kommen auch heute nicht mal in die Nähe. Zweieinhalb JAHRE später. Rede hier nur von der Rohleistung, nicht mal von den On-Top-Funktionen wie DLSS.
Richtig, und das kann man erst mal so objektiv wie möglich betrachten und stehen lassen.

Nur war das Ding so teuer dass sie auf dem Hardwaremarkt für die allermeisten Gamer in der Frage ob man so eine Grafikkarte kauft, keine Rolle spielte.
Das ist doch wieder eine ganz andere Diskussion, die in der technischen Leistung doch erst mal keine Rolle spielt. Du hast eben nicht verstanden, daß die 3090, 4090 und jetzt 5090 das ist, was vorher "Titan" war, nur eben ohne Vollausbau. Wurde ja ausgiebig von Nvidia schlauerweise ab Maxwell ausgetestet, ob sich hier einen Markt findet, und ja, er fand sich.

Und hättest Du das Release damals verfolgt, hättest Du sehen müssen, wie viele sich hier die 4090 zulegten. Ja, natürlich eine Minderheit, aber mich hatte es ehrlich gesagt auch überrascht, wie viele sich trotz des hohen Preises rasch, alleine hier im 3D-Center, eine 4090 kauften.

Die 4090 sieht man aus dieser Perspektive als Kauf für CPU-Reviewer um ein GPU-Limit möglichst auszuschließen, sowie für einige gut betuchte Gamer die dringend in 4K zocken müssen.
Das ist eine mögliche Perspektive, aber nicht die alleinige.
Japp, ich habe auch Meinungen über Grakas die ich nicht selbst besitze.
Kannst Du ja gerne haben, so viel Du willst, solange Du die Meinung für Dich behältst. Richtig mitreden kannst Du erst, wenn Du sie auch mal bei Dir selbst live und ohne Hetze in Aktion erleben kannst.
Habe eine etwas seltsame Art zu posten aber möchte nicht unntötig provizieren.

Das ist jetzt bitte nicht böse oder anfeindend gemeint: Aber mir kommts ehrlich gesagt oftmals sehr abgehoben und weltfremd vor.

Die Umfragen, weißt du welche Graka in der letzten Stream-Survey (März 2025) die weit verbreiteste war? RTX 3060.

Ganz genau.
Ich hab nur die 3060 TI FE hier, die zuerst im Anwendungsrechner war, dann von meinem Sohn als SpieleGPU für Spiderman genutzt wurde, und mir dann prima half, meine 4090 lose Zeit zu überbrücken. Aber ich kann mitreden. ;) Siehste, meine größte Fehleinschätzung der letzten Jahre war definitiv, Lederjacke zu glauben, daß eine 5070 eine 4090 schlägt, und die Dummheit, die 4090 zu verkaufen. Ich irre mich auch. ;) Nur konnte ich es nicht abschätzen, weil ich mich auf die Erfahrungen verließ, daß damals eine 4080 schneller war als eine 3090, oder eine 3070 eine 2080TI schlug.

Badesalz
2025-04-08, 06:40:46
5090: Deren Speicherbandbreite ist absurd, vielleicht irre ich mich auch heute und die 5090 geht als GPU ein in die Geschichte, die richtig lange brauchbar war.Die Multi Flame Generation könnte das verhindern :tongue:

edit:
Letzter Beitrag :uconf3: Fanboys on fire :uup: 95% des Inhalts beschäftigt sich ohne sonstige Inhalte nur mit der Person. Der Highend eines klischeehaften Paradebeispiels des stumpfen Flames. Besser gehts nicht.

Du hast eben nicht verstanden, daß die 3090, 4090 und jetzt 5090 das ist, was vorher "Titan" war
Und da wo es hätte was werden können, kam nur Blödsinn. "Die 3090 ist keine Titan":
https://www.reddit.com/r/nvidia/comments/iovn4f/the_3090_is_not_a_titan_replacement_and_here_is/

Zephyroth
2025-04-08, 08:29:42
NVidia baut inzwischen eben AI-Chips, die sie versucht mit Features wie DLSS & MFG an die Gamer zu bringen...

Grüße,
Zeph

Badesalz
2025-04-08, 08:35:22
@Zephyroth
AMD möchte dem anscheinend folgen. Aus RDNA + CDNA wird UDNA. Nach RDNA5 wars das wohl auch bei denen.

Wenn ich CP77 + Mods + Pathtracing sehe, sehe ich das aber entspannt :rolleyes: Was uns immer zu schaffen machte, sobald es schnell genug war, war das lechzen nach mind. dem gleichen, in einer höheren Auflösung. Wobei mehr Kantenschärfe wieder mehr Flimmern bedeutete. usw. usw. Das hat wieder und wieder die Resourcen aufgefressen.

Mit UWQHD und 4k ist das Thema aber nahezu beendet. Nur VR treibt das noch bisschen an. Sonst wars das weitgehend.

Leonidas
2025-04-08, 08:42:15
.... dass die Geforce 3 damit bei gleicher Qualität sieben mal so schnell wäre. Paar Dullis kaufen dann schon, und diese lesen sowieso kein 3DCenter.

Wie sich die Zeiten manchmal gleichen ;)

Aber ein was hat sich geändert: Seinerzeit hat auch die Presse voll an den Lippen von NV gehangen und haben den Mist mit GF2 vs GF3 teilweise mitgetragen. Heuer nun hat kaum jemand FG in seine regulären Benchmarks einfließen lassen. Teilweise natürlich, weil man mit nur 4 FG-Titeln keinen Staat machen kann. NV ist nachlässig geworden selbst bei diesen Dingen.

PHuV
2025-04-08, 09:03:08
Mir ist noch folgendes eingefallen:
Was an sich auch noch von Dir @aths und vermutlich auch vielen anderen vollkommen verkannt wurde, daß die GPUs x090er GPUs ab Ampere eigentlich semiprofessionelle Workstationkarten sind, mit denen man auch spielen kann. Ich hatte es ja bereits vorher angedeutet, daß der Vollausbau mit den Titans ab Turing eigentlich dafür gedacht war. Das fing ungefähr mit der Titan V Volta mit 12GB HBM2 VRAM (https://www.nvidia.com/de-at/titan/titan-v/) an, Gaming GPU war hier High-End die 1080 TI. Das liest man auch so in vielen Test wie hier:

https://www.computerbase.de/artikel/grafikkarten/mifcom-miniboss-titan-v-test.63516/
Wie schnell ist Nvidias Volta-GPU auf der Titan V in Spielen, Compute und Mining?
:
Jetzt hat die Redaktion die 3.100 Euro teure Grafikkarte im 9.999 Euro teuren Mifcom miniBOSS Core i9-7980XE getestet
:
Die Nvidia Titan V ist keine GeForce, was zur Folge hat, dass Nvidia sie nicht als Muster verteilt. Aus diesem Grund und weil der Preis mit 3.100 Euro selbst für absolute Enthusiasten unter den Spielern astronomisch hoch liegt, hatte ComputerBase bisher auf einen ausführlichen Blick auf diese Grafikkarte mit Volta-GPU verzichtet.
:
Die Titan V basiert auf der eigentlich für professionelle Einsatzzwecke gedachten GV100-GPU und ist trotz 12-nm-Fertigung mit 815 mm² und 21,1 Milliarden Transistoren schier riesig.

https://www.pcgameshardware.de/Titan-V-Grafikkarte-267012/
Die Titan V gehört zur Volta-Generation von Nvidia, die im Jahr 2017 auf den Markt kam. Die für Spieler sehr teure Grafikkarte ist eher für den Profibereich ausgelegt und wird von Nvidia direkt als Referenzdesign verkauft.
Aber am deutlichsten kann man an dem Nachfolger, der Titan RTX "Gold" mit Turing erkennen. Die RTX 2080 Ti war noch eine für Gaming gedachte GPU, die Titan Gold wurde von Nvidia als Workstation GPU mit 24GB (wieder mit DDR6) VRAM beworben (https://www.nvidia.com/de-at/titan/titan-rtx/), und sie war auch arschteuer, aber mit 2700 € hat sie weniger gekostet also die Titan V davor.

https://www.pcgameshardware.de/Titan-RTX-Grafikkarte-268109/News/Laut-weiterem-Review-fuer-Gamer-nicht-sinnvoll-1272120/
Die neue Titan RTX von Nvidia richtet sich zwar offiziell schon nicht an Gamer, doch aufgrund der selbst zu einer Geforce RTX 2080 Ti verbesserten Spezifikationen ist die Leistung der Grafikkarte auch unter Spielen interessant. In einem neuen ausführlichen Review von Gamers Nexus zeigt sich aber, dass die Titan RTX für Gamer kein sinnvoller Kauf wäre.
https://www.computerbase.de/artikel/grafikkarten/geforce-titan-rtx-mifcom-test.66931/
Nvidias Titan-Grafikkarten richtet sich nach ihrem auch für enthusiastische Spieler interessanten Auftakt im Jahr 2013 heute an so genannte Prosumer

Und wo sehen wir die Titans ab Ampere als Vollausbau? Nirgends. Weil Nvidia nicht blöd ist, und sie nicht im niedrigen Prosumer-Bereich verbrät, sondern sie landen alle durchweg in den Profi-GPUs, die ab 8000 € und mehr verkauft werden. Und die 90er-Reihen sind - wie oben bereits erwähnt - eigentlich alles Prosumer GPUs, oder wie ich sage, Workstation-GPUs, mit denen man auch spielen kann. Sie ersetzen quasi die bisherigen Titans in diesem Bereich, und die Titan RTX war die letzte davon. Und wenn man sich dann so die Preise anschaut, haben sie sich seit Volta V eigentlich so gar nicht verändert, bis auf die Tatsache, daß die 3090 wie die 4090 wie eigentlich auch die 5090 per UVP dafür "günstiger" waren. Mit der x090er Reiher wird der genau dieser in der Mitte liegende Bereich gut bedient, und die Gaming-GPUs sind an sich nach wie vor die x080-GPUs und darunter, jedoch steigenden saftigen Aufpreisen.

Nochmals klar gesagt, ich habe hier NICHT meine Meinung kundgetan, sondern nur das wiedergegeben, was sich oben in den Quellen nachlesen läßt, und was sich eigentlich so ab ca. 2018 mit dem Mining Boom abzeichnete. Wenn man an sich aufmerksam die diversen Presseberichte laß, auch vieles im nicht deutschen Bereichen und auf englisch, war der Trend doch klar erkenn und abzeichenbar, und ich habe, damit es nicht zu fett hier wird, nur mal PCGH und CB als Referenzen genommen, da in den anderen Artikeln der Tenor an sich der gleiche ist.
NV ist nachlässig geworden selbst bei diesen Dingen.
Oder der Fokus bzw. Prioritäten hat sich geändert.

Badesalz
2025-04-08, 10:10:37
Es gibt keinen Vollausbau mehr. Von einigem gibts bisschen mehr, aber damit man nicht über 600W kommt musste man die Shader zurückfahren (RTX Pro 6000).

BlacKi
2025-04-08, 10:35:21
Es gibt keinen Vollausbau mehr. Von einigem gibts bisschen mehr, aber damit man nicht über 600W kommt musste man die Shader zurückfahren (RTX Pro 6000).
so funktioniert das nicht. der verbrauch wird zu 100% über den takt geregelt. und zu 0% über die shader.


ich glaube eher, das man für den vollausbau eher die profi karten kaufen soll. upselling auf der letzten stufe.

Badesalz
2025-04-08, 10:40:09
so funktioniert das nicht. der verbrauch wird zu 100% über den takt geregelt. und zu 0% über die shader.Ja. Trotzdem hat die rtx pro 6000 wohl weniger shader als die 5090. Könnte es sein, daß es grundlos ist? :freak: Wenn man hier den Schwerpunkt ggf. wegen HPWR verschieben musste, dann gibt es immernoch keinen Vollausbau, weil halt HPWR limitiert.

Oder halt das doch gefundene letzte Quäntchen vom gesunden Menschenverstand...

edit:
Hat aths überhaupt sich so auf "Vollausbau" und Titan fokusiert? Ich frag mich welche Art von Entgegnung auf seine Thesen das F...oy-Gelaber oben sein soll :|

PHuV
2025-04-08, 10:53:17
so funktioniert das nicht. der verbrauch wird zu 100% über den takt geregelt. und zu 0% über die shader.
Es war an sich doch schon immer so, daß die Pro-Karten in der höchsten Ausbaustufe in Takt und in Stromleistung gedrosselt waren.
ich glaube eher, das man für den vollausbau eher die profi karten kaufen soll. upselling auf der letzten stufe.
Sehe ich auch so, da ja seit Turing keine Vollausbau-GPU mehr für den Con- bzw. Prosumer Markt mehr verfügbar ist, sondern nur noch ausschließlich in den Pro-GPUs in der höchsten Stufe mit entsprechend mehr RAM über HBM kaufbar ist.

Cubitus
2025-04-08, 11:01:34
Ich will den Thread jetzt nicht komplett sprengen, aber nur so viel dazu: PC-Hardware war früher einfach unfassbar teuer – gerade am Anfang.
Als Schüler konnte ich mir das schlichtweg nicht leisten. Deshalb bin ich auf meinen Amiga 1200 ausgewichen – ein absolut geniales Teil damals. Den hab ich mir mit Zeitungsaustragen und ein bisschen Geld zu Weihnachten oder zum Geburtstag zusammengespart.

Dann gab's aber auch mal eine Zeit, in der PCs tatsächlich halbwegs erschwinglich wurden.
Rund um die Ära des ersten Pentiums wurden 486er DX2-Prozessoren regelrecht verramscht. Danke an die Computerbörse in Ulm – das war Gold wert! Klar, Hardware war immer noch nicht billig, aber man konnte sich als Schüler mit Nebenjobs zumindest etwas Vernünftiges leisten.

Und dann die goldenen Bastelzeiten:
Da konntest du mit etwas Glück ein BIOS flashen und aus einer Radeon Pro eine XT machen
– wie genial war das bitte? Selbst Nvidia war damals noch nicht ganz so frech bei den Preisen. Richtig abgedreht wurde es erst später – mit der Titan-Serie fing das Ganze an, seltsam zu werden.

Seit der Pandemie haben alle Hersteller irgendwie den Verstand verloren. Beispiel Mainboards:
Früher warst du mit 220 Euro schon im High-End-Bereich unterwegs, gerade bei MSI mit der MEG-Serie. Heute kriegst du für 200 Euro mit Glück ein mittelklassiges Board. Netzteile? Früher waren 200–250 Euro High-End – jetzt geht’s bei 600 Euro erst los.

Und Tastaturen... da scheint der Trend zu sein: Entweder geölt vom japanischen Tastatur-Meister, der seit 50 Jahren nichts anderes macht – oder gleich 1.000 Euro für ein Selbstbaukit. Seriously?

CPUs? Der AMD 9800X3D ist ne geile CPU, keine Frage – aber am Ende ist’s ein 8-Kerner für 500 Euro.
Und dann die größte Abzocke aktuell: Lüfter und AiOs. Ganz vorne mit dabei: Lian Li, Corsair und Co. Sobald da RGB und Daisy-Chaining draufsteht, kostet’s das Zehnfache.
Als ob der Zusammenbau in irgendeiner asiatischen Fabrik mehr als ein paar Cent kostet...

Die einzigen Lichtblicke sind Noctua und Arctic. Die stecken echt viel in Entwicklung und verlangen faire Preise – da bekommt man solide Technik für gutes Geld. So sollte es eigentlich sein.

Und Nvidia? Die machen halt Nvidia-Dinge.
Deren Technik ist top – wenn sie denn funktioniert. Nur: Sie wollen Kappa für AI haben, und TSMC kommt mit der Fertigung nicht hinterher.
Alles wird komplexer, klar – aber Nvidia hat eben aktuell keine echte Konkurrenz. Umso schöner, dass AMD in der Mittelklasse wirklich aktuell was Gutes liefert.

Badesalz
2025-04-08, 11:08:23
Seit der Pandemie haben alle Hersteller irgendwie den Verstand verloren. Beispiel Mainboards:
Früher warst du mit 220 Euro schon im High-End-Bereich unterwegs, gerade bei MSI mit der MEG-Serie. Heute kriegst du für 200 Euro mit Glück ein mittelklassiges Board. Netzteile? Früher waren 200–250 Euro High-End – jetzt geht’s bei 600 Euro erst los.Nobel. Nobel geht die Welt zu Grunde.

Dir entgeht aber irgendwie auch der große Plan.

PHuV
2025-04-08, 11:11:32
Ich kann Dir allem nur zustimmen.

Und Nvidia? Die machen halt Nvidia-Dinge.
Deren Technik ist top – wenn sie denn funktioniert. Nur: Sie wollen Kappa für AI haben, und TSMC kommt mit der Fertigung nicht hinterher.
Alles wird komplexer, klar – aber Nvidia hat eben aktuell keine echte Konkurrenz.

Und genau das ist das Muster, dem alle folgen. Nimm ein Intel, was sich jahrelang auf seinem Status ausgeruht hast, bis es jetzt zum Knall kam, und AMD für Consumer wie auch für den Probereich bessere CPUs liefert. Und man muß doch nur mal die IT-Geschichte seit den 80ern verfolgen, Marktmacht ist nicht unbedingt auch ein Segen.

Atari Marktmacht in Konsolen -> heute verschwunden
Commodore Marktmacht Homecomputer -> heute verschwunden
Motorola (damals besser als Intel) -> verschwunden
Von NEC, DEC, Sun, Novell fange ich erst mal gar nicht an
IBM kann sich auch nur noch durch die Großrechner im Bankenbereich aus den 60ern bis heute halten
3dfx brauche ich wohl weiter nicht erwähnen


Umso schöner, dass AMD in der Mittelklasse wirklich aktuell was Gutes liefert.
Das ist zu begrüßen. Aber das wird nicht ausreichen, wenn sie im KI Umfeld nicht entsprechend nachliefern. Oder sie beschränken sich auf den Gaming Markt, und hoffen, daß sie weiter bei Xbox, Playstation und Co. die Hoflieferanten bleiben.

Wenn man sich nur mal Atari, Commodore und 3dfx heranzieht, und deren Firmenhistorie mit Geschehnissen genauer studiert, sieht man immer das gleiche Muster:

Markt erobert
Nachfolgeprodukt wird zu schnell und unvollständig auf den Markt geworfen
Konkurrenz ist schneller und besser wie stärker
Markt und Entwicklung wird vom Management nicht erkannt
Untergang, weil Kosten und Komplexität stark unterschätzt werden

Von Arroganz oder Berechnung als einzelnen menschlichen Charakterzug kann man hier eigentlich nicht sprechen. Eher von der Arroganz einzelner Führungspersönlichkeiten, die aber man eher als blinde und überforderte Ignoranz einordnen kann.

Die Strategie von Nvidia, und das muß man nach wie vor bewundernd trotz all der miesen Dinge anerkennen, ist hier pures Kalkül. Binden der Kunden an ein System durch Cuda, AI, DLSS usw., das sich eben nicht so einfach beliebig ersetzen läßt, gekoppelt mit starker Leistung, wie sie auch immer erzielt wird. Genau den Fehler haben die exemplarisch oben genannten gemacht, sie waren schnell ersetzbar, und daher sind sie entsprechend schnell bei Fehlschlägen verschwunden. Dadurch, daß es Nvidia hier geschickter gemacht hat, können sie Fehlschläge in dem für sich heute kleineren Gamingbereich und auch im Pro Bereich mangels Alternative besser verdauen.

Ob man das jetzt auch "Berechnung" gleichsetzen kann, lasse ich mal dahingestellt.

YeahBuoy!
2025-04-08, 11:33:07
Nobel. Nobel geht die Welt zu Grunde.

Dir entgeht aber irgendwie auch der große Plan.

Ich war leider nicht auf der letzten Illuminatensitzung weil meine Robe in der Wäsche war, hatten wir uns jetzt für Knechtschaft des stinkenden Pöbels durch sinnbefreites Upselling oder blinden Markenfanatismus entschieden? ;)

Wegen meiner kann Jensen scheißen gehen, und mit ihm alle Enabler die die Situation seit Jahren schön reden. Ich hatte mal echt für eine Picosekunde Hoffnung das Intel sich langsam von unten an die Fat cats ran arbeiten kann, aber gibt wohl keinen Aufstand im Schlaraffenland.

@Cubitus: Jup, kann das weitestgehend unterschreiben. Die Pandemie war der große Showcase was Leute mit zuviel Freizeit und liquiden Mitteln willens sind zu bezahlen. Oder welche innovativen Kundengruppen man plötzlich identifizieren und besser abmelken konnte, Stichwort "Prosumer". Nicht das es nicht schon vorher knickerige Kunden gegeben hätte die einfach Consumer GPUs genommen und dann für semiprofessionelle Zwecke, nur eben ohne offiziellen Treibersupport, missbraucht haben.

Bei Peripherie find ichs noch am krassesten wo für Eingabegeräte teils Preise für eine Entrylevel GPU aufgerufen werden. Nein, die Sensoren, Switche, das bisschen Plastik und die 3 LEDs rechtfertigen keine dreistelligen Preise für Mäuse.

BlacKi
2025-04-08, 11:34:27
Und Nvidia? Die machen halt Nvidia-Dinge.
Deren Technik ist top – wenn sie denn funktioniert. Nur: Sie wollen Kappa für AI haben, und TSMC kommt mit der Fertigung nicht hinterher.
Alles wird komplexer, klar – aber Nvidia hat eben aktuell keine echte Konkurrenz. Umso schöner, dass AMD in der Mittelklasse wirklich aktuell was Gutes liefert.
ja, eigentlich sind doch nur die fanboys oder die mit zuviel geld sauer, denn so hat die konkurenz wenigstens noch luft zum atmen.

wenn fsr4 noch etwas besser wird und wesentlich mehr verbreitung findet, dann sind die rdna4 karten super. und in 2 jahren gibts wohl wieder enthusiast gpus. auch wenn die steigerungen nichtmehr denen von früher entsprechen.

redpanther
2025-04-08, 11:59:02
Passt hier vielleicht gut rein, bin über diese Leseprobe gestolpert,
eine Bio von Huang:
https://www.amazon.de/dp/3593520583?tag=spektrumde-21&linkCode=osi&th=1&psc=1

Das Buch habe ich nicht, aber die Leseprobe gibt einem vielleicht einen Eindruck, wie Huang Tickt. Die Leseprobe erzählt sein Leben bis er Anfang 20 ist, praktisch bis zur Gründung NVidias.
Wenn das alles wirklich so passiert ist, eine Filmreife Geschichte.

Zephyroth
2025-04-08, 11:59:32
Und Tastaturen... da scheint der Trend zu sein: Entweder geölt vom japanischen Tastatur-Meister, der seit 50 Jahren nichts anderes macht – oder gleich 1.000 Euro für ein Selbstbaukit. Seriously?

Na ja, ne gute Tastatur ist schon ne Bank, wenn du jeden Tag damit arbeitest... Auch ich hab' eine 150€-Tastatur mit mechanischen Cherry-Switches und würd' nicht mehr darauf verzichten...


Seit der Pandemie haben alle Hersteller irgendwie den Verstand verloren. Beispiel Mainboards:
Früher warst du mit 220 Euro schon im High-End-Bereich unterwegs, gerade bei MSI mit der MEG-Serie. Heute kriegst du für 200 Euro mit Glück ein mittelklassiges Board. Netzteile? Früher waren 200–250 Euro High-End – jetzt geht’s bei 600 Euro erst los.

Bei den Mainboards kann ich's sogar teilweise verstehen. Was da inzwischen drauf ist, vorallem was die VRM's so leisten müssen, das ist schon feine Schaltungstechnik, die früher so einfach nicht notwendig war. Heute hockt ja sogar die SSD schon mit am Mainboard, manchmal sogar zwei...

Aber Netzteile? What? Mein Corsair mit 750W war bei 150€. Keine Ahnung ob das als HighEnd gilt. Es ist halt ein 80plus Gold Netzteil, das leise ist. Passt schon. Was soll da jetzt noch dazu kommen, dass man auf 600€ kommt? Nichtmal 1500W-Netzteile müssen so teuer sein.

Es sei denn das 80+ Gold bezieht sich auf's Kabelmaterial und nicht auf den Wirkungsgrad.

Grüße,
Zeph

Badesalz
2025-04-08, 12:02:21
Ich war leider nicht auf der letzten Illuminatensitzung weil meine Robe in der Wäsche war, hatten wir uns jetzt für Knechtschaft des stinkenden Pöbels durch sinnbefreites Upselling oder blinden Markenfanatismus entschieden? ;)Top :tongue:

Wir haben uns entschieden, daß die "Betirebskosten" so bis ins Unerträgliche getrieben werden sollen, daß der angefixte Pöbel dann freiwillig nach und nach in die Cloud wechselt. Hat gleich mehrere Vorteile.

Erstmal saugen wir sie soweit leer bis auch die letzten langsam anfangen aufzugeben. Bis dahin haben wir die Technologien soweit, daß sie ihr ganzes Ökosystem auch in der Cloud fahren können. Denen wird das schon irgendwann auffallen, daß es sinn ergibt, weil während ihr Netzwerk daheim mit 1Gbit und bestensfalls 2.5Gbit läuft (das bremsen wir aj schon entsprechen ab, seit etlichen Jahren), sie nach draußen mit 10Gbit PON (XGS) verbunden sind. Und 25GPON läuft eigentlich auch schon jetzt. Das wird dafür reichen.

D.h. wir entfernen dadurch all diese mittlerweile lästige Hardware aus dem Heimischen wo keine Sau weiß was sie damit veranstalten (Hacker und ähh... Pädophile) und übernehmen die Aufsicht. Und natürlich den Schutz :tongue:

Sie brauchen nur den Zugang. Den Router also und die "Station" die das darstellen kann was wir in der next gen Ausbaustufe von Cloud-Gaming (GeForce NOW als Beispiel für die ersten Anläufe).
Der Pöbel braucht dann nur noch die Eingbegeräte und ggf. VR-Headsets.

Auch den kompletten Rest an Anwendungsfällen holen wir damit natürlich mit uns rein. Das ist ja auch der eigentliche Sinn dahinter. Gaming ist nur Beiwerk.
Es ist eh schon fast alles an Diensten da.

Und wenn sie zahlenmäßig zu >75% lock-in sind und kaum noch jemand eine eigene richtige HW haben will oder sich leisten kann, DANN schauen wir wie wir die Preise für die jährliche Nutzung optimieren und je nach Anwendungsfall staffeln können.

Wir haben also konstant was zu melken UND endlich wieder die gesamte Kontrolle darüber. Wie es schon vom Anfang an angedacht war, mit Rechenzentrum und Terminal. Bevor IBM mit PS/2 den größten Mist gebaut hat und Compaq es dann auch noch gleich komplett ausarten lies. So finanzieren sie das einfach selbst, unsere endlich zurückgewonnene Kontrolle. Tabletts mit anklickbarer Tasta als Testlauf lief auch schon garnicht so schlecht an. Gemach.

Die Auswertung funktioniert bei der Masse zwar nicht mehr mit klassischen Mitteln, aber die AI-Crawler kriegen das schon hin. Bis zu Präkognition hin. Keine Sorge.

Lawmachine79
2025-04-08, 12:10:03
Das Geheule über NVidia kann ich nicht nachvollziehen. Unternehmen haben keine Persönlichkeit wie "fair" oder "Abzocker" oder was auch immer man an charakterlichen Eigenschaftszuschreibungen zuordnen will. Unternehmen gehorchen Gesetzen des Marktes. Und da gibt es nur zwei Eigenschaften: Gewinner und Verlierer. Und solange NVidia Gewinner ist, werden sie weiter Gewinnerdinge machen (teures Zeug verkaufen, Zorn auf sich ziehen) und solange AMD Loser ist, werden sie weiter Loserdinge machen (billiges Zeug verkaufen, Underdogbonus in der öffentlichen Wahrnehmung). Hatten wir doch alles schon tausendmal.

Man kann sich nicht über NVidias Produktpolitik aufregen ohne sich über AMDs schlechte Produkte aufzuregen (gilt natürlich nur für Grakas; AMDs CPUs sind geiler Scheiss).

Badesalz
2025-04-08, 12:15:48
@Law
Den Mischmasch bringst du da jetzt aber selbst rein ;)
Was sind denn Unternehmen und was die s.g. Firmenkultur? Ob das alles auf Menschen basiert? Die Gesetze welchen sie gehorchen, sind keine Naturgesetze. Das sind Gesetzte die auf menschlichen Verhaltensweisen basieren.

Nvidia will Gewinner sein... Ok. Was ist denn dieser Nvidia? Ein Haufen Gegenstände?

PHuV
2025-04-08, 12:34:19
Das Geheule über NVidia kann ich nicht nachvollziehen. Unternehmen haben keine Persönlichkeit wie "fair" oder "Abzocker" oder was auch immer man an charakterlichen Eigenschaftszuschreibungen zuordnen will. Unternehmen gehorchen Gesetzen des Marktes. Und da gibt es nur zwei Eigenschaften: Gewinner und Verlierer.
Richtig, und so wie Nvidia gingen und gehen bisher alle Teckfirmen vor.

Zitat aus dem oben genannten Buch:

The Thinking Machine: Jensen Huang, Nvidia und der begehrteste Mikrochip der Welt, Seite 10:
Huang denkt nicht wie ein Geschäftsmann, sondern wie ein Ingenieur. Er zerlegt schwierige Konzepte in einfache Prinzipien, die er anschließend auf wirksame Lösungen anwendet. »Ich tue, was ich kann, um nicht vom Markt verdrängt zu werden«, erklärte er mir bei unserem Frühstück bei Denny’s. »Ich tue alles, um nicht zu scheitern.«
Weiter erwähnt werden Jensens Selbstzweifel und seine Angst, seine Angestellten im Stich zu lassen oder seine Familie zu entehren.


Man kann sich nicht über NVidias Produktpolitik aufregen ohne sich über AMDs schlechte Produkte aufzuregen (gilt natürlich nur für Grakas; AMDs CPUs sind geiler Scheiss).
Na ja, schlecht sind sie nicht, immerhin steuert AMD wieder auf 20% Marktanteil, siehe
https://www.3dcenter.org/abbildung/grafikkarten-kaeufe-der-computerbase-leser-bis-mitte-maerz-2025
https://www.heise.de/news/AMD-und-Intel-knoepfen-Nvidia-Marktanteile-ab-10306867.html

In der Biographie wird übrigens erwähnt, daß er seinen den 20ern bei AMD arbeitete. :tongue:

x-force
2025-04-08, 12:43:10
Keine Ahnung ob das als HighEnd gilt. Es ist halt ein 80plus Gold Netzteil, das leise ist.

ne, darüber gibts noch platin und titan. ein 1500w titan liegt bei 400€

165 Hz auf dem Aorus-Laptop (absurd!), 144 Hz am Desktop, hier den LG-1440p-Monitor aber auf 120 Hz gestellt (damit 60-fps-Youtube-Videos nicht mikroruckeln). Hab eine Asus 4070 Super momentan, Powertarget von 220 auf 154 Watt gesenkt weil ich diesen PC auf leise Luftkühlung optimiert habe.

Zockst du mit Cyberpunk mit Controller?

ich spiele cyberpunk mit einer 46gramm 8000hz maus.

und du zockst tatsächlich mit nativer auflösung ohne dlss, ohne fg und damit zwangsläufig stark reduzierten details, damit es überhaupt ansatzweise läuft?

Badesalz
2025-04-08, 13:31:06
Wir werden hier jetzt nicht Jensens Biographie Stück für Stück durcharbeiten :confused: ODER? Was ist das wieder für ein neuer Blödsinn. Und noch ein Zitat und noch ein Zitat... Junge... Lasst uns mal ein Baal-Schrein bauen :uking:
ich spiele cyberpunk mit einer 46gramm 8000hz maus.Die brauchst du dann auch :usweet: Normal kommt es auf zig ms an. Bei deinem Lag gehts um jede mögliche µs die man erwischen sollte ;)

Zephyroth
2025-04-08, 14:01:27
ne, darüber gibts noch platin und titan. ein 1500w titan liegt bei 400€

Weis ich. Macht immerhin bei 24/7 Volllast 180€ Ersparnis im Jahr. Also könnte sich schon rentieren, aber wer außer professionellen Minern hat so eine Rig mit >1000W 24/7 am laufen? Aber für 3h Gamen am Tag rentiert sich Platinum/Titanum wohl kaum. Hab' auch überlegt, aber die Preise sind absurd und für den Einsatz absolut nicht nötig. Zumindest aus technischer Sicht. Die Spiele laufen damit nicht schneller, schöner oder besser.

Grüße,
Zeph

YeahBuoy!
2025-04-08, 14:14:41
Falls Jensen mal einen Assistent á la Mr Smithers braucht, da könnte das 3DC durchaus mal Kontaktdaten austauschen. Da Konzerne nicht meine Freunde sind könnt ihr gerne weiter mit "Winner, Winner, Winner..:" stöhnenden Circle Jerk vorm Jensen Starschnitt weitermachen, ich bin raus.

Halten wir fest: NV tut das was sie machen weil sie es können. AMD tut das in einer runterskalierten Form ebenso. Intel würde gerne, ist aber derzeit auf unfreiwilliger Entwöhnung. Mangelnde Konkurrenz, Gründe erstmal nachrangig, und daher bequeme Oligopole sind hier der entscheidende Faktor. Marketing, dazu zähle ich auch die "Pressearbeit" einiger Influenzer / Youtuber / Webseiten, sorgt für Blue Balls und FOMO bei der leidlich solventen Käuferschaft. Ach ja, und da wären noch Scalper, manche würde diese "Menschen" nennen, die sich ihren von Mund- und Schweißgeruch dominierten Alltag beim Zigarettenstopfen auf dem Wohnzimmertisch damit versüßen teure Hardware in grammatikalisch fragwürdigen Anzeigen wieder unters Volk zu bringen. Die gehören als erstes an die Wand gestellt wenn die Revolution kommt.

x-force
2025-04-08, 14:16:38
um den bogen mal etwas weiter zu spannen, thema berechnung:

ist noch jemandem aufgefallen, dass nvidia ab der 1000er serie angefangen hat die ströme im hintergrund zu limitieren?
gleichzeitig fing das dynamische takten an. ein takt bei einer spannung in jedem szenario gabs nicht mehr. ein bios musste auf einmal signiert sein.
nv beherrscht den chip durch simulationen und berechnungen mittlerweile so gut, dass sie jederzeit den kompletten chip kontrollieren, das hat zu enormen effizienzgewinnen geführt.
das ist vergleichbar mit amds cpu entwicklung.
-> "siliziumlotto" gibt es nicht mehr, da nv für jeden einzelnen chip weiß welcher takt bei welcher spannung und gegebener auslastung stabile ergebnisse liefert und den herstellern über bios signierung alles diktiert.

ein beispiel aus der praxis:

cp2077 3250mhz bei 1,04v, perf_reason powerlimit, obwohl der voltage slider auf +100 steht, also 1,07v erlaubt sind und der verbrauch stabil bei 320w von erlaubten 350w liegt.

Weis ich. Macht immerhin bei 24/7 Volllast 180€ Ersparnis im Jahr. Also könnte sich schon rentieren, aber wer außer professionellen Minern hat so eine Rig mit >1000W 24/7 am laufen?

titan ist meiner beobachtung nach relativ gesehen vor allem im idle bereich effizienter.
hast du dir mal vergleiche bei 50-100w, oder 5% auslastung angesehen?

Zephyroth
2025-04-08, 14:29:59
titan ist meiner beobachtung nach relativ gesehen vor allem im idle bereich effizienter.
hast du dir mal vergleiche bei 50-100w, oder 5% auslastung angesehen?

Wieder richtig. Aber bei 100W, was machen da 10W schon aus? 30€ im Jahr.

Grüße,
Zeph

][immy
2025-04-08, 14:39:09
Das ist doch bei Nvidia nichts neues. Da gab es immer schon die Tendenz den Kunden aktiv zu veräppeln. Der Erfolg gibt ihnen ja leider recht. Das war schon zu 3dfx Zeiten nicht anders, aber zumindest gab es da noch keine absichtlichen technischen Probleme wie abbrennende Stromverbindungen (absichtlich unterstelle ich hier mal weil eindeutig Sparmaßnahme, niemand der einen Funken Ahnung von Elektrotechnik hat, würde auf die Idee kommen so etwas ohne Schutz zu verbauen).

Mag vom amerikanischen Unternehmertum stammen, Intel kommt ja auch aus der Ecke und ist kein deut besser.

AMD musste sich hingegen immer deutlich mehr bemühen, selbst als sie die schnelleren Produkte hatten. Ggfs sind sie daher bislang nicht so extrem abgedriftet und arrogant. Aber halt, weil sie es müssen.

x-force
2025-04-08, 14:41:49
Wieder richtig. Aber bei 100W, was machen da 10W schon aus? 30€ im Jahr.

Grüße,
Zeph

bei garantiezeiten von 10 jahren kann man gerne 5 jahre betriebszeit ansetzen.
von gold auf titan kostet aber keine 150€

Badesalz
2025-04-08, 17:19:40
@][immy
War erfreut deinen Beitrag zuu lesen. Das hätte nämlich was mit dem Topic zu tun...
Bei dir zwar nicht ungewöhnlich, aber einie Kadetten haben lesbar Probleme mit sowas.

Falls Jensen mal einen Assistent á la Mr Smithers braucht, da könnte das 3DC durchaus mal Kontaktdaten austauschenFalls er Minimi sucht verwies ich ihn direkt an den Edelfan hier.

Halten wir fest:
Unwichtig. Ich scripte dir die komplette letzte Zusammenkunft und du ignorierst es. Nachdem du danach gefragt hast... Was geht denn bei dir? :usad:

PHuV
2025-04-08, 21:57:34
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D

x-force
2025-04-08, 23:38:34
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D

also beschreibt es individuelle gründe, weshalb man in machtpositionen überproportional viele psychopathische persönlichkeiten findet?

Colin MacLaren
2025-04-09, 05:32:12
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D

Die klassischen Beispiele für den pösen, völlig moralbefreiten Großkonzern sind für mich Disney und Nintendo ;D. Das ist nicht auf die USA beschränkt.

Für mich ist das alles nachvollziehbar. Die Kohle liegt bei Workstation und AI (und vorher bei den Minern), das Gamersegment bedient man nur, weil man hier Marktdurchdringung hat und den Marktanteil so halbwegs halten möchte. Falls der AI-Boom mal abflaut, hat man somit ein zweites Standbein, um den Laden am Laufen zu halten. Das ist eine strategische Entscheidung, kurzfristig wäre wohl mehr Kohle drin, wenn man das Gamingsegment komplett aufgibt.

Dass wir dann halt zweite Geige spielen, verwundert mich nicht. Dennoch ist NVIDIA immer noch recht schnell darin, Updates zu liefern und Bugs zu fixen. Ich erinnere mich immer noch dran, wie ich einen Nischenbug gemeldet hatte (bei Turing-Laptops ruckelt GSync bei angeschlossenem externen Monitor) und der Bug stand daraufhin in den Releasenotes und war zwei Treiberversionen später gefixt. Am Ende entscheidet der Markt. Wenn AMD jetzt eine 9080XT herausgehauen hätte, mit 600W und doppeltem Chip und RAM der 9070XT, für 1.600 EUR, dann hätte ich die gekauft.

mironicus
2025-04-09, 08:07:37
Falls der AI-Boom mal abflaut

Damit rechne ich persönlich nicht, doch für NVidia kann es bedrohlich werden, wenn die großen Player wie Google und Microsoft eigene Hardware entwickeln, um unabhängiger von NVidia zu werden.

Badesalz
2025-04-09, 08:16:14
Wenn AMD jetzt eine 9080XT herausgehauen hätte, mit 600W und doppeltem Chip und RAM der 9070XT, für 1.600 EUR, dann hätte ich die gekauft.Das ist aber nicht das Vieh was am meisten Mist macht.

BlacKi
2025-04-09, 08:36:23
Das ist aber nicht das Vieh was am meisten Mist macht.
enthusiast modelle verkaufen auch andere karten. es ist teil des marketshare und damit stärkt es den ruf und die akzeptanz schwächerer modelle und verbreitung von techniken wie zb. fsr.

stell dir mal vor, es gäbe n31 nicht. keine 7900gre, keine 7900xt, keine 7900xtx.

diese modelle haben amd durch diesen schwere jahre getragen, auch wenn sie vl mitschuld daran haben. ich glaub aber eher das es die fixierung auf das chiplet design war, nicht die existenz großer modelle.

Badesalz
2025-04-09, 09:30:57
enthusiast modelle verkaufen auch andere karten.Wenn die Preislagen sich halten wird das zu urban legend der vergangenen Zeiten :wink: RDNA4 hat keinen Flaggschif und die 9070XT verkauft sich besser als AMDs optimistischeren Schätzungen vorauszusagen versuchten. Die non-XT dagegen könnte man demgegenüber schon fast als Flop betiteln.
Es scheint also, ein Zugpferd ist nicht zwingend. Genauso wie der 9800X3D keinen 9950X3D braucht.

Die Leute schauen nach der P/L und den Tests (auch ggf. der anderer Nutzer, nicht nur der PR-Journalie). Informationszeitalter und so...

Das Thema Flaggschiffe sind ein opportunistisches u-boot aus der jeweiligen Nerd-Blase :wink: welcher der Nerd-Blase real nutzt. Die erzählen immer allen wie wichtig diese sind, weil sie selbst nur diese haben wollen. Der Nachschub sollte also erhalten bleiben und die Hersteller sollten ja auf keine anderen Ideen komme :) Vollausbau-blah.
Das Fußvolk interessiert sich bestenfalls bedingt dafür, falls es sich nicht nur vollquatschen lässt. Letztendlich schaut man einfach nur wieviel man für sein Geld bekommt.

Ein ähnliches u-boot aus der gleichen Ecke ist daher auch das Gefuchtel mit der Effizienz. Es nützt nichts, daß es ggf. im obersten Regal z.B. die meisten FPS pro 100€ gibt. the more you buy, the more you save :uup: Am Ende steht halt der Absolutpreis, das Loch in der Kasse, was man aufbringen muss. Das bestimmt die Schreibweise beim P/L. Normalo - P/L, Nerd - P/L.

es ist teil des marketshare und damit stärkt es den ruf Perfekt :wink: Sehe oben :up:

Lawmachine79
2025-04-09, 10:04:22
Wenn die Preislagen sich halten wird das zu urban legend der vergangenen Zeiten :wink: RDNA4 hat keinen Flaggschif und die 9070XT verkauft sich besser als AMDs optimistischeren Schätzungen vorauszusagen versuchten. Die non-XT dagegen könnte man demgegenüber schon fast als Flop betiteln.
Es scheint also, ein Zugpferd ist nicht zwingend. Genauso wie der 9800X3D keinen 9950X3D braucht.


Der 9800X3D ist die schnellste Gaming-CPU, zusammen mit dem 9950X3D. Von daher passt der Vergleich nicht.

Badesalz
2025-04-09, 10:29:34
@Law
Ah so. Ja dann :wink:

PHuV
2025-04-09, 11:47:52
also beschreibt es individuelle gründe, weshalb man in machtpositionen überproportional viele psychopathische persönlichkeiten findet?
Er verhält sich wie einer, soll aber laut Beschreibungen menschlich ganz ok sein. Einer hats mal so formuliert, daß er zu einem Monster werden muß, um im Business bestehen zu können.

Morgenlicht
2025-04-09, 11:52:39
Mit Blackwell sind doch viele neue Dinge eingeführt:

https://i.ibb.co/MWktbgB/youtube-c7-PAr-TVAYEA-1322.gif
https://i.ibb.co/MWktbgB/youtube-c7-PAr-TVAYEA-1322.gif (https://ibb.co/qXYczDJ)


• RTX Mega Geometry
• RTX Texture Filtering
• RTX Texture Streaming
• RTX Volumetrics
• RTX Neural Materials
• RTX Hair
• RTX Skin
• RTX Neural Texture Compression
• AI Body Motion
• RTX Neural Faces
• DLSS Multi Frame Generation
• Cosmos Visual Understanding Models
• Nemotron Small Language Models


Quelle :
• NVIDIA Game Developer: GDC 2025 | Advances in RTX - Full Session Replay > https://www.youtube.com/watch?v=c7PArTVAYEA
- Zeit : 08:00
- Zeit : 13:00
- Zeit : 13:22

downforze
2025-04-09, 12:01:35
Damit rechne ich persönlich nicht, doch für NVidia kann es bedrohlich werden, wenn die großen Player wie Google und Microsoft eigene Hardware entwickeln, um unabhängiger von NVidia zu werden.
Wenige wissen, dass der absurde KI-Umsatz von Nvidia nur durch 6 Großkunden kommt (Amazon, GO.ogle, ...). Und diese Großkunden entwickeln eigene KI-Lösungen. Der Umsatz von Nvidia wird mittelfristigseinen Peak erreichen. Dazu kommt, dass auch China eigene Lösungen entwickelt und den Markt fluten wird.

GPU-Sparte: Was Nvidia da macht, war taktisch schlau. Sie haben ganz viele eigene Technologien entwickelt, die in Spielen implementiert sind. Damit ist der Kunde geneigt auch eine Nachfolgekarte mit eher geringem Fortschritt zu akzeptieren, um nicht den Zugriff auf diese exklusiven Technologien zu verlieren. Mache den Kunden abhängig von dir.

downforze
2025-04-09, 12:09:13
Es liefen doch auch die Launches davor, seit Ampere, diplomatisch formuliert, nicht gut. 3090 Top, aber zu teuer, alle GPUs darunter für die meisten nicht gut genug. 4090 genau das gleiche, mit 5090 wiederholt sich das ganze und wird sogar noch schlechter.

Aber die GPUs verkaufen sich. Und für Nvidia ist Gaming einfach nur noch ein Nebengeschäft, was sich beiläufig noch rechnet. Daß die Produktion einer 5080 mit einem UVP von 1169 € auf absolute Kante genäht ist, hat vermutlich viele, wie mich auch, überrascht.

Die 3080 Ti hing der 3090 bedeutend weniger (quasi gar nicht) hinterher wie die 4080 der 4090 und die 5080 der 5090. Und die 3080 ohne Ti war gerade mal 10-15% hinter der 3090.
Bei einem Reingewinn von über 60% kann mir auch niemand erzählen, dass die 5080 auf Kante genäht ist. Sie ist maßlos überteuert.

PHuV
2025-04-09, 14:01:01
Bei einem Reingewinn von über 60% kann mir auch niemand erzählen, dass die 5080 auf Kante genäht ist. Sie ist maßlos überteuert.
Ich bezog mich dabei auf das hier, falls Dir das entgangen ist oder Du es noch nicht kennst:
PCGH - Geforce RTX 5080: UVP soll wegen hoher Kosten "sehr schwierig" sein (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/News/UVP-wegen-hoher-Kosten-sehr-schwierig-1468510/)

Rabiata
2025-04-09, 16:01:10
Bei den Mainboards kann ich's sogar teilweise verstehen. Was da inzwischen drauf ist, vorallem was die VRM's so leisten müssen, das ist schon feine Schaltungstechnik, die früher so einfach nicht notwendig war. Heute hockt ja sogar die SSD schon mit am Mainboard, manchmal sogar zwei...

Es scheint auch keiner mehr für nötig zu halten, separate Produkte für die "kleinen" Modelle mit 65W TDP herauszubringen. Ich hab gerade mal auf Geizhals die billigsten AM-5 Modelle von drei verschiedenen Herstellern gecheckt. Alle haben auch die 170W-Säufer in der Kompatibilitätsliste. Natürlich geht das dann nicht mehr so billig.

Top :tongue:

Wir haben uns entschieden, daß die "Betirebskosten" so bis ins Unerträgliche getrieben werden sollen, daß der angefixte Pöbel dann freiwillig nach und nach in die Cloud wechselt. Hat gleich mehrere Vorteile.

Erstmal saugen wir sie soweit leer bis auch die letzten langsam anfangen aufzugeben. Bis dahin haben wir die Technologien soweit, daß sie ihr ganzes Ökosystem auch in der Cloud fahren können. Denen wird das schon irgendwann auffallen, daß es sinn ergibt, weil während ihr Netzwerk daheim mit 1Gbit und bestensfalls 2.5Gbit läuft (das bremsen wir aj schon entsprechen ab, seit etlichen Jahren), sie nach draußen mit 10Gbit PON (XGS) verbunden sind. Und 25GPON läuft eigentlich auch schon jetzt. Das wird dafür reichen.

D.h. wir entfernen dadurch all diese mittlerweile lästige Hardware aus dem Heimischen wo keine Sau weiß was sie damit veranstalten (Hacker und ähh... Pädophile) und übernehmen die Aufsicht. Und natürlich den Schutz :tongue:

Sie brauchen nur den Zugang. Den Router also und die "Station" die das darstellen kann was wir in der next gen Ausbaustufe von Cloud-Gaming (GeForce NOW als Beispiel für die ersten Anläufe).
Der Pöbel braucht dann nur noch die Eingbegeräte und ggf. VR-Headsets.

Auch den kompletten Rest an Anwendungsfällen holen wir damit natürlich mit uns rein. Das ist ja auch der eigentliche Sinn dahinter. Gaming ist nur Beiwerk.
Es ist eh schon fast alles an Diensten da.

Und wenn sie zahlenmäßig zu >75% lock-in sind und kaum noch jemand eine eigene richtige HW haben will oder sich leisten kann, DANN schauen wir wie wir die Preise für die jährliche Nutzung optimieren und je nach Anwendungsfall staffeln können.

Das funktioniert an mehreren Stellen nur mit dummen Kunden (wovon es leider zu viele gibt).

1) Die Betriebskosten für den Kunden sind nur kurzfristig geringer. Microsoft 365 Single kostet zum Beispiel 99,00 €/Jahr, und einen Rechner zuhause braucht es immer noch.
Auch ein schwaches Rechnermodell kommt locker mit Office aller Art klar. Das "dumme Terminal" aus der Großrechnerzeit hat heute keinen wesentlichen Kostenvorteil mehr. Schlimmstenfalls ist der Aufpreis um statt des dummen Terminals einen "richtigen" Rechner zu haben, der LibreOffice kann, eine Jahresgebühr von Microsoft 365.

Für eine Spiele-Cloud bietet sich GeForce Now an, aber da sagt die Beschreibung schon, daß die Gratisversion nicht viel taugt: Werbung und maximal eine Stunde am Stück. Für einen Premium-Account fallen mindestens 110,- Euro im Jahr an. Ob es sich lohnt hängt wohl vom Spiel ab: Die Bildqualität ist laut Reviews nicht schlecht, schnelle Shooter sind von der Latenz her gehandicapt.
Hier drängt sich tatsächlich noch die Frage auf, ob man sich die Kosten für die eigene Hardware leisten mag. Die Antwort erscheint mir nicht eindeutig.

Dienste wie E-Mail lasten die Server nur schwach aus. E-Mail wird üblicherweise nur ein paar mal am Tag abgerufen. Da gibt es seit Jahrzehnten werbefinanzierte Gratisangebote, das ist kein neuer Trend.

2) Netzwerkbandbreite: Gibt es beispielsweise bei der Telekom bis zu 1000Gbit/s, was im LAN längst Standard ist. Kostet nach der 6-monatigen Anfixphase 70 Euro im Monat. 10Gbit PON wird mit Sicherheit noch um einiges teurer.
Extern mehr Bandbreite zu buchen als im Heimnetz ist auch unsinnig, dann stauen sich die Daten auf dem Weg vom PC zum Glasfasermodem.

3) ALLE Anwendungsfälle rein holen? Viel Glück. Sarkasmus beabsichtigt.


Ein ähnliches u-boot aus der gleichen Ecke ist daher auch das Gefuchtel mit der Effizienz. Es nützt nichts, daß es ggf. im obersten Regal z.B. die meisten FPS pro 100€ gibt. the more you buy, the more you save :uup: Am Ende steht halt der Absolutpreis, das Loch in der Kasse, was man aufbringen muss. Das bestimmt die Schreibweise beim P/L. Normalo - P/L, Nerd - P/L.

Perfekt :wink: Sehe oben :up:
Das mit der Effizienz liegt auch an den Kunden. Da gebe ich Dir völlig recht. Persönlich bin ich zufrieden damit, wenn der Hersteller eine offiziell unterstütze Möglichkeit bietet, das Powertarget deutlich herunterzusetzen. AMD hat das schon seit einiger Zeit bei Ryzen, und jetzt werden auch -30% in der RX 9000- Serie geboten (laut einem Artikel zu dem ich die URL nicht mehr weiß). Das kostet nur um die 10% Performance und hat sogar den Vorteil, daß die Kühllösung für die verringerte Wärmeabfuhr letztlich überdimensioniert ist. Da können die Lüfter langsamer und leiser laufen.

Edit: Kaum habe ich diesen Post zu Ende geschrieben, kommen die News des 8. April rein. Da hat tatsächlich Computerbase eine 9070 XT mit 70% des regulären PT getestet. Kostet gerade mal 8% an Performance.

Badesalz
2025-04-09, 17:46:10
Ich bezog mich dabei auf das hier, falls Dir das entgangen ist oder Du es noch nicht kennst:
PCGH - Geforce RTX 5080: UVP soll wegen hoher Kosten "sehr schwierig" sein (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/News/UVP-wegen-hoher-Kosten-sehr-schwierig-1468510/)DAS MEINT ER DOCH :|

"Ein Boardpartner, der für den Test kein Grafikkartenexemplar bereitstellen konnte, soll mitgeteilt haben, dass 80 Prozent der Kosten einer Grafikkarte mit Hinblick auf die UVP des Herstellers allein auf die GPU und den Grafikspeicher entfallen. Laut Videocardz sei hier erwähnenswert, dass Nvidia diese Komponenten oft in Paketen verkauft."

UVP vorgeben, dann die IHS beim Einkauf blankziehen :whistle: Dann mal einen dicken Haufen auf die Biographie :uclap:

@Rabiata
Was meinst du warum sie WLAN so unerbittlich peitschen? 2.5Gbit am Repeater ist schon zu lahm für Wifi 7. 1Gbit war es das für Wifi 6. "Love is in the Air"...

Den Rest, betrachtest du vom Stand heute. Das wird noch ;) Vor allem wenn HW astronomisch teuer und teurer wird... Gemach.

Rabiata
2025-04-09, 19:11:01
Den Rest, betrachtest du vom Stand heute. Das wird noch ;) Vor allem wenn HW astronomisch teuer und teurer wird... Gemach.
Wenn Du nicht darauf bestehst, alle zwei Jahre eine Leistungssteigerung zum selben Preis haben zu müssen, sieht das viel freundlicher aus. Als AMDler geh ich mal von der RX 7600 rückwärts und suche in jeder Generation möglichst attraktive Modelle. MSRP (Wikipedia), Straßenpreis falls noch verfügbar und Performance im 3DCenter Performance Chart sollten ähnlich sein falls möglich. Modelle mit gutem P/L bevorzugt.

RX 7600: 1330%, MSRP bei Launch $269 USD, aktueller Straßenpreis bei Geizhals um die 260 Euro

RX 6600: 1050%, MSRP bei Launch $329 USD, aktueller Straßenpreis bei Geizhals um die 230 Euro
Die schnelleren Varianten wie 6650XT werden von der RX 7600 in Preis und Leistung geschlagen => nicht mehr relevant.

RX 5700: 1060%, MSRP bei Launch $349 USD, Straßenpreis: praktisch ausgestorben und nicht mehr relevant

RX Vega: Das beste P/L unter den Vegas hatte die Vega56 mit 840% und MSRP bei Launch $399 USD

Polaris war preiswert aber auch deutlich schwächer. Die RX570 mit 520% und MSRP bei Launch $169 USD ist in der Performance eine halbe RX 6600. P/L im Rückblick nicht schlecht, die hätte ich wahrscheinlich gekauft wenn mir meine alte HD 7850 zu dem Zeitpunkt nicht mehr gereicht hätte.

Noch weiter zurück lande ich bei der R9 390: 540% mit MSRP bei Launch $329. Damit sind wir im Jahr 2015, weiter zurück ist wohl nicht nötig.

Armaq
2025-04-09, 19:39:15
Wenige wissen, dass der absurde KI-Umsatz von Nvidia nur durch 6 Großkunden kommt (Amazon, GO.ogle, ...). Und diese Großkunden entwickeln eigene KI-Lösungen. Der Umsatz von Nvidia wird mittelfristigseinen Peak erreichen. Dazu kommt, dass auch China eigene Lösungen entwickelt und den Markt fluten wird.

GPU-Sparte: Was Nvidia da macht, war taktisch schlau. Sie haben ganz viele eigene Technologien entwickelt, die in Spielen implementiert sind. Damit ist der Kunde geneigt auch eine Nachfolgekarte mit eher geringem Fortschritt zu akzeptieren, um nicht den Zugriff auf diese exklusiven Technologien zu verlieren. Mache den Kunden abhängig von dir.
Interessant, kann ich nicht bestätigen. Jeder Datacenter Betreiber kauft die Dinger wie warme Semmeln und ich arbeite mit einigen zusammen. Dazu kommt jeder Großkonzern, denn die haben ja viele DC (auch wenn viel in der Cloud läuft). Also leider stimmt das nicht und Amazon und Google haben eigene Chips, Facebook ebenso. Der Umsatzspread bei nvidia ist viel größer.

Badesalz
2025-04-09, 20:29:05
Ihr müsst unterscheiden zwischen dem Lernen und dem das Gelernte anwenden (ihr kennt die Fachbegriffe :wink: )
Es scheint für wenigstens eine dieser Sachen kauft auch Facebook & Co. bei NV wie auch bei AMD massig ein.

Und es ist auch wirklich so, daß nur die 6 containerweise das Zeug einkaufen. "Großkonzerne" nur palettenweise. Und imho alle außer den 6 werden nicht erst 2032 satt sein. Nach der Leistungsrunde wir dann noch die Effizienzrunde stattfinden. Wenn es reicht und das neuere zwar nur 10% schneller ist, dafür aber pro Einheit 60% weniger Saft zieht, dann ist auch das ein Anreiz.

@Rabiata
Ja. Ja... Das stimmt alles. Du wirst sehen, daß da irgendwas kommt was das ganze Zeug obsolet zu machen versucht. Du denkst nicht groß genug ;) und bist noch in heute gefangen.

Rabiata
2025-04-09, 22:46:42
@Rabiata
Ja. Ja... Das stimmt alles. Du wirst sehen, daß da irgendwas kommt was das ganze Zeug obsolet zu machen versucht. Du denkst nicht groß genug ;) und bist noch in heute gefangen.
Das "irgendwas" müßte schon eine größere Überraschung sein, und die lassen sich nicht so leicht vorhersagen :wink:. Nicht einmal aus welcher Ecke sie kommen werden.
Am ehesten könnte ich mir noch vorstellen, daß sich KI schneller und "besser" entwickelt als wir im Moment denken. Das würde dann in der Praxis wohl eine Cloud-Geschichte werden, wegen des großen Bedarfs an Rechenleistung. Die C't hat mal mit DeepSeek und Destillaten auf verschiedenen Qualitätsstufen herumexperimentiert. Das volle 671 Miliarden-Parameter Modell ist ziemlich eindrucksvoll, aber braucht einen Server den sich wohl die wenigsten zu Hause hinstellen wollen.

PHuV
2025-04-09, 22:58:13
Interessant, kann ich nicht bestätigen. Jeder Datacenter Betreiber kauft die Dinger wie warme Semmeln und ich arbeite mit einigen zusammen. Dazu kommt jeder Großkonzern, denn die haben ja viele DC (auch wenn viel in der Cloud läuft). Also leider stimmt das nicht und Amazon und Google haben eigene Chips, Facebook ebenso. Der Umsatzspread bei nvidia ist viel größer.
Richtig, und wir warten auch schon lange auf unsere H100 (!!) GPUs, die vor über einem Jahr geordert wurden. Und ich hatte von anderen in gleicher Lage ähnliches gehört.

PHuV
2025-04-09, 23:00:54
Die C't hat mal mit DeepSeek und Destillaten auf verschiedenen Qualitätsstufen herumexperimentiert. Das volle 671 Miliarden-Parameter Modell ist ziemlich eindrucksvoll, aber braucht einen Server den sich wohl die wenigsten zu Hause hinstellen wollen.
Eine ältere Epyc-Maschine, die 1,5 TB RAM hatte, und er hatte davon 709 GByte RAM benötigt für das DeepSeek-R1-KI Modell. Aber flott war das nicht.
Heise - DeepSeek unzensiert (und lokal) (https://www.heise.de/news/DeepSeek-unzensiert-und-lokal-10283345.html)
Also zwei AMD-Epyc-9754 CPUs mit jeweils 128 Kernen und, wie gesagt, 1,5 TB DDR5-Speicher mit 4800 Megatransfers pro Sekunde (DDR5-4800).
A8N3zKUJ0yE
RAM RAM RAM ist das Problem. Und jetzt, wo der Budenzauber mit den USA so richtig losgeht, wirds noch verrückter mit den Bedarfen, weil nun alle aus der Cloud raus wollen.

Badesalz
2025-04-10, 06:51:02
@Rabiata
So wird das sein. Aus der Ecke game content (KI) wird das zuerst kommen.

RAM RAM RAM ist das Problem. Und jetzt, Und jetzt, mal wieder eine Schüppe OT drauf?

Boah nervt das

Rabiata
2025-04-11, 11:04:19
@Rabiata
So wird das sein. Aus der Ecke game content (KI) wird das zuerst kommen.
Bei der "Innovationsbereitschaft" der großen Spiele-Publisher bin ich da skeptisch. Es gibt eine eher kleine Firma, die ein interessantes Projekt für intelligentere NPCs hat: "GoodAI" von Keen Software, den Machern von Space Engineers. Aber ob da genügend aufspringen um den Markt umzukrempeln?

robbitop
2025-04-11, 11:22:28
Es liefen doch auch die Launches davor, seit Ampere, diplomatisch formuliert, nicht gut. 3090 Top, aber zu teuer, alle GPUs darunter für die meisten nicht gut genug. 4090 genau das gleiche, mit 5090 wiederholt sich das ganze und wird sogar noch schlechter.
Theoretisch* war Ampere die letzte wirklich gute und faire Generation. Die 3080 hatte ~80% der Performance der 3090 für 699 USD! Und das mit dem GA102. Super breite GPU und und super breites SI.
Jetzt bekommst du für 699 eine 4070 mit 205 Chip. Super kleiner Chip und popeliges SI.
Die 3080 für 699 USD* war das schon fast eine Anomalie aus Perf/W Sicht. Nützte nur kaum jemanden was, weil sie zu dem Preis nicht mal annähernd verfügbar war. Und seit Ada gibt es die Narrative dass die teuren Nodes usw Schuld an den hohen Preisen sind - was nur ein Bruchteil der Preissteigerung ausmacht. Nvidias Gewinne sind in's Astronomische geschossen und das ist die Hauptursache. Gamer's Nexus hatte neulich ein Video was zeigt, dass pro SKU Gruppe der Anteil der SMs gemessen am Top Dog richtig nach unten gesackt ist und dass man im Prinzip eine SKU Klasse kleiner bekommt als der Name (und der Preis) sagt. Die Investoren freuts.
Ich hab neulich meine 5070ti auseinander gebaut (für Wakü Umbau) und es ist Wahnsinn, was man heute für fast 1000 EUR nur bekommt. Eine super kleine GPU, wenig Speicher (nur 16 GB), wenig TDP, kleines anämisches Board. Im Prinzip ist das eine Geforce MX (Blackwell) für knappe 1000 EUR X-D
Aber Schuld daran ist lange Zeit fehlender Wettbewerb und der AI Boom der für astronomische Margen weg geht.


*(wenn man die GPUs zu UVP hätte! - daran war nicht nur Covid schuld - auch 2020 gab es von MLID schon leaks zu fake msrps für Ampere die auch ohne Covid zu überhöhten Straßenpreisen geführt hätten - aber weit weniger als durch Covid wahrscheinlich. Eher so 100-200 EUR)

Badesalz
2025-04-11, 11:42:53
Aber Schuld daran ist lange Zeit fehlender Wettbewerb und der AI Boom der für astronomische Margen weg geht. Und egal, ob die Liste noch 10 oder 100 Positionen hätte, @Deppen, endlich mal merken, daß TSMC da immer den letzten Platz belegen würde.

Ihr nervt mich mit dem hirngewaschenen Gaga schon seit Monaten.

x-force
2025-04-11, 11:47:33
Und egal, ob die Liste noch 10 oder 100 Positionen hätte, @Deppen, endlich mal merken, daß TSMC da immer der letzten Platz belegen würde.

was willst du damit sagen?

tsmc hat seit jahren die beste fertigung.

Badesalz
2025-04-11, 13:04:35
was willst du damit sagen?:| Dem Kontrext entsprechend. robi hat doch erwähnt warum das alles so überteurt ist. RICHTIG? :rolleyes:

Ich meinte damit also die Deppen die seit der RT40 die Preisgestaltung bei Grakas TSMC mit in die Schuhe schieben wollen.
tsmc hat seit jahren die beste fertigung.Danke für die Info :uking:

aths
2025-04-12, 23:50:24
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D
Ganz ehrlich, ich lästere über den 5000-er Launch ab und dann kommst du, sinngemäß "aber die sehr teure 5090 ist ja dann doch gut". Ja, ist sie. Darum geht es in diesem Posting nicht so wirklich. Jetzt tust du als ob andere nicht wissen wie der Konkurrenzhase läuft, obwohl das im originalen Posting bereits enthalten war. Darum ging es allerdings auch nicht so richtig.

aths
2025-04-12, 23:52:59
Theoretisch* war Ampere die letzte wirklich gute und faire Generation. Die 3080 hatte ~80% der Performance der 3090 für 699 USD! Und das mit dem GA102. Super breite GPU und und super breites SI.
Jetzt bekommst du für 699 eine 4070 mit 205 Chip. Super kleiner Chip und popeliges SI.
Die 3080 für 699 USD* war das schon fast eine Anomalie aus Perf/W Sicht. Nützte nur kaum jemanden was, weil sie zu dem Preis nicht mal annähernd verfügbar war. Und seit Ada gibt es die Narrative dass die teuren Nodes usw Schuld an den hohen Preisen sind - was nur ein Bruchteil der Preissteigerung ausmacht. Nvidias Gewinne sind in's Astronomische geschossen und das ist die Hauptursache. Gamer's Nexus hatte neulich ein Video was zeigt, dass pro SKU Gruppe der Anteil der SMs gemessen am Top Dog richtig nach unten gesackt ist und dass man im Prinzip eine SKU Klasse kleiner bekommt als der Name (und der Preis) sagt. Die Investoren freuts.
Ich hab neulich meine 5070ti auseinander gebaut (für Wakü Umbau) und es ist Wahnsinn, was man heute für fast 1000 EUR nur bekommt. Eine super kleine GPU, wenig Speicher (nur 16 GB), wenig TDP, kleines anämisches Board. Im Prinzip ist das eine Geforce MX (Blackwell) für knappe 1000 EUR X-D
Aber Schuld daran ist lange Zeit fehlender Wettbewerb und der AI Boom der für astronomische Margen weg geht.


*(wenn man die GPUs zu UVP hätte! - daran war nicht nur Covid schuld - auch 2020 gab es von MLID schon leaks zu fake msrps für Ampere die auch ohne Covid zu überhöhten Straßenpreisen geführt hätten - aber weit weniger als durch Covid wahrscheinlich. Eher so 100-200 EUR)
Genau. Der Mainstream-Bereich ziemlich fein abgestuft, dazu RAM-Ausstattung welche dafür sorgt dass man bald aufrüsten darf.

Rabiata
2025-04-13, 15:48:44
Genau. Der Mainstream-Bereich ziemlich fein abgestuft, dazu RAM-Ausstattung welche dafür sorgt dass man bald aufrüsten darf.
Das vereinfacht sich schnell, wenn der Kunde 12 GB VRAM zur Mindestausstattung erklärt. Dann bleibt voraussichtlich genau eine 5060-Variante bei Nvidia und eine 9060-Variante bei AMD.

x-force
2025-04-17, 11:33:45
Ich meinte damit also die Deppen die seit der RT40 die Preisgestaltung bei Grakas TSMC mit in die Schuhe schieben wollen.

unschuldig sind sie definitiv nicht:
Unterm Strich hat TSMC das erste Quartal 2025 mit einem Gewinn in Höhe von 361,56 Milliarden NT$ und somit mit einem Plus von 60,3 Prozent abgeschlossen.

aths
2025-04-19, 03:19:22
Interessant, kann ich nicht bestätigen. Jeder Datacenter Betreiber kauft die Dinger wie warme Semmeln und ich arbeite mit einigen zusammen. Dazu kommt jeder Großkonzern, denn die haben ja viele DC (auch wenn viel in der Cloud läuft). Also leider stimmt das nicht und Amazon und Google haben eigene Chips, Facebook ebenso. Der Umsatzspread bei nvidia ist viel größer.
kann ich insofern bestätigen als dass ich von kleineren Projekten weiß, wo Nvidia-GPUs für lokale Large-Language-Modelle genutzt werden. Und ganz ehrlich, eigentlich ging das bei der 8800 GTX schon irgendwie los, dank Unified Shader, dass massiv parallele Datenverarbeitung bezahlbar wurde.

Sogar Raytraying, ein Professor der Universität des Saarlandes erzählte mir, auf dieser GPU würde Raytracing etwa 10x so viele Rechenzyklen kosten wie auf einer (damaligen) CPU und dennoch 2 bis 8 mal so schnell sein, dank der vielen parallelen Rechenwerke. Raytracing auf einer 8800 GTX, in geringer Auflösung natürlich.

PHuV
2025-04-19, 21:51:31
Ganz ehrlich, ich lästere über den 5000-er Launch ab und dann kommst du, sinngemäß "aber die sehr teure 5090 ist ja dann doch gut". Ja, ist sie. Darum geht es in diesem Posting nicht so wirklich. Jetzt tust du als ob andere nicht wissen wie der Konkurrenzhase läuft, obwohl das im originalen Posting bereits enthalten war. Darum ging es allerdings auch nicht so richtig.
Genau das macht das diskutieren mit Dir so schwierig wie teilweise sinnlos. Du springst hin und her, und das was Du da von mir zitierst, paßt überhaupt nicht zur Antwort. :confused:

Ablästern bringt ja auch nur was, wenn man wenigstens etwas auf einem aktuellen Wissens- und Sachstand ist...

Ex3cut3r
2025-04-19, 22:24:06
Verstehe echt nicht was so ein Thread zum x-ten mal soll? Abstänkern, ja schön und gut. Wird aber nichts ändern. Eine 5070 Ti hat 16GB VRAM, man kann damit in 4K + DLSS Q-P sehr gut zocken und auch RT anschalten bei Bedarf. Außerdem FG x4 parat für 850€ absolut fair diesmal, dürfte für die meisten selbst hier absolut ausreichend sein.

Irgendwann ist auch mal gut. Ansonsten gibt es auch andere Sachen als GPUs und zocken.

PHuV
2025-04-19, 22:28:38
Irgendwann ist auch mal gut. Ansonsten gibt es auch andere Sachen als GPUs und zocken.
You're so fucking right, good fight, good night.
VdQjz9H-J7k

aths
2025-04-20, 00:29:55
Genau das macht das diskutieren mit Dir so schwierig wie teilweise sinnlos. Du springst hin und her, und das was Du da von mir zitierst, paßt überhaupt nicht zur Antwort. :confused:

Ablästern bringt ja auch nur was, wenn man wenigstens etwas auf einem aktuellen Wissens- und Sachstand ist...
Deine Antworten enthalten, so wie ich das sehe, viel "ich gönne mir einfach das Spitzenmodell und rede mir die Lage schön." Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.

Sardaukar.nsn
2025-04-20, 02:47:53
...Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.

Die anderen 50er GPUs sind ja zum Teil auch sehr gut. Daher ist ja jetzt, 3 Monate nach Launch, scheinbar die Mehrheit hier im 3DC auf Blackwell gewechselt. Die Kinderkranheiten sind weitestgehend ausgemerzt, Verfügbarkeit ist da, Preise sinken. Ich denke zum Herbst bzw. Weihnachtsgeschäft wird es noch mal einen richtigen Schub geben. Insbesondere 5070ti und 5080 sind doch fürs Gaming mega runde Grafikkarten.

aths
2025-04-20, 03:52:47
Die anderen 50er GPUs sind ja zum Teil auch sehr gut. Daher ist ja jetzt, 3 Monate nach Launch, scheinbar die Mehrheit hier im 3DC auf Blackwell gewechselt. Die Kinderkranheiten sind weitestgehend ausgemerzt, Verfügbarkeit ist da, Preise sinken. Ich denke zum Herbst bzw. Weihnachtsgeschäft wird es noch mal einen richtigen Schub geben. Insbesondere 5070ti und 5080 sind doch fürs Gaming mega runde Grafikkarten.
Ich denke nicht dass du denkst, dass >50% der 3DCenter-User aktuell eine 50-er RTX haben.

Sardaukar.nsn
2025-04-20, 09:36:24
Ich denke nicht dass du denkst, dass >50% der 3DCenter-User aktuell eine 50-er RTX haben.

Irgendwelche Karteileichen sicher nicht, aber von den 50 aktivsten Mitgliedern mit halbwegs aktueller Hardware könnte das schon passen. Bis zum Jahresende wird es sicher soweit sein.

Kakarot
2025-04-20, 14:55:38
Mit etwas „Glück“ haben 50 % der aktiven User eine nVidia Karte, davon könnten wiederum 50 % zum Ende des Jahres eine der Blackwell Modelle im Rechner haben.
Also bestenfalls kommt man auf 25 %.

Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.
Ich empfand den Grund für das Abrauchen der 5090er als die peinlichste Nummer bei dem Launchdesaster.
Du hast es in deinem Eingangspost treffend zusammengefasst.

aufkrawall
2025-04-20, 15:14:08
dass die 5090 ziemlich gut ist.
Die Karte ist nicht gut, "nur", mit 4090 weggedacht, mit Abstand die schnellste.
Aber trotzdem inkonsistente Performance (Nvidia-RT hui, UE5 Lumen 4k DLSS Performance pfui), schlechte Treiber und schlechtes P/L-Verhältnis.
FG ist weiterhin Hit & Miss, muss man eigentlich ausklammern (bei Radeon btw. auch).

Dural
2025-04-20, 17:29:54
lustige kommentare...

ich werde mir nächste woche eine zweite 5080 holen und die 9070xt ersetzten die dann in den schrank wandern darf.

blackwell ist eine macht, ausser preis und die gleiche fertigung. Eine der überzeugendste gpu architekturen die es jemals gab.

selten gab es grafikkarten die sie rund waren wie die 5000 serie: bandbreite, verbrauch, overclocking, techlevel, software.

schon nur was die ue5 techdemo abliefert ist der wahnsinn. Ohne NV wäre PC gaming schon längst tot, NV bringt PC gaming vorwärts. AMD zieht seit über 10 jahren immer nur nach, und das in der regel ziemlich schlecht. schon nur wie lange die für halbwegs brauchbare RT performence gebraucht haben...

ich kann mich noch gut an die 2000 serie erinnern, das geschrei war ähnlich zu heute: zu teuer, zu wenig leistung etc... schon damals habe ich gesagt das die gpus eine revolution ist und die zukunft der gpus darstellt, als vorallem die armen amd boys noch geschrien haben RT braucht es nicht...

Wenn ich da nur an meine 6900xt denke... einer der grössten fehlkäufe in meinem leben, das ding ist nur noch schrott. Aber hauptsache 16gb... war damals beim eint oder anderen der kaufgrund schlecht hin, manch mal habe ich das gefühl auf der welt leben zu 90% nur noch gehirnlose.

NV liefert ab, und das kostet halt. Und alle verdienen da ja auch mit, es ist ja nicht nur NV die mehr einnehmen: produzenten, herstellung, vertieb etc

Ex3cut3r
2025-04-20, 17:33:52
Naja, also bitte. Eine 9070 XT ist durchaus solide. Das AMD nicht konstant abliefert, ja daran haben Sie eine Mitschuld.

Aber RDNA 2 war nicht so schlecht, wie von dir dargestellt. Ich habe aber auch keinen Sinn gesehen, mir eine Karte für das gleiche Geld zu holen, wenn DLSS und RT 5x besser waren bei der RTX 3080 12 GB vs 6800XT z.B.

gedi
2025-04-20, 17:46:00
lustige kommentare...

ich werde mir nächste woche eine zweite 5080 holen und die 9070xt ersetzten die dann in den schrank wandern darf.

blackwell ist eine macht, ausser preis und die gleiche fertigung. Eine der überzeugendste gpu architekturen die es jemals gab.

selten gab es grafikkarten die sie rund waren wie die 5000 serie: bandbreite, verbrauch, overclocking, techlevel, software.

schon nur was die ue5 techdemo abliefert ist der wahnsinn. Ohne NV wäre PC gaming schon längst tot, NV bringt PC gaming vorwärts. AMD zieht seit über 10 jahren immer nur nach, und das in der regel ziemlich schlecht. schon nur wie lange die für halbwegs brauchbare RT performence gebraucht haben...

ich kann mich noch gut an die 2000 serie erinnern, das geschrei war ähnlich zu heute: zu teuer, zu wenig leistung etc... schon damals habe ich gesagt das die gpus eine revolution ist und die zukunft der gpus darstellt, als vorallem die armen amd boys noch geschrien haben RT braucht es nicht...

Wenn ich da nur an meine 6900xt denke... einer der grössten fehlkäufe in meinem leben, das ding ist nur noch schrott. Aber hauptsache 16gb... war damals beim eint oder anderen der kaufgrund schlecht hin, manch mal habe ich das gefühl auf der welt leben zu 90% nur noch gehirnlose.

NV liefert ab, und das kostet halt. Und alle verdienen da ja auch mit, es ist ja nicht nur NV die mehr einnehmen: produzenten, herstellung, vertieb etc

Selten etwas dümmeres gelesen. Kein nennenswerter Vorsprung zu Ada, bei gleicher Wattage, Treiber zum Vergessen, PCIe5-Bug, ...

PHuV
2025-04-20, 17:59:29
Deine Antworten enthalten, so wie ich das sehe, viel "ich gönne mir einfach das Spitzenmodell und rede mir die Lage schön."
Dann liest Du sehr subjektiv und selektiv. :rolleyes: Nur mal so, falls es Dir entgangen sein sollte, es sollte eigentlich nach bald 20 Jahren hier im Forum bekannt sein, daß ich schon immer und grundsätzlich (mit Ausnahmen) zum Spitzenmodell greife (egal ob damals 3dfx, oder auch mal AMD, oder eben Nvidia. Da muß ich mir gar nichts schönreden, ich folge nur meiner Gewohnheit. ¯\_(ツ)_/¯

Frag mal lieber Dich als "vermeidlicher" 3D-Guru, wann Du das letzte Mal ein Spitzenmodell in der Hand hattest? Du bist in meinen Augen aktuell davon soweit weg wie jetzt Scholz von der Kanzlerschaft.
Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.
Aber nochmals, Du hast 0 Neues in Deiner Eröffnung gebracht. Wo ist jetzt bitte irgend was in Deinem Anfangsstatement anders, besser, neuer, erkenntnisreicher, was wir hier und anderswo nicht schon besser und vernünftiger formuliert lesen konnten?

Selten etwas dümmeres gelesen. Kein nennenswerter Vorsprung zu Ada, bei gleicher Wattage, Treiber zum Vergessen, PCIe5-Bug, ...
Das hört sich eher nach Hater als sachlich an. Er liegt doch mit allen Aussagen grundsätzlich richtig:
selten gab es grafikkarten die sie rund waren wie die 5000 serie: bandbreite, verbrauch, overclocking, techlevel, software.

schon nur was die ue5 techdemo abliefert ist der wahnsinn. Ohne NV wäre PC gaming schon längst tot, NV bringt PC gaming vorwärts. AMD zieht seit über 10 jahren immer nur nach, und das in der regel ziemlich schlecht. schon nur wie lange die für halbwegs brauchbare RT performence gebraucht haben...
:
NV liefert ab, und das kostet halt. Und alle verdienen da ja auch mit, es ist ja nicht nur NV die mehr einnehmen: produzenten, herstellung, vertieb etc
Ohne Nvidia kein RT, keine Tensor Cores, keine DLSS, kein MFR, von damals G-Sync fange ich gar nicht erst an, wo AMD ungefähr 18 Monate brauchte, bis sie was adequates lieferten, 3D-Vision (was heute perfekt für VR wäre), SLI (leider verschwunden). Da war immer Nvidia schneller, und AMD kam dann später mit Ähnlichem.

Ebenso betont, natürlich ist vieles im Argen, und beileibe nicht perfekt, da hatten wir schon besserer Launches und Hardware. Aber die glühenden 12VHPWR-Stecker sind seid Ada bekannt, wenn man es nicht ganz richtig steckt. Der letzte Nachweis, daß bei korrekter Steckung und mit entsprechendem Leitungsbetrieb das Ding verglüht, ist bisher meines Wissens nicht erbracht worden. Das heißt jetzt aber nicht im Umkehrschluß, daß ich den Stecker damit schönrede oder gar gut finde.

@aths
Und Du bist nun mal anscheinend immer noch einer der letzten, die bis jetzt noch nicht begriffen haben, was genau Sache hier ist:
Spitzenmodelle mit mehr RAM wie die x090er Serie sind hybride Lösungen: Semiprofessionelle GPUs, die für den Zwischenschritt Workstation wie Gaming geschaffen wurde. Sie sind eher mehr Workstation GPUs, mit denen man auch spielen kann (was mit den Quadros vorher nicht so einfach ging). Und alles andere darunter sind dann ebenso einerseits Workstation wie Gaming, bis dann in die Richtung nur Gaming. Und genauso ist dann die Preisgestaltung geworden.

Ich wiederhole es nochmal gerne für Dich als "3D-Guru": Der klassische Gaming Markt für Nvidia ist seit über einem Jahrzehnt tot, es gibt seitdem nur noch diese Hybridlösung, die vorher mit den Titans ausgelotet wurden.

Daher nochmals, wenn Du, anstatt nur zu mosern, mal endlich lesen würdest, wüßtest Du, wie die Strategie bei Nvidia ist, und Du würdest endlich das große Ganze erkennen, was Nvidia hier denkt und plant. Ob das jetzt gut ist, sinnvoll oder nicht, das kommentiere ich nicht, das soll jeder selbst für sich bewerten und entscheiden. Aber Dich nur in "Kleinigkeiten" und Details auf unteren Ebenen verlieren, bringt Dich hier 0 weiter, und macht Deine Kritik vollkommen nichtig wie sinnlos. Ein Blinder, der von Farben sprechen will...

Nochmals klar betont, ob das alles gut, schön, toll sonstwas ist, ist Auslegungssache. Konträr zum Gebashe, Nvidia ist nach wie vor erfolgreich. Komischer Widerspruch, oder nicht? Nichtsdestotrotz liefern die Blackwell Modelle sehr wohl einen gewissen Gegenwert. Ob der sich aber für jeden so lohnt oder rechnet, ist nochmal eine ganz andere Frage.

RoughNeck
2025-04-20, 19:00:29
DLSS und CO stößt auch in FPS Regionen vor die damals Multi GPU Lösungen vorbehalten waren.
Kann mich noch erinnern an mein erstes SLI Setup bestehend aus zwei 7800 GTX 256BM Karten.
Heute kann sowas eine GPU liefern und wenn alles gut dabei funktioniert schaut es nicht nur besser als nativ aus, aus läuft auch super.

Klar ist aktuell einiges nicht wie gewohnt von Nvidia, dennoch bleibt für mich Nvidia die Nr.1
AMD hat aufgeholt und die 9070 / 9070 XT Karten sind aktuell auch gut, dennoch zockt meine Frau seit sie meine 4090 geerbt deutlich mehr als vorher mit der 7900 XTX. Ich merke aber auch dass ich seit etwa 2 Jahren im Freundes & Bekanntenkreis deutlich mehr Rechner bauen darf welche auf AMD GPU setzen, ICH persönlich kann mich mit AMD und deren Treibern nicht anfreunden.

PHuV
2025-04-21, 00:30:22
Es ist und bleibt Technik, die immer komplexer wie komplizierter wird.

Ich bin eher aufgrund meiner Erfahrungen in der IT zu dem Schluß gekommen, daß je größer die Sache wird, umso weniger blicken die Leute da durch. Wir schaffen es gerade mal so, die Sache einigermaßen so zu beherrschen, daß der ganze Mist läuft. Man hat an vielen Stellen in der IT an sich den Überblick verloren. Daher sehe ich die meisten Probleme weder in Arroganz oder Berechnung, sondern es ist wohl vielfach den Leuten über den Kopf gewachsen. Und bei mangelnder Konkurrenz, ja, kann man sich eben auf seinem Stand ausruhen, weil die Leute ja doch kaufen, egal was man macht.

Im großen und ganzen läuft das doch alles. Wir haben nach wie vor eine Steigerung der Leistung, und einen Totalausfall einer ganzen Produktlinie gibts so auch nicht.

aths
2025-04-22, 19:54:43
Konträr zum Gebashe, Nvidia ist nach wie vor erfolgreich. Komischer Widerspruch, oder nicht?Das ist kein Widerspruch, im Originalposting hatte ich bereits geschrieben "Gemeckert, ja, aber dann gekauft. Dies maximal auszunutzen ist gerade der Sinn eines börsennotierten Unternehmens. Leider scheint Nvidia inzwischen so groß, mit nun wirklich allem durchzukommen."

Du scheinst dich wohlzufühlen, eine solche Firma zu verteidigen und dabei Leute welche diese Firma angehen, als Dullis darzustellen. Ich bin leider auf Seite der Konsumenten und habe leider auch keine Zeit für Flamewars im alten Stil wo man lustvoll den Gegenüber angeht.

Oranje7
2025-04-22, 21:10:15
Dural und PHuV sind ja bislang auch nie biased aufgefallen....

Team Grün hat halt jetzt mal zwei(++++) Jahre sich auf das Konzentriert was ihnen am meisten Geld bringt.
Team Rot hat in der Zeit aufgehohlt, aber wer weis was so alles zurückgehalten wurde

Daredevil
2025-04-22, 21:18:08
Selten etwas dümmeres gelesen. Kein nennenswerter Vorsprung zu Ada, bei gleicher Wattage, Treiber zum Vergessen, PCIe5-Bug, ...
Das ist imho zu klein Gedacht. Das Produkt Blackwell und auch der Nachfolger haben immense Performance Sprünge gemacht in der Disziplin, die Nvidia ( nicht die Konsumenten! ) als wichtig erachtet und dies ist eben alles was mit KI zutun hat. Genauso wie Nvidia einst einzelne Technologien in den Markt drängen möchte ( Raytracing ), passiert das auch bei KI. In dem Fall verdienen sie unfucking fassbar viel Kohle im Pro Markt, aber eben auch Endnutzer werden damit bedient, indem Nvidia einerseits ein Problem schafft ( Maximale Qualität durch Pathtracing ), aber auch die Lösung anbietet ( Mehr Performance/DLSS und visuelle Verbesserung/MFG durch KI ).

Und genau an dem Punkt entscheidet der Markt, ob er Nvidias Vision für die Zukunft folgen möchte, oder eben nicht und die Vergangenheit hat gezeigt, dass der Plan von Nvidia bislang aufgeht. Niemand bekommt eine Pistole auf die Brust gelegt, das man die Finger von AMD oder Intel lassen soll. Jeder Euro ist eine Stimme für die Richtung, wo sich 3D Grafik hin entwickelt. Überspannt Nvidia diesen Bogen, werden sie hart abgestraft, entweder durch die Kunden oder durch die Konkurrenz. Halten sie sich im Sweet Spot zwischen Frechheit und technologischer Exzellenz, vergolden sie ihre Nasen.

PS:
Und trotz des guten Produkts verkackt es Nvidia drumherum total. Peripherie ist schlecht, Lieferung unter aller Sau, in der Fertigung passieren dumme Fehler, man spart an der Stromversorgung und lügt öffentlich auch die Community an.
Das ändert nichts am konkurrenzlos schnellen Produkt, aber am Image von Nvidia. Das hätte man sich echt sparen können, denn diese Dinge kann man einfach mit Geld bewerfen um sie zu lösen.

PPS:
Ich wollte zum Start der 5090 genau zwei Stück kaufen für den UVP und ein Dual System aufsetzen für Pro Workloads.
Nvidia wollte mein Geld aber offenbar nicht haben, weil die Verfügbarkeit miserabel gewesen ist. Aufgrund dessen habe ich nun einen technisch für mich viel spannenderen MacStudio im Komplettpaket mit nem M3 Ultra und anderem Pipapo, womit ich auch nette KI Spielereien verarbeiten kann. Nicht genau so gut, aber eben gut und anders durch die 96GB VRAM. Andere CEOs haben auch schönes Silicon. :D
Das wäre dann mein Denkzettel an Nvidia und mein Vertrauensbeweis in einen Hersteller, der quasi immer liefern kann, wenn er etwas vorstellt bzw. wo man zumindest Käufe durch realistische Verfügbarkeiten planen kann.

PHuV
2025-04-22, 21:44:55
Das ist kein Widerspruch, im Originalposting hatte ich bereits geschrieben "Gemeckert, ja, aber dann gekauft. Dies maximal auszunutzen ist gerade der Sinn eines börsennotierten Unternehmens. Leider scheint Nvidia inzwischen so groß, mit nun wirklich allem durchzukommen."
Genau so wie, Apple, Microsoft, Oracle, IBM, Intel, AMD...

Du scheinst dich wohlzufühlen, eine solche Firma zu verteidigen und dabei Leute welche diese Firma angehen, als Dullis darzustellen.
Beileibe nicht. Und Dich gehe ich hier konkrekt an, weil Du " 3D-Guru" bei Dir stehen hast, und hier leider genau das Gegenteil gezeigt hast. Keine neuen Infos, keine Fakten, nur... nenne es wie Du willst, Geklage, Geweine. Du weißt eklatante Wissenslücken, bist bei vielen nicht auf einem aktuellen Stand, und gehst genau auf diese Kritikpunkte von mir gar nicht weiter ein. Aber Du willst bashen und mitreden. Sorry, kommt Dir da nicht selbst mal eine kleine Idee, daß Du weder glaubwürdig noch seriös sein könntest?

Das Nvidia hier bestimmt kein Ruhmesblatt abgeliefert hat, ist klar. Und? Nach wie vor sind sie technologisch vorne.
Ich bin leider auf Seite der Konsumenten und habe leider auch keine Zeit für Flamewars im alten Stil wo man lustvoll den Gegenüber angeht.
Es geht doch nicht um lustvoll. Es geht darum, daß Du auf Grund Deutsch hier weder was vernünftiges noch gescheites zu sagen hast. Und wenn Du den Flamewar tatsächlich nicht wolltest, hättest Du Deine Meinung als "3D Guru" wirklich sparen sollen. Ich will hier nur Dein Geschreibsel mal etwas gerade rücken und mit Fakten Deinem Ding wenigstens etwas sinnvoll entgegen bringen. Du wurdest hier in all Deinen 3 aufgeworfenen Fragen von mir klar und deutlich widerlegt. Anstatt das Du mit Fakten konterst, kommen nur Unterstellungen und Nebenkerzen.

Und sich einseitig auf eine Seite zu schlagen, ohne mal in alle Richtungen das alles auszuloten, und sich den Weltmarkt mal genauer zu betrachten..:rolleyes: c'mon. Willst Du wirklich das Niveau so niedrig hier drücken, alle auf Nvidia, weil Nvidia böse? :rolleyes:

Und Du bist doch auch schon lange genug dabei, daß Du endlich mal wissen müßtest, wie das so läuft.
Dural und PHuV sind ja bislang auch nie biased aufgefallen....

Wie meinst Du das jetzt genau?

Daredevil
2025-04-22, 21:58:23
„Kundenfreundlich“ kann man aus mehreren Perspektiven sein.
Das schnellste Produkt ist kundenfreundlich für denjenigen, der das schnellste will.
Das günstige Produkt ist kundenfreundlich für denjenigen, das das günstigste will.
Das sparsamste Produkt ist kundenfreundlich für denjenigen, der das sparsamste will.
Das innovativste Produkt ist Kundenfreundlich für denjenigen, der die neuesten Features will.

Dazwischen gibt es natürlich mehrere graustufen und je nach Wichtigkeit stört einem Nvidias Gehabe mehr und dem anderen weniger. Manche finden sogar, das sie ziemlich in die richtige Richtung gehen. Es kommt halt auf die eigene Perspektive an. Ich finde auch, das sie mehr richtig machen als falsch, ich muss so ein Produkt dafür aber nicht besitzen.

PS@PhuV: Dieses „Du hast nen Titel“ gebashe nervt unheimlich. :D

PHuV
2025-04-22, 23:15:08
PS@PhuV: Dieses „Du hast nen Titel“ gebashe nervt unheimlich. :D
Mag sein, aber an dem muß sich aths eben messen, oder einfach mal seinen Titel ändern. Ein 3D Guru ist er aus meiner Sicht schon lange nicht mehr. Aber für Dich lasse ich es jetzt, er hats hoffentlich endlich kapiert.

aths
2025-04-24, 04:03:50
Und Du bist doch auch schon lange genug dabei, daß Du endlich mal wissen müßtest, wie das so läuft.... und bin weiterhin auf der Seite der Käufer und benenne die Verbraucher-unfreundlichen Kapriolen von Nvidia.

Während du richtig hart getriggert bist.
Mag sein, aber an dem muß sich aths eben messen, oder einfach mal seinen Titel ändern. Ein 3D Guru ist er aus meiner Sicht schon lange nicht mehr. Aber für Dich lasse ich es jetzt, er hats hoffentlich endlich kapiert.
Ist jetzt keine Mehrheitsmeinung.

Alter Sack
2025-05-02, 09:34:53
Wollte eigentlich meine 3060Ti gegen einer 5000er Karte tauschen, aber diese Karten machen überhaupt keinen Sinn!
16 GB sollten es schon sein und da kommt nur die 5060Ti und die 5070Ti in Frage.
Die 5060Ti bringt zu wenig Mehrleistung im Vergleich zu meiner 3060Ti, aber die 5070Ti mit 300 Watt ist einfach zu stromhungrig.

Die 5070nonTi als 16 GB Variante hätte ich vermutlich gekauft (wenn TDP bei um 220 Watt gewesen wäre, sowieso sofort), aber mit 12 GB und 250 Watt

Aktuell wäre tatsächlich die AMD 9070 mit 220 Watt TDP und 16 GB der optimale Kandidat, nur leider habe ich einen GSync-Monitor, der kein FreeSync kann.

Werde wohl noch bis zu den "Facelifts" von Nvidia warten und wenn die TDP halbwegs passt und die 5070nonTi mind. 16 GB hat, die 5070Super kaufen.
Meine Spielesammlungen (Steam, Epic, etc.) sind sowieso rammelvoll und teils ungespielten Perlen, so dass ich die Zeit gut überbrücken kann (spart halt auch Geld, wenn man keine aktuellen Spiele mehr kauft).

Argo Zero
2025-05-02, 09:41:37
Die 5060Ti bringt zu wenig Mehrleistung im Vergleich zu meiner 3060Ti, aber die 5070Ti mit 300 Watt ist einfach zu stromhungrig.


Die 5070Ti wird weniger Strom verbrauchen pro FPS als deine 3060Ti.

Alter Sack
2025-05-02, 09:48:38
Die 5070Ti wird weniger Strom verbrauchen pro FPS als deine 3060Ti.

Warum sollte ich mir eine 850-1000€ Karte holen, um diese dann runterzutakten, um max. 220 Watt zu bekommen?

EDIT: aber im Prinzip ist der Gedanke ja gut! Mein Monitor macht nur 100 Hz max. (GSync) und vermutlich wird die Karte dann in den meisten Spielen deutlich weniger verbrauchen.

Cubitus
2025-05-02, 10:48:04
Es würde sich bei der auch eine 4070S lohnen oder eine 4070TI gebraucht im guten Zustand.

Ex3cut3r
2025-05-02, 11:19:16
Eine RTX 5070 Ti benötigt in den meisten Spielen typischerweise nur zwischen 230 und 270 Watt. Die Maximale Leistungsaufnahme von 300 Watt wird in der Praxis nur selten erreicht.

Alternativ lässt sich im Afterburner (AB) eine UV (Undervolting) Kurve festlegen. Mit UV von etwa 200 Watt verliert man wahrscheinlich nur rund 5 FPS, erzielt dafür aber eine deutlich bessere Effizienz.

KA, warum man da weiterhin auf einer 3060 Ti mit 8GB stehen bleibt, aber jeder wie er will. Selbst eine 5060 Ti 16GB ist ein Welten-Upgrade.

aufkrawall
2025-05-02, 11:43:33
Selbst eine 5060 Ti 16GB ist ein Welten-Upgrade.
Ja, RX 6800-Leistung ist in 2025 einfach nur endgeil. Damit geht die UE5 so richtig ab.

Ex3cut3r
2025-05-02, 11:52:40
Besser als eine 3060 Ti zu behalten, mit 8GB VRAM. Ja, früher gäbe es bessere Optionen, aber früher ist früher. Die Zeiten haben sich geändert. Was gibt bei AMD?

aufkrawall
2025-05-02, 11:53:28
Weniger Grafikfehler und Spiele-Crashes.

Ex3cut3r
2025-05-02, 11:54:57
Ist doch nur "vorrübergend" der Fall. Bis Juni sollten die Bugs ausgemerzt sein.

aufkrawall
2025-05-02, 12:04:17
Mit dem 576-Treiber haben sie direkt erstmal wieder diverse neue Regressions gebracht:
https://forums.guru3d.com/threads/nvidia-geforce-576-26-hotfix-driver-download.456202/page-4#post-6329593

Sie haben zwar viele Dinge gefixt, aber auch wieder zig andere Spiele kaputt gemacht. Der Beweis, dass sie Fixes ohne Nebenwirkungen schaffen, steht noch aus. Kann sich noch bessern, muss aber nicht. :freak:

Auf der Schrott-Radeon läuft hier immerhin Fortnite DX11 mit erzwungenem AF und 120W TBP inkls. ReLive-Capture...

Alter Sack
2025-05-02, 12:04:24
wann soll den ungefähr die 5000x SUPER Generation erscheinen?

aufkrawall
2025-05-02, 12:07:17
Weiß man nicht. Und auch nicht, ob die wirklich mehr VRAM haben werden. Und selbst mit mehr VRAM kommt ggf. trotzdem schon <10 Monate später die neue Gen in neuer Fertigung mit ebenfalls mehr VRAM.

Hakim
2025-05-02, 14:49:30
Von der 3060Ti auf die 5060Ti? Ne danke, bis auf die 16gb kann das Ding nicht mal eine 3080 schlagen. Ja man sollte upgraden, aber zumindest auf etwas was auch guten Performance Sprung bringt mMn.

Ex3cut3r
2025-05-02, 15:03:48
Mit OC auf 3,3 Ghz (was realistisch ist, für eine 5060 Ti) lässt man eine 3080 hinter sich. Des Weiteren hat man satte 6GB mehr VRAM und mehr Power für DLSS 4 (Transformer) weil die Tensor Cores stärker sind, sowie den FG x4 Trumpf.

Man muss auch das Gesamtpaket im Auge behalten, und was man selbst im Rechner aktuell hat. Reine FPS Schwanzvergleiche bringen da wenig IHMO.

MiamiNice
2025-05-02, 15:10:32
FGx4 Trumpf? Du meinst die FG Arschkarte.

Hakim
2025-05-02, 15:16:00
Man kann halt alles im OC betreiben, und wenn man die 3080 ubertaktet ist man wieder davor, geschweige den das man überhaupt die 60Ti auf 3,3ghz bringen kann. Wahrscheinlicher mit den Top Serien die dann deutlich mehr kosten. Die Stock vs OC vergleiche finde ich nicht sehr gut. Einfach wenn jemand sowieso OC betreibt wird er es mit jeder Karte machen. Man könnte es z.B andersrum argumentieren, wenn man seine 3060Ti übertaktet hat ist der Abstand zu Stock 5060Ti noch kleiner.

Raff
2025-05-02, 16:20:27
Man sollte bei einer RTX 5060 Ti 16GB besser mit 3,2 GHz planen, 3,3 ist zu viel über eine breite Palette an Workloads – yep, da war ich zu optimistisch. Die volle Breitseite dazu gibt’s am Montag. :D

MfG
Raff

x-force
2025-05-02, 16:30:00
Man sollte bei einer RTX 5060 Ti 16GB besser mit 3,2 GHz planen, 3,3 ist zu viel über eine breite Palette an Workloads – yep, da war ich zu optimistisch. Die volle Breitseite dazu gibt’s am Montag. :D

MfG
Raff

kennst du ein szenario, das mehr zieht als kcd(erster teil) im hauptmenü direkt nach dem start? :biggrin:
vanilla installation, ingame alles max

da geht eine 3350mhz 5070ti auf unter 3100mhz bei 350w

Lawmachine79
2025-05-02, 16:34:28
FGx4 Trumpf? Du meinst die FG Arschkarte.
FGx4 nimmt Dir nix, was Du ohne FGx4 hättest. Insofern ist es, finde ich, ein Superfeature. Wenn eine Karte für ein Spiel zu langsam ist, ist sie eben zu langsam. Auch ohne FGx4. Man kann sich streiten, wieviel FGx4 hilft und das ist Geschmacksache, schaden tut es aber nicht. Du hast auch nicht mehr Inputlag als Du bei der schlechteren Framerate ohne x4 hättest. Du hast nur mehr Inputlag, als Du bei derselben Framerate ohne x4 hättest.

Raff
2025-05-02, 16:35:11
kennst du ein szenario, das mehr zieht als kcd(erster teil) im hauptmenü direkt nach dem start? :biggrin:
vanilla installation, ingame alles max

da geht eine 3350mhz 5070ti auf unter 3100mhz bei 350w

Yep, die Klassiker Anno 2070 (https://www.pcgameshardware.de/Anno-2070-Spiel-18006/Videos/PCGH-Benchmarksequenz-Anno-2070-2013-Edition-1076961/) (DL-DSR!) oder Metro Exodus Enhanced Edition (https://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Metro-Exodus-Enhanced-Edition-Test-Vergleich-1371524/3/#a4). :naughty: Bei einer RTX 5060 Ti genügen aber 200 Watt für die allermeisten Tuning-Vorhaben.

"Apropos überdurchschnittlich: Metro Exodus Enhanced Edition erwies sich in unseren Tests als exzellenter Härtetest für manuell übertaktete Grafikkarten, Netzteile und Kühler. Das Spiel heizt so stark wie kein anderes, was niedrige GPU-Boosts zur Folge hat (siehe Taktangaben in den Benchmarks); das Powerlimit keiner handelsüblichen Grafikkarte genügt zur Entfaltung, Peaks deutlich über das bekannte und durchschnittliche Niveau sind zu verzeichnen. Als Referenz: Die Geforce RTX 3090 Founders Edition unseres Grafikkartentesters, welche ihr Dasein mit 0,737 Volt und 1,7 GHz fristet, genehmigt sich teilweise 325 Watt - das sind 20 Watt mehr als beispielsweise in The Witcher 3 in 6K-Auflösung und nicht weit vom Furmark entfernt. Ordinäre Spiele laufen mit circa 250 Watt."

MfG
Raff

dargo
2025-05-02, 18:08:39
FGx4 nimmt Dir nix, was Du ohne FGx4 hättest.
Falsch... es verschlechtert die Latenz.

Du hast auch nicht mehr Inputlag als Du bei der schlechteren Framerate ohne x4 hättest.
Wieder falsch, 4x FG ist nicht umsonst. Dadurch sinkt die Basis Framerate wodurch wiederum die Latenz zunimmt.

robbitop
2025-05-02, 18:53:41
Plus die Latenz durch das verzögern des ersten gerenderten Frames. (zumindest ggü. kein FG)

x-force
2025-05-02, 23:10:07
"Apropos überdurchschnittlich: Metro Exodus Enhanced Edition erwies sich in unseren Tests als exzellenter Härtetest für manuell übertaktete Grafikkarten, Netzteile und Kühler.

ohne jetzt 10 stunden zu investieren habe ich eine fordernde perspektive gefunden: nope -> 1,02v mit 3125mhz so gerade im 350w limit, kcd liegt nochmal ~75mhz und 0,025v darunter

aths
2025-05-05, 01:37:03
Mit dem 576-Treiber haben sie direkt erstmal wieder diverse neue Regressions gebracht:
https://forums.guru3d.com/threads/nvidia-geforce-576-26-hotfix-driver-download.456202/page-4#post-6329593

Sie haben zwar viele Dinge gefixt, aber auch wieder zig andere Spiele kaputt gemacht. Der Beweis, dass sie Fixes ohne Nebenwirkungen schaffen, steht noch aus. Kann sich noch bessern, muss aber nicht. :freak:

Auf der Schrott-Radeon läuft hier immerhin Fortnite DX11 mit erzwungenem AF und 120W TBP inkls. ReLive-Capture...
Ich denke das kriegen die schon hin mit der Zeit aber ja, was man an Treiberproblemen mitbekommt, ist nicht gerade Nvidia-like. Sieht so aus als ob ein unterfinanziertes Team unrealistische Vorgaben erfüllen sooll.

Und auch geil was Der 8auer wieder raushaut, Stromstecker-Probleme.

Es ist ja nicht so, dass Nvidia es nicht kann. Ob 8000-Serie, 200-er Serie, 500- oder 600-Serie, oder etwas weiter zurück eine Graka wie die 7600 GT. Mal locker 60-70% schneller als der bereits brachial gute Vorgänger, und ohne zu große Treiberprobleme. Die 5000-er Serie, naja.

Cubitus
2025-05-05, 09:12:11
Eigentlich ist es ganz einfach: Jensen selbst sagte ja „Geforce is coming home“. Doch bei der Entwicklung wurde schon länger nicht mehr primär auf Gaming geachtet das war bei der Ada-Generation noch leicht anders.
Bei Blackwell hingegen hat man im Grunde versucht, einen KI-Chip in eine Gaming-Form zu pressen. Man wollte etwas passend machen, das eigentlich nicht dafür gedacht war.

Das Problem dabei: Wenn bestimmte Funktionen nicht mehr in der Hardware direkt umgesetzt sind, muss die Software insbesondere via Tensor-Cores – das Ausgleichen. Dafür braucht es allerdings exzellente Softwareunterstützung.
Doch die Top-Treiber-Entwickler bei Nvidia scheinen inzwischen überwiegend im KI-Sektor beschäftigt zu sein, oder tun sich mit dieser Art von Software-Konzept schwer.
Weil dadurch die Hardware nicht mehr optimal im Gaming-Kontext, wie gewohnt angesprochen werden kann was zu den aktuellen Problemen führt.

Ich bin überzeugt: Würde Nvidia wieder einen reinen Gaming-Chip entwickeln also keinen verkappten KI-Chip, dann gäbe es viele dieser Diskussionen und Schwierigkeiten nicht.

Raff
2025-05-05, 09:15:14
ohne jetzt 10 stunden zu investieren habe ich eine fordernde perspektive gefunden: nope -> 1,02v mit 3125mhz so gerade im 350w limit, kcd liegt nochmal ~75mhz und 0,025v darunter

W00t. Das - also KCD - probiere ich nachher mal aus. :D

MfG
Raff

Lawmachine79
2025-05-05, 09:35:13
W00t. Das - also KCD - probiere ich nachher mal aus. :D

MfG
Raff
KCD? Nicht KCD2?

Edit: ja, steht weiter oben.

Welche Settings werden denn gesucht, niedrigster Boosttakt bei niedrigster Spannung?

Falsch... es verschlechtert die Latenz.


Wieder falsch, 4x FG ist nicht umsonst. Dadurch sinkt die Basis Framerate wodurch wiederum die Latenz zunimmt.
Ach bitte; wir reden wir bestenfalls von 1-3 FPS. WENN überhaupt. Und nur in dem Maße erhöht sich die Latenz. Das wird höchstens bei niedrigen Basis-FPS relevant und das FG unspielbarer Spiele nicht spielbar macht, ist nichts neues.

Alter Sack
2025-05-05, 09:55:30
Entscheidung ist getroffen:
Ich werde wohl noch länger meiner 4 Jahre alten 3060Ti die Stange halten und die kommenden 1-3 Jahre meine sehr vielen ungespielten älteren Spiele aus Steam / GOG / Epic / Amazon / EA / Ubi / Battle.net spielen.

Das bedeutet im Umkehrschluss, dass ich die kommenden 1-3 Jahre keine AAA-Titel mehr kaufen werde, für die meine 3060Ti nicht mehr reichen würde.

Ist das genau die Entwicklung, die Nvidia angestrebt hat? Will man mit den brutal hohen Preisen unbedingt den großen Herstellern schaden?
Wenn ich überlege, dass die GTX1070-8GB damals nur 380€ kostete und man heute 8 Jahre später für eine nur 12GB-5070 mit ähnlich guter Kühlung ca 700€ zahlt...

Exxtreme
2025-05-05, 10:01:49
Ach bitte; wir reden wir bestenfalls von 1-3 FPS. WENN überhaupt. Und nur in dem Maße erhöht sich die Latenz. Das wird höchstens bei niedrigen Basis-FPS relevant und das FG unspielbarer Spiele nicht spielbar macht, ist nichts neues.

Das ist schon etwas mehr:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-8

Bei Allen Wake sind die Latenzen mit MFG 39% schlechter als ohne FG.

Daredevil
2025-05-05, 10:47:39
Das ist schon etwas mehr:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-8

Bei Allen Wake sind die Latenzen mit MFG 39% schlechter als ohne FG.
CB, die das zurecht kritisch anmerken schreiben aber nunmal auch folgendes:
Und das gilt eben auch für DLSS 4 MFG. Die Latenzen steigen mit DLSS 4 MFG 3× gegenüber DLSS FG 2× um 6 Prozent an, mit DLSS 4 MFG 4× sind es weitere 8 Prozent; das sind 39 Prozent schlechtere Latenzen als ohne jegliche Frame Generation und damit potenziell ein riesiger Disconnect zwischen Eingabesteuerung und Framerate auf dem Monitor. Das stört in dem Spiel aber einfach nicht.

Stattdessen ist das Bewegtbild vor allem mit DLSS 4 MFG 4× unglaublich flüssig und macht auf einem entsprechenden Monitor mit einer hohen Bildwiederholrate einen qualitativ sichtbaren Sprung nach vorne. Ganz gleich ob es sich um eine Zwischensequenz oder Gameplay handelt, das Bild ist sichtbar flüssiger als mit herkömmlichem DLSS 3 FG.

In dem Fall lautet die Empfehlung der Redaktion, auf einer GeForce RTX 5090 unbedingt DLSS 4 MFG im maximalen Modus in Alan Wake 2 zu aktivieren.

MFG ist nicht für alle und auch nicht für jedes Spiel, genauso wie 8K45 nichts für alle ist.
Der eine möchte einen besonders hochwertigen visuellen Eindruck (8K45) und der andere benötigt dementsprechend eine niedrige Latenz ( 2k480 ).
Es kommt jeweils auf die Person an als eben auch auf die Anwendung und was man dort in welchem Maße erreichen möchte.
Geschmäcker und Gewöhnung ist total unterschiedlich, deswegen sollte es genauso für die eine Seite viel Verständnis geben, als auch für die andere.

Cubitus
2025-05-05, 11:59:35
Ab MFG 3x treten vor allem in bestimmten Spielen vermehrt Doppelbilder (Ghosting/Artefakte) auf etwa bei Half-Life 2 RTX, Spiderman oder auch Cyberpunk, wenn man genau hinschaut. Zusätzlich sind an den Bildrändern teils störende Artefakte erkennbar. Bei MFG 2x sind diese Bildprobleme allgemein deutlich weniger ausgeprägt. Was die Latenz betrifft: Ohne Frame Generation fühlt sich das Spielerlebnis subjektiv direkter und besser an. Mit aktivierter Frame Generation kann es zwar durchaus spielbar und angenehm sein, doch der Zugewinn an Auflösung und Details wiegt nicht immer die höhere Eingabeverzögerung auf.
Es ist imo alles noch nicht ganz ausgereift. Und wir sind noch weit davon entfernt das eine 5070 eine 4090 "kassiert"

Ein weiterer Nachteil im Vergleich zur Ada-Generation ist der deutlich gestiegene Stromverbrauch bei aktivierter Frame Generation - gerade für Blackwell finde ich ein kritischer Punkt.
Dies liegt vermutlich daran, dass FG mittlerweile vollständig über die Tensor Cores läuft, was den Energiebedarf zusätzlich erhöht.

dargo
2025-05-05, 12:14:43
Ach bitte; wir reden wir bestenfalls von 1-3 FPS. WENN überhaupt. Und nur in dem Maße erhöht sich die Latenz.
Keine Vermutungen bitte aufstellen sondern Fakten verfolgen.

B_fGlVqKs1k

Und nicht vergessen, dass sind Messungen mit einer 5090. Bei einem langsameren Blackwell dürfte der Impact nochmal größer ausfallen. Leider hat es aber keiner bsw. mit einer 5070(TI) gemessen.

Raff
2025-05-05, 12:24:29
Die Rechnung geht laut Nvidia so:

– DLSS Q anstelle von TAA -> deutlich mehr Fps und niedrigere Latenz
– Reflex einschalten -> minimal weniger Fps, noch niedrigere Latenz
– MFG einschalten für mehr optische Fps, aber wieder mehr Latenz

-> Gesamterlebnis sowohl flüssiger als auch direkter (ja, wirklich)

Das kann man weiterhin doof finden, weil es proprietär und eben nicht perfekt ist, dennoch stellt es einen Mehrwert dar, ein weiteres Tool im Kasten. :)

Was ich nicht verstehe, ist, dass Leute eines nicht verstehen: Der Latenz-Zustand "Reflex + FG" ist teilweise besser als "kein Reflex, kein FG". Hier wird immer nur auf der reinen Zusatzlatenz durch FG herumgeritten. :|

MfG
Raff

MiamiNice
2025-05-05, 12:41:56
Könnte daran liegen, dass man Reflex auch ohne Dummbatz nutzen kann. Nativ + Reflex ist halt noch immer um Welten fixer, als Dummbatz + Reflex.
Ihr vergesst immer alle ganz gerne, das der Input Lag DIE maßgebliche Größe beim Gaming ist. Es ist nichts akzeptable was diesen Wert erhöht.

Raff
2025-05-05, 12:44:50
Der Punkt ist: Gäbe es kein Reflex, würde man das Spiel auch spielen und nicht merken, was einem fehlt. Faktisch tun das Millionen Leute täglich, denn auf Arc und Radeon gibt es kein Reflex (das in unzähligen Spielen steckt, auch Non-FG-Titel). Alles unspielbar? ;)

MfG
Raff

MiamiNice
2025-05-05, 12:57:45
Das ist doch nicht der Punkt, spielbar bzw. unspielbar. Der Punkt ist, mit Reflex und ohne FG, hat man weniger Input Lag. Input Lag und Min FPS sind die beiden relevanten Dinge. Also wenn ich bei Nativ + Reflex + Gysnc unter 60 FPS raus komme -> DLSS Q. Wenn mit DLSS-Q + Nativ + Reflex + Gysnc noch immer unter 60 FPS, brauche ich neue Hardware. Entweder schnellere CPU oder GPU, je nach Game. Wenn ich mir keine neue HW leisten kann oder will, müssen halt die Details runter. Wenn ich darauf keinen Bock habe, lasse ich Gaming sein. Auf keinen Fall lasse ich mich von Huang verarschen und kaufen Mittelklasse Karten zum High End Preis nur weil Huang meint, mit FG wäre die genau so schnell.

Alles was den Input Lag erhöht ist ein NO GO, generell und immer.

x-force
2025-05-05, 13:05:01
W00t. Das - also KCD - probiere ich nachher mal aus. :D

MfG
Raff

ich hab auch nicht schlecht geguckt, als ich das erste mal im hauptmenü war :D
gibst du kurz feedback, wie die gleiche karte in anno oder metro taktet?


Welche Settings werden denn gesucht, niedrigster Boosttakt bei niedrigster Spannung?

gsucht ist das anspruchsvollste szenario, was in maximalem verbrauch und durch powerlimit zum niedrigsten takt führt.

Daredevil
2025-05-05, 13:22:35
Ihr vergesst immer alle ganz gerne, das der Input Lag DIE maßgebliche Größe beim Gaming ist. Es ist nichts akzeptable was diesen Wert erhöht.
Dann wären hier ausschließlich HighFPS LowQ Gamer unterwegs, was offenbar nicht der Fall ist. Es kommt wie oben geschrieben immer auf das Game an und welchen Anspruch du an deiner Leistung im Gaming hast.
Clair Obscur: Expedition 33 zocke ich gerade an der PS5 Pro ( Grüße gehen raus an meinen Nvidia "Boycott" :D ) mit 60fps, der Input lag ist natürlich deutlich höher als wenn die Kiste mit 120fps laufen würde, trotzdem stört es mich nicht merkbar, weil ich hier absolut nichts vermisse. Der geringere Input Lag würde den Spielspaß 0.0% erhöhen. ( 30fps sind für mich persönlich zu wenig, weil ich nen ordentlichen Parry setzen will )
Reden wir jetzt darüber, das wir PUBG mit den Jungs spielen, würde ich natürlich 120fps+ Performance bevorzugen aufgrund des Input Lags und auch vom Sofa zum Schreibtisch mit M+T wechseln.
Cyberpunk oder Diablo z.B. würde ich im Himmel nicht mit MFG spielen wollen, das leben besteht aber eben nicht aus Ego Shooter oder Fast paced Gaming. Ein Last Of Us dafür schon, wenn ich die Qualität mit MFG+RT so hoch bringen kann, das es mir die Hose auszieht vor Hübschheit.

MFG kannste auch vergleichen mit dem erhöhen der Settingsstufe/aktivieren von RT, wenn du z.B. gerade bei 100fps Ingame bist.
Du bekommst mehr visuelle Qualität InGame in Form von Fluffigkeit ( Fehler außen vor, das ist natürlich problematisch ).´
Deine FPS sinken auf irgendwas um die 60-80 und die Karte wird mehr belastet
Der Input Lag steigt spürbar

Das bedeutet also auch, das jeder von uns bei seinem aktuellen Spiel die Settings eine Stufe runter stellen könnte, damit er eine Input Lag Verringerung hat wie beim deaktivieren von MFG. Aber trotzdem spielen wir mit High/Ultra/RT/PT, weil es ja auch hübsch sein soll. MFG macht es nicht hübsch, aber fluffig. Und Fluffigkeit bringt ziemlich viel, wenn man bei schnellen Kamerafahrten überhaupt was erkennen kann im Vergleich zu z.B. 30-40fps. :D

MiamiNice
2025-05-05, 13:38:54
Daredevil,
für mich, ist das "bla blub".
Ich merke einen höheren Input Lag direkt an der Maus, egal im welchem Game. Mir nimmt das massiv den Spielspaß. Deswegen werden hier alle Games über die selbe Metrik geprügelt -> Input Lag + min. FPS.
Ich kann mich nur wiederholen: Nichts anderes zählt beim Gaming. Außer natürlich der Erfolg :D

€: Zählt für mich auch für RT. Ist hier generell aus, weil es Lag erzeugt an der Maus. Spiele müssen sich anfühlen wie Q3A mit 333 FPS im Pointrelease 1.3.1, sonst ist halt kagge.

Hakim
2025-05-05, 13:49:41
Ich bin auch kein Freund von MFG. Wenn man sich die pro Gamer die streamen und Videos veröffentlichen anschaut haben die meisten competitive settings selbst auf 4090 und 5090 laufen (Warzone). Alles für den besten Input. Das einzige Szenario wo ich es evtl nutzen würde wäre wenn ich bei einem Solo Spiel in Z.B Path tracing so um die 50-60 FPS habe und gerne mehr hätte. Darunter würde ich schon den Input lag nicht mögen, darüber würde ich mich mit den ausreichenden fps begnügen (mir reichen 80 fps für ein Solo, muss nicht daraus 150+ mit falschen zwischen Frames fürs Ego generieren).

Daher für mich nice to have, mehr aber auch nicht. Vor allem nicht kaufentscheidend

Daredevil
2025-05-05, 14:00:56
Ich merke einen höheren Input Lag direkt an der Maus, egal im welchem Game. Mir nimmt das massiv den Spielspaß. Deswegen werden hier alle Games über die selbe Metrik geprügelt -> Input Lag + min. FPS.


Es ist ja auch okay eine Meinung zu haben, für andere zu sprechen oder generelle Aussagen bei diesem subjektiven Thema sind aber einfach an falscher Stelle.

Vor allem ist es quatsch, wenn man eine Haltung zu etwas hat und im Real Life ein komplettes Gegenteil fährt. Sofern ich in Erinnerung habe, hast du ein 4K240hz Panel, richtig?
Wenn du wirklich konsequent beim Thema Input Lag bist, so wie du es hier durchscheinen lässt, wärst du bei 480hz oder Miami typisch eher bei 600hz.
Du gehst in dem Fall aber natürlich den sinnvollen Kompromiss ein und erhöhst die Bildqualität durch das OLED Panel und UHD, aber eben wissentlich zum Kosten des Input lag.

Ich bin auch Input Lag sensitiv, ich komme von 200hz auf nem IBM CRT früher in meiner aktiven Counterstrike Zeit. Aber auch ich erlaube mir den Kompromiss 4K120 OLED, weil 55" für mich ein schöneres Spielerlebnis ist als Monitore in Briefmarkengröße. ( :D )
Ich maße mir aber nicht an, Gouvernator mit seinem 8K Trip zu belächeln oder dem 600hz Gamer Geschmack abzusprechen.
Wie Raff schon sagte, es ist ein Werkzeug mehr im Werkzeugkasten und jeder kann entscheiden, ob er es gut findet oder nicht. Das man generell aber möchte, das dieses Werkzeug verschwindet, weil man es selber nicht mag, ist zu engstirnig und hindert auch die Entwicklung.

Das MFG was wir heute sehen ist das schlechteste, was wir jemals sehen werden. Die Qualität, der Input Lag und die Leistung wird nach und nach mit der Leistung der Hardware besser werden. Sich technologischem Fortschritt zu verwehren geht nicht, das ging in der Geschichte der Menschheit nie. Entwicklung passiert immer und ist nicht wiederumkehrbar. KI Enhancement wird nicht aufhören.

Das Nvidia aber nun schreibt "5070 = 4090" ist natürlich Verbrauchertäuschung und höchst Arrogant. Das kann man durchaus bemängeln, verurteilen und auch boykottieren. Die Technologie ist daran aber nicht schuld, nur wie die Story darum geschrieben ist.

basix
2025-05-05, 14:02:49
Wie immer: Es kommt drauf an ;)

In kompetitiven Umfeldern wird man FG/MFG meiden (wegen Lag) und Eye Candy abschalten (um Ablenkung / schlechtere Sicht zu vermeiden). Oftmals wird sogar auf 1080p zurückgeschaltet, weil die Hitbox pro Pixel berechnet wird und das somit die Trefferquote verbessert. Das gilt aber nur, wenn einem Erfolg das wichtigste ist. Mir steht das Erlebnis im Vordergrund, deswegen darf Eye Candy dazugeschaltet werden. FG/MFG bleibt bei Online Shootern aus.

Bei Single Player Games ist FG aber schon nützlich, zumindest nach meinem Empfinden. Ich merke niedrige Bildraten deutlich stärker mit dem Auge als an der Maus. Ich merke den Maus-Lag mit FG schon aber das flüssigere Bild hat den grösseren positiven Effekt. Deswegen schalte ich FG oft an.

Lag kann man zudem relativ gut angewöhnen. Hey, ich hatte UT2k4 kompetitiv mit 80ms Ping und langsamem LCD gespielt und war meistens einer der besten in den Matches. Das einzige wo ich deaktiviert hatte war "Full Gore" für verbesserte Sicht. Als dann besseres Internet, 20ms Ping und ein schnelleres Screen-Panel Einzug hielten war es viel, viel direkter und natürlich einiges einfacher. Sooo viel besser war ich unter dem Strich aber dann nicht, primär konstanter in den Matches und einige Moves gelangen viel öfters.

MiamiNice
2025-05-05, 14:10:43
Ja, ich habe eines dieser 240Hz OLED 4k Panel. Da ich bis auf EFT kaum noch Shooter spiele und der eher gemählich funktioniert, komme ich mit den HZ gut aus. Maßgeblich habe ich 4k wegen der Übersicht in Aufbaugames, H&S, MMOs, etc.pp.
Bei mir steht Optik und Bildqualität irgendwie auf der 2. Seite. Mache ich mir nie Gedanken drüber. Es muss sich in erster Linie gut anfühlen und da ich immer nur Qualität kaufe, passt dann auch die Optik.
Ich gebe gerne paar Taler mehr aus um mir keine Gedanken über so Dinge machen zu müssen.

Lawmachine79
2025-05-05, 14:16:47
ich hab auch nicht schlecht geguckt, als ich das erste mal im hauptmenü war :D
gibst du kurz feedback, wie die gleiche karte in anno oder metro taktet?




gsucht ist das anspruchsvollste szenario, was in maximalem verbrauch und durch powerlimit zum niedrigsten takt führt.
Interessant, was ist der Aussagewert davon, dass etwas im Powerlimit einen geringen Takt hat?

x-force
2025-05-05, 14:18:32
Interessant, was ist der Aussagewert davon, dass etwas im Powerlimit einen geringen Takt hat?

du könntest z.b. versuchen ob via curve bei der spannung noch mehr takt geht.

Daredevil
2025-05-05, 14:25:07
Ja, ich habe eines dieser 240Hz OLED 4k Panel. Da ich bis auf EFT kaum noch Shooter spiele und der eher gemählich funktioniert, komme ich mit den HZ gut aus. Maßgeblich habe ich 4k wegen der Übersicht in Aufbaugames, H&S, MMOs, etc.pp.
Bei mir steht Optik und Bildqualität irgendwie auf der 2. Seite. Mache ich mir nie Gedanken drüber. Es muss sich in erster Linie gut anfühlen und da ich immer nur Qualität kaufe, passt dann auch die Optik.
Ich gebe gerne paar Taler mehr aus um mir keine Gedanken über so Dinge machen zu müssen.
Ich wollte dich damit auch nicht outcallen oder sowas, mir ging's nur darum zu verstehen, das jeder irgendwie Kompromisse macht und nichts bislang der "heilige Gral" ist, manches aber natürlich sehr nah dran kommt.
Für mich wäre ein Update zu meinem 120hz OLED auch ein 240HZ OLED, so isses ja nicht. ^^

Als ich mir 2020 den 4K120 Screen geholt habe, habe ich etliche Jahre ziemliche Probleme gehabt den Input Lag niedrig zu halten, weil Turing halt keine 4K Karte gewesen ist und ich schwer auf 100fps+ gekommen bin ohne Abstriche, nicht mal die 3090 war es. Die 5090 kommt näher ran, aber jetzt werden die Spiele auch einfach fordernder. Die perfekte Cyberpunk Karte gibts heute immer noch nicht, entweder Low Quali und 240fps=Input Lag low, High Quali und 60-100FPS und Input Lag High oder eben als Kompromiss Settings verringern und/oder MFG einschalten, womit man zwischen Input Lag und Quali jongliert. Ist not that simple, beneide jeden der keinen 4K Screen hat. :D

MiamiNice
2025-05-05, 15:03:36
Das ist ja nur ein Problem weil Lederjacke gerne upsellen würde. Wenn wir Leistung bekommen würden, statt Software Murks, wäre das kein Problem. Die Akzeptanz von diesen Dingen wie FG sorgt dafür, das wir Probleme haben auf großen Monitoren. Kein Arsch braucht FG und auch keinen Hybrid Ansatz zwischen Raster und RT. Wir brauchen massiv Raster und eine Zusatzkarte für RT, wie damals. Dann den Weg zu komplett RT gehen und RT only Beschleuniger. Huang verkauft nur die Reste aus dem Supercomputing Segment und hat daraus etwas gebaut, was Gaming schlechter macht. Würden die Leute diesen BS nicht akzeptieren, hätten wir die Probleme nicht. Der einzige der hier lacht ist Huang, alle anderen werden verarscht und abgezogen.
Es würde NV keinen Zacken aus der Krone brechen, extra Karten für Gamer zu designen. Sie haben es nur nicht nötig, weil die Masse nichts hinterfragt und die Herstellerfolien glaubt so lange die Balken lang genug sind und bei den Zeitungen nur noch Jubelperser sitzen die Angst um Job haben.

dargo
2025-05-05, 15:12:47
Der Punkt ist: Gäbe es kein Reflex, würde man das Spiel auch spielen und nicht merken, was einem fehlt.
Falsch... man würde höhere Frames anstreben damit es sich wieder gut anfühlt.

Raff
2025-05-05, 15:14:33
"Falsch". Du kämest gar nicht auf die Idee, etwas zu vermissen. Reflex ist in den meisten Spielen kein ausgegrauter, sondern ein unsichtbarer Schalter, sofern keine Geforce im Rechner steckt.

MfG
Raff

dargo
2025-05-05, 15:18:48
"Falsch". Du kämest gar nicht auf die Idee, etwas zu vermissen.
Blödsinn... jeder merkt das an der Maus ob die sich gut oder schlecht bei X Frames anfühlt.

Daredevil
2025-05-05, 15:21:28
Ich will ja jetzt nicht Devils Advokat spielen, aber ich persönlich finde die Techologiesprünge, die wir gerade in den letzten Generationen seit der 1080ti, welche einfach nur eine "dumme Raster GPU" gewesen ist, ziemlich spannend. Sicherlich wird mit Blackwell der Bogen überspannt, aber wir sind auch immer noch im gleichen Fertigungsprozess. In 1-2 Jahren werden wir analog zur 4090 euphorisch durch die Foren hecheln, weil Jensen uns seinen 2/3nm Abfall verkauft hat, womit unsere Lieblingsspiele auch in Raster dermaßen gemessen loslegen, koste es dann was es wolle. :D

Der Nachteil von kürzeren Zyklen ist halt, dass die Sprünge kleiner werden. Nvidia will jedes Jahr was neues bringen, was im Pro Bereich ziemlich viel bewegt, im Gaming Bereich aber weniger, wenn es nicht Fertigungssprünge gibt.
Alternativ dazu wären die iPhone Sprünge auch bedeutender, wenn man nicht von 11-12-13-14-15-16 wechselt, sondern z.B. nur von 11-14-16. Thats part of the Game. :usad:

Blödsinn... jeder merkt das an der Maus ob die sich gut oder schlecht bei X Frames anfühlt.
Du kannst nichts vermissen, was du nicht kennst. Das ist schon richtig. ^^
Bis zum 13pro hat niemand sich darüber echauffiert, weil er es nicht kannte, dass das Base iPhone nur 60hz hat.
Seit dem 120hz Screen im 13pro wird jedes Jahr geschrieben, dass die Base iPhones unkaufbar sind, weil sie kein Promotion haben.
Verkaufen tun sie sich trotzdem am besten. :D

Raff
2025-05-05, 15:21:51
Blödsinn... jeder merkt das an der Maus ob die sich gut oder schlecht bei X Frames anfühlt.

Ja, aber sobald FG im Spiel ist, basiert das meiste davon auf Suggestion. Es ist eine Zwischenbildberechnung aktiv, also muss es sich ja schwammig anfühlen, geht nicht anders. Dabei wird dann, aus welchen Gründen auch immer, ausgeblendet, dass man Mitigation in Gestalt von Reflex, Anti-Lag, XeLL und natürlich einer niedrigeren Auflösung betreiben kann. Diese Diskussion wird sicher noch ein paar Jahre gehen, bis jeder immer mit FG spielt und sich schlicht daran gewöhnt hat. Eventuell wird das auch irgendwann zwingend, wie Raytracing.

MfG
Raff

dargo
2025-05-05, 15:25:41
Du kannst nichts vermissen, was du nicht kennst. Das ist schon richtig. ^^
Immer noch Blödsinn. Ich weiß wie sich höhere Frames an der Maus anfühlen, das ist jederzeit spielend überprüfbar. Oder muss ich dir noch erklären was bei höheren Frames mit der Latenz passiert, völlig egal ob mit oder ohne Reflex/Antilag 2?

Daredevil
2025-05-05, 15:29:44
Immer noch Blödsinn. Ich weiß wie sich höhere Frames an der Maus anfühlen, das ist jederzeit spielend überprüfbar. Oder muss ich dir noch erklären was bei höheren Frames mit der Latenz passiert, völlig egal ob mit oder ohne Reflex/Antilag 2?
Und du spielst seit dem es Reflex/Antilag gibt nun ganz bewusst mit weniger FPS, weil du das Input Lag Optimum vorher schon bei einer spezifischen Zeit in ms für dich festgelegt hast... oder wie? Weil wenn dem nicht so ist, ist es inkonsequent, weil es war dir vorher ja auch egal.

Wenn das neue neu besser ist als das alte optimal, war das alte optimal nicht optimal, sondern ein Kompromiss. Da dreht sich wieder der Kreis. (:

MiamiNice
2025-05-05, 15:30:50
Natürlich kann man hohe FPS vermissen. Man fühlt doch wie sich das Game anfühlt. Und jeder hier weiß noch aus Kindheitstagen wie sich ein Spiel anfühlen muss. Meine Referenz ist, wie gesagt, Q3A in Version 1.3.1 mit 333 FPS. Das habe ich mit 12 oder so gespielt. Und genau dieses Gefühl an "Direktheit" erwartet ich von jedem Spiel. Ansonsten ist es mies gemacht und meine Zeit nicht wert.

Lawmachine79
2025-05-05, 15:31:09
Falsch... man würde höhere Frames anstreben damit es sich wieder gut anfühlt.
Dann wärst Du längst zu NVidia gewechselt.

Natürlich kann man hohe FPS vermissen. Man fühlt doch wie sich das Game anfühlt. Und jeder hier weiß noch aus Kindheitstagen wie sich ein Spiel anfühlen muss. Meine Referenz ist, wie gesagt, Q3A in Version 1.3.1 mit 333 FPS. Das habe ich mit 12 oder so gespielt. Und genau dieses Gefühl an "Direktheit" erwartet ich von jedem Spiel. Ansonsten ist es mies gemacht und meine Zeit nicht wert.
So fühlten sich in meiner Kindheit Spiele an:
https://www.youtube.com/watch?v=R6hbfDihRQc

MiamiNice
2025-05-05, 15:34:42
Sowas habe ich mit 6 auf dem C64 gespielt. Aber Shooter wurden erst auf dem PC für mich relevant. Wolfenstein und Co. waren meine ersten PC Games. Quake 1 war eine Offenbarung. Quake 3 quasi der Olymp, der bis heute nicht wieder erreicht wurde.

dargo
2025-05-05, 15:36:05
Ja, aber sobald FG im Spiel ist, basiert das meiste davon auf Suggestion. Es ist eine Zwischenbildberechnung aktiv, also muss es sich ja schwammig anfühlen, geht nicht anders.

Mach dich doch bitte nicht lächerlich. Ich erkenne FG im Blindtest an der Maus. Zumindest bei nur max. 140fps. Bei max. ~230fps auf einem 240Hz Screen... das beurteile ich erst wenn ich diesen Screen habe. Wobei sich hier wieder die Frage stellt wofür FG wenn ich schon ohne FG 120+fps dann habe. Ergo liegt die Latenz da schon mit Antilag 2 bei unter 30ms. Und der Bereich 20+ms fühlt sich für mich persönlich sehr direkt an der Maus an.


Dabei wird dann, aus welchen Gründen auch immer, ausgeblendet, dass man Mitigation in Gestalt von Reflex, Anti-Lag, XeLL und natürlich einer niedrigeren Auflösung betreiben kann. Diese Diskussion wird sicher noch ein paar Jahre gehen, bis jeder immer mit FG spielt und sich schlicht daran gewöhnt hat. Eventuell wird das auch irgendwann zwingend, wie Raytracing.

Spätestens dann höre ich mit dem Gaming auf wenn mir jemand Framegeneration aufzwingen will. Oder ist habe bis dahin einen ~360Hz Bildschirm wo mir das dann eventuell nicht mehr bei 2x FG negativ an der Maus auffällt.

Natürlich kann man hohe FPS vermissen. Man fühlt doch wie sich das Game anfühlt. Und jeder hier weiß noch aus Kindheitstagen wie sich ein Spiel anfühlen muss. Meine Referenz ist, wie gesagt, Q3A in Version 1.3.1 mit 333 FPS. Das habe ich mit 12 oder so gespielt. Und genau dieses Gefühl an "Direktheit" erwartet ich von jedem Spiel. Ansonsten ist es mies gemacht und meine Zeit nicht wert.
Ich habe langsam das Gefühl die jüngere Generation kennt das gar nicht mehr. Gut... ich strebe jetzt nicht unbedingt echte 300+fps an, es gibt da aber durchaus eine Grenze die ich sehr gut erkenne wo sich ein Spiel an der Maus gut oder schlecht anfühlt. Und bisher fühlte sich hier jedes Game mit festen 140fps (Bildschirmlimit) trotz Antilag 2 nicht gut genug für mich an. Im Gegensatz zu non FG mit weniger Frames und natürlich auch Antilag 2 On.

Dann wärst Du längst zu NVidia gewechselt.

Aha... weil es keine anderen Möglichkeiten gibt die Framerate zu erhöhen als zu Nvidia zu wechseln. Was rauchen hier eigentlich einige regelmäßig? :freak: Zudem... was genau habe ich davon wenn ich mir eine RTX 5070 anstatt einer RX 9070 zulege? Werden meine Spiele jetzt also schneller weil Nvidia drauf steht? ;D Du merkst hoffentlich selbst wie bescheuert dein Post ist.

Lurtz
2025-05-05, 16:04:56
Immer noch Blödsinn. Ich weiß wie sich höhere Frames an der Maus anfühlen, das ist jederzeit spielend überprüfbar. Oder muss ich dir noch erklären was bei höheren Frames mit der Latenz passiert, völlig egal ob mit oder ohne Reflex/Antilag 2?
Das ist doch dennoch kein feststehender Wert. Latenz und "Mausgefühl" können und werden je nach Engine enorm abweichen. Da "interpoliert" dein Gehirn die Unterschiede ja auch in irgendeiner Form, weil man gar keine andere Wahl hat.


Ich habe langsam das Gefühl die jüngere Generation kennt das gar nicht mehr.
Jüngere Generation. Im 3DC. Guter Witz :D

MiamiNice
2025-05-05, 16:11:17
Ich habe langsam das Gefühl die jüngere Generation kennt das gar nicht mehr.

Auch viele der älteren User unter uns haben vergessen wie sich Gaming anfühlen sollte. Liest man laufend in den Posts hier im 3DC, gerade im Gaming Bereich.
Da hat die Lederjacke unglaublich gutes Brain Washing betrieben.

dargo
2025-05-05, 16:13:10
Das ist doch dennoch kein feststehender Wert.

Wo habe ich jetzt das Gegenteil behauptet? Ich habe nirgendwo eine feste Framerate genannt die meine Referenz wäre für gutes Mausgefühl.


Jüngere Generation. Im 3DC. Guter Witz :D
Gibt nicht nur alte Säcke hier. Afaik ist Raff noch unter 40. :tongue:

Auch viele der älteren User unter uns haben vergessen wie sich Gaming anfühlen sollte. Liest man laufend in den Posts hier im 3DC, gerade im Gaming Bereich.
Da hat die Lederjacke unglaublich gutes Brain Washing betrieben.
Da muss ich dir leider zustimmen. Seit der Raytracing-Gehirnwäsche und Framegeneration ist das wirklich unerträglich geworden.

Exxtreme
2025-05-05, 16:13:43
Spätestens dann höre ich mit dem Gaming auf wenn mir jemand Framegeneration aufzwingen will.

Zwangs-FG wird womöglich irgendwannmal kommen., Weil es für die Spielefirmen einfacher ist einen Schalter umzulegen als zu optimieren. Das Einzige, was hilft ist die Spiele nicht zu kaufen.

MiamiNice
2025-05-05, 16:14:43
Zwangs-FG wird womöglich irgendwannmal kommen., Weil es für die Spielefirmen einfacher ist einen Schalter umzulegen als zu optimieren. Das Einzige, was hilft ist die Spiele nicht zu kaufen.

Womit auch der eigentlich Nutzen Sinn von (M)FG erklärt wäre, abseits der Kostenreduktion bei NV.
Aber ja, bitte mehr davon in jedem Spiel. Und bitte mehr Raffs im Netz, die es anpreisen und alle für altmodisch erklären die es nicht nutzen wollen, weil sie es besser wissen :up:

aufkrawall
2025-05-05, 16:17:45
DLSS 4 (M)FG fühlt sich imho deutlich besser an als 3 insbesondere in den Anfangstagen. Zumindest, wenn es richtig funktioniert.
So komplett abgeneigt, die 9070 rauszuschmeißen, falls es eine 5070S mit mehr VRAM geben sollte, bin ich nicht. In Oblivion nervt FSR FG mit der Vampir-Vignette am Bildschirmrand auch wieder arg...

Hakim
2025-05-05, 16:34:30
Raff wie wäre es mal mit so einem Blindtest wie bei den FSR4 vs DLSS Video? Einfach vor zwei Systemen platzieren, einmal nativ ~200 Fps und einmal 200 mit MFG und von mir aus Reflex on.

Raff
2025-05-05, 21:18:21
Gibt nicht nur alte Säcke hier. Afaik ist Raff noch unter 40. :tongue:

Nicht mehr lange. ;)

Ich muss trotzdem schmunzeln. Hier sind doch sooo viele Experten unterwegs. Haben echt alle davon vergessen, dass Gaming schon sehr viele Phasen durchlaufen hat? Es gab die Bröckelkotze-Phase, grob und ruckelig. Die Durchbruch-Phase, als 30 Fps in 640×480 als das Beste angesehen wurden. Die LCD-Phase, als plötzlich alles schmierig wurde, gefolgt vom wohl schlimmsten Szenario, als diverse Fernseher nicht nur latent waren, sondern das Bild auch noch mithilfe von Nachbearbeitung noch zäher machten. An den Konsolen hatte das besonders fatale Folgen in der PS360-Ära, als zu alldem Schmodder auch noch niedrige Bildraten kamen, da man Effekte vor Fps stellte -> Latenzen aus der Hölle.

Dieser High-Fps-Fetisch, bei dem plötzlich alle nach dreistelligen Bildraten schreien, ist ein Phänomen der Moderne. Hochgradig subjektiv. Verwöhnt. Anfechtbar. Man kann eben nicht alles auf einmal haben, das lernt man bereits als Kind. :)

MfG
Raff

dargo
2025-05-05, 21:30:29
Dieser High-Fps-Fetisch, bei dem plötzlich alle nach dreistelligen Bildraten schreien, ist ein Phänomen der Moderne.

Bei dem einen oder anderen steigt eben der Anspruch im Bereich X mit dem Alter. :) Und mir reichen auch oft 9xfps aus (zweistellig ;)) wenn die Latenz dabei nicht zu hoch ausfällt.


Hochgradig subjektiv. Verwöhnt. Anfechtbar. Man kann eben nicht alles auf einmal haben, das lernt man bereits als Kind. :)

Richtig... man muss aber auch nicht für jeden noch so kleinen Fliegenschiss in der langen Entwicklungsphase den IHVs jede Generation das Geld in den Rachen schieben und/oder jeden Fliegenschiss zum Himmel hypen. ;) Das ist wahrscheinlich der große Unterschied zwischen uns beiden. :)

Raff
2025-05-05, 21:48:17
Hier liegt das große Missverständnis: Ich lobe nicht in den Himmel. Ich kläre auf, erkenne an, dass alles Vor- und Nachteile hat ... und dass mehr Optionen besser sind als weniger Optionen. Perfektion darf man halt nicht erwarten. Echtzeitgrafik war noch nie perfekt und wird es auch nicht sein, das ist alles wild zusammengeschustertes Flickwerk. ;)

Übrigens: Frame Generation ist in den ersten sechs (?) Monaten nach dem Ada-Release ein derart instabiler Haufen gewesen, dass ich es gemieden habe wie der Teufel das Weihwasser. Mindestens diverse UE5-Spiele sind damit gefühlt so oft abgeflogen wie Windows 98. Aber Iteration hat geholfen. Iteration wird auch bei MFG helfen – nicht nur bei Nvidia, sondern auch bei den Mitbewerbern. :)

MfG
Raff

Thunder99
2025-05-05, 22:22:04
Auf den Titel zurück zu kommen:

Lovelance is besser als manche so behaupten. Es wird nicht an VRAM gegeizt ab der 70er und die Karten laufen Runder als Ampere (was seinen Namen alle Ehre macht...)
Blackwell ist ein schlechter Scherz. Das Pferd springt nur so hoch wie es muss. Für die Enthusiasten die alles zahlen hat man 32GB gebracht, damit ein wenig Neues dabei ist. Der Rest ist so lala.
Der Verzicht auf 32bit Support, wenn das mal nicht nach hinten losgeht...

Meine 4080er (Ampere done right) wird wahrscheinlich so lagen halten wie meine 1080Ti (Maxwell done right)

Sardaukar.nsn
2025-05-05, 23:06:00
@Thunder99

Jetzt mal unter uns. Ich bin ja auch ein 80er Käufer. Palit 1080ti mit Raff Getto-Mod, später Wasserkühlung, MSI Suprim 3080 mit 3x8pin usw.

...aber die 4080 hat doch wirklich niemanden getriggert! Da sind wir doch alle auf die 4090 gegangen. Die 5080 steht als reine Gaming Karte heute doch viel besser da. Abstand das zur 5090 so groß das man auch nicht von upselling sprechen kann.

Banshee18
2025-05-05, 23:33:55
Ich zocke seit 30 Jahren und war eigentlich immer sehr empfindlich, was Bildqualität usw. angeht. Ich habe damals MSAA/SSAA und AF gefeiert und hab mir die Grafikkarten nach deren Qualität ausgesucht, während mein zugegeben nicht so nerdiger Freundeskreis nicht mal gesehen hat, ob es an oder aus ist, ich hab Ruckeln oder Inputlag gesehen, wo es niemand sonst gesehen hat, aber über eure Ansprüche kann ich teilweise nur staunen.
Ich bin sehr zufrieden mit den heutigen Features und der damit erreichbaren Bildqualität und Flüssigkeit. DLSS4 ist für mich in den meisten Fällen nahezu perfekt, Framegeneration hat mir geholfen, dass ein Gebiet in Avatar, das für mich auf meinem damaligen System geruckelt hat und nicht gut spielbar war, nicht perfekt, aber gut spielbar wurde.
Ich bin froh, dass ich nicht euren Anspruch habe und meine Spiele genießen kann und fühle mich dabei gleichzeitig komisch, da ich durchaus sehr gute Hardware habe.

Ich meine mich zu erinnern, dass manche hier gerne Screenshots posten mit allen möglichen Anzeigen in der Ecke, wie FPS, Frametimes, Latenz, usw. Ich lasse das einfach mal so im Raum stehen und wundere mich....

x-force
2025-05-05, 23:40:38
Die Durchbruch-Phase, als 30 Fps in 640×480 als das Beste angesehen wurden.[...]

Dieser High-Fps-Fetisch, bei dem plötzlich alle nach dreistelligen Bildraten schreien, ist ein Phänomen der Moderne. Hochgradig subjektiv. Verwöhnt. Anfechtbar. Man kann eben nicht alles auf einmal haben, das lernt man bereits als Kind. :)

MfG
Raff

wovon konkret redest du?

30fps war schon immer für konsolen, crysis abgesehen, das lief da erst gar nicht.

bei mir gings mit voodoo2 los und mit gf256 weiter.
beide karten haben weitesgehend über 60fps geliefert.

https://i.ibb.co/pjhTGvyG/v2.jpg

https://images.anandtech.com/old/video/nvidia/geforce256/Image112.gif

Ex3cut3r
2025-05-05, 23:42:28
Ich zocke seit 30 Jahren und war eigentlich immer sehr empfindlich, was Bildqualität usw. angeht. Ich habe damals MSAA/SSAA und AF gefeiert und hab mir die Grafikkarten nach deren Qualität ausgesucht, während mein zugegeben nicht so nerdiger Freundeskreis nicht mal gesehen hat, ob es an oder aus ist, ich hab Ruckeln oder Inputlag gesehen, wo es niemand sonst gesehen hat, aber über eure Ansprüche kann ich teilweise nur staunen.
Ich bin sehr zufrieden mit den heutigen Features und der damit erreichbaren Bildqualität und Flüssigkeit. DLSS4 ist für mich in den meisten Fällen nahezu perfekt, Framegeneration hat mir geholfen, dass ein Gebiet in Avatar, das für mich auf meinem damaligen System geruckelt hat und nicht gut spielbar war, nicht perfekt, aber gut spielbar wurde.
Ich bin froh, dass ich nicht euren Anspruch habe und meine Spiele genießen kann und fühle mich dabei gleichzeitig komisch, da ich durchaus sehr gute Hardware habe.

Ich meine mich zu erinnern, dass manche hier gerne Screenshots posten mit allen möglichen Anzeigen in der Ecke, wie FPS, Frametimes, Latenz, usw. Ich lasse das einfach mal so im Raum stehen und wundere mich....
Ach nimm das alles nicht so ernst hier, sind einfach meistens Leute die sich und Ihre HW sehr ernst nehmen und einen auf "dicken" machen in Wahrheit steckt da aber nicht viel dahinter. ;)

Raff
2025-05-06, 00:28:05
wovon konkret redest du?

30fps war schon immer für konsolen, crysis abgesehen, das lief da erst gar nicht.

bei mir gings mit voodoo2 los und mit gf256 weiter.
beide karten haben weitesgehend über 60fps geliefert.

https://i.ibb.co/pjhTGvyG/v2.jpg

https://images.anandtech.com/old/video/nvidia/geforce256/Image112.gif

Voodoo 1 ist nur halb so schnell wie Voodoo 2. GLQuake lief anfangs nicht mit 60+ Fps.

MfG
Raff

x-force
2025-05-06, 01:00:20
Voodoo 1 ist nur halb so schnell wie Voodoo 2. GLQuake lief anfangs nicht mit 60+ Fps.

MfG
Raff

verstehe.
ich hätte nicht erwartet, dass die moderne bei dir schon mit voodoo 2 begonnen hat :freak:

Langlay
2025-05-06, 05:53:37
wovon konkret redest du?

30fps war schon immer für konsolen, crysis abgesehen, das lief da erst gar nicht.

bei mir gings mit voodoo2 los und mit gf256 weiter.
beide karten haben weitesgehend über 60fps geliefert.

https://i.ibb.co/pjhTGvyG/v2.jpg

https://images.anandtech.com/old/video/nvidia/geforce256/Image112.gif


Ist halt auch stark Spielabhänig. Und die Leistungsentwicklung war auch eine ganz andere. Spiele die beim Launch anspruchsvoll waren. Liefen dann 2-3 Jahre später, neuerer Hardware, deutlich besser.

https://i.imgur.com/qg8c2rk.png

Badesalz
2025-05-06, 06:36:55
@Hakim
Dann geh.

Dieser High-Fps-Fetisch, Man könnte nun aber langsam von den althergebrachten 60fps/V-Sync auf 120fps/Freesync gehen.
Das erkenne zwischen all den dekadenten Gören ohne sonstige Lebensinhalte selbst ich an ;)

Auch das scheint aber schon und noch, ein Leistungsproblem zu sein. Für die 60fps ohne Tearing gab es bei 1024 und 1280 - heute QHD und UWQHD? - irgendwie noch nicht so ein HW-Abf*ck.

downforze
2025-05-06, 08:19:49
Der Anspruch heute ist allgemein ja anscheinend auch, dass man eine möglichst hohe Auflösung haben muss. Auf Computerbase hat mich einer mal angeblubbert, wie ich denn heutzutage noch einen 24" TF-Monitor / FullHD haben könne. Unter 27" / WQHD kaufe man nichts.

Allgemeiner Tenor: 27", 4k, 200 fps, 360 Hz, FG ganz toll, FSR komplett Scheiße, DLSS immer haushoch überlegen, Stromverbrauch vielen völlig egal

Ich kann mich damit überhaupt nicht identifizieren. Mein erster Monitor war 14" 800*600 und in Unreal Tournament schaffte die Diamond Monster 3d II Voodoo 2 weit unter 60 fps bei vollen Details. Heutzutage scheint jeder Kasper in den 20ern zum Progamer aufgestiegen zu sein.
Alle wollen mir großspurig erzählen, dass ein Spiel mit 360 fps / Hz ja noch mal richtig viel im Vergleich zu 144 Hz bringen würde.
Und diese hohen fps-Zahlen mit FG wären ein ganze tolles Kaufargument. Keiner rafft, dass bei generierten Bildern kein Input durch den Controller erfolgen kann und FG bei wenig fps absolut nichts bringt. Es spielt sich beschissener wie ohne FG. Im Prinzip ist das wie ein Tacho im VW Golf 4 100 PS, der bis 260 km/h geht.
Da FSR im allgemeinen als komplett Scheiße und DLSS ist Super bewertet wird: Ich sehe keinen Unterschied (selbst bei FSR 2.1, was ich gestern mal testweise in EA WRC 24 deaktiviert habe, mit und ohne verwaschen und unscharf). Da wird in den Tests dann immer mit Faktor 20 rangezoomt, weil irgendein Grashalm dann bei FSR verwaschener aussieht. Das hat in der Praxis Null Relevanz.
Man muss den Kram ja nutzen, weil nativ gar keine dreistelligen fps mehr zu Stande kommen. Also im Prinzip zahlen wir bei den hohen Grafikkartenpreisen eigentlich nur die Treiberverbesserungen. Viel Rohleistung kommt ja nicht mehr dazu.

Lurtz
2025-05-06, 08:50:35
Ich zocke seit 30 Jahren und war eigentlich immer sehr empfindlich, was Bildqualität usw. angeht. Ich habe damals MSAA/SSAA und AF gefeiert und hab mir die Grafikkarten nach deren Qualität ausgesucht, während mein zugegeben nicht so nerdiger Freundeskreis nicht mal gesehen hat, ob es an oder aus ist, ich hab Ruckeln oder Inputlag gesehen, wo es niemand sonst gesehen hat, aber über eure Ansprüche kann ich teilweise nur staunen.
Ich bin sehr zufrieden mit den heutigen Features und der damit erreichbaren Bildqualität und Flüssigkeit. DLSS4 ist für mich in den meisten Fällen nahezu perfekt, Framegeneration hat mir geholfen, dass ein Gebiet in Avatar, das für mich auf meinem damaligen System geruckelt hat und nicht gut spielbar war, nicht perfekt, aber gut spielbar wurde.
Ich bin froh, dass ich nicht euren Anspruch habe und meine Spiele genießen kann und fühle mich dabei gleichzeitig komisch, da ich durchaus sehr gute Hardware habe.

Ich meine mich zu erinnern, dass manche hier gerne Screenshots posten mit allen möglichen Anzeigen in der Ecke, wie FPS, Frametimes, Latenz, usw. Ich lasse das einfach mal so im Raum stehen und wundere mich....
Ist schon so. Leider ist im Diskurs da viel kaputt gegangen, auch weil jeder Dödel sich ein Overlay mit Frametimes anzeigen lassen und bei Youtube hochladen kann, wo man mit Skandal-Content dann auch noch mehr Geld verdient.

Wir leben schon noch in ziemlich komfortablen Gefilden insgesamt, auch die Konsolenversionen sind optisch idR besser und flüssiger als das in der Vergangenheit der 3D-Konsolen meist der Fall war.

Das heißt nicht, dass es nicht wichtig ist Dinge wie Frametimes und Latenz zu analysieren und Missstände anzuprangern, aber wenn dann selbst nur zeitweises Levelstreaming mit Auswirkungen auf Frametimes der Untergang der Spiele ist, wirds irgendwann übertrieben... Und am Ende kann man die Technik eines Spiels kritisieren und dennoch mit dem Inhalt Spaß haben. Einige Meisterwerke der Spielegeschichte haben/hatten keine perfekte Technik, früher war das eh noch viel normaler. Ich sage nur Gothic 1 mit 24 fps-Limit.

Badesalz
2025-05-06, 09:47:00
@downforze
Auf Computerbase hat mich einer mal angeblubbert
Es ist zwar nicht grundlegend falsch, aber du beschreibst da eher das Problem der sozial Verarmten und kein technisches...

Einige Meisterwerke der Spielegeschichte haben/hatten keine perfekte TechnikWenn man sich mit bisschen Abstand zum Ganzen anschaut wie oft welcher sinnloser inhaltsloser Müll auf welche Art gespielt wird (werden muss), dann kommt einem der BigReset echt wie eine Alternative vor...

x-force
2025-05-06, 10:02:18
Ist halt auch stark Spielabhänig.
https://i.imgur.com/qg8c2rk.png

du zeigst nicht mehr als ein cpu limit ;)
da wurde wohl mit max bots gebencht.

hier mal eine grafik die mehr der realität entspricht und gleichzeitig wesentlich mehr karten hat:
https://www.voodooalert.de/board/_data/public/files/45/40/15569-4540aee103f4769bb37d3a6e80cfb93a46025a1cb1542d689c210531acfa6baa-variant.webp

voodoo2 -> 75fps
gf 256 -> 150fps sieht nach cpu limit aus.

Raff
2025-05-06, 10:20:58
Geiler Benchmark, der sogar weitgehend plausibel und methodisch gut aussieht. =) So etwas habe ich auch vor, wenn ich endlich mal Zeit habe. Evtl. in 30 Jahren, wenn ich in Rente gehe.

MfG
Raff

Lawmachine79
2025-05-06, 10:36:33
Geiler Benchmark, der sogar weitgehend plausibel und methodisch gut aussieht. =) So etwas habe ich auch vor, wenn ich endlich mal Zeit habe. Evtl. in 30 Jahren, wenn ich in Rente gehe.

MfG
Raff
Was hast Du vor? Einen plausiblen und methodisch gut aussehenden Benchmark erstellen ;)?

Ich meine mich zu erinnern, dass Monitore damals doch gar nicht die Bildwiederholfrequenzen hatten, um solche Framerates nutzbar machen zu können. Da waren doch 100 hz der Goldstandard, 85 hz geil und flimmerfrei und 75 hz weit verbreitet.

x-force
2025-05-06, 10:46:00
Ich meine mich zu erinnern, dass Monitore damals doch gar nicht die Bildwiederholfrequenzen hatten, um solche Framerates nutzbar machen zu können. Da waren doch 100 hz der Goldstandard, 85 hz geil und flimmerfrei und 75 hz weit verbreitet.

bei röhren hängt es von der auflösung ab. da gingen auch schon >200hz

Lawmachine79
2025-05-06, 10:47:27
bei röhren hängt es von der auflösung ab. da gingen auch schon >200hz
Ja richtig, und in meiner Erinnerung waren bei 1024x768 100hz schon absolutes High-End, jedenfalls um 2000 rum.

Daredevil
2025-05-06, 10:53:39
Ich meine mich zu erinnern, dass Monitore damals doch gar nicht die Bildwiederholfrequenzen hatten, um solche Framerates nutzbar machen zu können. Da waren doch 100 hz der Goldstandard, 85 hz geil und flimmerfrei und 75 hz weit verbreitet.
IBMP260 und IBMP275 waren verbreitet hier im Forum, weil es ausrangierte Profi Monitore waren, die man auf Palette für nen schmalen Taler ( 100-150€ ) bei Ebay bekommen hat.
• Bildschirmgröße: 21 Zoll (Sichtbare Diagonale ca. 19–20 Zoll)
• Maximale Auflösung:
• 2048 × 1536 bei 85 Hz

• Typische Hz-Werte bei gängigen Auflösungen:
• 1600 × 1200 → bis 100 Hz
• 1280 × 1024 → bis 120 Hz
• 1024 × 768 → bis 160 Hz

Das war in der Tat absoluter Peak bei mir persönlich beim Thema Gaming und Input Lag und seiner Zeit voraus. Bis zu den 120hz+ OLEDs war quasi alles daunter ein Downgrade, außer natürlich bei der Auflösung. Meine Counterstrike Cups habe ich mit 160hz gewonnen. :D

PS: Bild aus dem Kellerkind-Archiv. Früher war mein Fernseher auch schon so groß wie mein Monitor. xD
Peak Gaming :love4:
https://s1.directupload.eu/images/250506/fdxtuos3.jpg

jorge42
2025-05-06, 10:55:32
Ja richtig, und in meiner Erinnerung waren bei 1024x768 100hz schon absolutes High-End, jedenfalls um 2000 rum.
hab grad nachgeschaut, der IIyama Vision master Pro 22" konnte schon 1600x1200 mit über 100Hz :D leider waren die Skalierungfunktionen von Windows noch völlig ungeeignet, so dass die schrift zu klein wurde. Für LAN Partys war der mir 30kg auch etwas unbequem ...

OnTopic, ja ich bin auch der Meinung, dass viele Leute gar nicht wissen, wo wir her kommen und wie weit wir gekommen sind bei Grafikkarten und Displays...dafür muss man aber die Entwicklung wohl selber mitgemacht haben und Displays am SW TV abgetippt haben :freak:

Badesalz
2025-05-06, 11:09:15
und Displays am SW TV abgetippt haben :freak:Ich bin wohl zu jung. Was ist das für eine Tätigkeit, Displays am TV abtippen?

@all
Das Prob ist halt, daß die GPUs mit Grafikfeatures ausgestattet werden und vermeintlich mit Auflösungen genutzt werden sollen, die sie nicht mit akzeptablen FPS darstellen können. 4k Streaming am TV ist kein Thema und wurde durchgepusht. Für 4k Gaming gibts aber eigentlich heute noch garkeine Grakas, wenn all die Features auch genutzt werden.

Röhre 75Hz mit Vsync, wenn die 75fps 1%minFPS waren, war man schon klar der King. Und irgendwie rockte das auch damals, sobald einmal erreicht.

MiamiNice
2025-05-06, 12:31:07
Wie es gibt keine 4k Karte? Musst Du einfach nur FG anmachen, dann läuft das ;D

Badesalz
2025-05-06, 12:42:54
Was du meinst sind 4k drivers ;)

Banshee18
2025-05-06, 12:46:39
Das heißt nicht, dass es nicht wichtig ist Dinge wie Frametimes und Latenz zu analysieren und Missstände anzuprangern,...
Da stimme ich voll und ganz zu.
Die Leute posten die Bilder aber im Screenshot-Thread, d.h. sie haben diese Overlays immer an, behaupten aber, sie sehen Inputlag usw. Wahrscheinlich sehen sie es nur an der Anzeige und würden im Blindtest gar nichts sehen. :biggrin:

dargo
2025-05-06, 12:49:44
Wie es gibt keine 4k Karte? Musst Du einfach nur FG anmachen, dann läuft das ;D
Naja... so übertrieben sehe ich das jetzt nicht. :)

Ich finde schon, dass man heute ab ca. 650€ (RX 9070 non XT oder vergleichbare Geforce) durchaus 4k schon ganz gut dank Upscaling nutzen kann. Hilfreich sind hier auch hohe ppi beim Bildschirm um die letzten "Fuckups" fürs Auge zu minimieren. Deshalb möchte ich auch einen ~160ppi 4k Bildschirm als nächstes haben. Bei diesen ppi finde ich selbst Performance Upscaling durchaus brauchbar. Man kann natürlich auch Balanced bis Quality verwenden. Ich habe natürlich den Vorteil, dass ich kein extrem teures RT/PT haben muss. Da suche ich mir einfach den besten Kompromiss für noch gute Frameraten aus. :)

Da stimme ich voll und ganz zu.
Die Leute posten die Bilder aber im Screenshot-Thread, d.h. sie haben diese Overlays immer an, behaupten aber, sie sehen Inputlag usw. Wahrscheinlich sehen sie es nur an der Anzeige und würden im Blindtest gar nichts sehen. :biggrin:
Ich hatte vor kurzem mal einen Blindtest mit The Last of Us Part II Remastered gemacht. Hier kannst du auch konkrete Zahlen dazu sehen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13751673&postcount=505
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13751707&postcount=509

Ich spüre schon den Unterschied zwischen 68fps und 94fps beim Input an der Maus. Wer das natürlich an der Maus nicht mitkriegt den wird FG in vielen Situationen wahrscheinlich auch nicht stören.

Banshee18
2025-05-06, 12:55:44
Ich habe natürlich den Vorteil, dass ich kein extrem teures RT/PT haben muss. Da suche ich mir einfach den besten Kompromiss für noch gute Frameraten aus. :)
Einerseits angeblich maximalen Anspruch an die Bildqualität haben, dann aber Features weglassen, die viel Bildqualität bringen...:freak:

Badesalz
2025-05-06, 12:59:17
:anonym: Guter Punkt. Was haltet ihr eigentlich für übertriebener: viel FG oder viel Upscaling?

dargo
2025-05-06, 13:00:54
Einerseits angeblich maximalen Anspruch an die Bildqualität haben...
Wo habe ich das behauptet? Außerdem gibt es so viele Parameter die die Bildqualität beeinflussen, da ist RT/PT nur ein Puzzleteil von vielen. Wenn etwas extrem teuer ist dann nutze ich es einfach nicht. Völlig egal ob RT/PT oder Raster. Warum sollte ich mir auch meine guten Frames völlig killen? Nur damit ich mir auf die Schulter klopfen kann was für ein geiler Typ ich bin mit max. Settings zu spielen? :freak: Auch wenn sie noch so sinnlos sind im Bereich Kosten/Nutzen?

MiamiNice
2025-05-06, 13:19:25
Einerseits angeblich maximalen Anspruch an die Bildqualität haben, dann aber Features weglassen, die viel Bildqualität bringen...:freak:

Diese Features erhöhen nicht nur die Bildquali, sie ruinieren auch das gesamte Spielgefühl durch Mouselag.

Exxtreme
2025-05-06, 13:29:14
:anonym:Guter Punbkt. Was haltet ihr eigentlich für übertriebener: viel FG oder viel Upscaling?

Natürlich jegliche Form von Upscaling. Es sieht absolut grässlich aus in fast jedem Spiel. Das einzige Spiel wo ich das nicht so merke ist PoE2.

dargo
2025-05-06, 15:09:26
Natürlich jegliche Form von Upscaling.
Du solltest vielleicht auch erwähnen, dass du noch bei nur 110ppi bist. Dann kann man das besser einordnen. :)

aths
2025-05-08, 23:27:56
Diese Features erhöhen nicht nur die Bildquali, sie ruinieren auch das gesamte Spielgefühl durch Mouselag.
Hrr hrr. Insofern, wenn RT/PT nur mit FG nutzbar sind. Bei einigen Spielen kommts nicht so aufs Maus-Lag an, bei anderen schon und das gottlose Schmierigkeits-Gefühl durch FG nervt dann. Warum kaufe ich eine (aktuell leider billige) Gaming-Maus (Steelseries Aerox 3) mit USB-Kabel-Anschluss wenn Eingaben in einer butterweichen Gaming-Welt dann nicht sofort Auswirkung haben.

In einem Game das mit stabilen 60 fps läuft aber ein Klick direkt wirkt, oder das gleiche Spiel in 120 Hz wo der Klick nur im 60-Hz-Takt wirkt: Klar ist Grafikbewegung weicher bei 120 Hz aber das Spielgefühl nicht nur nicht besser, sondern für einen alten Mann wie mich, verwirrend.

Du solltest vielleicht auch erwähnen, dass du noch bei nur 110ppi bist. Dann kann man das besser einordnen. :)Das schlägt ein bisschen in die Kerbe. FG kann aus einer Ruckel-Orgie kein schönes Spiel-Erlebnis machen, aber ein bereits flüssig spielbares Game nochmals rasanter darstellen. Upscaling kann aus einer niedrigen Auflösung heraus keine Wunder bewirken, aber ein bereits gut aussehendes Spiel aufpeppen. Gebraucht würde das alles eher bei wirklich niedriger Auflösung oder Framerate, dort kommt es aber noch immer auf native Performance an. Ich persönlich hätte lieber mehr Grundperformance für wenig Geld als Schmankerl für Betuchte.

aufkrawall
2025-05-09, 00:03:57
Denke schon, dass man bei Transformer-RR von "Wunder vollbringen" sprechen kann, wenn man die Alternativen daneben sieht. Es fehlt nur noch ein Hauch Schärfe und das Verschwimmen von Reflexionen in Bewegung müsste noch deutlich verbessert werden.

dargo
2025-05-09, 06:42:15
Gäbe es schon heute performante Hardware für RT/PT bräuchte es nicht mal solche Spielereien wie RR. Das was man ohne RR sieht ist nichts weiter als die Folge extremer Sparsamkeit der DEVs weil die Hardware noch viel zu langsam ist. Man musste ja unbedingt mit "Gewalt" RT/PT in den Gamingmarkt drücken um den Goldesel wieder anzuschmeißen.

aths
2025-05-09, 11:35:31
der misslungene 5000-er Launch bleibt eine Krönung von entweder Arroganz oder Berechnung: 5060 wird anscheinend vorgestellt ohne dass die Presse Treiber bekommt. Und zu einer Zeit in der viele Redakteure keine Zeit haben, weil sie zum Launch am 19. dann gerade auf der Computex sind. Entweder will Nvidia wirklich sicherstellen, dass die 5060 nicht vorab getestet wird, oder deren Launch-Strategie wurde von einer KI geschrieben.

Lurtz
2025-05-09, 14:51:40
Gäbe es schon heute performante Hardware für RT/PT bräuchte es nicht mal solche Spielereien wie RR. Das was man ohne RR sieht ist nichts weiter als die Folge extremer Sparsamkeit der DEVs weil die Hardware noch viel zu langsam ist. Man musste ja unbedingt mit "Gewalt" RT/PT in den Gamingmarkt drücken um den Goldesel wieder anzuschmeißen.
Gäbe es das Holodeck, bräuchten wir diese ganzen Krücken wie PCs oder Konsolen gar nicht.

Stechpalme
2025-05-09, 15:12:43
der misslungene 5000-er Launch bleibt eine Krönung von entweder Arroganz oder Berechnung: 5060 wird anscheinend vorgestellt ohne dass die Presse Treiber bekommt. Und zu einer Zeit in der viele Redakteure keine Zeit haben, weil sie zum Launch am 19. dann gerade auf der Computex sind. Entweder will Nvidia wirklich sicherstellen, dass die 5060 nicht vorab getestet wird, oder deren Launch-Strategie wurde von einer KI geschrieben.

Schlichtweg eine einfache Marketing Taktik. Jeder weiß, die 5090 ist die aktuell schnellste GPU. Kleinere Modelle muss man nicht mehr bewerben. Die Masse der Kunden sehen nur, dass es eine RTX 5XXX ist und schlagen aufgrund der Ergebnisse der 5090 zu.
Klingt Dumm, ist aber schlichtweg eine simple Taktik. Warum sollte man sich Bloßstellen mit Benchmarks die zeigen, wie langsam die Karte ist aufgrund des beschnittenen VRams? Das macht keinen Sinn.

aceCrasher
2025-05-09, 15:38:21
Warum kaufe ich eine (aktuell leider billige) Gaming-Maus (Steelseries Aerox 3) mit USB-Kabel-Anschluss wenn Eingaben in einer butterweichen Gaming-Welt dann nicht sofort Auswirkung haben.
Gute Frage. Zwischen kabelgebundenen Mäusen und high-end Wireless Mäusen besteht nämlich faktisch kein Unterschied in der Inputlatenz.

https://www.youtube.com/watch?v=yy0xmcBg_IY

Andere Eigenschaften der Maus wie der Debouce-Delay haben einen VIEL größeren Einfluss auf den Inputlag. In dem Video werden mehrere Mäuse aus mit und ohne Kabel getestet. Der Unterschied im Inputlag zwischen eingesteckt/wireless bei einer G Pro X Superlight beträgt nur 0,3ms (!). Der Unterschied zwischen einer G Pro X Superlight und einer Aerox 3 beträgt in dem Test hingegen ~6ms (!!).

aths
2025-05-09, 23:16:07
Gute Frage. Zwischen kabelgebundenen Mäusen und high-end Wireless Mäusen besteht nämlich faktisch kein Unterschied in der Inputlatenz.

https://www.youtube.com/watch?v=yy0xmcBg_IY

Andere Eigenschaften der Maus wie der Debouce-Delay haben einen VIEL größeren Einfluss auf den Inputlag. In dem Video werden mehrere Mäuse aus mit und ohne Kabel getestet. Der Unterschied im Inputlag zwischen eingesteckt/wireless bei einer G Pro X Superlight beträgt nur 0,3ms (!). Der Unterschied zwischen einer G Pro X Superlight und einer Aerox 3 beträgt in dem Test hingegen ~6ms (!!).
Interessant, wie weit die Technik da jetzt ist.

Schlichtweg eine einfache Marketing Taktik. Jeder weiß, die 5090 ist die aktuell schnellste GPU. Kleinere Modelle muss man nicht mehr bewerben. Die Masse der Kunden sehen nur, dass es eine RTX 5XXX ist und schlagen aufgrund der Ergebnisse der 5090 zu.
Klingt Dumm, ist aber schlichtweg eine simple Taktik. Warum sollte man sich Bloßstellen mit Benchmarks die zeigen, wie langsam die Karte ist aufgrund des beschnittenen VRams? Das macht keinen Sinn.Soweit klar, man sollte imo die Kunden-Unfreundlichkeit von Nvidia aber klar herausstellen und nicht nur mit den Schultern zucken. Bei der 5060 Ti sagte Nvidia zu den Reviewern, dass es von Nvidia selbst nur die 16-GB-Modelle gibt, man aber 8-GB-Modelle von Boardpartnern anfragen könne. Nun sagten dann einige Reviewer, dass einige Boardpartner sagten dass Nvidia ihnen genau das verboten hätte.

Die Reviewer können da schlecht Nvidia des Lügens bezichtigen da sie keine Belege für eine mögliche prozessuale Wahrheit haben. Das sind superpeinliche Machtspielchen von Nvidia, jeder weiß was abgeht aber keiner traut sich, es offen auszusprechen. Jetzt bei der 5060 ist es nochmals affiger.

ChaosTM
2025-05-09, 23:46:19
Gäbe es das Holodeck, bräuchten wir diese ganzen Krücken wie PCs oder Konsolen gar nicht.


Das Holodeck @ 32k lauft nicht ganz so fluffig @ Nativ*.
Nur knapp unter 400hz.


*DLSS 10.2 MMFG(16x)




Meine 7 Meter Wand zeigt auch minimale Artefakte @ 2D

Gouvernator
2025-05-10, 05:34:24
Schlichtweg eine einfache Marketing Taktik. Jeder weiß, die 5090 ist die aktuell schnellste GPU. Kleinere Modelle muss man nicht mehr bewerben. Die Masse der Kunden sehen nur, dass es eine RTX 5XXX ist und schlagen aufgrund der Ergebnisse der 5090 zu.
Klingt Dumm, ist aber schlichtweg eine simple Taktik. Warum sollte man sich Bloßstellen mit Benchmarks die zeigen, wie langsam die Karte ist aufgrund des beschnittenen VRams? Das macht keinen Sinn.
Mit 24Vram wäre eine billige 5060 komplett ausverkauft. Für NV macht alles Sinn, in dem ihre GPUs bis auf die teure 5090 quasi unbenutztbar sind. Der Wegfall von 24Gb und durchgehendes Downgrade auf 16Gb ist eine bewusste Entscheidung um einen gewissen KI-Eintrittzoll einzuführen.