PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 28. Juni 2023


Leonidas
2023-06-29, 09:45:59
Link zur News:
https://www.3dcenter.org/news/news-des-28-juni-2023

Gast
2023-06-29, 09:52:36
Und schon ist die 4060 im Raster langsamer als eine 7600...insoweit das PT gesenkt werden muss. Eine weitere Verarsche von NVidia. Test sind raus, Ersteindruck durch, wer guckt da schon auf den tatsächlichen Verbrauch und später auf die Benchmark Ergebnisse. Dau's jedenfalls nicht.

Daran ist nichts erstaunlich, das ist pure Absicht.

GerryB
2023-06-29, 09:57:12
TDP wird "leicht" durchbrochen bei NV = naja!?

131/115= 14%

Das entspricht fast dem gesamten PL-Spielraum bei AMD mit 15%.

Net das wir bei den GPU´s ähnliche Spielchen bekommen wie bei den CPU´s.
Wobei die Kühler sicherlich auch mal kurzzeitig ein mue mehr abkönnen.
Dann aber bitte mit offenen Karten die Angaben so machen.
(30s ... 60s lang Overdrive, nur um die Reviewer auszutricksen?)

bad_sign
2023-06-29, 10:12:10
Ach die Twitter Bubble, Boykott, so wie Hogwarts^^

Gast
2023-06-29, 10:51:53
Zu Starfield:
Allein wirtschaftlich macht die Implementierung von FSR einfach viel mehr Sinn als DLSS. Warum sollte man sich absichtlich dem größten Teil des Marktes verschließen, wenn man eine 100% Abdeckung haben kann?
Nimmt man mal den Steam-Stand vom Mai, dann ist knapp 1/3 der gemeldeten Karten DLSS-fähig. Von DLSS 3 reden wir da lieber gar nicht erst. Und selbst dieses Drittel läuft auch problemlos mit FSR.

Gerade vor dem Hintergrund, dass solche Upscaler bei kleinen Karten oder gar APUs (hat hier einer Steam Deck gesagt) am meisten Zugewinn bringen und genau hier DLSS nicht verfügbar ist, wäre so eine Entscheidung rein zugunsten von FSR oder XeSS durchaus nachvollziehbar und die beste Wahl für die Masse.

Complicated
2023-06-29, 11:08:56
Ich wiederhole mich gerne: DLSS wird den Weg von PhysX und GSync gehen und der offene Standard mit 100% Abdeckung wird sich durchsetzen. Es werden sich immer weniger Entwickler, selbst mit Unterstützung von Nvidia, für diesen Mehraufwand entscheiden. Es sind jetzt schon nicht viele.

Aroas
2023-06-29, 11:47:07
Boykottaufrufe... Himmel, sind diese Leute strunzendämlich.
Es gibt keinerlei Belege dafür, dass AMD in irgendeiner Weise DLSS aus diesem Spiel fernhält bzw. fernhalten will.
Das ist lediglich eine vage Vermutung aufgrund der Tatsache, dass eine Zusammenarbeit mit Bethesda stattfindet.
Aber natürlich gibt es direkt wieder ein paar hirnamputierte Schreihälse, die einen riesigen Shitstorm aufgrund von Gerüchten, Vermutungen und Halbwissen lostreten müssen.

Die Dummheit der Menschen ist wirklich unendlich. Da war sich schon Einstein sicher.

Und am Ende sind das die Typen, die eh die größten nVidia Fanboy sind und daher auch die teuersten und leistungsstärksten GPUs von denen haben und somit gar kein DLSS zwingend in diesem Spiel benötigen.
Aber Hauptsache einmal mehr lauthals geplärrt. Fürs Ego. Für nVidia.

maximus_hertus
2023-06-29, 11:48:18
Geil wie AMD hier der schwarze Peter zugeschustert wird. Wenn nV Starfield am Arsch vorbei geht, ist das doch nicht die Schuld von AMD? Starfield gehört zu den ganz wenigen "AAA+"-Titeln (ob das Spiel am Ende auch entsprechend gut ist, wird man sehen müssen).
Das muss nV auch sehen und entsprechend investieren. Wenn nV da zu geizig ist und ihre eigene Hardware dadurch nicht ausgereizt wird, ist das ein Problem von nV, nicht AMD.

Als RTX 3080 Besitzer freue ich mich über DLSS, nehme aber auch gerne FSR, da es eben überall läuft. Klar, DLSS ist die etwas bessere Lösung, aber selbst nV hat scheinbar kein großes Interesse an DLSS, anders ist dieses dilettantische Gehabe von nV nicht zu erklären. Es wäre ein leichtes gewesen, DLSS in Starfield ootb drin zu haben, wenn nV es gewollt hätte.

Haben sie nicht. Ergo sollte man die "Schuld" bei "Team Grün" suchen und nicht bei AMD.

Gast
2023-06-29, 12:05:05
Die FSR Implementierung ist einfacher und damit weniger zeitintensiv, was die Entwicklungskosten minimiert. Die gehen doch eh schon durch die Decke weil man abliefern will. Dabei muss man so viele Gamer erreichen wie möglich, wozu ja sicher auch die Konsolen gehören.

Mein Eindruck ist dabei, das gerade Bethesda Spiele mit DLSS/DLAA nicht groß besser aussehen als mit FSR.

Denke die Entscheidung ist keine pro AMD, sondern es geht einfach darum von Anfang an, den Großteil zu erreichen (PS scheidet ja schon mal aus weil Xbox exclusiv). Eben auch die, die sich nicht neuste Hardware leisten können. In Enthusiastenforen nehmen sich die Gamer immer viel zu wichtig und gehen davon aus, alle müssten was sie selbst zelebrieren, auch tun und der gleichen Meinung sein.

Für viele ist eine 4070ti, 4080 oder 4090 1/12 des Jahresverdienst, das monatlich nach Miete und Grundversorgung noch übrig bleibt. Das gibt man doch nicht für eine GPU aus. Das wissen die Entwickler.

Nvidia ist also Mitschuld wenn sich ihr Featureset nicht verbreitet, selbst Entwickler im Marktumfeld nach gleichwertigen Lösungen suchen und Hardware wie die 4070, 4060ti, 4060 wegen künstlicher Beschneidung (vor allem beim VRAM) nicht gekauft werden. Folglicher Innovationsstau beim Anwender, was die Konkurrenz dann bei nicht dedizierter Technologie besser macht.

Dazu kommt der Erfolgsdruck beim Publisher nach zuletzt eher Flops.

Dann sollen sie es boykottieren und sich um eine tolles Erlebnis berauben, aber jeden Schund von Nvidia kaufen. Sry was für eine Doppelmoral.

Unter CP2077 funktionieren nicht mal die AMD CPUs richtig, bzw. wird deren SMT Modulansatz nicht richtig unterstützt, geschweige denn GPUs. Soll man sich mal fragen, von wem dieses Spiel promotet wird.

Raff
2023-06-29, 12:13:56
Bethesda täte gut daran, den präventiv losgetretenen Exkrementsturm schnell mit einem schönen "Lotuseffekt"-Statement abzuwehren: "Wir arbeiten unermüdlich sowohl mit den Tech-Teams von AMD als auch mit denen von Intel und Nvidia zusammen, um allen PC-Spielern die bestmögliche Erfahrung zu bieten". Das wäre kein Problem, wenn es nicht wirklich eine AMD-Klausel im Vertrag gibt, die proprietäre Verfahren anderer Hersteller ausschließt. Der Implementierungsaufwand ausgehend von FSR 2 dürfte einen erfahrenen Coder eher Stunden denn Tage kosten.

MfG
Raff

Linmoum
2023-06-29, 12:15:31
Geht NV Starfield denn am Arsch vorbei? Das halte ich für eine gewagte These.

Gibt auch Spiele, die NV sponsort und die AMD nicht am Arsch vorbeigehen. Aber beide geht halt nicht.

Starfield bleibt natürlich noch final abzuwarten, ob das aktuell nur heiße Luft und eine zu Unrecht hochkochende Befürchtung war (die AMD durch eigene Aussage aber selbst unnötig befeuert) oder ob man tatsächlich sehr vielen dGPU-Besitzern einer RTX 2000 aufwärts den Zugang zu einer überlegenen Technologie verwehrt, obwohl die Implementierung von DLSS/FSR nachweislich kaum Aufwand bedeutet, wenn bereits eines vorhanden ist.

@Raff

Sowas wäre bei der aktuellen Gemütslage tatsächlich am sinnvollsten. Schweigen befeuert solche Befürchtungen nur zusätzlich.

Platos
2023-06-29, 12:20:26
Der Implementierungsaufwand ausgehend von FSR 2 dürfte einen erfahrenden Coder eher Stunden denn Tage kosten.

MfG
Raff

Dafür hast du sicherlich einen Beleg oder sowas wie die Aussage eines Entwicklers oder sowas ?

Raff
2023-06-29, 12:21:19
@Raff

Sowas wäre bei der aktuellen Gemütslage tatsächlich am sinnvollsten. Schweigen befeuert solche Befürchtungen nur zusätzlich.

Vermutlich muss Legal (also die Rechtsabteilung) das abnicken, was nicht über Nacht passiert.

Dafür hast du sicherlich einen Beleg oder sowas wie die Aussage eines Entwicklers oder sowas ?

Aussagen mehrerer Entwickler (Interviews, Twitter, Paper), aber spontan kann ich keinen Link mit einer expliziten Aussage droppen. Da kann bestimmt der Schwarm aushelfen. :)

MfG
Raff

Calypso
2023-06-29, 13:21:47
Bethesda täte gut daran, den präventiv losgetretenen Exkrementsturm schnell mit einem schönen "Lotuseffekt"-Statement abzuwehren: "Wir arbeiten unermüdlich sowohl mit den Tech-Teams von AMD als auch mit denen von Intel und Nvidia zusammen, um allen PC-Spielern die bestmögliche Erfahrung zu bieten". Das wäre kein Problem, wenn es nicht wirklich eine AMD-Klausel im Vertrag gibt, die proprietäre Verfahren anderer Hersteller ausschließt. Der Implementierungsaufwand ausgehend von FSR 2 dürfte einen erfahrenen Coder eher Stunden denn Tage kosten.

MfG
Raff

Es ist etwas befremdlich, wenn der eigentlich unabhängige Journalist fordert, dass proprietäre Lösungen von grün einzubauen sind, um alle glücklich zu machen, wenn man bereits eine 100% Lösung hat: Im Ländle würde man sagen, das hat ein Geschmäckle.

Und wo bitte war der Aufschrei bei allen nvidia optimierten Spielen? Ach ja, da waren ja nicht die grünen Jünger benachteiligt...

Platos
2023-06-29, 13:24:45
Aussagen mehrerer Entwickler (Interviews, Twitter, Paper), aber spontan kann ich keinen Link mit einer expliziten Aussage droppen. Da kann bestimmt der Schwarm aushelfen. :)

MfG
Raff

Und da wurde explizit eine Zeitdauer von eher Stunden wie Tage gesprochen ? Oder ist das jetzt dein eigenes "Hinzudichten" ?

Raff
2023-06-29, 13:24:51
Es ist etwas befremdlich, wenn der eigentlich unabhängige Journalist fordert, dass proprietäre Lösungen von grün einzubauen sind, um alle glücklich zu machen, wenn man bereits eine 100% Lösung hat: Im Ländle würde man sagen, das hat ein Geschmäckle.

Und wo bitte war der Aufschrei bei allen nvidia optimierten Spielen? Ach ja, da waren ja nicht die grünen Jünger benachteiligt...

Geschmäckle hat eigentlich nur, mir irgendwas vorzuwerfen und anzudichten, das ich lediglich beleuchte - gefordert habe ich gar nichts. ;)

Und da wurde explizit eine Zeitdauer von eher Stunden wie Tage gesprochen ? Oder ist das jetzt dein eigenes "Hinzudichten" ?

Warum sollte ich etwas hinzudichten, von dem ich keine Ahnung habe? Ich bin kein Programmierer. Meine Aussage basiert auf den Angaben, die ich gelesen habe (und für plausibel halte; gleicher Input/Buffer etc.).

MfG
Raff

Exxtreme
2023-06-29, 13:25:29
Es ist etwas befremdlich, wenn der eigentlich unabhängige Journalist fordert, dass proprietäre Lösungen von grün einzubauen sind, um alle glücklich zu machen, wenn man bereits eine 100% Lösung hat: Im Ländle würde man sagen, das hat ein Geschmäckle.

Und wo bitte war der Aufschrei bei allen nvidia optimierten Spielen? Ach ja, da waren ja nicht die grünen Jünger benachteiligt...

Es ist egal ob eine proprietäre Lösung von grün drin ist oder nicht solange es auch noch eine offene Lösung gibt. Wenn du die proprietäre Lösung von grün nicht willst dann nutze sie nicht. Ich kann es echt nicht verstehen warum sich die Leute so gegen mehr Optionen wehren.

Gast
2023-06-29, 13:26:20
Und am Ende sind das die Typen, die eh die größten nVidia Fanboy sind und daher auch die teuersten und leistungsstärksten GPUs von denen haben und somit gar kein DLSS zwingend in diesem Spiel benötigen.


Man "braucht" DLSS je nach Karte nicht unbedingt wegen der Performance. Man "braucht" es wegen der Qualität, DLSS sieht mit reduzierter Renderauflösung immer noch besser aus als >90% der TAA-Implementierungen.

Zumal die Performancegerüchte über Starfield wieder mal eine starke CPU-Limitierung erwarten lassen, was damit damit das ideale Spielfeld für FG wäre.

Und dass AMDs großspurig angekündigte und angeblich herstellerübergreifende FG noch immer nicht existiert ist sicher nicht NVs Schuld.

maximus_hertus
2023-06-29, 13:32:18
Bethesda täte gut daran, den präventiv losgetretenen Exkrementsturm schnell mit einem schönen "Lotuseffekt"-Statement abzuwehren:

Warum sollten sie? Es werden doch trotzdem viele Millionen das Spiel kaufen / vorbestellen plus die ganzen Xbox-Gamer, die von dem "Drama" eh nichts mitbekommen.


Dazu ist der Release noch weit weg. Wenn der Release jetzt in 1-2 Wochen wäre, könnte man ggf. darüber nachdenken, aber so? Gerade Gamer sind doch die "Spzies", die sich am wenigsten darum schert, was gestern oder vorgestern war. Beim Aufschrei schlagen die Gamer alles auf der Welt, wenn es aber darum geht echte Konsequenzen zu tragen, siegt doch immer die Sucht. Wie viele würden einen Boykott wirklich durchziehen? Und zwar dauerhaft, nicht nur für das z.B. Start-WE?

Ob Bethesda da noch was zu sagen wird? Vielleicht, vielleicht auch nicht. Mich würde es aber nicht wundern,wenn erstmal nichts weiteres seitens Bethesda gesagt wird.

Calypso
2023-06-29, 13:34:25
Es ist egal ob eine proprietäre Lösung von grün drin ist oder nicht solange es auch noch eine offene Lösung gibt. Wenn du die proprietäre Lösung von grün nicht willst dann nutze sie nicht. Ich kann es echt nicht verstehen warum sich die Leute so gegen mehr Optionen wehren.

ich wehre mich dagegen dass man es EINFRODERT und den gegenüber BESCHIMPFT und mit BLOCKADE droht, wenn er es nicht ändert. Das ist vor allem bei der Vergangenheit von nvidia absolut verlogen.

Complicated
2023-06-29, 13:38:51
Man "braucht" DLSS je nach Karte nicht unbedingt wegen der Performance. Man "braucht" es wegen der Qualität, DLSS sieht mit reduzierter Renderauflösung immer noch besser aus als >90% der TAA-Implementierungen.

Wen interessiert der Vergleich? AMDs FRS2-Implementierungen sehen zu 100% besser aus als ohne. Dann braucht man auch kein DLSS mehr. Das Feature läuft unter "Good enough" und ist die Mehrkosten für FSR2->DLSS3 nicht wert. Weder dem Entwickler, noch den meisten Gamern.

Mir scheint eher, dass die Entwickler mit Vorkenntnissen zu FSR3 hier schon wissen was sich schlußendlich etablieren wird.

OpenVMSwartoll
2023-06-29, 13:44:20
Wir leben in Zeiten der Mistgabeln und Vorverurteilungen. Ob nun Grafikkarten oder Bands: Fakten abzuwarten wäre einfach zu viel verlangt von Menschen, deren Aufmerksamkeitsspanne nicht mal für eine Sendung Sandmännchen ausreichen würde.

Ein gepflegtes: "Reg Dich ab!" ist bisweilen unvermeidbar, auch wenn es die kleinen Gemüter erst recht abheben lässt.

Gast - aus dem Schwarm
2023-06-29, 13:51:40
Aussagen mehrerer Entwickler (Interviews, Twitter, Paper), aber spontan kann ich keinen Link mit einer expliziten Aussage droppen. Da kann bestimmt der Schwarm aushelfen. :)

MfG
Raff
Die Creation Engine 2 befindet sich in der Weiterentwicklung. Die Engine und Pipeline baut vor allem auf open source auf, was gerade auf dem PC seine Gründe hat, wenn man an Spiele wie Fallout usw. denkt. Vor allem Havok Physik, Animation und Charaktere + KI, sind Neuerungen

Gleichzeitig bringt die Engine für die Community eine neue Version des Creation Kit für Bethesda's Modding-Szene mit. Da scheidet DLSS/DLSS3 als Blackbox vorerst komplett aus. Ich würde sogar behaupten, Nvidia will offenen oder unkontrollierten Zugriff damit ausschließen.

Man kann also sagen, ja - Nvidia geht Starfield aus gutem Grund am Arsch vorbei. Ich vermute sogar deshalb ist DLSS/DLAA erstmal kein Thema. Die Entscheidung kommt sicherlich nicht mal von Bethesda. Ihnen deshalb den schwazen Peter in die Taasche zu schieben und Statements zu erwarten, ist mal wieder typisch für den Mob.

Für Modder wird das übrigens ein Fest!

Crazy_Borg
2023-06-29, 14:07:46
Um mich mal ganz dumm zu stellen:
FSR ist doch offen, oder? Offene Schnittstelle, dokumentiert?
Warum hängt sich nvidia nicht einfach per Treiber mit DLSS dazwischen?
Upscaling ist upscaling, wie die Grafikkarte das intern macht sollte doch der Schnittstelle egal sein.

Gast
2023-06-29, 14:29:53
Wen interessiert der Vergleich? AMDs FRS2-Implementierungen sehen zu 100% besser aus als ohne.


Tun sie nicht. FSR sieht meistens schlechter als ohne, ja der Performancegewinn ist höher und damit das Verhältnis Performance/Qualität wird besser, was aber nicht für den Fall hilft dass ausreichend Performance vorhanden ist und man DLSS nur wegen der besseren Qualität einsetzt.

Gast Ritis
2023-06-29, 15:15:03
Also mein erster Gedanke zum AMD Support für Starfield war, dass die das machen müssen damit vielleicht doch noch mehr als die 30 FPS fix aus den Konsolen raus kommt.
Schliesslich kam zuerst das von vielen kritisierte 30er Limit und viel später die Ankündigung man wolle mit AMD nun optimieren.

FSR1 in ein Game zu frickeln geht schnell, 1 Woche oder so für einen Entwickler. Wo möglich unabhänig UI und Vordergrund mit gerendertem Player aussparen etwas mehr. Wir reden hier von kommerzieller Software - nicht irgend ein Testballon.

FSR2 in ein Game zu frickeln ist aufwändig, da muss die Renderpipeline umgestellt werden. Das ist viel mehr Aufwand, je nachdem welche sonstigen Tricks für volumetrische FX eingebaut wurden richtig schwierig. Einzelne Optimierungen von LoRes Rendertargets müssen individuell rückgängig gemacht werden.
Der Aufwand ist im Grunde genommen für DLSS der gleiche, vieles kann mitverwnendet werden, ABER:
Die Artefakte mit Fehlern bei FSR2 und DLSS sind nicht die gleichen. Wenn man jetzt gegen Flimmern und andere Probleme individuell mit angepassten Texturen und LoD fixes für LoRes gegensteuern muss, dann kann man die kompletten Assets durch die QS mit ohne DLSS manuell prüfen lassen, fixen und wieder QS bis es passt, hier bleibt es dann doppelte Arbeit.
Das macht doch niemand ernsthaft mehrfach ohne dass sich der Aufwand lohnt und ohne genügend Zeit für sowas.

Bei Starfield erwarte ich erstmal nur FSR2 allein schon wegen der Konsolen. Die haben doch auch ohne Optimierungen den ersten geplanten Releasetermin um fast ein ganzes Jahr verpasst.

Klar ist das bei teuer gekauften Nvidia Karten zum heulen, war aber auch vorher schon klar dass es solche Fälle geben wird. Das egozentrische gejammer ist schon irgendwie zum fremdschämen.

Umso mehr wird FSR auch noch auf ner GTX 1080(ti) und Co. helfen wo es wirklich nötig werden wird.

Bei "zu geringem" Raytracing kann man nur den Kopf schütteln. Bei nem Space-Opera Game ist EyePopping Raytracing wirlich das Letze was für die Grafik und Atmosphäre wichtig ist. Auch 2080er und 3070er Käufer wollen bedient bleiben. Solange die prozedurale Welt möglichst dynamisch ist und Global Illumination und Schatten RT-unterstützt sind genügt das völlig.

Auch wenn die Oblivion und FallOut Serien nie die extremsten Grafikreferenzen waren. Die gehören wie GTA zu den auf lange Sicht erfolgreichsten Games überhaupt. Poppige FX für Hardwaremarketing und atmosphärische Gamewelten sind zwei völlig unterschiedliche Paar Schuhe.

Später könnten ja auch Modder ne Weltraum-Kirmes mit Spiegelkabinett und und nen Kaleidoskop für die treuersten RTX Fans einbauen, wer's braucht... ;D

Denniss
2023-06-29, 15:54:07
da die 4060 massiv mit ihren 115W beworben wurde wird sicherlich den "Bug" in der Telemetrie behoben und die Karten auf ihre beworbene TDP gedrosselt
Bei den bisherigen 10-15W Mehrverbrauch wird die Leistung dann wohl so 5-8% runtergehen und womöglich knapp unter die 7600 fallen.
Es ist schon ein komischer Zufall das so ein "Bug" beim rigorosen Testen/prüfen seitens Nvidia nicht aufgefallen sein soll und dieser "Bug" die 4060 dann über die 7600 hebt. Das hat schon fast RX480 Geschmäckle.

Nazar
2023-06-29, 15:56:06
TDP wird "leicht" durchbrochen bei NV = naja!?

131/115= 14%

Das entspricht fast dem gesamten PL-Spielraum bei AMD mit 15%.

Net das wir bei den GPU´s ähnliche Spielchen bekommen wie bei den CPU´s.
Wobei die Kühler sicherlich auch mal kurzzeitig ein mue mehr abkönnen.
Dann aber bitte mit offenen Karten die Angaben so machen.
(30s ... 60s lang Overdrive, nur um die Reviewer auszutricksen?)

Daran muss man sich hier gewöhnen. Es wird !!immer!! extrem nVidia-freundlich berichtet. Selbst wenn der Betrug erwiesen ist, dieser als solcher klar erkennbar ist, wird hier von einem "sehr wahrscheinlichen", nicht beabsichtigten Fehler berichtet, der so gar nicht passieren sollte.
Schaut man dann hingegen AMD Berichte an, wird genau andersherum argumentiert. AMD hat das sehr wahrscheinlich so gewollt (man kann davon ausgehen).
Bestes Beispiel Starfield. Was wäre, wenn nVidia seinem Pfad weiter gefolgt ist und sich einfach nur stur stellt und gar kein DLSS implementieren möchte, weil sie nicht von Anfang an "Hausrecht" bei dem Spiel hatten?
Genau DAS wäre nämlich typisch nVidia.
Aber nein, AMD, die bisher für Technologieoffenheit in Bezug auf gemeinsame Gremiumsabsprachen gesetzt haben (FreeSync, openPhysX, etc.), sollen auf etwas einwirken (sich Gedanken dazu machen), und ob ihr (AMDs) Verhalten (welches so überhaupt nicht bewiesen ist), zu diesem Ergebnis geführt hat und die Nutzer unglücklich macht. Sie sollen sich also erst einmal schämen. :freak:

Fakt ist, dass hier ständig mit 2 unterschiedlichen Bemessungsgrundlagen an fast identische Themen rangegangen wird.
nVidia (klar ersichtliches Fehlverhalten, zum gefühlten 1000 Mal) wird in Schutz genommen,
AMD wird vorverurteilt.
Ich hatte mir mal die Mühe gemacht diverse verfasste Artikel dieser Art hier zu verlinken, doch ist das in diesem Fall gar nicht nötig.
Leider springen viele Nutzer auf dieses (gewollte?) Framing an.

Schnoesel
2023-06-29, 20:21:38
Ach das mit dem Mehrverbrauch ist bestimmt bloß ein gaaaanz dummer Zufall. Das würde mich jetzt auch nicht tangieren, ja wenn nicht nicht zuvor die Marketingabteilung uns doch vorgerechnet hat wie viel man durch den geringen Verbrauch einsparen kann, ja man könnte das schon fast als irreführende Werbung bezeichnen. Das sollte eigentlich mehr Aufmerksamkeit bekommen als wenn ein paar Nörgler glauben jedes Spiel müsste nun mit Nvidias proprietären Features ausgestattet werden. Was ist das denn für eine Erwartungshaltung. Willkommen in der Realität. Ihr wollt das Spiel nicht kaufen weil kein DLSS? Interessiert doch keinen was ein paar PC Spieler nicht machen. Das Ding wird Millionenfach zu einem hohen Preis über die Theke für die Konsoleros gehen.

Gast
2023-06-29, 20:58:04
Der Aufwand ist im Grunde genommen für DLSS der gleiche, vieles kann mitverwnendet werden, ABER:
Die Artefakte mit Fehlern bei FSR2 und DLSS sind nicht die gleichen. Wenn man jetzt gegen Flimmern und andere Probleme individuell mit angepassten Texturen und LoD fixes für LoRes gegensteuern muss, dann kann man die kompletten Assets durch die QS mit ohne DLSS manuell prüfen lassen, fixen und wieder QS bis es passt, hier bleibt es dann doppelte Arbeit.
Das macht doch niemand ernsthaft mehrfach ohne dass sich der Aufwand lohnt und ohne genügend Zeit für sowas.
Das wundert mich auch immer, dass das sonst niemandem aufgefallen ist. Die Implementierung ist halt nur ein Bruchteil des Aufwandes. Man muss das Testing und Bugfixing (ja, das gibt's auch bei Games, auch wenn manche meinen, dem wäre nicht so) quasi verdoppeln. Und das sind dann Kosten, die durchaus relevant sind.
Und wenn ich nun eine Technik habe, die alle Karten und Konsolen abdeckt, aber vielleicht nur 80% einer anderen Lösung (die beim PC vielleicht 30% abdeckt, mit den Konsolen eher 20% oder noch weniger) bietet, dann nimm ich die Lösung, die überall funktioniert. Die 80% reichen in der Regel und man spart dadurch einfach entscheidend Geld. Ist in der Software Branche ein übliches Vorgehen (MVP).

crnkoj
2023-06-29, 21:11:13
Lol, nvidia hat soeben beim Release der 4060 massiv gecheatet, dabei schreiben alle nur von Starfield.
Leute get your priorities straight...

Iscaran
2023-06-29, 21:19:10
Bethesda täte gut daran, den präventiv losgetretenen Exkrementsturm schnell mit einem schönen "Lotuseffekt"-Statement abzuwehren:

PC-Hardware und Games-Redakteure und Journalisten sollten halt weniger "click-bait" Artikel schreiben und darüber Berichten, dann gibts auch keine solchen "Pseudo"-Shitstorms :confused::rolleyes:

Gibt es denn für die Gerüchte auch nur die geringsten Hinweise, dass AMD hier tatsächlich "verhindernd" oder "behindernd" tätig ist?

Ist doch nur wirtschaftlich für ein primär für Konsolen entwickeltes Game auf FSR zu setzen.

Zumal es ja nicht mal eine Äusserung von Bethesda ist, sondern NUR eine Werbeauftritt AMDs der das FSR2 in Starfield anspricht und hervorhebt.

Warum sollte AMD denn z.B. DLSS bewerben? In ihrer DLSS Promotion macht nVidia doch auch nicht auf die Vorzüge von Konkurrenz-Technologie aufmerksam?

Mal wieder nur ein "shitrage" der Team-Grün bubble, weil man sich verarscht vorkommt, weil "beworbene Premium-Features" des Herstellers halt nicht funktionieren (EDIT vermeintlich nicht funktionieren da noch nicht angekündigt).

Passiert halt bei "exklusiver Hardware".

Gast
2023-06-29, 23:11:22
Boykottaufrufe... Himmel, sind diese Leute strunzendämlich.
Es gibt keinerlei Belege dafür, dass AMD in irgendeiner Weise DLSS aus diesem Spiel fernhält bzw. fernhalten will.
Das ist lediglich eine vage Vermutung aufgrund der Tatsache, dass eine Zusammenarbeit mit Bethesda stattfindet.
Aber natürlich gibt es direkt wieder ein paar hirnamputierte Schreihälse, die einen riesigen Shitstorm aufgrund von Gerüchten, Vermutungen und Halbwissen lostreten müssen.

Die Dummheit der Menschen ist wirklich unendlich. Da war sich schon Einstein sicher.

Und am Ende sind das die Typen, die eh die größten nVidia Fanboy sind und daher auch die teuersten und leistungsstärksten GPUs von denen haben und somit gar kein DLSS zwingend in diesem Spiel benötigen.
Aber Hauptsache einmal mehr lauthals geplärrt. Fürs Ego. Für nVidia.

Verteidigung von gewinnorientierten, amoralischen Unternehmen... Himmel, sind diese Leute strunzendämlich.
AMD Partner-Spiele unterstützen kein DLSS, NVIDIA Partner-Spiele degegen FSR. AMD antwortet auf die Frage, ob sie in irgendeiner Weise DLSS aus Partner-Spielen fernhalten bzw. fernhalten wollen komplett ausweichend.
Die Vermutung, dass das Spiel kein DLSS beinhalten wird, liegt sehr nahe, aufgrund der Tatsache, dass eine Zusammenarbeit mit Bethesda stattfindet und dass es bei anderen Zusammenarbeiten von Entwicklern mit AMD genauso war.
Aber natürlich gibt es direkt wieder ein paar hirnamputierte Schreihälse, die einen riesigen Shitstorm aufgrund ihres Beißreflexes bei Kritik an ihrem priorisierten Hardwarehersteller lostreten müssen.

Die Dummheit der Menschen ist wirklich unendlich. Da war sich schon Einstein sicher.

Und am Ende sind das die Typen, die eh die größten AMD Fanboys sind und daher auch GPUs von denen haben und somit gar kein DLSS in diesem Spiel nutzen könnten.
Aber Hauptsache einmal mehr lauthals geplärrt. Fürs Ego. Für AMD.

Leonidas
2023-06-30, 03:33:50
Bestes Beispiel Starfield.

Sorry, aber Du liest das, was Du lesen willst. Ich hab klar geschrieben, dass das, was man AMD vorwirft, nicht bewiesen ist.

Und gleiches Recht auch für nVidia: Bevor ich nicht weiss, für welche der beiden Lösungen NV sich entscheidet, kann ich denen nicht das Fell über die Ohren ziehen für Lösung 2. Was ist, wenn sich NV für Lösung 1 entscheidet? Dann hätte ich komplett ungerechtfertigt NV an den Pranger gestellt. Sollte ich wirklich so vorgehen?

Denniss
2023-06-30, 06:51:55
Nvidia bewirbt massiv die 115W inklude Milchmädchenrechnung der Stromkosten. Igor meldet das Problem 1 Woche vorher an deren HQ und bekommt nichtmal ne Antwort.
Das ist bezeichnend dafür das die Reviews durch die Bank manipuliert sind durch die 15W Mehrverbraucht der die 4060 auch schön an der RX7600 vorbeischiebt.
Was macht NV nun? Entsorgt die Werbefolien AKA Politiker - was interessiert mich mein Geschwätz von gestern - oder gesteht den "Bug" AKA Manipulation der Testergebnisse ein?

Complicated
2023-06-30, 07:01:53
Sorry, aber Du liest das, was Du lesen willst. Ich hab klar geschrieben, dass das, was man AMD vorwirft, nicht bewiesen ist.

Und gleiches Recht auch für nVidia: Bevor ich nicht weiss, für welche der beiden Lösungen NV sich entscheidet, kann ich denen nicht das Fell über die Ohren ziehen für Lösung 2. Was ist, wenn sich NV für Lösung 1 entscheidet? Dann hätte ich komplett ungerechtfertigt NV an den Pranger gestellt. Sollte ich wirklich so vorgehen?
Damit hattest du aber bei AMD kein Problem als SAM angekündigt wurde. Hier gab es seitenweise Diskussionen.

Gast Ritis
2023-06-30, 08:37:44
:
AMD Partner-Spiele unterstützen kein DLSS, NVIDIA Partner-Spiele degegen FSR. AMD antwortet auf die Frage, ob sie in irgendeiner Weise DLSS aus Partner-Spielen fernhalten bzw. fernhalten wollen komplett ausweichend.
:
Aber natürlich gibt es direkt wieder ein paar hirnamputierte Schreihälse, die einen riesigen Shitstorm aufgrund ihres Beißreflexes bei Kritik an ihrem priorisierten Hardwarehersteller lostreten müssen.

Die Dummheit der Menschen ist wirklich unendlich.

Nein - es ist ganz anders.

Nvidia kann in seinem Statement locker sagen dass sie keinerlei Beschränkungen auferlegen denn das geht rein deshalb nicht, weil die Konsolen auch Scaling benötigen und somit immer neben DLSS eine Alternative möglich sein muss. Die Strategie ist dort ganz klar DLSS ist Exclusiv-Nvidia. Das ist eine einfache Marketing-Message und intern wie extern glas klar.

Die AMD PR Abteilung muss hingegen so verhaltene Statements abgeben, denn niemand von denen wird jeden einzelnen der über 30 Sponsoring-Deals im Detail parat haben um eine Presseanfrage zu beantworten. Hätten die eine klare Strategie wie Nvidia wäre das einfach. Haben die aber sicherlich nicht, so wie deren Marketing die letzten Jahre so lief. Das Statement ist keine Aussage im Gerichtsverfahren sondern eine schnelle Antwort die auf keinen Fall falsch sein darf wegen der Börsenregeln der USA.

Wenn man aber schon den Shitstorm von Nvidia Fanboys auf dem AMD Reddit umdichtet in einen Shitstorm von AMD Fanboys dann ist auch anzunehmen, dass diese von Dir zitierte Dummheit zumindest dazu führt die ganzen Zusammenhänge nicht wirklich einschätzen zu können. Das Ergebnis sind völlig alberne Verschwörungstheorien zu eigentlich völlig belanglosen Entwicklungen und möglichen Unterschieden die den Mainstream-Kunden nicht 1 Sekunde interessieren.

Allein die Vorstellung, dass Microsoft und Bethesda auf ein paar lumpige Dollar von AMD angewiesen wären um sich irgendwie gängeln zu lassen während die umgekehrt AMD das Geld für die Konsolenchips in Lastwagen vorfahren ist soetwas von lächerlich abwegig, dass man sich fragen muss, wo gerade in diesem Beispiel sich die Dummheit der Menschen tatsächlich manifestiert.

Es hat doch eher den Anschein, dass ein paar laute sehr einfach gestrickte Mitmenschen mit Stockholm-Syndrom nach GPU-Kauf angebliche Ungerechtigkeiten in zu wenige geistige Schubladen verschieben müssen, damit das eigene schiefe Weltbild nicht ins Wanken gerät. ;D

Exxtreme
2023-06-30, 08:57:07
AMD Partner-Spiele unterstützen kein DLSS,

Das stimmt so auch nicht. Derzeit gibt es eine Tendenz, dass AMD-gesponsorte Spiele kein DLSS unterstützen.

Nazar
2023-06-30, 09:01:31
Sorry, aber Du liest das, was Du lesen willst. Ich hab klar geschrieben, dass das, was man AMD vorwirft, nicht bewiesen ist.

Und gleiches Recht auch für nVidia: Bevor ich nicht weiss, für welche der beiden Lösungen NV sich entscheidet, kann ich denen nicht das Fell über die Ohren ziehen für Lösung 2. Was ist, wenn sich NV für Lösung 1 entscheidet? Dann hätte ich komplett ungerechtfertigt NV an den Pranger gestellt. Sollte ich wirklich so vorgehen?

Zitat aus deinem Artikel zu Starfield: "Besser wäre wohl eine Strategie für AMD gewesen, welche sowohl DLSS für "Starfield" zuläßt als sich komplett auf die eigenen Vorteile konzentriert: Und da könnte man nVidia stark durchaus zusetzen, wenn FSR beispielsweise auf einer GeForce GTX 1080 unter "Starfield" nutzbar ist – während nVidia dieser (eigenen) Karte hingegen kein DLSS zugesteht."

Liest du eigentlich das, was du schreibst? :confused:
Nochmal zum mitlesen:

1. sollte Starfield mal Konsole exklusive werden
2. wäre alleine damit schon DLSS obsolet
3. daraus ergibt sich, rein von der Logik her, dass FSR, wenn ein Spiel dann doch für den PC kommt, der schnellste und einfachste Weg ist, um einen Upscaler zu implementieren, der auf allen GPUs läuft und nicht -wie DLSS- nur auf der eines einzigen Herstellers
4. keiner weiß was nVidia verlangt hat/hätte, um DLSS zu implementieren (keine FSR?)

Und nun zu den wichtigsten Punkten:
Wenn nicht bekannt ist, ob AMD für das "nicht Implementieren" von DLSS Verantwortung trägt, wie kommst du dann zu deinen Aussagen, aus dem von mir zitierten Teil?
Du suggerierst (und das nicht zum ersten Mal), dass AMD sehr wohl eine Verantwortung für das nicht Vorhandensein von DLSS hat.
Was habe ich dort lesen wollen, was du nicht geschrieben hast? :confused:

Leonidas
2023-06-30, 09:08:49
Wenn nicht bekannt ist, ob AMD für das "nicht Implementieren" von DLSS Verantwortung trägt, wie kommst du dann zu deinen Aussagen, aus dem von mir zitierten Teil?
Du suggerierst (und das nicht zum ersten Mal), dass AMD sehr wohl eine Verantwortung für das nicht Vorhandensein von DLSS hat.

Nein. Im zitierten Teil übertrage ich AMD keinerlei Verantwortung. Ich habe nur eine bessere Lösung genant, welche dem aktuellen Ärger aus dem Weg geht. Dafür spielt es keine Rolle, ob AMD für das Ärgernis wirklich verantwortlich ist - besserer Weg ist besserer Weg.

Und zur Frage, ob AMD nun verantwortlich ist oder nicht: Ich habe doch klar gesagt, dass sich das nicht belegen läßt. Ergo im Zweifel für den Angeklagten.

raumfahrer
2023-06-30, 09:23:38
Wie schaut es eigentlich bei Titeln aus, bei denen keiner der Hersteller als Sponsor involviert ist? Eher DLSS, FSR oder beides?

Raff
2023-06-30, 10:36:10
Nvidia bewirbt massiv die 115W inklude Milchmädchenrechnung der Stromkosten. Igor meldet das Problem 1 Woche vorher an deren HQ und bekommt nichtmal ne Antwort.
Das ist bezeichnend dafür das die Reviews durch die Bank manipuliert sind durch die 15W Mehrverbraucht der die 4060 auch schön an der RX7600 vorbeischiebt.
Was macht NV nun? Entsorgt die Werbefolien AKA Politiker - was interessiert mich mein Geschwätz von gestern - oder gesteht den "Bug" AKA Manipulation der Testergebnisse ein?

Eine Woche vor dem Fall des Embargos gab es noch nicht mal einen Review-Treiber. Und das Saufverhalten hat jeder Tester gemeldet, der ordentliche Strommessungen durchführt. Aber das nur am Rande. :D

Nach wie vor kein Update seitens Nvidia. Die Sache ist somit im Status "pikant", denn einen Bug hätte man längst entkräftet ...

Wie schaut es eigentlich bei Titeln aus, bei denen keiner der Hersteller als Sponsor involviert ist? Eher DLSS, FSR oder beides?

"Klein" bedeutet in der Regel Unreal Engine und da ist im Zweifel DLSS verfügbar - etwa im gerade wieder "hochkochenden", weil auf die UE5 portierten The Fabled Woods (https://www.pcgameshardware.de/Spiele-Thema-239104/News/The-Fabled-Woods-1423174/). Es gibt im Epic-Marketplace ein DLSS-Plugin, das die Implementierung anscheinend wirklich vereinfacht, ansonsten wäre DLSS bei der Unreal-Engine nicht allgegenwärtig.

MfG
Raff

Gast
2023-06-30, 10:39:30
Nein - es ist ganz anders.

Nvidia kann in seinem Statement locker sagen dass sie keinerlei Beschränkungen auferlegen denn das geht rein deshalb nicht, weil die Konsolen auch Scaling benötigen und somit immer neben DLSS eine Alternative möglich sein muss. Die Strategie ist dort ganz klar DLSS ist Exclusiv-Nvidia. Das ist eine einfache Marketing-Message und intern wie extern glas klar.

Die AMD PR Abteilung muss hingegen so verhaltene Statements abgeben, denn niemand von denen wird jeden einzelnen der über 30 Sponsoring-Deals im Detail parat haben um eine Presseanfrage zu beantworten. Hätten die eine klare Strategie wie Nvidia wäre das einfach. Haben die aber sicherlich nicht, so wie deren Marketing die letzten Jahre so lief. Das Statement ist keine Aussage im Gerichtsverfahren sondern eine schnelle Antwort die auf keinen Fall falsch sein darf wegen der Börsenregeln der USA.

Wenn man aber schon den Shitstorm von Nvidia Fanboys auf dem AMD Reddit umdichtet in einen Shitstorm von AMD Fanboys dann ist auch anzunehmen, dass diese von Dir zitierte Dummheit zumindest dazu führt die ganzen Zusammenhänge nicht wirklich einschätzen zu können. Das Ergebnis sind völlig alberne Verschwörungstheorien zu eigentlich völlig belanglosen Entwicklungen und möglichen Unterschieden die den Mainstream-Kunden nicht 1 Sekunde interessieren.

Allein die Vorstellung, dass Microsoft und Bethesda auf ein paar lumpige Dollar von AMD angewiesen wären um sich irgendwie gängeln zu lassen während die umgekehrt AMD das Geld für die Konsolenchips in Lastwagen vorfahren ist soetwas von lächerlich abwegig, dass man sich fragen muss, wo gerade in diesem Beispiel sich die Dummheit der Menschen tatsächlich manifestiert.

Es hat doch eher den Anschein, dass ein paar laute sehr einfach gestrickte Mitmenschen mit Stockholm-Syndrom nach GPU-Kauf angebliche Ungerechtigkeiten in zu wenige geistige Schubladen verschieben müssen, damit das eigene schiefe Weltbild nicht ins Wanken gerät. ;D

Ich habe lediglich die völlig überzogene Wortwahl des von mir zitierten Posts gespiegelt, in der Hoffnung, dass der Poster evtl. zu einer Einsicht bzgl. seines eigenen Bias kommt. Aber vermutlich wird das nichts.

Ich bin weder der Meinung, dass die Leute, die AMD Vorwürfe machen, die sich nicht eindeutig belegen lassen, dumm sind. Noch bin ich der Meinung, dass die Leute, die AMD verteidigen, weil sich ein "Blockieren" von DLSS nicht eindeutig belegen lässt, dumm sind. Es liegt hier eine sehr schwammige Situation vor in der Mutmaßungen in alle Richtungen gemacht werden können. Bestes Futter für einen Shitstorm bzw. einen Kampf der Fanboys. Anderen ein dummheitsbasiertes Überreagieren vorzuwerfen und gleichzeitig diese Wortwahl dafür zu gebrauchen zeigt m. E. eine gewisse kognitive Dissonanz.

Leonidas
2023-06-30, 10:53:37
Nach wie vor kein Update seitens Nvidia. Die Sache ist somit im Status "pikant", denn einen Bug hätte man längst entkräftet ...


In der Tat, sehr pikant. Bitte vermelde es, wenn dann endlich mal ein Update seitens NV vorliegt.

GerryB
2023-06-30, 15:14:45
"Klein" bedeutet in der Regel Unreal Engine und da ist im Zweifel DLSS verfügbar - etwa im gerade wieder "hochkochenden", weil auf die UE5 portierten The Fabled Woods (https://www.pcgameshardware.de/Spiele-Thema-239104/News/The-Fabled-Woods-1423174/). Es gibt im Epic-Marketplace ein DLSS-Plugin, das die Implementierung anscheinend wirklich vereinfacht, ansonsten wäre DLSS bei der Unreal-Engine nicht allgegenwärtig.

Der Creator sollte vllt. mal zusätzlich über TSR als Upscaler nachdenken.(aber Hauptsache erstmal DLSS!?)

In der UE5.2 soll übrigens das TSR bezgl. Ghosting verbessert worden sein.
(das fehlende FG wird man vermutlich auch verschmerzen können, ... bzw. solls später bei AMD per Treiber aktivierbar sein)

Raff
2023-06-30, 15:20:12
Bislang basiert quasi jedes (veröffentlichte) Projekt auf der UE4, da gibt's noch kein TSR (https://www.pcgameshardware.de/Layers-of-Fear-Spiel-55923/Specials/2023-Unreal-Engine-5-Release-Benchmarks-Steam-1421920/2/). Künftig wird das sicher Standard - aber DLSS bleibt wohl, denn das Plugin ist auch für die UE5 verfügbar.

MfG
Raff

raumfahrer
2023-06-30, 19:41:50
"Klein" bedeutet in der Regel Unreal Engine und da ist im Zweifel DLSS verfügbar - etwa im gerade wieder "hochkochenden", weil auf die UE5 portierten The Fabled Woods (https://www.pcgameshardware.de/Spiele-Thema-239104/News/The-Fabled-Woods-1423174/). Es gibt im Epic-Marketplace ein DLSS-Plugin, das die Implementierung anscheinend wirklich vereinfacht, ansonsten wäre DLSS bei der Unreal-Engine nicht allgegenwärtig.

Bin mir nicht sicher, ob ich das 100% verstehe. Du meinst Spiele ohne AMD/NVIDIA/Intel-Mitwirkung sind in der Regel auf Unreal Engine und da gibt es ein DLSS-Plugin? Und dadurch dann auch ohne Zutun standardmäßig aktiv? Oder meinst du einfach es ist deswegen prinzipiell trivial zu aktiveren?

Meine Frage geht in die Richtung, wenn keiner der Hersteller dasteht und sagt "wir implementieren mit dir (kostenfrei?) dieses oder jenes", was machen die Entwickler im Schnitt dann selber? Wie hängt das von in-house Engine gegen "eingekauft" (also UE, Unity, Godot, was es sonst noch so gibt) ab?

Weil aktuell gibt es diese Liste mit "NVIDIA-Mitwirkung gleich anteilsmäßig mehr Unterstützung beider Technologien, AMD-Mitwirkung gleich anteilsmäßig mehr Unterstützung von nur FSR", aber ohne Aussage, wie es sonst so aussieht.

Gast
2023-06-30, 21:29:58
"Klein" bedeutet in der Regel Unreal Engine und da ist im Zweifel DLSS verfügbar - etwa im gerade wieder "hochkochenden", weil auf die UE5 portierten The Fabled Woods (https://www.pcgameshardware.de/Spiele-Thema-239104/News/The-Fabled-Woods-1423174/). Es gibt im Epic-Marketplace ein DLSS-Plugin, das die Implementierung anscheinend wirklich vereinfacht, ansonsten wäre DLSS bei der Unreal-Engine nicht allgegenwärtig.
Es gibt seit über einem Jahr ebenso ein FSR (2) Plugin:
https://www.unrealengine.com/marketplace/en-US/product/fidelityfx-super-resolution-2
Aber wie man an deinem Kommentar sieht, herrscht hier viel Unwissen und das verbreitet sich dann.

Oldboy
2023-07-01, 00:50:09
Muss Nvidia überhaupt auf die Verbrauchsdiskrepanz reagieren? Geben die das Layout vor? Schließlich gibt es keine FE.
Und wenn die Partner das billigste Schrottlayout wählen, wer trägt da die Verantwortung?

Ich würde bevorzugen, bei künftigen Tests oder Techtabellen einfach den Zusatz "angeblich" voranzusetzen, denn wenn das einmal so ohne weiteres durchgeht, wird es künftig Standard.
Falls ich mit der These falsch liege, bitte ich um Aufklärung.

Raff
2023-07-01, 01:01:37
Es gibt seit über einem Jahr ebenso ein FSR (2) Plugin:
https://www.unrealengine.com/marketplace/en-US/product/fidelityfx-super-resolution-2
Aber wie man an deinem Kommentar sieht, herrscht hier viel Unwissen und das verbreitet sich dann.

Es gibt seit einigen Monaten sogar ein XeSS-Plugin. ;) Aber aus irgendwelchen Gründen ist im Zweifel DLSS enthalten.

MfG
Raff

Gast
2023-07-01, 01:38:42
Muss Nvidia überhaupt auf die Verbrauchsdiskrepanz reagieren? Geben die das Layout vor? Schließlich gibt es keine FE.


Nvidia muss ein Design durchwinken damit der Boardhersteller das verkaufen darf.


Und wenn die Partner das billigste Schrottlayout wählen, wer trägt da die Verantwortung?


Da ist jetzt die Frage wie der Boardpartner die Karte bewirbt.
Nur weil Nvidia für ein imaginäres Referenzdesign 115W vorsieht heißt das ja nicht, dass Boardpartner ihre Karten nicht mit anderen Verbrauchswerten verkaufen dürfen.
Insofern wird es nur problematisch, sofern ein bestimmtes Kartendesign mit falschem Verbrauch beworben wird.
Dass es bei Karten ohne kaufbares Referenzdesign gar keine Karten gibt, die tatsächlich den vorgegebenen Referenzverbrauch einhalten ist jedenfalls nicht unüblich.

Es scheint jedenfalls nicht jede Karte gleich betroffen zu sein:
https://youtu.be/WS0sfOb_sVM?t=1260

Und wie wir dank Igors Teardown-Künsten wissen, liegt der höhere Realverbrauch ja auch nicht an einem fälschlicherweise oder böswilligerweise falsch eingestelltem Powerlimit, sondern schlicht und einfach daran, dass es zumindest Karten gibt, deren komplette Powertelemetrie-Überwachung eingespart wurde, und Karte/Treiber damit gar keine Ahnung vom wirklich anliegenden Realverbrauch hat.

Insofern wird es tatsächlich lustig was der "Fix" sein soll, sei es für die Anzeige oder für die Ansteuerung. Die Karten können schlicht und einfach nicht Wattgenau ihren eigenen Verbrauch ermitteln.

Leonidas
2023-07-01, 04:08:04
Ich würde bevorzugen, bei künftigen Tests oder Techtabellen einfach den Zusatz "angeblich" voranzusetzen, denn wenn das einmal so ohne weiteres durchgeht, wird es künftig Standard.

Eine TDP ist immer "angeblich". Deswegen gibt es ja Messungen, die sich zur Realität äußern.

Pikant ist in diesem Fall, dass die Anzeigetools 115W zeigen, während es real 125-130W sind. Das darf dann nicht sein.

Gast
2023-07-01, 12:02:45
Pikant ist in diesem Fall, dass die Anzeigetools 115W zeigen, während es real 125-130W sind. Das darf dann nicht sein.

Dann dürfen alle AMD Karten vor RDNA3 "nicht sein"

Gast
2023-07-01, 12:22:31
Und wie wir dank Igors Teardown-Künsten wissen, liegt der höhere Realverbrauch ja auch nicht an einem fälschlicherweise oder böswilligerweise falsch eingestelltem Powerlimit, sondern schlicht und einfach daran, dass es zumindest Karten gibt, deren komplette Powertelemetrie-Überwachung eingespart wurde, und Karte/Treiber damit gar keine Ahnung vom wirklich anliegenden Realverbrauch hat.

Insofern wird es tatsächlich lustig was der "Fix" sein soll, sei es für die Anzeige oder für die Ansteuerung. Die Karten können schlicht und einfach nicht Wattgenau ihren eigenen Verbrauch ermitteln.

Man könnte aber per Bios einen Offset nach oben draufpacken. Resultat wäre aber wohl neben falscher Anzeige des Leerlaufverbrauches, dass sich 200 Mhz vom GPU-Takt dann in Luft auflösen unter Last.
4060 = miese Ausschuss-Chips plus miese VRM-Versorgung. Die Karte ist in sich schlüssig. :D

Gast
2023-07-01, 13:39:18
Man könnte aber per Bios einen Offset nach oben draufpacken.


Könnte man, nur stimmt das eben auch nicht immer.
Die Karten können sich schlicht und einfach nicht genau an ein Powerlimit halten, dazu fehlt ihnen die Hardware.

Die Frage ist natürlich wie wichtig ein paar Watt mehr oder weniger sind.

Leonidas
2023-07-01, 14:07:04
Dann dürfen alle AMD Karten vor RDNA3 "nicht sein"

Inkorrekt. Die Anzeige-Tools bei pre-RDNA3 geben nicht den Gesamtkarten-Wert an (passend zur TDP), sondern nur die ASIC-Power. Dies ist ein gewolltes wie dokumentiertes Verhalten. Keiner hat je behauptet, dass der Anzeigewert in diesem Fall für die ganze Karte gilt (außer ein paar DoofTubern).

Gast
2023-07-01, 15:21:41
Inkorrekt. Die Anzeige-Tools bei pre-RDNA3 geben nicht den Gesamtkarten-Wert an (passend zur TDP), sondern nur die ASIC-Power. Dies ist ein gewolltes wie dokumentiertes Verhalten. Keiner hat je behauptet, dass der Anzeigewert in diesem Fall für die ganze Karte gilt (außer ein paar DoofTubern).


Die Karte gibt den Verbrauch an, den sie Messen kann. Die Karten haben keine Überwachung der Eingangsströme verbaut, sie haben auch keine Smart Powerstages verbaut, sie können lediglich, wie auch ältere AMD-Karten, den Verbrauch aufgrund des Spulenwiderstands schätzen.
Dass aus dieser Schätzung ein Gesamtverbrauch der Grafikkarte abgeleitet wird, liegt auch nur an ein paar Dooftubern.

Die Karten haben schlicht die Hardware nicht verbaut um den Verbrauch tatsächlich zu messen, und wenn du sagst eine Karte muss den korrekten Gesamtverbrauch anzeigen können, dann heißt das auch nur Karten welche die entsprechende Hardware verbaut haben sind zulässig.

Dass hat nichts mit ASIC-Verbrauch vs. Gesamtverbrauch zu tun, sondern einfach damit dass die Hardware zur Messung des Verbrauchs, ganz egal welcher das wäre, fehlt, und der Verbrauch nur indirekt geschätzt werden kann.
Die Methode zur Schätzung des Verbrauchs, welche (zumindest einige) der 4060 verwenden kann beispielsweise nicht die Verluste in den Spannungswandlern mit erfassen, die sich aber logischerweise auf den Gesamtverbrauch der Karte mit auswirken.

Nvidia kann da eigentlich nicht wirklich was per Treiber dagegen machen. Selbst wenn man einen Offset einbaut der den restlichen Kartenverbrauch mit berücksichtigen soll, kann der am Ende einfach nicht immer stimmen.
Eine Karte mit besseren Spannungswandlern würde dann einen zu hohenVerbrauch, eine mit schlechten Wandlern einen zu niedrigen Verbrauch anzeigen.

Wenn man das halbwegs richtig machen will, bräuchte man für jede Karte ein eigenes Korrekturprofil, und das wird man wohl kaum machen, gerade da es sich offenbar um eine Sparmaßnahme handelt. Offenbar ist das eher ein Entgegenkommen von Nvidia den Boardherstellern gegenüber, um denen billiger Boards und damit etwas mehr an Marge zu ermöglichen.

Zudem ist das Ganze noch temperaturabhängig, wenn die Kühlung besser oder schlechter als erwartet ist, würde wieder ein falscher Wert angezeigt werden.

Das ist übrigens auch der Grund warum insbesondere ältere Nvidia-Grafikkarten enorm von Wasserkühlungen profitieren, Ältere AMD-Karten dagegen viel weniger.
Wenn ein Wasserkühler die Spannungswandler im Bereich 40-50° halten kann, anstatt der üblichen 90° werden diese deutlich effizienter.
Da (mit Ausnahme jetzt der 4060) praktisch alle Nvidia-Karten die Lassteuerung über die Messung der Eingangsströme machen, bedeutet dass bei selbem Kartenverbrauch, dass sich die GPU selbst mehr vom gesamten Strom gönnen kann und damit auch höhere Taktraten fahren kann.
Damit kann alleine der Kühlertausch ohne sonstige Modifikationen schon mal zu +10% an Leistung führen. Bei den meisten Lovelace-Karten ist das nicht der Fall, da diese eher selten im Powerlimit hängen.

Bei AMD Karten war das nicht der Fall, da diese eben nicht die Eingangsströme überwachen. Klar werden auch deren Spannungswandler effizienter, bei gleichem Powerlimit verbraucht die Karte dann aber einfach weniger, anstatt das frei werdende Powerbudget in mehr Leistung zu stecken.

Denniss
2023-07-01, 20:30:33
Das lieft nicht an Dooftubern sondern an Nvidia, schließlich haben die ja groß mit 115W Maximalverbrauch herumgepoltert bzw schöngerechnet.

Leonidas
2023-07-02, 03:33:50
Die Karten haben schlicht die Hardware nicht verbaut um den Verbrauch tatsächlich zu messen, und wenn du sagst eine Karte muss den korrekten Gesamtverbrauch anzeigen können, dann heißt das auch nur Karten welche die entsprechende Hardware verbaut haben sind zulässig.


Ich weiss an dieser Stelle leider nicht, ob Du AMD pre-RDNA3 oder RTX4060 meinst. Zu AMD pre-RDNA3 gilt jedoch: Die Karte hat sehr wohl genau gemessen. Nur eben den reinen ASIC-Teil.

Gast
2023-07-02, 16:52:11
Die Karte hat sehr wohl genau gemessen. Nur eben den reinen ASIC-Teil.

Nein hat sie nicht, AMD hat wie jetzt auch (einige?) 4060 Inductor DRC zur Überwachung eingesetzt, was prinzipiell schon mal ungenau ist und vor allem nur die Sekundärseite überwacht und damit damit nicht den aufgenommenen Strom sondern nur den abgegebenen Strom ermitteln kann, womit jegliche Verluste durch den Rost fallen.

Das zweite was du meinst ist, dass AMD nur eine Rail überwacht hat, was jetzt bei der 4060 irrelevant ist, da Nvidia nach dem Ausflug mit Ampere zur Multirail-Versorgung der GPU wieder nur NVVDD gibt.

Gemeinsam ist beiden dass keine Überwachung der Leistungsaufnahme der Karte ermöglichen, bei AMD ist lediglich durch die komplett fehlende Überwachung der SOC-Voltage (oder wie auch immer jetzt genau die 2. Voltage-Rail bei AMD heißt) sogar noch mehr durch den Rost fällt.

Bei der 4060 sind es im Wesentlichen „nur“ Wandlerverluste + VRAM die gar nicht ermittelt werden.