PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 9. Februar 2021


Leonidas
2021-02-10, 08:11:57
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-9-februar-2021

Midnight-3DC
2021-02-10, 10:52:13
Ich bin ja einmal äusserst gespannt, was AMD da in Form von "FidelityFX Super Resolution" aus dem Hut zaubert.
Mein derzeitiger Eindruck geht in die Richtung:
Pro:
- erfordert vermutlich entweder gar keine spezielle Unterstützung durch die Spiele sondern kann einfach in den Treibern aktiviert werden oder die Unterstützung durch die Spiele Entwickler wird dank Integration in DirectX deutlich einfacher.
- erreicht schneller eine grössere Verbreitung wie DLSS bedingt durch Punkt 1 und die Tatsache, dass es ein offener Standard ist.
Contra:
- kann bedingt durch den generischen Ansatz eigentlich qualitativ nicht an DLSS rankommen. Das gilt vermutlich insbesondere für die erste Generation der Technik, die ja bei nVidia mit DLSS 1.0 auch noch zu wünschen übrig gelassen hat.
- der Performancegewinn ist durch fehlende dedizierte Hardware möglicherweise weniger groß wie bei DLSS. Auch das könnte allerdings durchaus ein Problem sein, das sich mit kommenden Generationen verringern oder ganz beheben lässt.

Der offene Ansatz von AMD ist hier auf jeden Fall viel sympathischer und ich hoffe er wird sich schnell durchsetzen. Generell finde ich solche asymmetrische Situationen eher unschön, weil sie egoistisches, protektives Verhalten belohnt und den Konsumenten in eine blöde Lage versetzt.

Beispiel Valve und Occulus:
Valve ist hier derjenige Anbieter, der einen offenen Standard vorantreibt und das Spielen aller Spiele, die diesen Standard unterstützen, auch der Konkurrenz von Occulus erlaubt. Umgekehrt können natürlich Spiele, die speziell für die Occulus geschrieben wurden, auch nur auf dieser laufen. Als Konsument bedeutet das unter Umständen einen beachtlichen Nachteil in Kauf zu nehmen oder dieses Verhalten von Occulus auch noch zu belohnen.

Ätznatron
2021-02-10, 11:07:40
Contra:
- kann bedingt durch den generischen Ansatz eigentlich qualitativ nicht an DLSS rankommen. Das gilt vermutlich insbesondere für die erste Generation der Technik, die ja bei nVidia mit DLSS 1.0 auch noch zu wünschen übrig gelassen hat.


Auch DLSS 2.0 lässt zu wünschen übrig - alles abseits von "Quality" ist zum wegschauen - , allerdings lassen die FPS in "Quality" ebenfalls zu wünschen übrig.

Legendenkiller
2021-02-10, 11:09:27
@Midnight-3DC

jup würde ich genauso einschätzen.

Und jup, offene Standards sind immer besser , die sie von allen genutzt werden können und sich so schnell durchsetzen können und dann den Leuten immer ein Vorteil bieten können.

IMO:
DLSS ist technich beeindruckend, wird aber nur von, in der Masse gesehen, einer winzigen Anzahl an Spielen genutzt werden da es explezit unterstützt werden muss und benötig dazu auch noch spezielle Hardware.

Damit fällt die Marktrelevanz auf nahe null.

Midnight-3DC
2021-02-10, 11:22:22
Auch DLSS 2.0 lässt zu wünschen übrig - alles abseits von "Quality" ist zum wegschauen - , allerdings lassen die FPS in "Quality" ebenfalls zu wünschen übrig.
Das sehe ich etwas anders aber - hey - ich schätze das ist zu einem gewissen Grad einfach subjektiv. ¯\_(ツ)_/¯
Wenn dir die Qualität von DLSS 2.0 aber nicht gefällt, dann bezweifle ich, dass dich FFSR vom Hocker reissen wird.

@Legendenkiller
Best-case-scenario: nVidia implementiert FFSR Unterstützung in die eigenen Treiber sobald es in den DirectX Standard übernommen wird (sehr wahrscheinlich) und fühlt sich dazu genötigt DLSS auch zu öffnen um die Verbreitung zu fördern (sehr unwahrscheinlich).
Jaja, ich weiss, man wird doch noch träumen dürfen. :tongue:

Complicated
2021-02-10, 12:07:36
was ziemlich für viel diese vergleichsweise viel kleinere Grafikkarte wäre.
Kannst du diese "für" hinter das "viel "setzen? Hat mir gerade fast einen Knoten verursacht im Gehirn beim lesen :D
Ganz an Anfang deines Artikel ;)

Buddy Casino
2021-02-10, 12:07:42
Die "wenn es nicht jeder haben kann soll es niemand haben" Einstellung finde ich befremdlich. Warum sollte Nvidia eine Technik entwickeln wenn sie nicht dazu dient mehr Graphikkarten zu verkaufen?

AMD bring keine neuen (evtl. risikoreichen) Innovationen sondern zieht nur nach, wie schon bei G-Sync. In dieser Situation MUSS es natürlich ein allgemeiner Standard sein, vor allem wenn die Technik schlechter ist (geringere Qualität, keine dedizierte Hardware), sonst juckt es ja niemanden.

"Hurra, wir haben eine schlechtere Lösung, aber dafür für alle Spiele und alle Graphikkarten" finde ich jetzt nicht gerade win-win. Gewonnen hätten alle wenn es eine Lösung gäbe die so gut und schnell ist wie DSSL 2.0, aber ohne Vendor-Lock-in.

Wenn es möglich wäre DSSL generisch zu bauen ohne Spiele-Unterstützung zu benötigen hätte Nvidia das gemacht, die sind ja auch sehr erfahren was neuronale Netze angeht. Ich vermute was da rauskommt ist nicht konkurrenzfähig.

Complicated
2021-02-10, 12:13:27
AMD bring keine neuen (evtl. risikoreichen) Innovationen sondern zieht nur nach, wie schon bei G-Sync.
Du wolltest einen Scherz machen, richtig?:freak:


Tessellation
Inifnity Cache
HSA
Vulkan (AMDs Mantle ist die Basis für die einzige freie API)
....

Gsync war keine Innovation, sondern der Versuch einen vorhandenen OFFENEN VESA-Standard zu kapern und zu Geld zu machen.

[Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync (https://forum.planet3dnow.de/index.php?threads/update-gsync-als-grosser-bluff-entlarvt-nvidia-nutzt-adaptivesync-der-vesa-f%C3%BCr-gsync.421455/)

Midnight-3DC
2021-02-10, 12:37:23
Die "wenn es nicht jeder haben kann soll es niemand haben" Einstellung finde ich befremdlich. Warum sollte Nvidia eine Technik entwickeln wenn sie nicht dazu dient mehr Graphikkarten zu verkaufen?
Nun ja, man kann durchaus auch innovativ sein und trotzdem auf offene Standards setzen. Hilft in letzter Konsequenz auch einem selbst, weil es zur Verbreitung und Nutzung des Features beiträgt. Und einen Vorteil aus der geleisteten Entwicklungsarbeit wird man trotzdem ziehen, weil das üblicherweise dazu führt, dass man auch klarer Technologieführer in diesem Bereich ist. Das es auch anders geht beweist nVidia ja gerade mit Raytracing, das zwar offen ist und von AMD mit einer Generation Verzug angeboten wird aber trotzdem auch jetzt sicherlich noch ein Verkaufsargument für nVidia Karten ist.
"Hurra, wir haben eine schlechtere Lösung, aber dafür für alle Spiele und alle Graphikkarten" finde ich jetzt nicht gerade win-win. Gewonnen hätten alle wenn es eine Lösung gäbe die so gut und schnell ist wie DSSL 2.0, aber ohne Vendor-Lock-in.
Das FFSR schlechter ist wie DLSS würde ich so nicht unterschreiben. Ich habe ja im vorherigen Post meine Pros und Contras gegeben (wobei das alles ja noch spekulativ ist). Ich sehe also durchaus auch Vorteile der AMD Technik gegenüber DLSS.
Wenn es möglich wäre DSSL generisch zu bauen ohne Spiele-Unterstützung zu benötigen hätte Nvidia das gemacht, die sind ja auch sehr erfahren was neuronale Netze angeht. Ich vermute was da raus kommt ist nicht konkurrenzfähig.
Wer hat denn behauptet das DLSS generisch sein muss um ein offener Standard zu sein? Auch hier kann Raytracing prima als Gegenbeispiel gebracht werden. Raytracing ist nicht generisch und muss von jedem Spiel einzeln unterstützt werden, trotzdem funktioniert es über eine offen und standardisierte DirectX Schnittstelle, die zu unterstützen AMD frei steht.

Gast
2021-02-10, 12:46:14
Wie tief müsste der ETH-Kurs denn wieder fallen, damit sich Mining nicht mehr lohnt / Mining keinen Einfluss mehr auf die Preise hat?

Gast
2021-02-10, 13:15:55
- erfordert vermutlich entweder gar keine spezielle Unterstützung durch die Spiele sondern kann einfach in den Treibern aktiviert werden oder die Unterstützung durch die Spiele Entwickler wird dank Integration in DirectX deutlich einfacher.


Das wird nicht funktionieren, zumindest nicht in vernünftiger Qualität, was bedeutet, dass man die Auflösung viel weniger Reduzieren kann ohne Qualität zu verlieren und damit auch viel weniger Performance gewinnt.

Gratzner
2021-02-10, 13:24:45
@Midnight-3DC ein Tipp von mir: probiere es doch mal mit lesen, statt ahnungslos ins blaue zu raten:


- erfordert vermutlich entweder gar keine spezielle Unterstützung durch die Spiele sondern kann einfach in den Treibern aktiviert werden
We also questioned the much-anticipated FidelityFX Super Resolution process, which uses AI scaling, but this, unlike the competing DLSS, will not be part of the graphics driver at AMD, but will work as a standalone, in-game effect.

Bezüglich Standards:

- [Anm.: FidelityFX Super Resolution] erreicht schneller eine grössere Verbreitung wie DLSS bedingt durch Punkt 1 und die Tatsache, dass es ein offener Standard ist.

Wer hat denn behauptet das DLSS generisch sein muss um ein offener Standard zu sein? Auch hier kann Raytracing prima als Gegenbeispiel gebracht werden. Raytracing ist nicht generisch und muss von jedem Spiel einzeln unterstützt werden, trotzdem funktioniert es über eine offen und standardisierte DirectX Schnittstelle, die zu unterstützen AMD frei steht.
Schau dir bitte nochmal unbedingt an, was offene Standards sind, man merkt, das Du nicht mal weist, was ein Standard ist. Eine ganz konkrete Softwareumsetzung von irgendwas (z.B.: Fidelity SR für KI-Upscaling) kann schon per Definition kein Standard sein und DirectX ist alles andere als offen, z.B.: bekommen die ganzen Linuxentwickler (von MS) nix zu Verfügung gestellt, um DirectX in Linux überhaupt integrieren zu können

Buddy Casino
2021-02-10, 14:10:27
Nun ja, man kann durchaus auch innovativ sein und trotzdem auf offene Standards setzen. Hilft in letzter Konsequenz auch einem selbst, weil es zur Verbreitung und Nutzung des Features beiträgt. Und einen Vorteil aus der geleisteten Entwicklungsarbeit wird man trotzdem ziehen, weil das üblicherweise dazu führt, dass man auch klarer Technologieführer in diesem Bereich ist. Das es auch anders geht beweist nVidia ja gerade mit Raytracing, das zwar offen ist und von AMD mit einer Generation Verzug angeboten wird aber trotzdem auch jetzt sicherlich noch ein Verkaufsargument für nVidia Karten ist.


Das ist richtig: wenn man schon einen Technologievorsprung hat, warum nicht maximieren indem ein möglichst großer Teil des Marktes adressiert wird? Das weiß auch Nvidia, siehe Raytracing.

Die Antwort darauf ist: weil es keinen Standard gibt. Jede Implementierung ist Spiele-spezifisch. Wenn es es möglich gewesen wäre automatisch alles zu unterstützen hätte Nvidia das gemacht, und es hätte zumindest die Chance bestanden dass es ein offener Standard wird. Aber diese Grundvoraussetzung scheint nunmal nicht gegeben zu sein, die Diskussion darüber ob ein solcher Standard offen gewesen wäre (wie Raytracing) oder nicht (wie GSync) ist daher akademisch.

Ich bin im übrigen auch der Meinung dass die Hersteller mit Qualität und Geschwindigkeit der Hardware-Implementierung konkurrieren sollten, nicht mit Vendor Lock-In. Aber andererseits, im Bereich Machine-Learning hat das für Nvidia hervorragend funktioniert.

Lehdro
2021-02-10, 14:27:29
Das ist richtig: wenn man schon einen Technologievorsprung hat, warum nicht maximieren indem ein möglichst großer Teil des Marktes adressiert wird? Das weiß auch Nvidia, siehe Raytracing.

Die Antwort darauf ist: weil es keinen Standard gibt.
Ernsthaft?
https://en.wikipedia.org/wiki/DirectX_Raytracing

Es ist nur so dass einige Entwickler massiv in Eigenregie (oder mit Hilfe von NV...) ihr Ding durchgezogen haben. Das kann praktische Gründe haben: "DXR gab es noch nicht finalisiert"; "Vulkan hatte noch keine Schnittstelle" oder halt ein einfaches "RT gibts nur mit RTX, RDNA2 bekommt es vielleicht später (Hallo CP2077)".

Gast
2021-02-10, 14:33:20
Ich bin im übrigen auch der Meinung dass die Hersteller mit Qualität und Geschwindigkeit der Hardware-Implementierung konkurrieren sollten, nicht mit Vendor Lock-In. Aber andererseits, im Bereich Machine-Learning hat das für Nvidia hervorragend funktioniert.

Geht halt immer schwerer. Die Hardware wird von der Physik limitiert, und die ist für alle die selbe. In der Folge wird es immer schwerer werden sich in der Hardware von der Konkurrenz abzusetzen, also muss man sich andere Vorteile suchen.

Buddy Casino
2021-02-10, 14:58:09
@Lehdro: meine Antwort bezog sich natürlich auf DLSS, nicht auf Raytracing. Der ganze Inhalt ergibt ja sonst keinen Sinn.

Troyan
2021-02-10, 15:06:06
Du wolltest einen Scherz machen, richtig?:freak:


Tessellation
Inifnity Cache
HSA
Vulkan (AMDs Mantle ist die Basis für die einzige freie API)
....

Gsync war keine Innovation, sondern der Versuch einen vorhandenen OFFENEN VESA-Standard zu kapern und zu Geld zu machen.

[Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync (https://forum.planet3dnow.de/index.php?threads/update-gsync-als-grosser-bluff-entlarvt-nvidia-nutzt-adaptivesync-der-vesa-f%C3%BCr-gsync.421455/)

G-Sync war keine Innovation, aber die Cuda-Kopie HSA schon? ;D
Vulkan? Really? Cool, dann haben wir DirectML und DXR auf nVidia-Seite.

"Infinity Cache"? Na, da haben wir T&L, Pixel/Vertex-Shader, DX10 Hardware, parallel Geometrieverarbeitung, TensorCores, RT Cores etc.

Was hat AMD in den letzten Jahren geschafft? Ah, minderwertige RDNA2 Hardware, die nicht mal 60FPS in 1080p schafft. :P

Warum du weiter hier schreiben kannst, ist mir jeden Tag ein neues Rätsel.

GanjaBob
2021-02-10, 15:51:32
Interessant der Hinweis auf die Hersteller und die "Spezial-Mining-Lösungen". Gab es da nicht bei der letzten Chipgeneration nicht schon die gleichen Probleme und die Überlegung Karten ohne Monitoranschluss und anderen, auf Mining zurecht geschnittenen, Spezifikationen? Wurde da jemals etwas in der Richtung produziert?

Fusion_Power
2021-02-10, 15:51:46
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-9-februar-2021
Und wegen Mining können wir Gamer all die schönen Dinge nicht haben. :usad: Wann hört das endlich wieder auf? Also das ausufernde minen, nicht das Gamen.

Lehdro
2021-02-10, 16:44:32
Pixel/Vertex-Shader,
Psst:

https://en.wikipedia.org/wiki/High-Level_Shading_Language

Schau mal wer PS 1.0 supported :redface:

Complicated
2021-02-10, 17:23:35
G-Sync war keine Innovation, aber die Cuda-Kopie HSA schon? ;D
;D Na du blickst ja richtig durch.
AMDs CUDA-Gegenstück findest du unter GPUopen: ROCm, Stichwort HIP
https://github.com/ROCm-Developer-Tools/HIP
https://rocmdocs.amd.com/en/latest/Programming_Guides/HIP-porting-guide.html

HSA:
http://www.hsafoundation.com/
The goal of HSA has been to abstract the processor details in a heterogeneous system without loss of performance. Source languages are compiled to HSA’s virtual instruction set HSAIL. This virtual ISA resembles a RISC register-based load/store machine with SIMD operations. An important extension is that HSAIL retains the parallel information specified in the source language making it easier for a finalizer to generate native machine instructions without loss of performance.

Warum du weiter hier schreiben kannst, ist mir jeden Tag ein neues Rätsel.Schon klar, dass dir das rätselhaft erscheint mit deinem immer wieder demonstrierten Basiswissen.

WedgeAntilles
2021-02-10, 17:29:23
allerdings lassen die FPS in "Quality" ebenfalls zu wünschen übrig.
Ja, was ist schon ein Performanceplus von 50% und mehr.

Sorry, aber soll das ein Witz sein? Du kannst kritisch anmerken, dass bisher nicht viele Spiele DLSS unterstützen. Keine Widerrede.
Aber DLSS an sich als mittelmäßig zu bezeichnen, bei einem Performanceplus von über 50% auf Qualitiy ist einfach lächerlich.

Bei Cyberpunk bringt DLSS Quality ca. 60-70% mehr Frames - das lässt nicht zu wünschen übrig, das sind Welten.

Troyan
2021-02-10, 18:21:15
;D Na du blickst ja richtig durch.
AMDs CUDA-Gegenstück findest du unter GPUopen: ROCm, Stichwort HIP
https://github.com/ROCm-Developer-Tools/HIP
https://rocmdocs.amd.com/en/latest/Programming_Guides/HIP-porting-guide.html

HSA:
http://www.hsafoundation.com/

Schon klar, dass dir das rätselhaft erscheint mit deinem immer wieder demonstrierten Basiswissen.

Release CUDA: 2006.
Release ROCm: 2015

Release Cuda-Kopie namens HSA: 2011.

Complicated
2021-02-10, 18:22:52
Selbst einfaches Textverständnis klappt wohl nicht.

iamthebear
2021-02-10, 18:45:25
Wie tief müsste der ETH-Kurs denn wieder fallen, damit sich Mining nicht mehr lohnt / Mining keinen Einfluss mehr auf die Preise hat?

Es gibt hier 2 Einflussfaktoren:
1.) Der ETH Kurs
2.) Die Global Hashrate, also die Gesamtleistung aller Ethereum Miner weltweit

Die Anzahl an Ethereums die pro Woche weltweit gemined werden bleibt immer gleich. Steigt die Global Hashrate so bekommt man pro Hashvorgang weniger Ethereums = weniger Geld

Derzeit mined eine RTX 3080 mit 100 MH/s um die 400$ pro Monat. Stromkosten fallen in den Miningländern wie Iran oder China um die 2 Cent/kWh nicht wirklich ins Gewicht.

Die Frage ab wann es sich nicht mehr lohnt lässt sich schwer beantworten. Wenn man die Kurse von 2018 und die gesteigerte Performance von Ampere mitberücksichtigt kann man davon ausgehen, dass der Boom zu Ende ist sobald der Ertrag auf 50-100$/Monat bei einer 3080 fällt.

Es gibt hier 3 Möglichkeiten:
.) Es gibt wie 2018 einen Fall der Kurse
.) Es werden so viele Karten an Miner verkauft dass die Global Hashrate auf das 4-8 fache ansteigt
.) Eine Kombination von beidem (das ist 2018 passiert)

Bei der aktuellen Geschwindigkeit dauert es ca. 4-5 Monate um die Hashrate zu verdoppeln. Bleiben die Kurse wo sie sind wird es also ca. 1-2 Jahre dauern bis der Spuk vorbei ist.

Die 6800 XT hat jedoch ca. 1/3 weniger Miningperformance als die 3080 da der Ethereum Algorithmus fast ausschließlich von der Speicherbandbreite abhängt und der Infinity Cache hier nichts hilft. Dies bedeutet, dass die 6800XT schon deutlich früher unprofitabel wird.

Ich denke jedoch, dass sich der Kurs der Kryptowährungen mittelfristig wieder nach unten bewegen wird, da der Kaufwahn der Spekulanten auch Grenzen hat und die ganzen Miner ihre gemineten Ethereums zum größten Teil wieder verkaufen, denn ihre Ausrüstung und Strom können sie nur mit echtem Geld bezahlen und viele Verkäufe drücken automatisch die Kurse.

Booby
2021-02-10, 18:54:12
Release CUDA: 2006.
Release ROCm: 2015

Release Cuda-Kopie namens HSA: 2011.
Ich frage mich echt wie es einem nicht peinlich sein kann, sowas von sich zu lassen.

On Topic:
Seltsamerweise werden RDNA2 Karten auch wie wild gekauft, obwohl sie sich für ETH weniger eignen. Wenn es rein daran liegt, müssten Radeon Karten nicht deutlich günstiger sein?

Leonidas
2021-02-10, 18:59:02
Kannst du diese "für" hinter das "viel "setzen? Hat mir gerade fast einen Knoten verursacht im Gehirn beim lesen :D


Done!

Virtual
2021-02-10, 19:11:04
Wie tief müsste der ETH-Kurs denn wieder fallen, damit sich Mining nicht mehr lohnt / Mining keinen Einfluss mehr auf die Preise hat?
Nachhaltig fallende ETH-Kurse?! Bis wir an diesem Punkt angelangt sind, das kann noch dauern, das steht in den Sternen.

Wenn schon Elon Musk mit seiner Milliardeninvestition die Suche nach dem "next greater fool" antreibt, dann werden sich noch mehr als genug Gierschlümpfe animiert fühlen, die systematische Schneeball-Blase noch einige Zeit am Laufen zu halten.

Fast möchte man NVidia unterstellen, sie haben die FP32-ALUs verdoppelt, um die Crypto-Miner wieder als zweiten Absatzmarkt zu öffnen. Schlägt das fehl, so ist das trotzdem kein Problem. Beim Gaming kann man die doppelte FP32 Leistung letztlich auch noch gebrauchen, auch wenn die Bottlenecks dann an andere Stelle zu suchen sind. Dumm ist nur, dass jetzt alle Zutaten kaum verfügbar sind, aber das konnte man soweit im Voraus nicht erahnen.

Gast
2021-02-10, 19:46:15
G-Sync war keine Innovation, aber die Cuda-Kopie HSA schon? ;D
Vulkan? Really? Cool, dann haben wir DirectML und DXR auf nVidia-Seite. [...]
Warum du weiter hier schreiben kannst, ist mir jeden Tag ein neues Rätsel.
Naja, warum du hier schreibst, ist mir auch ein Rätsel...
CUDA basiert auf BROOK (gibt's seit mindestens 2004) von der Stanford Uni, ATI hat darauf Brook+ entwickelt (etwa zeitgleich mit CUDA) und hatte davor schon CAL... CUDA war also wie GSync einfach ein offener Standard, der closed wurde...
DirectML ist übrigens von Microsoft, genau wie DXR...

iamthebear
2021-02-10, 21:59:57
1.) Dass Ampere bei Ethereum besser abschneidet hat nichts mit den FP32 ALUs zu tun, sondern mit der höheren Speicherbandbreite. Der Ethereum Algorithmus ist im Wesentlichen nur eine Ansammlung von Random Reads über den VRAM verteilt. Da wird sonst nicht viel berechnet. Das wurde bewusst so gestaltet, dass man keine ASICS einsetzen kann, sondern auf GPUs setzen muss.

2.) Im Wesentlichen hat Nvidia hier einfach nur die Änderungen rückgängig gemacht, die sie mit Turing eingeführt haben. Da würde ich keine große Weltverschwörung dahinter sehen.

iamthebear
2021-02-10, 22:40:52
Auch DLSS 2.0 lässt zu wünschen übrig - alles abseits von "Quality" ist zum wegschauen - , allerdings lassen die FPS in "Quality" ebenfalls zu wünschen übrig.

Ich glaube wir sollten aufhören in Qualitätsstufen zu denken, sondern in Renderauflösung und Ausgabeauflösung denken.

Die Renderauflösung wird durch die Leistung der GPU bestimmt. Die Ausgabeauflösung durch den Monitor.

Wenn die GPU nun nicht schnell genug ist, um den Monitor mit seiner nativen Auflösung (z.B. 4K) zu betreiben, dann muss man mit der Auflösung runter und der Monitor wird mit einem sehr primitiven Upscaling Algorithmus das Bild hochskalieren.

Man sollte nun die Einstellungen vergleichen, die in etwa dieselbe Framerate liefern. Die Performancekosten von DLSS sind mit ca. 10% relativ gering solange man sich in einem Frameratenbereich befindet, wo die Tensor Cores bei der entsprechenden Auflösung noch mitkommen. Bei der 3080 ist das bei 4K ca. 100fps, bei der 3070 60fps, bei der 3060 dann wohl 60fps bei 1440p usw.

Beispiel (jeweils mit 4K Monitor):
.) Native 1440x900
.) 1920x1080 DLSS Quality - Renderingauflösung 1280x800
.) 2560x1440 DLSS Performance - Renderingauflösung 1280x800
.) 3840x2160 DLSS Ultra Performance - Renderingauflösung 1280x800

Hier wird man feststellen, dass mit jeder Stufe die Qualität deutlich zunehmen wird. Lediglich beim Sprung von Performance auf Ultra Performance wird man nicht mehr allzu viel feststellen können.


Bei DLSS 1.0 hat das noch komplett anders ausgesehen. Hier hat 4K+DLSS 1.0 nur unwesentlich besser als 2560x1440 ausgesehen, jedoch war die Performance auch etwas schlechter als 2560x1440, wodurch es sich in den meisten Fällen nicht ausgezahlt hat DLSS zu aktivieren, da das Endergebnis nicht unbedingt besser war.

Wenn AMD es nicht schafft ein besseres Ergebnis als DLSS 1.0 zu erzielen, dann ist die ganze Aktion sinnlos.

Was die technische Implementierung angeht:
Ich denke nicht, dass das rein treiberseitig möglich ist. Das Spiel muss zumindest in der Lage sein eine Renderingauflösung und eine Ausgabeauflösung getrennt an der Treiber zu übermitteln.
Weiters benutzt DLSS nicht nur statische Bilder, sondern auch die Vektorinformationen welches Objekt sich wie bewegt hat d.h. es muss zumindest eine Schnittstelle ähnlich von TAA geben.
Weiters ist mir noch nicht klar, ob die Verwendung der Tensor Cores beim Upscaling auch wirklich rein durch den Treiber ausgelöst werden kann.

Wenn es eine saubere Implementierung in DirectX 12 gibt, die auch von Nvidia unterstützt wird, dann wäre das natürlich zu bevorzugen und wird sich vermutlich auch durchsehen, wenn Microsoft dieselben Schnittstellen zumindest auf der XBox auch bieten kann.

Gast
2021-02-10, 22:52:37
fq
Vielen Dank für die ausführliche Antwort!

Gast
2021-02-11, 04:19:31
Kann gar nicht sein. Laut Leos Analyse in anderer News haben Miner keinen Einfluss auf die Nicht-Verfügbarkeit von (AMD-)Grafikkarten.

etp_inxession
2021-02-11, 07:29:44
Microsoft sitzt ja bei AMD mit im FFXSR Boot ...

Wird schon werden.

Ich selbst brauche es bisher nicht.

@Troyan .. hast dich ganz schön weit ins Abseits gestellt. :freak:

Gast
2021-02-11, 09:01:55
Kann gar nicht sein. Laut Leos Analyse in anderer News haben Miner keinen Einfluss auf die Nicht-Verfügbarkeit von (AMD-)Grafikkarten.

Woher sollen die Miner AMD Karten bekommen? Gibt ja keine :D

Legendenkiller
2021-02-11, 14:40:14
eine kleine Rechenübung :-)
Ich setze einfach mal als gegeben das die Miner aktuell rein nach MH/$ kaufen und setze als Referens mal die 3060TI für 800$ an.

Dann "würden" sich die anderen Grakas bei folgenden Preisen einpegeln...


GeForce RTX 3080 98 1300$
GeForce RTX 3070 62 825$

GeForce RTX 3060 Ti 60 800$

GeForce RTX 3060 50 666$
GeForce RTX 3060 41 550$

iamthebear
2021-02-11, 21:14:48
1.) Die 800$ halte ich für ziemlich optimistisch. Die 3060 Ti die sich noch um 800$ im Handel befinden sind Restposten, die schon unterwegs waren bevor der Ethereum Kurs so stark gestiegen ist. Man darf nicht vergessen: Die Miner kaufen Palettenware direkt von den Boardpartnern. Da fällt der ganze Handel, Zoll, Umsatzsteuer etc.
Ich würde eher von 1000 Euro Endkundenpreis ausgehen sobald die Restbestände weg sind, wobei das dann wohl sehr theoretisch sein wird. Die Boardpartner werden sich gar nicht die Arbeit machen noch an den regulären Handel zu liefern.

2.) Es kann gut sein, dass es aus anderen Gründen noch keine AMD Karten gibt aber selbst falls doch, so würden diese sofort aufgekauft werden.
Eine 6800 XT mined in etwa auf dem Niveau einer 3060 Ti. Damit macht man immer noch 200$ Ertrag pro Monat. Das reicht damit diese im Handel nicht unter 1000$ ankommen wird.
Abgesehen davon ist beim Kauf von 6800 XT das Risiko für Miner geringer. Falls die Kurse nun doch in 2 Monaten einbrechen sollten hat immer immerhin 400$ Gewinn gemacht und verdreht die Karten um 500$ gebraucht auf Ebay und kommt immer noch ohne Verlust raus.

Buddy Casino
2021-02-12, 13:05:59
Ich frage mich ob wir mittelfristig eine Zweiteilung des Marktes haben werden:
die per MHash Energieeffizientesten Karten werden erstmal alle direkt von Minern gekauft
die Karten der vorletzten Generation werden dann von den Minern auf dem Gebrauchtmarkt an die Gamer verhökert

Vorausgesetzt die Effizienz zwischen zwei Generationen steigt dementsprechend. Das würde vor allem dann Sinn machen wenn die Energiekosten einen beträchtlichen Teil der Betriebskosten beim Minen ausmachen, wovon ich ausgehe (im Vergleich zu den Anschaffungskosten).

Ich könnte mir auch vorstellen dass die Boardpartner irgendwann selber (heimlich?) ins Mining einsteigen, wenn es profitabel genug ist.

Hayab
2021-02-12, 20:44:47
Wenn der Miningboom wieder vorbei ist wird der Markt mit ausgebrannten Karten geflutet. Ich hoffe dieses mal werden NV und ATI ganz schnell neue Revisionen (wie bei Super) ihrer GPU auf dem Markt werfen um den Miner den Verkauf von gebrauchten Karten zu erschweren.
Wenn sie es wieder doch nicht tun kann man davon ausgehen das die Situation die zur Zeit herrscht beabsichtigt ist.

Leonidas
2021-02-13, 03:17:39
Die sollten den Minern ein Schnippchen schlagen und in ihren Treibern anzeigen, wie lange die Karte im Mining-Einsatz war. Unabhschaltbar. Wenn sie clever waren, haben sie eine solche Funktion festverdrahtet (Treiber-unabhängig) eingebaut.

Das wäre mal der einzige Fall, wo Hersteller & Konsumenten gemeinsam an einer "Entwertung" von Gebrauchtware interessiert sind.

Gast
2021-02-14, 21:07:49
Die sollten den Minern ein Schnippchen schlagen und in ihren Treibern anzeigen, wie lange die Karte im Mining-Einsatz war. Unabhschaltbar. Wenn sie clever waren, haben sie eine solche Funktion festverdrahtet (Treiber-unabhängig) eingebaut.


Wie soll das gehen?
Mining ist auch nur eine Folge von Befehlen.
Gut man könnte diese wohl theoretisch erkennen, nur würde man dann alles was diese Befehlsfolge nutzt mit ausschließen bzw. zählen, und es kann nicht garantiert werden, dass mit der aktuell vom Mining verwendeten Befehlsfolge nicht auch andere sinnvollere Dinge gemacht werden können.

Und andererseits wäre es natürlich ein einfaches den Miningalgorithmus so abzuändern dass er mit einer anderen Befehlsfolge immer noch das selbe macht.


Das wäre mal der einzige Fall, wo Hersteller & Konsumenten gemeinsam an einer "Entwertung" von Gebrauchtware interessiert sind.

Wieso Entwertung? Mining Hardware wird üblicherweise am Sweetspot betrieben, sollte also mehr Wert sein als gleich alte "normale" Hardware die vielleicht auch noch übertaktet war.

Leonidas
2021-02-15, 04:38:30
Ich denke schon, das Mining klar erkennbar ist. Es geht weniger darum, was gemacht wird, sondern wie die Charakteristik ist: Mining ist ständige Volllast und faktisch immer wieder dieselbe Befehlsfolge (egal welche). Gaming sind ständige Lastwechsel und viel Variabilität in den Befehlen. Sollte klar unterscheidbar sein.

Crazy_Borg
2021-02-15, 09:12:11
Die könnten den Miningcounter doch einfach als "Feature" FÜR die Miningbetreiber vermarkten.
So dass sie sich eine Datenbank aufbauen können mit Laufzeiten bis Ausfall.
Damit sie rechtzeitig erkennen können wann es durchschnittlich Zeit ist die Karten auszutauschen. Diese Feature müsste dann nur nicht-füchtig auf der Karte gespeichert werden wie SMART-Werte bei HDD/SSD, sodass jeder Käufer es direkt auslesen kann.
Würde dann auch auf den Handelsplätzen die Spreu vom Weizen trennen, schon heute packen die ehrlichen Verkäufer von Gebrauchtplatten einen Screenshot von Crystaldiskinfo dazu.

Gast
2021-02-15, 14:25:27
Ich denke schon, das Mining klar erkennbar ist. Es geht weniger darum, was gemacht wird, sondern wie die Charakteristik ist: Mining ist ständige Volllast und faktisch immer wieder dieselbe Befehlsfolge (egal welche). Gaming sind ständige Lastwechsel und viel Variabilität in den Befehlen. Sollte klar unterscheidbar sein.

Mining ist (abhängig vom Algorithmus) alles andere als ständige Volllast, aber es ist gleichbleibende Last im Gegensatz zum Gaming.
Das trifft aber auch für andere HPC-Aufgaben zu, und auch wenn Geforce-Karten hauptsächlich als Gaming-Karten vermarktet werden, werden sie durchaus mit CUDA für den Einstieg in HPC vermarktet.

Leonidas
2021-02-15, 14:49:36
Gutes Gegenargument. Ist also nicht so einfach wie gedacht.