PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Aktuelle Bildqualität AMD/Nvidia


uweskw
2018-03-05, 19:25:20
Gibt es einen aktuellen, deutschen Test der sich fundiert mit der BQ von GraKas auseinander setzt?
Oder gibt es da keine nennenswerten Unterschiede mehr?

greetz
US

aufkrawall
2018-03-05, 19:32:58
Texturfilterung ist seit Vega gleich gut, ansonsten dürfte es eh keine Unterschiede geben (Ausnahme vielleicht ungares HDR).
Mit temporalem Supersampling wie in vielen aktuellen Spielen zu finden, ist im Grunde aber auch die Texturfilterqualität fast egal.

Edit: Mit Nvidia kann man für DX12 allerdings AF und TrSSAA erzwingen, geht mit AMD nicht.

uweskw
2018-03-05, 21:11:50
Danke schon mal.
Mich interessiert noch die BQ bei downsampling. Ich hätte gedacht, dass sich da ein paar Reviewer drauf gestürzt haben. Technisch hat sich da ja seit einiger Zeit nicht wirklich viel getan,

greetz
US

Mr. Lolman
2018-03-05, 21:50:38
Zumindest mit Hawaii war DS bei AMD qualitativ besser (weil flimmerfreier). Keine Ahnung ob das immernoch so ist. Iirc hat das bei AMD früher der Scaler übernommen, während bei NV das DS über Shader gelöst wurde...

aufkrawall
2018-03-05, 22:09:49
Ist immer noch so. 4x ist bei NV erste Sahne, ansonsten geht 2,25x noch so gerade. Der Rest ist nicht zu gebrauchen.
Der niedrigste Faktor ist bei AMD aber auch Müll, weil völlig unscharf. Die anderen sind bis auf 4x allerdings besser als bei NV.

pilzsammler2002
2018-11-22, 08:43:10
https://youtu.be/R1IGWsllYEo

Hier hat sich einer der Sache mal halbwegs angenommen :D

Soweit BQ hier Bildqualität bedeutet :D

hmmm
2018-11-22, 09:55:10
Texturfilterung ist seit Vega gleich gut,
Polaris und Pascal waren gleich gut, Vega filtert leicht besser als Pascal und nahezu perfekt. Hat sich da bei Turing etwas getan?
HDR ist Nvidia eine Katastrophe!
VSR vs DSR ist die AMD BQ immer noch besser als bei Nvidia und das sogar ohne zu fummeln.

aufkrawall
2018-11-22, 09:56:56
Polaris und Pascal waren gleich gut.
Falsch, Polaris ist sichtbar schlechter.

woodsdog
2018-11-22, 18:38:47
Falsch, Polaris ist sichtbar schlechter.

Solche Posts gerne im Sinne des Threads mit einem Link oder Screenshot versehen.

aufkrawall
2018-11-22, 18:43:17
Solche Posts gerne im Sinne des Threads mit einem Link oder Screenshot versehen.
Guck dir die Videos zu älteren GCNs an. Da ich nicht behaupte, dass sich mit Polaris etwas geändert hat, muss ich es auch nicht beweisen.

Ich hab mir btw. Pascal, Polaris und Vega im Filtertester angeschaut. Wer das nicht auch getan hat, braucht gar nicht erst versuchen, mir irgendetwas zu erzählen. Danke.

woodsdog
2018-11-22, 19:13:21
Person A sagt X
Person B sagt "Falsch, es ist Y"

Danke für die erhellende Beteiligung.

Wenn du da so der Experte bist, sollte es nicht schwerfallen mehr als einen Einzeiler hinzurotzen. Es ging mir nicht um irgendwelche Beweise sondern ggf - auch für mich - mehr Info.

Aber hauptsache der Name ist Programm.
Uncool.

hmmm
2018-11-23, 17:36:44
Ich hab mir btw. Pascal, Polaris und Vega im Filtertester angeschaut.
Dann mach es noch einmal, denn deine Erkenntnis darüber ist Stuss!
Mit welchen Treibern?

hlynska
2018-11-23, 17:38:32
Zumindest hat Vega meist weniger Artefakte als RTX On. :D

aufkrawall
2018-11-23, 18:47:40
Dann mach es noch einmal, denn deine Erkenntnis darüber ist Stuss!

Nein. Mit jemandem, dessen Beiträge zu 99% nur aus haltloser AMD-Propaganda bestehen, hab ich auch keinen weiteren Diskussionsbedarf.

hmmm
2018-11-23, 22:03:46
Ach ich bitte dich, lass die Märchenstunde doch einfach mal aus.

vinacis_vivids
2018-11-23, 22:12:35
BQ ist ja auch immer etwas subjektiv. Und da ist NV bei mir schon lange lange raus. Die Farben sind einfach zu schwach (letztens erst ne GTX1060 vom Kumpel angeschlossen), aber nicht jeder hat meine (farbsensiblen) Augen.

Ex3cut3r
2018-11-23, 22:36:06
Lass mich raten mit HDMI? Dann ist der Dynamische Ausgabebereich automatisch auf Beschränkt gestellt, einfach im Treiber Voll aktivieren und die Farben sind nicht mehr ausgewaschen.

pilzsammler2002
2018-11-23, 23:12:21
In dem Test wurde mit Voll getestet :)

aufkrawall
2018-11-23, 23:13:51
Zum Glück ist v_v unvoreingenommen genug, dass ein double blind Test nicht nötig ist.

Tesseract
2018-11-23, 23:19:43
https://youtu.be/R1IGWsllYEo

Hier hat sich einer der Sache mal halbwegs angenommen :D

deren methodologie ist totaler schrott, die vergleichen hauptsächlich moiré und kompressionsartefakte die sich irgendwo in der aufnahmekette eingeschlichen haben.

wer versucht pixelgenau renderoutputs zu vergleichen und bei sowas (https://i.imgur.com/b5jXLUk.jpg) nichts hinterfragt will entweder bewusst täuschen oder ist ein idiot.

vinacis_vivids
2018-11-23, 23:31:13
Lass mich raten mit HDMI? Dann ist der Dynamische Ausgabebereich automatisch auf Beschränkt gestellt, einfach im Treiber Voll aktivieren und die Farben sind nicht mehr ausgewaschen.

Displayport - 10bit YCbCr 4:4:4 - UHD 3840x2160@60hz

Die Geforce Einstellungen konnten nie die Qualität erreichen. Den Downgrade wollte ich meinen Augen einfach nicht antun, dafür ist das Licht dieser Welt zu wertvoll.

Ex3cut3r
2018-11-23, 23:59:03
Wage ich zu bezweifeln, nie noch so etwas gehört, außer bei HDMI mit beschränkten Farb Modus.

Monsta
2018-11-24, 00:19:55
Ich hatte gerade von Nvidia auf Amd gewechselt. Für mich sehen die Farben völlig identisch aus. Und zwar bei Linux Osx und Windows.

Meine Screens sind mit einem Spider kalibiriert. Schaffen auch auch noch den selben Farbraum.

BiG OnE
2018-11-25, 18:54:14
Natürlich sind sie identisch, v_v versucht nur wie üblich gegen die Grünen zu stänkern.

Hakim
2018-11-25, 19:19:26
Ich bin ja ehrlicherweise schon etwas NV zugeneigt, obwohl ich dennoch versuche immer sachlich zu bewerten, auch 2-3 mal AMD Grakas in letzter Zeit für die Arbeitsrechner im Betrieb bestellt (7950, 2x 580). Aber Farben unterschied, sei es in Spielen oder CAD Programme konnte ich echt keine erkennen.

Digidi
2018-11-25, 20:07:57
Ich bin ja ehrlicherweise schon etwas NV zugeneigt, obwohl ich dennoch versuche immer sachlich zu bewerten, auch 2-3 mal AMD Grakas in letzter Zeit für die Arbeitsrechner im Betrieb bestellt (7950, 2x 580). Aber Farben unterschied, sei es in Spielen oder CAD Programme konnte ich echt keine erkennen.

Du baust eine 580 als CAD Karte ein? :confused:

Hakim
2018-11-25, 20:11:36
allplan nemetschek

hmmm
2018-11-27, 17:09:37
AMD Vs. Nvidia Image Quality - Does AMD Give out a BETTER Picture..?!
https://www.youtube.com/watch?v=R1IGWsllYEo&feature=youtu.be

RX 590(Polaris!!!) vs rtx2070 ;)
Was macht nvidia nur aus dem schönen Forza Horizon 4, ich könnte heulen.

Edit
Sorry, der Link wurde schon gepostet.

SKYNET
2018-11-27, 17:25:48
AMD Vs. Nvidia Image Quality - Does AMD Give out a BETTER Picture..?!
https://www.youtube.com/watch?v=R1IGWsllYEo&feature=youtu.be

RX 590(Polaris!!!) vs rtx2070 ;)
Was macht nvidia nur aus dem schönen Forza Horizon 4, ich könnte heulen.


ist doch garnicht so schlimm, sieht an den kanten nur ein "wenig" geblurt aus X-D

hmmm
2018-11-27, 19:38:48
deren methodologie ist totaler schrott, die vergleichen hauptsächlich moiré und kompressionsartefakte die sich irgendwo in der aufnahmekette eingeschlichen haben.

wer versucht pixelgenau renderoutputs zu vergleichen und bei sowas (https://i.imgur.com/b5jXLUk.jpg) nichts hinterfragt will entweder bewusst täuschen oder ist ein idiot.
Moiré-Effekt und Kompressionsartefakte nahezu durchgängig nur beim nvidia setup? Ja klar :O

Tesseract
2018-11-27, 20:11:20
Moiré-Effekt und Kompressionsartefakte nahezu durchgängig nur beim nvidia setup? Ja klar :O

was redest du für einen unsinn? schau dir einfach mal 5:48-5:51 oder 6:12-6:18 an. artefakthölle auf beiden karten die eigentlich nicht existieren sollte.

ich kann dir sagen wonach das aussieht: kamera aufgestellt, video gemacht, setup verändert, dabei die kameraposition leicht verändert (da reichen millimeter) nochmal video mit der anderen karte gemacht, der codec hat sich in beiden videos durch den hochfrequenten subpixelraster angekotzt und am ende haben sie aus den blockigen videos screenshots extrahiert.

gmb
2018-11-27, 20:47:06
Deswegen sind solche youtube Vergleiche fast nie ernst zu nehmen.

Tesseract
2018-11-27, 20:56:04
hab mal eben einen vergleich abgeknippst: selber monitor, selbe einstellungen. eines davon ist pascal, das andere fiji. so, und jetzt erklärt mir bitte welches davon farblich besser sein soll und warum. ;D

1
https://i.imgur.com/heSi5AP.jpg

2
https://i.imgur.com/T1pGanf.jpg

Rincewind
2018-11-27, 20:56:50
Du baust eine 580 als CAD Karte ein? :confused:

wobei ich mich frage, was ist CAD? Ich arbeite ja selber mit CAD-Programmen: AutoCAD , MEP und seit 1,5 Jahren Revit. Haustechnik oder wie Werner sagen würde "Gas, Wasser, Scheiße". Nichtsdestotrotz hat CAD vielfältige Einsatzzwecke und Xeon/Quadro mag nicht immer die Standardkombination zu sein.

Hakim
2018-11-27, 21:00:02
hab mal eben einen vergleich abgeknippst: selber monitor, selbe einstellungen. eines davon ist pascal, das andere fiji. so, und jetzt erklärt mir bitte welches davon farblich besser sein soll und warum. ;D

1
https://i.imgur.com/heSi5AP.jpg

2
https://i.imgur.com/T1pGanf.jpg

Die erste Eule sieht dominanter aus :)

hmmm
2018-11-27, 21:03:36
was redest du für einen unsinn? schau dir einfach mal 5:48-5:51 oder 6:12-6:18 an. artefakthölle auf beiden karten die eigentlich nicht existieren sollte.

ich kann dir sagen wonach das aussieht: kamera aufgestellt, video gemacht, setup verändert, dabei die kameraposition leicht verändert (da reichen millimeter) nochmal video mit der anderen karte gemacht, der codec hat sich in beiden videos durch den hochfrequenten subpixelraster angekotzt und am ende haben sie aus den blockigen videos screenshots extrahiert.

Der Punkt ist doch, die "methodologie" war bei beiden gleich. Insofern müsste Polaris ebenso davon betroffen sein.
Natürlich wird die Qualität des Videos schlechter, alleine schon Youtube. Aber nach meinem Verständnis gilt diese verschlechterung für beide. Und letztlich sieht nvidia noch schlechter aus.
ZB der "weichzeichner", vorallem sichtbar bei Rennspielen, passt zu dem wie ich nvidia Karten kenne.

EDIT
hab mal eben einen vergleich abgeknippst: selber monitor, selbe einstellungen. eines davon ist pascal, das andere fiji. so, und jetzt erklärt mir bitte welches davon farblich besser sein soll und warum. ;D
Das was du da machst ist natürlich unsinn, offensichtlich kannst oder willst du ja noch nicht einmal verstehen worum es geht.

Tesseract
2018-11-27, 21:16:31
du verstehst offenbar nicht wo das problem liegt. wenn man mit einer scharfen optik und hochauflösendem sensor einen bildschirmraster abknippst erzeugt selbst ein einziges grad unterschiedliche neigung massives moiré mit unterschiedlichen frequenzen und bei einer macro-aufnahme mit hauchdünnem depth of field reicht es schon die kamera einen millimeter zu bewegen um deutlich schärfe zu verlieren. schickt man diese rohdaten dann durch einen videocodec ist dieser vollkommen überfordert und erzeugt sichtbare fehler. die existenz dieser artefakte zeigt, dass da was faul ist.


Das was du da machst ist natürlich unsinn, offensichtlich kannst oder willst du ja noch nicht einmal verstehen worum es geht.

ach, dann erklär mal. :rolleyes:

hmmm
2018-11-27, 21:29:25
Du redest am Problem vorbei.
Würde man eine Szene dartsellen in der an einem AMD Baum ein Apfel hängt aber am Nvida Baum eine Brine, würdest du dazu wohl in etwa sagen: Kann man nicht vergleichen weil auf dem Nvidia Baum nun auch noch ein Vogel sitzt. Kann ja nicht sein, wie kommt der Vogel dahin?

Tesseract
2018-11-27, 22:08:29
keiner konnte bisher schlüssig zeigen, dass dieses ominöse "problem" existiert oder erklären was es überhaupt sein soll. irgendwas mit farben, dann plötzlich irgendwas mit schärfe/details und als "beleg" ein video in dem leute zu unfähig sind ihr equipment richtig zu bedienen und den aufgenommenen artefakt-kaffeesatz lesen. dein zusammenhangsloser vergleich macht das ganze nicht besser.

hmmm
2018-11-27, 22:28:09
In diesem Kontext ein Foto(!) vom Monitor abzufotografieren ist nicht nur zusammenhangslos sondern zeugt von mangelndem Sachverstand.

Troyan
2018-11-27, 22:39:23
Er hat exakt das selbe gemacht, wie man im Youtube-Video sehen kann.

Aber stimmt, in diesem Kontext ist das wirklich "zusammenhangslos". ;D

TGKlaus
2018-11-27, 22:45:11
keiner konnte bisher schlüssig zeigen, dass dieses ominöse "problem" existiert oder erklären was es überhaupt sein soll. irgendwas mit farben, dann plötzlich irgendwas mit schärfe/details und als "beleg" ein video in dem leute zu unfähig sind ihr equipment richtig zu bedienen und den aufgenommenen artefakt-kaffeesatz lesen. dein zusammenhangsloser vergleich macht das ganze nicht besser.

Aber ein Mod der ein Photo von nem Monitor abphotographiert und damit entweder ganz klar vorsätzlich rumtrollt oder keine Ahnung von der Materie hat.

Warum erinnert das mich an Ganon und sein Intel-whitewashing?
Oder ganz aktuell an diesen Lügenartikel?

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2425-november-2018

hmmm
2018-11-27, 22:49:05
Er hat exakt das selbe gemacht, wie man im Youtube-Video sehen kann.
In welchem Video wurde denn ein Foto(!) abfotografiert?

aufkrawall
2018-11-27, 22:52:38
Bei dem Forza-Vergleich sehen die Bilder allgemein zu unterschiedlich aus, bzw. bei dem einen leuchtet so eine Art Ampel. Das kann natürlich den Kamerasensor stören, womit die Vergleichbarkeit futsch ist.

hmmm
2018-11-27, 22:59:33
...
Klar,kann natürlich sein dass durch die Ampel für den kamerasensor ein Apfel zu einer Birne wird. Könnte aber auch sein, das Nvidia schlicht eine mangelhafte Darstellung hat.

Yggdrasill
2018-11-27, 23:02:12
du verstehst offenbar nicht wo das problem liegt. wenn man mit einer scharfen optik und hochauflösendem sensor einen bildschirmraster abknippst erzeugt selbst ein einziges grad unterschiedliche neigung massives moiré mit unterschiedlichen frequenzen und bei einer macro-aufnahme mit hauchdünnem depth of field reicht es schon die kamera einen millimeter zu bewegen um deutlich schärfe zu verlieren. schickt man diese rohdaten dann durch einen videocodec ist dieser vollkommen überfordert und erzeugt sichtbare fehler. die existenz dieser artefakte zeigt, dass da was faul ist. Bitte alle noch mal lesen und versucht wenigstens zu verstehen worin das Problem besteht und warum der Fotovergleich kein reines Rumtrollen ist, sondern lediglich die Unmöglichkeit einer objektiven Analyse mit einer fotografischen Methode aufzeigt.

Ich versuche mal zu lösen: Die erste Eule ist besser gezeichnet und hat weniger Artefakte, außerdem kommen da die Farben besser zur Geltung. Ich bin Pro-AMD, also ist das das AMD-Bild. :freak:;D

bun
2018-11-27, 23:02:37
Du baust eine 580 als CAD Karte ein? :confused:

Warum nicht? Als eine Geforce 6 6800GT noch neu war, habe ich die für Autodesk Inventor benutzt, keinerlei Probleme. Natürlich meldet Inventor das der Treiber nicht zertifiziert ist, und das es zu Problemen kommen könnte, aber in der Praxis sind solche Probleme nicht zu erwarten.

Die Grafikkartenleistung ist für Baugruppen die nicht exorbitant groß sind mittlerweile auch komplett irrelevant. War sie damals eigentlich schon.

Hakim
2018-11-27, 23:06:32
Warum nicht? Als eine Geforce 6 6800GT noch neu war, habe ich die für Autodesk Inventor benutzt, keinerlei Probleme. Natürlich meldet Inventor das der Treiber nicht zertifiziert ist, und das es zu Problemen kommen könnte, aber in der Praxis sind solche Probleme nicht zu erwarten.

Die Grafikkartenleistung ist für Baugruppen die nicht exorbitant groß sind mittlerweile auch komplett irrelevant. War sie damals eigentlich schon.

Hatte ich ihm schon via PM erklärt, unseren letzten Quadros sind noch erste Generation Maxwell

TGKlaus
2018-11-27, 23:06:51
Bitte alle noch mal lesen und versucht wenigstens zu verstehen worin das Problem besteht und warum der Fotovergleich kein reines Rumtrollen ist

Hier gehts darum, das beim Postprozessing geschlampt oder Rechenpower eingespart wird.

Wer hier Photos abphotographiert trollt oder spamt ganz klar rum.

SKYNET
2018-11-27, 23:40:23
Bei dem Forza-Vergleich sehen die Bilder allgemein zu unterschiedlich aus, bzw. bei dem einen leuchtet so eine Art Ampel. Das kann natürlich den Kamerasensor stören, womit die Vergleichbarkeit futsch ist.


ah, darum sind alle kanten unscharf und sehen geblurt aus? O_o

aufkrawall
2018-11-27, 23:42:02
ah, darum sind alle kanten unscharf und sehen geblurt aus? O_o
Kamera-Fokus ist dir ein Begriff? Und nein, mit Nvidia sieht Forza nicht unscharf aus. Vielleicht hatte der Pro mit Nvidia auch FXAA eingeschaltet...

SKYNET
2018-11-28, 10:06:53
Kamera-Fokus ist dir ein Begriff? Und nein, mit Nvidia sieht Forza nicht unscharf aus. Vielleicht hatte der Pro mit Nvidia auch FXAA eingeschaltet...

also, zumindest wirkte auf meiner RX580 das bild ruhiger als auf meiner 1060, weil die habe ich direkt verglichen, gleicher monitor, gleiche einstellungen im game, und treiber auf default in beiden fällen... einen bild zu bild vergleiche hatte ich allerdings nicht, einfach nur die subjektive "erfahrung" nach karte rein, karte raus, karte rein, karte raus... obs jetzt über die komplette palette gezogen so ist, ist natürlich fraglich, weil habe nicht das gefühl gehabt das bild mit der 1070, 1080 oder 1080Ti sei schlechter geworden, allerdings wurden die auch nicht direkt mit ner AMD karte verglichen, da diese samt der 1060 zu dem zeitpunkt schon lange "entsorgt" waren.

hmmm
2018-11-28, 12:24:24
Es ist schlicht lächerlich und wiederspricht jeder Logik , dass die Mängel, die überwiegend nvidia betreffen, nur durch die Methodik, die bei beiden gleich ist, hervorgerufen wird.
So einfach ist das.

Kriton
2018-11-29, 14:38:21
Es wäre schön, wenn Du mal auf Tesseracts Argumente eingehen könntest. Ich verstehe technisch zu wenig davon um das jeweils beurteilen zu können, aber ich sehe sehr gut, wenn in einer Diskussion die Argumente der Gegenseite schlicht ignoriert werden.

Mangel76
2018-11-29, 16:04:20
Es wäre schön, wenn Du mal auf Tesseracts Argumente eingehen könntest. Ich verstehe technisch zu wenig davon um das jeweils beurteilen zu können, aber ich sehe sehr gut, wenn in einer Diskussion die Argumente der Gegenseite schlicht ignoriert werden.

Auf das einzige wirkliche Argument von Tesseract geht er doch ein???

Die abfotografierten Bilder sind tatsächlich am Thema vorbei, denn es geht um 3D-Grafik in Spielen, nicht um reine 2D-Darstellung von Fotos. Die Einführung im Video spricht ja gerade die starke Bandbreitenkompression bei Pascal an, welche jedoch bei der 2D-Darstellung keine Bedeutung haben sollte.

Bleibt nur das Argument, dass die Artefakte durch falsche Aufnahme oder durch den Kompressionsalgorithmus von Youtube hervorgerufen werden. Dem wurde entgegen gehalten, dass es sehr unwahrscheinlich ist, dass diese Effekte dann immer nur bei NVIDIA auftreten. Würde es z.B. durch leichte Änderung der Kameraposition hervorgerufen, so würde ich erwarten, dass es mal den einen, mal den anderen und manchmal eben beide trifft. Eine generelle Positionsänderung zw. AMD und NVIDIA kann es jedoch auch nicht sein, da der Effekt nicht in alle Spielen mit NVIDIA auftritt. Daher ist dieser Erklärungsansatz zumindest zweifelhaft. Was wiederum aber nicht heißt, dass Bildunterschiede damit bewiesen wären. Hier bleibt nur zu hoffen, dass es weitere Untersuchungen geben wird.

aufkrawall
2018-11-29, 16:09:00
Warum nochmal sollte man das auf Screenshots nicht sehen?

Troyan
2018-11-29, 16:09:32
Aha. "3D" Grafik. Dir ist schon klar, dass es kein "3D" Bild gibt, was auf dem Bildschirm angezeigt wird? Es ist ein "2D" Bild, was aus dem Speicher ausgelesen wird. Wäre das "3D" Bild falsch, reichen dafür schon normale Speicher-Screenshots aus. Logisch, nicht?

Nein, wir reden hier also um abfotografierte 2D Bilder von einem 2D Ausgabegerät. Genau das also, was von Tesseract ebenfalls gemacht wurde.

Mangel76
2018-11-29, 16:19:10
Aha. "3D" Grafik. Dir ist schon klar, dass es kein "3D" Bild gibt, was auf dem Bildschirm angezeigt wird? Es ist ein "2D" Bild, was aus dem Speicher ausgelesen wird. Wäre das "3D" Bild falsch, reichen dafür schon normale Speicher-Screenshots aus. Logisch, nicht?

Nein, wir reden hier also um abfotografierte 2D Bilder von einem 2D Ausgabegerät. Genau das also, was von Tesseract ebenfalls gemacht wurde.

Echt jetzt???

Du wirst doch wohl den Unterschied zwischen einer Darstellung eines Standbildes in Form eines Fotos (=2D-Darstellung, nix Rendering auf der GPU) und der auf der GPU erstellten räumlichen Darstellung einer dreidimensionalen Welt projiziert auf einen zweidimensionalen Bildschirm verstehen.

Oder etwa nicht???

Troyan
2018-11-29, 16:24:25
In dem Video geht es um die Ausgabequalität und nicht dem Rendering. Exakt das selbe wurde von Tesseract ebenfalls verglichen.

aufkrawall
2018-11-29, 16:31:22
Es macht halt gar keinen Sinn, dass die Ausgabequalität, zumindest mit SDR, schlechter aussehen sollte als das Rendering. Bzw. eine groteske Quatschvorstellung.

pilzsammler2002
2018-11-29, 16:43:43
Naja es wurde auch steif und fest behauptet das HDR keine Performance kostet, da ja eh schon in HDR gerechnet wird... :freak:

Troyan
2018-11-29, 16:46:35
Artefakte und Kompressionsfehler sieht jeder sofort.

SKYNET
2018-11-29, 16:49:12
omg, die NV trolle hier wieder... es ist halt fakt dass das bild mit der NV karte bei gewissen games etwas matschig/geblurt wirkt, wärend es bei der AMD karte gestochen scharf rüber kommt, punkt.

ob und inwieweit einem die verschlechterungen das mehr an geschwindigkeit wert sind, ist jedem selber überlassen... aber neuerdings ist bildverschlechterung zur geschwindigkeitssteigerung ja sogar ein offizielles feature:
https://www.computerbase.de/2018-11/geforce-rtx-adaptive-shading-wolfenstein-2-test/

Troyan
2018-11-29, 16:53:34
Genau "Fakt". Dann nenne doch mal die Spiele hier. Da bin ich jetzt wirklich interessiert.

hmmm
2018-11-29, 16:53:35
... aber neuerdings ist bildverschlechterung zur geschwindigkeitssteigerung ja sogar ein offizielles feature:
https://www.computerbase.de/2018-11/geforce-rtx-adaptive-shading-wolfenstein-2-test/
=)
Naja, die älteren Nvidia Karten haben das ja auch, kann man nur leider nicht abstellen.

aufkrawall
2018-11-29, 17:03:22
Naja es wurde auch steif und fest behauptet das HDR keine Performance kostet, da ja eh schon in HDR gerechnet wird... :freak:
Das entkräftet mein Argument 0, weil es ein anderes Thema ist.

Btw: Warum stört eigentlich niemanden der AMD-Jünger hier das komisch grüne Wasser in FC5 mit AMD? :rolleyes:

Mangel76
2018-11-29, 17:06:34
In dem Video geht es um die Ausgabequalität und nicht dem Rendering. Exakt das selbe wurde von Tesseract ebenfalls verglichen.

Schau dir das Video nochmal an! Vielleicht erkennst du dann, worum es geht.

Es geht eben nicht um generell schlechtere Bildausgabequalität. Er stellt ja selbst fest, dass es bei einigen Spielen keinen Unterschied gibt, also kann es gar nicht an der allgemeinen Ausgabequalität liegen!

Ergo wird vermutet, dass beim Rendern eines Spiels irgendwo Qualitätsverluste auftreten, z.B. durch Kompression oder andere Einsparungen bei der Berechnungsgenauigkeit und/oder Darstellungsqualität. Mittlerweile wird so etwas ja sogar als Feature verkauft (VRS). Da die reine Darstellung eines Bildes auf dem Desktop von solchen Effekten aber nicht beeinflusst wird, sind die Bildschirmfotos von Tesseract eben auch völlig am Thema vorbei. Und es wäre auch nicht das ersten Mal, dass irgendwo Einsparungen auf Kosten der Bildqualität gemacht werden. Früher war so etwas Schummeln, heute Feature ;D Dabei muss man bei VRS natürlich sagen, dass man die Wahl hat, es zu nutzen oder nicht, daher habe ich damit auch gar kein Problem.

Savay
2018-11-29, 17:08:25
Ich halte es auch für unsinnig, dass sich ab dem finalen Framebuffer zum Monitor noch irgendwas signifikantes verändern dürfte zwischen nV und AMD.

Derartige Unterschiede müsste man dann überall und jederzeit sehen können...also auch auf dem Desktop usw. und nicht nur in einigen wenige Spielen.
Wenn es am Rendering selbst läge, wäre es zudem auch sehr einfach mit Screenshots erfassbar.


Ergo wird vermutet, dass beim Rendern eines Spiels irgendwo Qualitätsverluste auftreten,

Das ist aber extrem unlogisch und derartige Effekte müssten sich methodisch sauberer und mit weniger potenziellen Fehlerquellen auch einfach mit "profanen" Screenshots belegen lassen...
Hat bei den AF und AA Vergleichen, was das gleiche in Grün ist, seinerzeit (als es noch der heiße shize war) ja auch immer problemlos funktioniert. ;)

Der fertige Framebuffer wird am Ende schließlich bei ner SDR Kette einfach nur auf den Monitor übertragen der den dann einfach nur stumpf anzeigt! :freak:
Um dort evtl. vorhandene Unterschiede zu belegen muss man nix abfilmen.


Btw: Warum stört eigentlich niemanden der AMD-Jünger hier das komisch grüne Wasser in FC5 mit AMD? :rolleyes:

Welche Farben "besser" sind doch erstmal subjektiv...interessanter ist da eher die grundsätzliche Tatsache, dass das Postprocessing des Spiel schonmal IHV abhängig irgendwie ganz anders ist. :freak:
Oder der Monitor und/oder das Farbprofil der aufzeichnenden Kamera wurde verstellt/verändert...wer weiß das schon.

Troyan
2018-11-29, 17:11:10
Er fotografiert seinen Bildschirm. Damit geht es rein um die Ausgabequalität. Unterschiede beim Rendering lassen sich einfach per Puffer-Screenshot untersuchen. Und wäre auch viel einfacher zu realisieren als sein Testsystem.

Und das "Feature" ist nichts anderes wie AMDs Cheattreibereinstellung für Tessellation. Was hier im Forum ja als vollkommen in Ordnung verkauft wird. Aber wir sind längst über den Punkt hinaus, wo AMD Trolle noch ernst genommen werden können.

SKYNET
2018-11-29, 17:13:51
Das entkräftet mein Argument 0, weil es ein anderes Thema ist.

Btw: Warum stört eigentlich niemanden der AMD-Jünger hier das komisch grüne Wasser in FC5 mit AMD? :rolleyes:


algenbefall? :ulol: sorry, höre ich zum ersten mal, link zu irgentwas?

Hakim
2018-11-29, 17:17:35
Ich glaube eher der Typ hat es in farcry und Forza etwas verkackt. Könnte es sein das bei dem amd bild die Wolken alles etwas farbloser darstellen? Und bei Forza sieht man doch das bei NV etwas am blinken war.

Savay
2018-11-29, 17:21:04
Und das "Feature" ist nichts anderes wie AMDs Cheattreibereinstellung für Tessellation.

Von welchem "Feature" ist überhaupt die rede?!

Auch wenn es thematisch hier eigentlich garnicht hingehört:
AF Stufen kannst du übrigens seit Urzeiten ebenfalls per Treiber auch verändern/einschränken und forcieren...ist das auch Cheating?! :facepalm:
Nichts anderes macht der Schalter für den Tess-Faktor! :rolleyes:
Das hat nicht ansatzweise was mit Cheating zu tun...ich hab zudem lieber die Option im Treiber, als das ich sie nicht hätte, sie aber leider bräuchte weil die Entwickler schlicht zu blöd zum "richtig" tesselieren waren.(Crysis 2 ahoi!)
Nen "Cheat" wäre es btw. wenn es heimlich und undokumentiert passiert...ist dort aber alles nicht der Fall.

aufkrawall
2018-11-29, 17:21:18
algenbefall? :ulol: sorry, höre ich zum ersten mal, link zu irgentwas?
Du gibst hier deinen Senf dazu und hast das Video nicht mal geschaut? :facepalm:

SKYNET
2018-11-29, 17:24:00
Du gibst hier deinen Senf dazu und hast das Video nicht mal geschaut? :facepalm:

doch, aber habe mich auf die kanten fokussiert, weil die direkt ins auge gesprungen sind mit dem blur...

N0Thing
2018-11-29, 17:32:21
Ich halte es auch für unsinnig, dass sich ab dem finalen Framebuffer zum Monitor noch irgendwas signifikantes verändern dürfte zwischen nV und AMD.

Derartige Unterschiede müsste man dann überall und jederzeit sehen können...also auch auf dem Desktop usw. und nicht nur in einigen wenige Spielen.
Wenn es am Rendering selbst läge, wäre es zudem auch sehr einfach mit Screenshots erfassbar.



Das ist aber extrem unlogisch und derartige Effekte müssten sich methodisch sauberer und mit weniger potenziellen Fehlerquellen auch einfach mit "profanen" Screenshots belegen lassen...
Hat bei den AF und AA Vergleichen, was das gleiche in Grün ist, seinerzeit (als es noch der heiße shize war) ja auch immer problemlos funktioniert. ;)

Der fertige Framebuffer wird am Ende schließlich bei ner SDR Kette einfach nur auf den Monitor übertragen der den dann einfach nur stumpf anzeigt! :freak:
Um dort evtl. vorhandene Unterschiede zu belegen muss man nix abfilmen.


Sehe ich auch so. Wenn es bei Photos oder Filmen des Monitors Unterschiede gibt, dann durch Änderungen am Setup. Oder kann ein Monitorprofil des Betriebssystems Änderungen bewirken? Ich dachte eigentlich, dass die nicht bei 3D-Anwendungen aktiv sind.

aufkrawall
2018-11-29, 17:33:40
Auch das ist möglich. Einige Spiele überschreiben das System-Gamma, andere nicht.

Savay
2018-11-29, 17:35:38
Photoshop ist ja mittlerweile unter der Haube eigentlich 3D...wie auch der Desktop generell (Aero ahoi)...mir ist aber irgendwie bisher kein Spiel bekannt das für SDR tatsächlich auf ein Farbmanagement zugreift und anhand irgendwelcher Profile die Primärfarben ändert.
Da wird afair doch für SDR normalerweise "stumpf" als Rendertarget normales sRGB angenommen!?

Wenn es anders wäre, müsste man das ja sowieso auch einfach mit manipulierten Profilen nachweisen können.
Ich hatte für einen alten Monitor bspw. öfter und immer mal wieder ein defektes Profil im Farbmanagement, weil Windows das immer von alleine "geupdatet" hat...das hat dann auch immer bestimmte Managementfähige Anwendungen zerschossen (wie LR und PS und manche Browser...das Weiß wurde dort dann immer schön auffällig Pissgelb :freak:) das hat aber grade in Spielen überhaupt keinen Unterschied gemacht!

Einige Spiele überschreiben das System-Gamma, andere nicht.

Tun sie das wirklich?!
Ich dachte bisher Ingame Gammaeinstellungen usw. sind quasi immer nur interne Multiplikatoren die beim Rendering berücksichtigt werden... :confused:

uweskw
2018-11-29, 17:51:12
omg, die NV trolle hier wieder... es ist halt fakt dass das bild mit der NV karte bei gewissen games etwas matschig/geblurt wirkt, wärend es bei der AMD karte gestochen scharf rüber kommt, punkt............




Das ist mir auch aufgefallen als ich von AMD auf meine 980Ti umgestiegen bin und hunderten anderen Usern auch. War deutlich sichtbar. Aber ich habe mittlerweile auch gelesen, dass es an einer Einstellung im NV-Treiber liegt. Da ist irgendwo ein "Farbraum" per default eingeschränkt und sollte umgestellt werden.

Aber schade, dass sich kein Fachmagazin da mal ranmacht und da gründlich und ergebnisoffen testet.


greetz
US

pilzsammler2002
2018-11-29, 17:54:07
Das ist mir auch aufgefallen als ich von AMD auf meine 980Ti umgestiegen bin und hunderten anderen Usern auch. War deutlich sichtbar. Aber ich habe mittlerweile auch gelesen, dass es an einer Einstellung im NV-Treiber liegt. Da ist irgendwo ein "Farbraum" per default eingeschränkt und sollte umgestellt werden.
Aber nur wenn man per HDMI an nem TV/Monitor hängt soweit ich weiss :biggrin:

aufkrawall
2018-11-29, 17:56:27
Tun sie das wirklich?!

Ja. Im exklusiven Vollbildmodus hat die Anwendung die Macht, sämtliche Farbanpassungen durch ICC-Profile etc. zu deaktivieren. Manche machen es, manche nicht.
Kann man z.B. ganz einfach mit dem Nachtmodus testen.

Savay
2018-11-29, 17:57:16
Das mit dem Weiß und Schwarzpegel ist ja ein eeeeeeeeeeeeewig alter Hut das der nV Treiber da gerne mal seltsame Voreinstellungen wählt...und lässt sich eh mit einem Click belegen. (Einach im CP auf 0-255 stellen und gut ist!)

Wobei ich bei den nV Karten eigentlich immer nur beim TV Ausgang oder der HDMI Ausgabe darüber gestolpert bin das dort dauernd von "alleine" eingeschränkt wird!
Wobei das afair meist eh mit YCbCr Einstellung statt "regulärem" RGB einher geht.

Über reguläres DVI und DP ist mir auch noch nie aufgefallen das dort von sich aus 16-235 aktiv wird.

Ja. Im exklusiven Vollbildmodus hat die Anwendung die Macht, sämtliche Farbanpassungen durch ICC-Profile etc. zu deaktivieren.

Achsooo...du meinst das eine evtl. vorhandene Software Kalibrierung von der einen Anwendung umgangen wird und von der anderen vielleicht nicht...

Ja...gut möglich bzw. sogar nicht unwahrscheinlich...wobei ich solche Tests grundsätzlich ohne derartiges Software Profil fahren würde...gibt ja zum Teil potenziell eh unschönes Banding und Farbverläufe werden z.T. massiv schlechter!
Für einen echten "BQ" Vergleich taugt das so IMHO nix und es verfälscht am Ende auch das Fazit...wenn dann mit nem Hardwarekalibrierten Display mit ordentlicher LUT und nem "nackten" Profil in Windows!

Das erklärt aber eh nicht wieso ein und die selbe Anwendung sich mal so und mal so verhalten sollte...und das nur weil die Grafikkarte eine andere ist. ;)
Kann natürlich auch sein, das beim einen Setup ein scharfes Profil aktiv war und beim anderen Setup das Farbmanagement einfach "nackt" war...das Spiel das eben nicht ignoriert und die (Farb-)Unterschiede dann einfach daher kommen.

uweskw
2018-11-29, 17:59:52
Aber nur wenn man per HDMI an nem TV/Monitor hängt soweit ich weiss :biggrin:


Ne, bei mir war der Monitor damals noch via DIV-Steinzeit angeschlossen.

Stretcher
2018-11-29, 18:10:51
Und bei Forza sieht man doch das bei NV etwas am blinken war.

In Forza sieht das Bild bei Nvidia ziemlich blurry aus, da hatte er eine Kantenglättung angeschaltet,die bei AMD fehlt.
MLAA vs FXAA?

Nunja, mal zum Generellen:

Wieso filmt man die Bildschirme mit Cameras ab und erstellt nicht einfach einen Screenshot frei von Effekten des Kamerawinkels?
Rein von der Methodik her, ist das schon mal ein Griff in die Toilette.

Wie Tesseract auf Seite 1 bereits schrieb, ist das nicht vertrauenswürdig.
Das bedeutet aber nicht dass die üblichen Verdächtigen das nicht überprüfen sollten, alleine schon den Verschwörungstheoretikern in diesem Thread den Wind aus den Segeln zu nehmen, würde sich lohnen.

Würde Nvidia hier schlechter Filtern, wäre das längst bereits den vielen reviewern aufgefallen.

unl34shed
2018-11-29, 18:17:51
Würde Nvidia hier schlechter Filtern, wäre das längst bereits den vielen reviewern aufgefallen.

Ist bei AoTS auch erst aufgefallen, als im MultiGPU mode die Texturen angefangen haben zu flackern und selbst dann ging man von einem Fehler in der Implementierung von AoTS aus.

Am Ende war es doch Nvidia, die nicht richtig gerendert hatten. Soviel dazu.

E: https://youtu.be/e2CwlY4B9-A?t=390

hmmm
2018-11-29, 19:01:57
...Das bedeutet aber nicht dass die üblichen Verdächtigen das nicht überprüfen sollten, alleine schon den Verschwörungstheoretikern in diesem Thread den Wind aus den Segeln zu nehmen, würde sich lohnen.
Dann aber bitte nicht so wie bei HDR, obwohl gerade HDR hätte auffallen müssen.

Meiner Meinung nach opfert nvidia hier Bildqualität zu gunsten der Performance.

Stretcher
2018-11-30, 02:22:20
Am Ende war es doch Nvidia, die nicht richtig gerendert hatten. Soviel dazu.


Wie? Man berechnet ein Spiel auf zwei GPUs von versch. Herstellern und beschwert sich über Artefakte?:biggrin:

BiZiNiZz
2018-11-30, 03:41:54
Wie? Man berechnet ein Spiel auf zwei GPUs von versch. Herstellern und beschwert sich über Artefakte?:biggrin:

Außerdem war nachdem die AMD Karte ausgebaut/deaktiviert war alles auf der Titan in Ordnung, also wer hat dann mist gebaut? :ugly:

gravitationsfeld
2018-11-30, 04:13:10
Die Bildqualitaetsunterschiede sind heutzutage mit der Lupe zu suchen. AF ist ein bisschen unterschiedlich. MSAA ist standardisiert. Genauso die Rechengenauigkeit.

Einzelne Unterschiede sind meistens Shader-Compiler-Bugs, z.B. das Wasser in FC5 zaehlt da mit grosser Sicherheit dazu.

"Schaerfer" oder "Unschaerfer" ist wenn ueberhaupt darauf zurueckzufuehren dass einer mehr beim AF bescheisst als der andere. Das grieselt dann rum und erzeugt "Schaerfe".

JVC
2019-01-25, 13:55:01
hab mal eben einen vergleich abgeknippst: selber monitor, selbe einstellungen. eines davon ist pascal, das andere fiji. so, und jetzt erklärt mir bitte welches davon farblich besser sein soll und warum. ;D

1
https://i.imgur.com/heSi5AP.jpg

2
https://i.imgur.com/T1pGanf.jpg

So ein vergleich ist etwas schwierig weil wir alle unterschiedliche Bildschirme und Augen haben.
(möglich das auf günstigen Bildschirmen weniger Unterschied sichtbar ist als auf teuren/kalibrierten)
(Farbenblindheit z.b. gibt es auch in ganz geringer Ausprägung,
ebenso unterscheidet sich auch die Lichtempfindlichkeit von Mensch zu Mensch)

Auch sind beide Bilder nicht exakt gleich aufgenommen.
Beim zweiten Bild schein die Kamera nen hauch näher zu stehen,
was den Vergleich erschwert.

Das erste Bild erscheint mir besser.

Das zweite Bild erscheint etwas blasser/schlechter,
wie wenn es speicherplatztechnisch höher komprimiert worden wäre.

Tippe mal, aufgrund der unterschiedlichen Speicherkompression,
darauf das, das erste Fiji ist und das zweite Pascal.
( Bild NR. 2. ist auch 8 kb kleiner :confused: vielleicht ein Zeichen
das auch die Kamera einen unterschied erkennt ?)


m.f.g. JVC

p.s.: Beim Wechsel der 390X auf die 1080Ti bildete ich mir auch irgendwie ein,
das die Bildqualität eher schlechter geworden wäre.
Stempelte das aber als Gefühl ab.
(meine Bildschirme sind ja nur nach meinem optischen empfinden mit vielen Testbildern Kalibriert)
(mein IPS "säuft merklich mehr ab" in den Farben und Graustufen als mein VA,
auf dem VA ist der Unterschied der beiden Bilder sichtbarer)

Sven77
2019-01-25, 13:59:29
Tippe mal, aufgrund der unterschiedlichen Speicherkompression,

:rolleyes:

y33H@
2019-01-25, 14:03:22
Ich wollte erst was schreiben, aber nein ;(

Bellspinder
2019-01-27, 08:07:43
Gerade frisch gewechselt von ATi/AMD (seit 15 Jahren) auf Nvidia. Radeon RX 580 8GB -> GF 1070 8GB.

Ich hatte immer im Kopf, dass AMD die bessere Bildqualität hat, aber ich muss sagen ich bin völlig umgehauen von der 1070. Alles wirkt gestochen scharf, selbst der Text in Windows wirkt eine Spur knackiger. Die Texturfilterung in Spielen ist unglaublich feinauflösend, es ist fast wie SD->HD sie scheint auch in weiterer Entfernung/schrägerer Kameraperspektive einzugreifen (High Quality im Treiber aktiviert). Das Downsampling liefert das viel ruhigere angenehmere Bild mit weitaus weniger Texturflimmern ohne Schärfeverlust. Ganz normale Full HD Videos haben weniger Artefakte und zeigen mehr Details. An Codecs hab ich nix geändert. Das Einzige was die AMD von Hause aus besser konnte, waren die Farben etwas satter darzustellen, aber das war mit 2 Klicks behoben.

Ich kann das alles kaum glauben, mein ganzes Weltbild gerät ins Wanken. Die Performance ist abartig im Vergleich, vor allem die P/Watt Ratio. Ich habe die ganze Nacht gemessen. Die 1070 läuft auf 1810Mhz @862MV soweit vorläufig stabil.

Warhammer 2 Load on Campaign Map (DX11 beide):

RX 580 - 26 FPS/343 Watt Systemverbrauch
GTX 1070 - 49 FPS/258 Watt Systemverbrauch

Unigine Heaven Benchmark:

580 - 1045 Punkte
1070 - 1827 Punkte

robbitop
2019-01-27, 08:42:52
Klingt eher nach unterschiedlichen Settings (Farbprofile, Schärferegler etcpp) als Unterschied. Das DSR von Nvidia nutzt bei geraden Faktoren den simpelsten Filterkernel den es gibt (bilinear) und bei den ungeraden ist es noch ungünstiger: das mühsam hichgerechnete Bild wird mit einem Gaussfikter geblurt und anschließend wird gepointsampelt...

AF sollte heutzutage vergleichbare Ergebnisse liefern.
Farben sind bei gleichen Profilen und Settings gleich. Diskussion gabs auch im Nachbarthread.

Unterschiedliche Farben/BQ (im signifikanten Umfang) ist etwas was vor 15 Jahren vielleicht mal existierte.

Ansonsten ist es kein Wunder wenn eine Performancekarte schneller als eine Mainstreamkarte ist. ;)

Lurtz
2019-01-27, 08:45:43
Ganz normale Full HD Videos haben weniger Artefakte und zeigen mehr Details. An Codecs hab ich nix geändert.
Ok... :ugly: Pics or it didn't happen.

Bellspinder
2019-01-27, 08:50:35
AF sollte heutzutage vergleichbare Ergebnisse liefern.
Ich stelle immer auf HQ und nutze nie Morphologic oder ähnlichen Quatsch. HQ+16AF und ich schwöre dir der Boden in Warhammer 2 sieht auf der 1070 deutlich feiner aufgelöst aus als auf der 580, der war Matsch im Vergleich.


Ansonsten ist es kein Wunder wenn eine Performancekarte schneller als eine Mainstreamkarte ist. ;)
Schneller ja, das war klar aber doch nicht ~70-80% :eek: In den gängigen Benchmarks/Reviews ist sie 20-30% schneller.

Ok... :ugly: Pics or it didn't happen.
Gerade gemerkt: Youtube Videos laden schneller (quasi on-klick), buffern weniger und sehen besser (glatter/schärfer) aus. :freak:

robbitop
2019-01-27, 08:55:24
Naja die Karte mit der sie zu vergleichen wäre, wäre Vega 56. RX580 ist ja der Gegenspieler zur 1060. Die 1070 hat gut 50% mehr Rechenleistung. Unige ist ein Tess Benchmark IIRC. Die NV Karten sind schneller in Tesselation als die AMD. Da das aber bei keinem Spiel ein ernshafter Bottleneck ist, ist das nicht praxisrelevant. Wenn dann bencht man Spiele und keine synthetischen Benchmarks. Wenn man Aussagen über Spieleleistung treffen will.

Wie gesagt, weiss kein Mensch was bei dir wo wie eingestellt war. Würde es sowas geben, würde darüber einschlägig berichtet werden. Wer weiß, wass da bei der Radeon verstellt war.

Bellspinder
2019-01-27, 09:24:04
Ich hatte mit der 580 per FRAPS einen Screen gemacht. Zum Vergleich habe ich -selbes savegame- nun einen Screen mit der 1070 gemacht (auch FRAPS).
Spieleinstellungen sind identisch sowie das GemFX Reshading identisch ist. Downsampling identisch, bis auf die Tatsache, dass nvidia mit diesem DSR nachglättet. (30% glätten eingestellt)

Der Unterschied ist gewaltig. Schaut euch mal das Gebirge rechts an oder generell die Bodentexturen. Das ist nicht einfach nur oversharpend, da ist viel mehr Plastizität in den Texturen. Das Bild der 1070 wirkt von den Farben her auch kühler abgestimmt.

http://screenshotcomparison.com/comparison/128798

VfBFan
2019-01-27, 09:30:47
Was mir auf den ersten Blick auffällt ist das völlig überschärfte Bild der GTX 1070.

Bellspinder
2019-01-27, 09:33:36
Was mir auf den ersten Blick auffällt ist das völlig überschärfte Bild der GTX 1070.

Der liegt am Reshading da habe ich den Lumasharpener eingestellt. Warum? -> Weil das AMD Downsampling Bild so verwaschen war! Das 580er Bild ist mit 1,7er Lumasharpener und sieht trotzdem so unscharf aus!!

Der Lumasharpener überschärft natürlich bei der GTX 1070. Ich müsste nochmal ein Vergleichsbild ohne Lumasharpener auf der 1070 machen.

Ätznatron
2019-01-27, 09:35:16
Was mir auf den ersten Blick auffällt ist das völlig überschärfte Bild der GTX 1070.

Ja.

Und das Richtung Gebirge (Horizont) das AMD-Bild erheblich detailreicher ist.

Grendizer
2019-01-27, 09:39:21
Ja.

Und das Richtung Gebirge (Horizont) das AMD-Bild erheblich detailreicher ist.

Hmm .... ich finde das die Nebel-/Dunstdarstellung bei beiden Karten anders ist. Bei der AMD Karte wirkt es härter, stärker abgegrenzt. Bei der nVidia Karte diffuser und weicher übergehend.

Gut sichtbar am Dunst um die "Ewige Eiche"

edit -- äh andersrum .. also nVidia härte und AMD diffuser...

Ätznatron
2019-01-27, 09:43:10
Tja, also für mich wirkt das nV-Bild, was den Hintergrund angeht, deutlich matschiger, es fehlen Details, die beim AMD-Bild vorhanden sind (vorallem, wenn man sich das rechte obere Viertel anschaut).

Bellspinder
2019-01-27, 09:52:48
Neuer Vergleich diesmal mit Lumasharpen Off bei der 1070. Die Beleuchtung (Wolkenschatten ect.) ändert sich natürlich ständig, was einen Vergleich enorm erschwert.

http://screenshotcomparison.com/comparison/128799

Ätznatron
2019-01-27, 10:34:02
Die Beleuchtung (Wolkenschatten ect.) ändert sich natürlich ständig, was einen Vergleich enorm erschwert.



Das erschwert ihn nicht nur, sondern macht ihn eigentlich unmöglich.

Troyan
2019-01-27, 10:40:47
WTF ist mit der Unschärfe los?! Macht das wirklich das Downsampling bei AMD?

aufkrawall
2019-01-27, 11:19:57
Der Screenshot ohne Lumsharpen ist mit der Radeon genau so scharf wie mit der GeForce, sofern man das anhand dieses völlig ungeeigneten Beispiels überhaupt sagen kann.

Ich glaub langsam, euch könnte man auch Tintenklecks-Bilder vorführen, in denen ihr dann, je nach Bias, die vermeintlich schlechtere Bildqualität des anderen Herstellers seht. ;D

hmmm
2019-01-27, 11:34:02
WTF ist mit dem Forum los?
"Unschärfe" Vergleich bei VSR/DSR mit einem Screenshot?
BQ Vergleich zweier GKarten mit ReShade? Und dazu offensichtlich noch unterschiedliche Einstellungen?

@Bellspinder
Du versaust dir die BQ mit deinen ReShade Einstellungen. Wenn du es so als besser empfindest, dann scheinst du dir den Blick für BQ schon verdorben zu haben. :)
Und bitte keine BQ Vergleiche mehr von 2 Karten mit ReSchade.

SKYNET
2019-01-27, 15:28:49
Gerade frisch gewechselt von ATi/AMD (seit 15 Jahren) auf Nvidia. Radeon RX 580 8GB -> GF 1070 8GB.

Ich hatte immer im Kopf, dass AMD die bessere Bildqualität hat, aber ich muss sagen ich bin völlig umgehauen von der 1070. Alles wirkt gestochen scharf, selbst der Text in Windows wirkt eine Spur knackiger. Die Texturfilterung in Spielen ist unglaublich feinauflösend, es ist fast wie SD->HD sie scheint auch in weiterer Entfernung/schrägerer Kameraperspektive einzugreifen (High Quality im Treiber aktiviert). Das Downsampling liefert das viel ruhigere angenehmere Bild mit weitaus weniger Texturflimmern ohne Schärfeverlust. Ganz normale Full HD Videos haben weniger Artefakte und zeigen mehr Details. An Codecs hab ich nix geändert. Das Einzige was die AMD von Hause aus besser konnte, waren die Farben etwas satter darzustellen, aber das war mit 2 Klicks behoben.

Ich kann das alles kaum glauben, mein ganzes Weltbild gerät ins Wanken. Die Performance ist abartig im Vergleich, vor allem die P/Watt Ratio. Ich habe die ganze Nacht gemessen. Die 1070 läuft auf 1810Mhz @862MV soweit vorläufig stabil.

Warhammer 2 Load on Campaign Map (DX11 beide):

RX 580 - 26 FPS/343 Watt Systemverbrauch
GTX 1070 - 49 FPS/258 Watt Systemverbrauch

Unigine Heaven Benchmark:

580 - 1045 Punkte
1070 - 1827 Punkte

152W für meine RX580 und 1445 in heaven... :wink:

Bellspinder
2019-01-27, 19:37:29
152W für meine RX580 und 1445 in heaven... :wink:

Über 1100 nochwas bin ich mit OC nie hinaus gekommen bei der 580 und ich hatte die Nitro+ Special Edition auf 1480 Mhz Chip und 9G Speicher laufen.
Evtl. tut Ryzen den AMDs gut.


WTF ist mit dem Forum los?
"Unschärfe" Vergleich bei VSR/DSR mit einem Screenshot?
BQ Vergleich zweier GKarten mit ReShade? Und dazu offensichtlich noch unterschiedliche Einstellungen?
Natürlich ist das nicht wirklich vergleichbar. Es sollte auch kein objektiver Test werden, sondern blos eine persönliche Beobachtung.


@Bellspinder
Du versaust dir die BQ mit deinen ReShade Einstellungen. Wenn du es so als besser empfindest, dann scheinst du dir den Blick für BQ schon verdorben zu haben.
Und bitte keine BQ Vergleiche mehr von 2 Karten mit ReSchade.

Der Witz ist, dass dieses total überschärfte Bild auf der Nvidia trotzdem nicht flimmert. Das blurry Bild auf der 580 dagegen schon. Das sieht man natürlich nur in Bewegung nicht auf Screens. Ich habe es jetzt aber auch runtergeregelt und nutze die Scharfzeichenfunktion ingame.

Daredevil
2019-01-27, 19:48:37
Ich habe noch nie einen Unterschied zwischen den beiden gesehen und ich wechsel seit kurzer Zeit ziemlich oft die Karte. Selbstverständlich habe ich auch noch nie zwei Bilder gegeneinander verglichen, aber solange es mir nicht ins Auge sticht, ist es mir auch egal.

HD6850 > R9 390 > 980ti > 1080 > Vega 56 > 1080ti > 1060 > Vega 64 > 2080ti

SKYNET
2019-01-27, 19:50:25
Über 1100 nochwas bin ich mit OC nie hinaus gekommen bei der 580 und ich hatte die Nitro+ Special Edition auf 1480 Mhz Chip und 9G Speicher laufen.
Evtl. tut Ryzen den AMDs gut.


Natürlich ist das nicht wirklich vergleichbar. Es sollte auch kein objektiver Test werden, sondern blos eine persönliche Beobachtung.



Der Witz ist, dass dieses total überschärfte Bild auf der Nvidia trotzdem nicht flimmert. Das blurry Bild auf der 580 dagegen schon. Das sieht man natürlich nur in Bewegung nicht auf Screens. Ich habe es jetzt aber auch runtergeregelt und nutze die Scharfzeichenfunktion ingame.


was für ne CPU hast den drinnen? der 1500X lief mit 4100MHz AC und 3200 C16 speicher. :)die RX580 mit 1400/4500... lasse nachher nochmal mit anderen speicher(samsung e-die anstelle hynix mfr und mit dem zuletzt ausgeloteten speichertakt der RX580 laufen)... will die 1600 knacken ;D

Bellspinder
2019-01-27, 20:14:34
was für ne CPU hast den drinnen? der 1500X lief mit 4100MHz AC und 3200 C16 speicher. :)die RX580 mit 1400/4500... lasse nachher nochmal mit anderen speicher(samsung e-die anstelle hynix mfr und mit dem zuletzt ausgeloteten speichertakt der RX580 laufen)... will die 1600 knacken ;D

I5 4670k @4,2Ghz mit 16GB DDR3-1866er (8-8-15) und Win7. Ich komme mit der 1070 und leichtem OC auf 1810Mhz auf 4320 Punkte im Fire Strike Ultra Benchmark. Laut Bench-Tabelle wohl ein ziemlich guter Wert, vergleichbar mit weit moderneren I7 Prozessoren. Vermute mittlerweile das irgendein latentes Treiber Problem meine 580 ausgebremst hat. Ich hatte vorher eine R9 280x drinnen und hatte nur ein TreiberClean mit dem AMD Driver Remove Tool gemacht und nicht dieses Tool von Guru3D benutzt, was wohl noch tiefer eingreift und besser säubert.

Es kann jedenfalls nicht sein das ich 70-80% Mehrleistung mit der 1070 habe auf meinem System. So schlecht kommt die 580 in keinem Test weg den ich je gelesen habe.

edit: Meine Benchs in dem Unigine Heaven (580:1120 / 1070:1827) sind allerdings auch mit 1440p und MSAA 4x gemacht worden. Mich würde dein Wert mit diesen Einstellungen mal interessieren. (Tesselsation normal/Quality Ultra)

Ich habe noch nie einen Unterschied zwischen den beiden gesehen und ich wechsel seit kurzer Zeit ziemlich oft die Karte. Selbstverständlich habe ich auch noch nie zwei Bilder gegeneinander verglichen, aber solange es mir nicht ins Auge sticht, ist es mir auch egal.

HD6850 > R9 390 > 980ti > 1080 > Vega 56 > 1080ti > 1060 > Vega 64 > 2080ti

Danke für die glaubwürdige Info. Ich lese Hardware Posts von dir immer gerne, weil du ein Bastelfuchs und Optimierer bist. :up: Die Vegas sollen gerüchtenzufolge die beste Bildqualität haben (AF) ist dir da was aufgefallen?

y33H@
2019-01-27, 20:58:50
Können wir hier bitte dich machen?

Ich hatte immer im Kopf, dass AMD die bessere Bildqualität hat, aber ich muss sagen ich bin völlig umgehauen von der 1070. Alles wirkt gestochen scharf, selbst der Text in Windows wirkt eine Spur knackiger. Die Texturfilterung in Spielen ist unglaublich feinauflösend, es ist fast wie SD->HD sie scheint auch in weiterer Entfernung/schrägerer Kameraperspektive einzugreifen (High Quality im Treiber aktiviert). Das Downsampling liefert das viel ruhigere angenehmere Bild mit weitaus weniger Texturflimmern ohne Schärfeverlust. Ganz normale Full HD Videos haben weniger Artefakte und zeigen mehr Details. An Codecs hab ich nix geändert. Das Einzige was die AMD von Hause aus besser konnte, waren die Farben etwas satter darzustellen, aber das war mit 2 Klicks behoben.*seufz*

hmmm
2019-01-27, 21:06:33
Natürlich ist das nicht wirklich vergleichbar. Es sollte auch kein objektiver Test werden, sondern blos eine persönliche Beobachtung.

Der Witz ist, dass dieses total überschärfte Bild auf der Nvidia trotzdem nicht flimmert. Das blurry Bild auf der 580 dagegen schon. Das sieht man natürlich nur in Bewegung nicht auf Screens. Ich habe es jetzt aber auch runtergeregelt und nutze die Scharfzeichenfunktion ingame.
Nein der eigentlicher Witz ist, das jeder mit ReShade die BQ so verhunzen kann um dann in Foren KarteXYZ als sooo super hinstellt. Sorry dieser "vergleich" ist nicht nur wie du sagst nicht Objektiv, er ist schlicht stuss und verschwendete Zeit der Forenmitleser.
Du hättest vielleicht mal DX12 probieren sollen und dich an der konkurrenzlos niedrigen InputLatenz bei AMD ergötzen können, statt hier ein pseudo BQ Vergleich vorzuspielen.

Und natürlich ist in dem Titel Nvidia, zumindest mit FPS, besser aufgestellt. Verstehe deine _meiner Meinung nach_ gespielte verwunderung darüber nicht.

SKYNET
2019-01-27, 21:38:47
I5 4670k @4,2Ghz mit 16GB DDR3-1866er (8-8-15) und Win7. Ich komme mit der 1070 und leichtem OC auf 1810Mhz auf 4320 Punkte im Fire Strike Ultra Benchmark. Laut Bench-Tabelle wohl ein ziemlich guter Wert, vergleichbar mit weit moderneren I7 Prozessoren. Vermute mittlerweile das irgendein latentes Treiber Problem meine 580 ausgebremst hat. Ich hatte vorher eine R9 280x drinnen und hatte nur ein TreiberClean mit dem AMD Driver Remove Tool gemacht und nicht dieses Tool von Guru3D benutzt, was wohl noch tiefer eingreift und besser säubert.

Es kann jedenfalls nicht sein das ich 70-80% Mehrleistung mit der 1070 habe auf meinem System. So schlecht kommt die 580 in keinem Test weg den ich je gelesen habe.

edit: Meine Benchs in dem Unigine Heaven (580:1120 / 1070:1827) sind allerdings auch mit 1440p und MSAA 4x gemacht worden. Mich würde dein Wert mit diesen Einstellungen mal interessieren. (Tesselsation normal/Quality Ultra)



Danke für die glaubwürdige Info. Ich lese Hardware Posts von dir immer gerne, weil du ein Bastelfuchs und Optimierer bist. :up: Die Vegas sollen gerüchtenzufolge die beste Bildqualität haben (AF) ist dir da was aufgefallen?


genaue einstellungen? ich hatte 1080p extreme am laufen...

Bellspinder
2019-01-27, 22:31:30
Weiß jemand welche Vsync Einstellungen man bei nvidia am besten vornimmt, wenn man keinen Gsync/Freesync, sondern normalen 60hz Monitor hat?

"Ein/aus" "Schnell" oder "adaptiv"? Blicke da nicht ganz durch.

aufkrawall
2019-01-27, 22:34:01
Themenbezug?

hq-hq
2019-01-27, 22:50:29
schnell bei shooter

adaptiv bei anderen spielen wo es sich nicht ganz so direkt anfühlen muss, unter 60 fps kann es dafür zu tearing kommen

hab auch noch 60hz... :frown:

Daredevil
2019-01-28, 00:28:24
Danke für die glaubwürdige Info. Ich lese Hardware Posts von dir immer gerne, weil du ein Bastelfuchs und Optimierer bist. :up: Die Vegas sollen gerüchtenzufolge die beste Bildqualität haben (AF) ist dir da was aufgefallen?
Ne, wie gesagt, mir ist nichts aufgefallen.
Allerdings bin ich jetzt auch nicht der maximale Bildqualitäts-Fetischist.
Ich merke wohl durchaus, wenn ich Kantenflimmern habe, oder wenn sich irgendwo Texturen aufbauen bzw. Objekte irgendwo rein reinploppen, aber fürs feine Auge bist du bei mir an der falschen Stelle. :D

Ich bin ja jetzt von Vega auf RTX gewechselt und sehe in BFV nichts anderes, außer das sich nun Explosionen auf jedem Metallschild in der Häuserschlucht abbilden. Das ist in der Tat durch RT neu und lenkt mich regelmäßig ab, weil ich das so nicht kenne.
Ich würde aufgrund dessen eher behaupten, dass RT ein Thema ist, welches bei Nvidia von der Bildqualität her einen großen Unterschied macht.
Man bemerkt RT sicherlich nicht unbedingt, wenn man von non-RT auf RT wechselt.
Wenn man aber Raytracing eine Zeit lang hatte, wird einem vielleicht diese fade Dynamik bei Explosionen fehlen, die man halt ohne hat.

SKYNET
2019-01-28, 01:06:51
Weiß jemand welche Vsync Einstellungen man bei nvidia am besten vornimmt, wenn man keinen Gsync/Freesync, sondern normalen 60hz Monitor hat?

"Ein/aus" "Schnell" oder "adaptiv"? Blicke da nicht ganz durch.


habe einfach "an"... bisher kam meine 1080Ti noch nie in verlegenheit unter 60fps zu fallen...

ansonsten adaptiv

Langlay
2019-01-28, 01:39:10
Ich bin ja jetzt von Vega auf RTX gewechselt und sehe in BFV nichts anderes, außer das sich nun Explosionen auf jedem Metallschild in der Häuserschlucht abbilden. Das ist in der Tat durch RT neu und lenkt mich regelmäßig ab, weil ich das so nicht kenne.
Ich würde aufgrund dessen eher behaupten, dass RT ein Thema ist, welches bei Nvidia von der Bildqualität her einen großen Unterschied macht.
Man bemerkt RT sicherlich nicht unbedingt, wenn man von non-RT auf RT wechselt.
Wenn man aber Raytracing eine Zeit lang hatte, wird einem vielleicht diese fade Dynamik bei Explosionen fehlen, die man halt ohne hat.


Das ist doch ein Äpfel & Birnen Vergleich. Mit Bildqualität ist die objektive Bewertung des ausgegeben Bildes gemeint. Wenn sich die Grundbilder unterscheiden kann man sie nicht vergleichen.

Bellspinder
2019-01-28, 02:13:16
Ich hab jetzt mehrere Spiele, die ich in und auswendig kenne und hunderte Std. gespielt habe durch. Es gibt definitiv Unterschiede in der Renderqualität.

Generell ist die Texturfilterung auf der 1070 gestochen scharf und wirkt in viel größerer Entfernung als ich es auf der Rx 580 je wahrgenommen habe. In Mount&Blade auf einer Wüstenmap sehe ich die Zeichnung des Sandes sehr detailliert und das in großer Entfernung, bei der 580 war in der Ferne nur gelber Matsch zu sehen. Leider habe ich dafür nun an einem Gebäude flackernde LOD-Schatten, die waren auf der 580 perfekt. Ebenso bei Transport Fever, die Texturen der Häuser sind supercrisp selbst auf weite Entfernung vematschen die Dächer nicht. Das hat wiederrum den Nachteil, dass bei stark komprimierten Texturen evtl. Kompressionsartefakte deutlicher sichtbar werden, allgemein finde ich Bild aber als angenehmer weil glatter und schärfer. Auch Videos, selbst auf youtube wirken "mehr nach HD" also einen Tick schärfer gezeichnet, wieder mit dem Nachteil, dass Artefakte bei stark komrimierten Videos evtl. mehr herausstechen. Das Bild war ohne jeden Zweifel weicher auf der RX 580, die Texturfilterung hat in allen Spielen erst auf weit kürzere Distanz eingegriffen und weniger crisp aufgelöst. (AF16x war prinzipiell immer sowohl treiberseitig on, als auch ingame)

dargo
2019-01-28, 02:27:54
Bezüglich Texturfilterung. Checke mal ob die Applikation auch tatsächlich 16x filtert. Bei AMD kann der Treiber kein AF aufzwingen @DX11/12. Wenn ein Game also max. mit 4x filtert wird es in der Ferne entsprechend "matschiger".

Das Bild war ohne jeden Zweifel weicher auf der RX 580, die Texturfilterung hat in allen Spielen erst auf weit kürzere Distanz eingegriffen und weniger crisp aufgelöst. (AF16x war prinzipiell immer sowohl treiberseitig on, als auch ingame)
Das ist schon mal generell falsch. Treiber "applikation controlled" und dann Ingame AF wählen. Ich bin mir jetzt nicht sicher ob beides "On" die Bildqualität negativ beeinflusst. Weiß aber aus eigener Erfahrung, dass es einzelne Games gab wo die Performance leidete.

Bellspinder
2019-01-28, 02:36:10
Das ist schon mal generell falsch. Treiber "applikation controlled" und dann Ingame AF wählen. Ich bin mir jetzt nicht sicher ob beides "On" die Bildqualität negativ beeinflusst. Weiß aber aus eigener Erfahrung, dass es einzelne Games gab wo die Performance leidete.

Ich habe früher oft die Erfahrung gemacht, dass AF über den Treiber ein besseres Ergebnis geliefert hat, als AF übers Game. Ist ein interessanter Punkt. Muss das mal testen.

Daredevil
2019-01-28, 03:26:05
Das ist doch ein Äpfel & Birnen Vergleich. Mit Bildqualität ist die objektive Bewertung des ausgegeben Bildes gemeint. Wenn sich die Grundbilder unterscheiden kann man sie nicht vergleichen.
Ich weiß, worauf du hinaus willst, aber trotzdem bin ich mir da nicht so sicher.
Bildqualität bedeutet für mich die visuelle Wahrnehmung des Bildes beim Spielen oder ähnlichem.

Wenn ich die Bildgenauigkeit prüfen möchte, lege ich zwei Bilder nebeneinander und schaue mir die Unterschiede an.
Wenn ich mir eine Liste gemacht habe, entscheide ich dann subjektiv, was mir am besten gefällt. Es gibt nur einen, der genau weiß, wie ein Bild aussehen soll.... der Entwickler. Du kannst anhand von Vergleichsbilder nicht rausfinden, was "genauer" ist, weil du nicht weißt, wie es sein soll.

Wenn man aber bei Bild 1 die Möglichkeit hat, die subjektive Qualität höher zu stellen als bei Bild 2, dann bedeutet das für mich, dass ich so die Qualität höher drehen kann.
Wenn es dann noch im besten Fall ein Äpfel und Birnen Vergleich ist, kann man sogar für sich sagen "okay, ich find xyz besser", wenn exklusive Funktionen vorhanden sind.

Truform verbesserte früher für mich die Bildqualität, mal als Beispiel:
http://www.pc-erfahrung.de/fileadmin/Grafikchips/Truform_Beispiel.jpg

Natürlich kann man nun Nvidia und ATI vergleichen und nur die linke Version ohne Truform nehmen, das wäre dann für mich ein Vergleich der Bildobjektivität.
Man kann aber auch sagen "Okay, hau raus was geht", dann wäre das linke Bild von Nvidia und das rechte von ATI, weil es ein exklusives Feature war, welches das Bild verbessert hat.

Welches von den beiden Bildern hat für dich also nun die bessere Grafikqualität Ingame und welches würdest du hübscher finden?
Das links, oder das rechts?

Langlay
2019-01-28, 03:38:04
Natürlich kann man nun Nvidia und ATI vergleichen und nur die linke Version ohne Truform nehmen, das wäre dann für mich ein Vergleich der Bildobjektivität.
Man kann aber auch sagen "Okay, hau raus was geht", dann wäre das linke Bild von Nvidia und das rechte von ATI, weil es ein exklusives Feature war, welches das Bild verbessert hat.

Welches von den beiden Bildern hat für dich also nun die bessere Grafikqualität Ingame und welches würdest du hübscher finden?
Das links, oder das rechts?


Für mich sind das 2 verschiedene Paar Schuhe. Grafikqualität und Bildqualität.

Wenn ich mit einer 10000€ Profikamera ein Bild von einer Frau im Bikini mache und mit einem 10 Jahre alten Smartphone das gleiche Bild von der Frau nur ohne Bikini mache. Wird mir sicherlich das Handybild besser gefallen. Das heisst aber nicht, dass das 10 Jahre alte Smartphone bessere Bilder macht als die 10k Profikamera.

Daredevil
2019-01-28, 03:56:47
Der Wegfall des Bikinis ändert halt das Motiv, das zuschalten von Bild-Verbesserungen- interpretiert die selben Informationen neu, im besten Fall besser.

Langlay
2019-01-28, 04:06:20
Der Wegfall des Bikinis ändert halt das Motiv, das zuschalten von Bild-Verbesserungen- interpretiert die selben Informationen neu, im besten Fall besser.


Ich bin ja jetzt von Vega auf RTX gewechselt und sehe in BFV nichts anderes, außer das sich nun Explosionen auf jedem Metallschild in der Häuserschlucht abbilden. Das ist in der Tat durch RT neu und lenkt mich regelmäßig ab, weil ich das so nicht kenne.


RT ist aber keine Bildverbesserung sondern eine Grafikverbesserung. Und das Bild mit RT enthält nicht die gleichen "Informationen" als das Bild ohne RT.

uweskw
2019-01-28, 06:01:12
Ich denke was die meisten Anwender interessiert ist die subjektive Bildqualität die bei Ihnen ankommt. Wie gut gefällt mir was ich auf dem Monitor sehe?
Jetzt ist es meiner Meinung nach an den Profis einen Weg herauszufinden wie man so etwas messbar macht . Ob das jetzt Bildqualität oder Grafikqualität oder was weiß ich was ist, spielt weniger eine Rolle als das Ergebnis.
Und wenn so viele User so unterschiedliche Erfahrungen haben und ist tatsächlich an Einstellungsfehler liegen sollte, dann wäre es doch sehr gut mal einen tut herauszubringen was der DAU da wohl falsch gemacht hat.
Diskussionsbedarf ist auf alle Fälle da.
Greetz
US

Daredevil
2019-01-28, 06:12:26
RT ist aber keine Bildverbesserung sondern eine Grafikverbesserung. Und das Bild mit RT enthält nicht die gleichen "Informationen" als das Bild ohne RT.
Die Quelle ist halt die gleiche, sie wird nur anders bearbeitet von der jeweiligen Grafikkarte.
Ob Karte1 nun einen scheiß AF Filter hat und Karte2 einen großartigen, ist aufm Platz nichts anderes als eine nicht vorhandene Spiegelung ( Da RT nicht unterstützt ) anstatt einer vorhandenen.

Wir beißen uns da denke ich mit Bild- und Grafikverbesserung.
Für mich macht diese Unterscheidung keinen großen Unterschied, außer das ich halt eines geiler finde als das andere.

Und ja, die Quelle mit RT würde auf einem Standbild mehr Informationen über die Szene enthalten als eine ohne. Deswegen wäre es für mich das hübschere Bild.
Da kann man sich sicherlich Seitenlang drüber streiten. :D

Selbst wenn Quelle1 maximal 16x AF anbietet und Quelle2 128x AF immer anbietet, schaltet man doch nicht zum Vergleich auf die Rückständige Quelle runter. 128x AF wäre in dem Fall technisch besser und somit vermutlich auch optisch. So kann man eine Entscheidung treffen, welches in dem Moment besser sein wird.

MikePayne
2019-01-28, 06:39:22
Die Quelle ist halt die gleiche, sie wird nur anders bearbeitet von der jeweiligen Grafikkarte.
Ob Karte1 nun einen scheiß AF Filter hat und Karte2 einen großartigen, ist aufm Platz nichts anderes als eine nicht vorhandene Spiegelung ( Da RT nicht unterstützt ) anstatt einer vorhandenen.

Wir beißen uns da denke ich mit Bild- und Grafikverbesserung.
Für mich macht diese Unterscheidung keinen großen Unterschied, außer das ich halt eines geiler finde als das andere.

Und ja, die Quelle mit RT würde auf einem Standbild mehr Informationen über die Szene enthalten als eine ohne. Deswegen wäre es für mich das hübschere Bild.
Da kann man sich sicherlich Seitenlang drüber streiten. :D

Selbst wenn Quelle1 maximal 16x AF anbietet und Quelle2 128x AF immer anbietet, schaltet man doch nicht zum Vergleich auf die Rückständige Quelle runter. 128x AF wäre in dem Fall technisch besser und somit vermutlich auch optisch. So kann man eine Entscheidung treffen, welches in dem Moment besser sein wird.

Schön das du persönliche Präferenzen hast, aber Bilder mit verschiedenen Inhalt sind schwer vergleichbar, da hat Langlay völlig recht.
Hier ging es um die Signalqualität der Karten, Texturfilterung & Downsampling - nicht um fancy RT Effekte, zumal du selbst keine gravierenden Unterschiede der Bildqualität vorher festgestellt hast.

aufkrawall
2019-01-28, 06:49:27
Bezüglich Texturfilterung. Checke mal ob die Applikation auch tatsächlich 16x filtert. Bei AMD kann der Treiber kein AF aufzwingen @DX11/12.
Natürlich geht das mit DX11 noch.

Ohne Vergleichsscreesnshots mit gleicher Kameraperspektive, ist dieser Thread nur Zeitverschwendung..

hmmm
2019-01-28, 07:01:27
Die Quelle ist halt die gleiche, sie wird nur anders bearbeitet von der jeweiligen Grafikkarte.
Ob Karte1 nun einen scheiß AF Filter hat und Karte2 einen großartigen, ist aufm Platz nichts anderes als eine nicht vorhandene Spiegelung ( Da RT nicht unterstützt ) anstatt einer vorhandenen.

Wir beißen uns da denke ich mit Bild- und Grafikverbesserung.
Für mich macht diese Unterscheidung keinen großen Unterschied, außer das ich halt eines geiler finde als das andere.

Und ja, die Quelle mit RT würde auf einem Standbild mehr Informationen über die Szene enthalten als eine ohne. Deswegen wäre es für mich das hübschere Bild.
Da kann man sich sicherlich Seitenlang drüber streiten. :D

Selbst wenn Quelle1 maximal 16x AF anbietet und Quelle2 128x AF immer anbietet, schaltet man doch nicht zum Vergleich auf die Rückständige Quelle runter. 128x AF wäre in dem Fall technisch besser und somit vermutlich auch optisch. So kann man eine Entscheidung treffen, welches in dem Moment besser sein wird.
Es gibt auch Leute die klassische Musik mit einem DSP subjektiv "aufwerten", das Ergebnis hat dann aber nichts mehr von dem was es mal war. Diese Leute wissen schlicht nicht mehr wie sich zb eine Trompete wirklich anhört. Deswegen taugt so etwas eben nicht für einen Vergleich. Ob man es nun subjektive besser findet oder nicht spielt doch letztlich keine Rolle, denn die Trompete hört sich schlicht falsch an.

Daredevil
2019-01-28, 08:09:19
Schön das du persönliche Präferenzen hast, aber Bilder mit verschiedenen Inhalt sind schwer vergleichbar, da hat Langlay völlig recht.
Hier ging es um die Signalqualität der Karten, Texturfilterung & Downsampling - nicht um fancy RT Effekte, zumal du selbst keine gravierenden Unterschiede der Bildqualität vorher festgestellt hast.
RT ist kein Effekt, RT ist eine andere Methode um Licht zu berechnen, um eine korrekte Lichtstimmung herzustellen.

Wenn man die Signalqualität vergleichen will, nimmt man die Daten RAW und nicht durch Texturfilterung verändert, gleiches gilt bei Downsampling.

Was bewerten wir denn nun? Das Bildsignal? Wie jeweilige Karte mit xyz Filter umgeht? Wie sie Down oder Upsampled? Oder sollten wir nicht bewerten, was hinterher auf dem Bildschirm ist, so wie wir spielen?
Das bedeutet im übrigen auch, dass wir keine Standbilder spielen, sondern Bewegtbilder.

Bildqualität besteht halt nicht nur aus nackten Texturen, sondern um alles, was man darum beeinflussen kann. Das muss es ja auch, sonst könnte man es wohl kaum bewerten.
Zumal du dir nie sicher sein kannst, was denn nun falsch oder richtig ist.

Das Wasser auf den Seiten vorher hier.
Einmal ist es blau, einmal ist es grünlich. Wer macht es nun richtig, wer macht es falsch?
Da musst du den Entwickler fragen, welche Intention er hatte beim erstellen dieser Szene und selbst die könnte vielleicht nicht deine optisch deinem Anspruch genügen. Also könnte ein für dich "besser" eben auch ein "schlecht" sein.

Bellspinder
2019-01-28, 08:26:15
"Dolby Vision für Games". Als next big thing nach RT vermarktet. Sowohl Amd als auch Nvidia werden sich darum reißen das bekannte Dolby Logo auf ihre Verpackungen zu printen. :wink:

hmmm
2019-01-28, 09:15:33
@Bellspinder
Das du von BQ keine Ahnung hast, hast du ja schon mit dem desaströsen "Vergleich" gezeigt. Dein "aufgewertetes" Bild auf der gtx1070 Verpackung wäre schlicht anti Werbung.

Bellspinder
2019-01-28, 17:22:27
@Bellspinder
Das du von BQ keine Ahnung hast, hast du ja schon mit dem desaströsen "Vergleich" gezeigt. Dein "aufgewertetes" Bild auf der gtx1070 Verpackung wäre schlicht anti Werbung.
Du magst mich oder? Ich hab noch ne Burosch Testbild-DVD hier rumliegen, die können wir uns reinschieben und dann kalibrieren wir die gesamte Farbpalette durch. :naughty:

Ich bin ja jetzt von Vega auf RTX gewechselt und sehe in BFV nichts anderes, außer das sich nun Explosionen auf jedem Metallschild in der Häuserschlucht abbilden. Das ist in der Tat durch RT neu und lenkt mich regelmäßig ab, weil ich das so nicht kenne.


Es gab doch in uralten Spielen bereits solche Mirror-Texturen, reflection maps oder ähnliches, die z.B. einen Badezimmerspiegel simulieren, in dem sich sowohl Spielfiguren als auch Effekte reflektieren. Im Prinzip könnte man doch die Metallschilder in dieser Häuserschlucht in Battlefield mit so einer reflection map überziehen und irgendwie mit den Partikelemittern verknüpfen und hätte eine art "fake-RT". Klar wäre das weit aufwendiger usw. als RT aber theoretisch meinem Laienverständnis nach zu bewerkstelligen.

Daredevil
2019-01-28, 17:30:48
Soweit ich weiß, ist das natürlich möglich, aber der Aufwand wäre für so ein unwichtiges Detail wohl zu groß.

Raytracing lenkt mich wie gesagt in Battlefield ab vom Spielgeschehen, weil hinter mir irgendein Panzer explodiert und der sich dann z.B. auf meiner Waffe, dem Fenster gegenüber und einer Straßenbahn abbildet. ( Sicherlich ist das auch dem geschuldet, dass BF V das Zugpferd für RT ist. )
Das ist für mich halt was neues, weil es das vorher noch nicht gab. Vermutlich wäre es vorher möglich gewesen, aber Kosten/Nutzen wäre in keinem Verhältnis gewesen, wenn man manchen Aussagen über SSR glaubt.

Eigentlich ist es sogar nicht nötig, weil man es vorher halt auch nicht kannte und nicht vermisst hat. Aber da es nun da ist, sieht man erst, was möglich ist.

dargo
2019-01-28, 18:47:14
Natürlich geht das mit DX11 noch.

Ach verdammt... dann war das doch nur DX12. Habe da Forza 6: Apex negativ in Erinnerung.

aufkrawall
2019-01-28, 18:54:42
Joa, das finde ich auch noch recht ärgerlich. Allerdings gehts mit Nvidia & Vulkan ja auch nicht.

aufkrawall
2019-01-30, 14:17:45
Vega hat eine bessere Texturfilterung als Polaris, bzw. bei einem Vergleich in Standardeinstellungen die beste.
Ist mit temporalem Supersampling (z.B. das TAA in Skyrim-SE) aber auch wieder völlig egal.

Bellspinder
2019-02-01, 04:49:03
Update:

Das Rätsel ist gelöst. Statt DVI habe ich mal HDMI rangeklemmt, um die Dynamic Range festlegen zu können und diese auf Full gestellt und siehe da: "Das Bild ist satt und perfekt" zwar bilde ich mir immer noch ein, dass die AMDs einen Hauch mehr Tiefe im Bild haben, aber ich kann damit sehr gut leben. Auch das Banding in 2D Anwendungen ist jetzt zu 95% weg.
Jetzt kommt das WTF. Ich habe auf jeder Webseite, in jedem Artikel, der sich mit dieser 0-255 Problematik bei nvidia befasst, gelesen, dass man die Range bei der Zuspielung über DVI nicht ändern muss, weil er bereits korrekte Levels ausgibt und das Problem nur HDMI betrifft, weil er den Monitor dann als TV ansteuert.
Das ist einfach nicht wahr und führt einen in die Irre. Ich habe ihn jetzt wieder zurück auf DVI, er ist korrekt als "PC" gelabelt und nicht als TV und das Bild ist trotzdem erneut ausgewaschen und in der Range reduziert. Der Hammer ist, ich kann auch nichts anderes einstellen, weil die Optionen gar nicht vorhanden sind bei Zuspielung über DVI. ;D

Ich kaufe im Jahr 2019 eine Grafikkarte, die keine korrekten Blacklevels über DVI ausgibt, WTF NVIDIA?! Ich war kurz davor die Karte zurück zu schicken. Wie kann man so einen scheiß fabrizieren?! Einen Displayport hat mein alter Monitor nicht und für einen neuen habe ich gerade kein Geld, HDMI möchte ich eigentlich nicht nutzen, weil ich mir einbilde, dass die Schrift unschärfer rendert vor allem bei DS. What now?!

Tesseract
2019-02-01, 05:26:36
Ich habe auf jeder Webseite, in jedem Artikel, der sich mit dieser 0-255 Problematik bei nvidia befasst, gelesen, dass man die Range bei der Zuspielung über DVI nicht ändern muss, weil er bereits korrekte Levels ausgibt und das Problem nur HDMI betrifft, weil er den Monitor dann als TV ansteuert.

"echtes" DVI gibt es seit jahren nicht mehr. HDMI ist abwärtskompatibel zu DVI und die DVI-stecker auf modernen grakas sind im prinzip nur HDMI mit anderer steckverbindung. wahrscheinlich ist der DVI am monitor auch ein HDMI und eine unsaubere firmware führt zu abspacheproblemen zwischen den geräten.
schärfer kann DVI nicht sein, wenn dann hat der monitor einen schärferegler der je nach ausgang unterschiedlich eingestellt ist.

Bellspinder
2019-02-01, 05:28:15
Ich kack dich daemlich an weil es keine Unterschiede gibt. Die Formate sind standardisiert und die ALUs muessen IEEE754 einhalten. Alles andere ist Fantasiererei.

Du verstehst es nicht oder willst es nicht verstehen. Nvidia Karten geben nur 16-235 Level aus, wenn sie per hdmi verbunden werden, weil viele TV's diese Beschränkung haben. Damit fehlt ein Teil des Spektrums und das Bild wirkt flau, wie in dem Video oben. Man muss die Grafikkarte zwingen, 0-255 auszugeben, um das richtige Bild zu erhalten. Es gibt Unmengen Artikel dazu, auch in allen großen Hardwaremagazinen. Nun ist es bei mir offenbar so, dass auch per DVI diese Beschränkung auftaucht, warum auch immer. Wenn du Ehre hast, wirst du dich bei mir entschuldigen.

https://pcmonitors.info/articles/correcting-hdmi-colour-on-nvidia-and-amd-gpus/

"echtes" DVI gibt es seit jahren nicht mehr. HDMI ist abwärtskompatibel zu DVI und die DVI-stecker auf modernen grakas sind im prinzip nur HDMI mit anderer steckverbindung. wahrscheinlich ist der DVI am monitor auch ein HDMI und eine unsaubere firmware führt zu abspacheproblemen zwischen den geräten.
Danke, also bleibt mir wohl nur der Weg über HDMI. Bzw. gibt es offenbar ein Tool, mit dem man die Range festlegen kann. Ich probier das jetzt aus, evtl. muss ich dann nicht wechseln.

https://www.softpedia.com/get/Tweak/Video-Tweak/Nvidia-RGB-Full-Limited-Range-Toggler.shtml

aufkrawall
2019-02-01, 11:37:29
Ich hatte schon vor Längerem darauf hingewiesen, dass man erst einmal die Rahmenbedingungen checken muss. Wenn man nicht mal eindeutig merkt, dass Schwarz nicht schwarz ist, sollte man sich mit irgendwelchen Urteilen besser zurück halten...

Gymnopédies
2019-02-01, 16:45:58
Also man muß das schon differenzieren, was man da am anderen Ende für ein Display hat. Mit meinem Panasonic Plasma letzte Generation führt die Einstellung per Nvidia Panel 0-255 zu üblen Black Crush und ich müßte es wieder über die Helligkeit hoch regeln, was wohl zum selben Ergebnis führt. Oder ist 0-255 vorzuziehen um alle Inhalte zu bekommen, falls ich das so richtig verstanden habe? Testbilder mit 0-255 werden sauber abgebildet, in der Einstellung 16-235.

Gipsel
2019-02-01, 16:50:29
Etwas aufgeräumt.

Ich möchte darum bitten, daß zukünftig die Umgangsformen gewahrt bleiben. Aber ebenso ist der Thread von irgendwelchem Esoterik-Krams freizuhalten. Über GPU-abhängig unterschiedliche "Bildtiefe" oder Ähnliches zu schwadronieren hat was von den "audiophilen" Leuten, die meinen sie würden einen Unterschied zwischen verschiedenen Armierungen eines TOSLink-Kabels hören können (aber bei Blindtests noch nicht einmal in der Lage sind, mp3 vom Original zu unterscheiden).

aufkrawall
2019-02-01, 16:55:26
Es hängt davon ab, was das Display erwartet. Monitore eigentlich immer full range, TVs i.d.R. limited.

Gipsel
2019-02-01, 16:58:20
Also man muß das schon differenzieren, was man da am anderen Ende für ein Display hat. Mit meinem Panasonic Plasma letzte Generation führt die Einstellung per Nvidia Panel 0-255 zu üblen Black Crush und ich müßte es wieder über die Helligkeit hoch regeln, was wohl zum selben Ergebnis führt. Oder ist 0-255 vorzuziehen um alle Inhalte zu bekommen, falls ich das so richtig verstanden habe? Testbilder mit 0-255 werden sauber abgebildet, in der Einstellung 16-235.Dann hat Dein Plasma einen Eingangsbereich von 16-235 angenommen und 16 sowie Alles drunter auf Schwarz gezogen (=> Black Crush). Die aus dem (analogen) Videobereich stammende Range von 16-235 ist ja nicht soo viel schlechter aufgelöst (7,8 Bit statt 8 Bit), daß man das sofort sieht, wenn sich Quelle und Anzeigegerät über die Range einig sind.

Quelle 16-235, Anzeige 0-255 => verwaschen (Kontrast zu gering, schwarz ist dunkelgrau und weiß ist hellgrau)
Quelle 0-255, Anzeige 16-235 => übersteuert (Black Crush + White Out)
Quelle 16-235, Anzeige 16-235 => okay
Quelle 0-255, Anzeige 0-255 => okay (minimal bessere Farbauflösung)

Viel mehr gibt es dazu nicht zu sagen.

Edit: Zu langsam.

Bellspinder
2019-02-04, 07:32:37
Verschwörungstheorie on:

Nvidia hat mit Maxwell eine spezielle "Delta color compression" eingeführt, um Bandbreite einzusparen, angeblich soll diese so gut arbeiten, dass sie "lossless" ist. Nach vielen Quellen im Netz soll das mit dem "lossless" dabei etwas euphimistisch formuliert sein, denn rein logisch ist eine Komprimierung immer mit Verlust behaftet. Maxwell war dann auch in etwa die Generation, mit der Nvidia performancetechnisch deutliche Sprünge gegenüber den jeweils äquivalenten Radeons gemacht hat und diesen Vorsprung bis zur aktuellen Generation in etwa halten, bzw. ausbauen konnte, während rein technisch (auf dem Papier) die AMD Karten durchaus ebenbürdig schienen, konnten die Nvidia Karten zulegen. Ein vermuteter Grund liegt in eben dieser Kompressionsmethode. AMD nutzt zwar seit der R295 auch Delta Kompression, allerdings wurde die Nvidia Methode immer aggressiver entwickelt und greift immer weiter in die Ursprungstextur ein, bei Maxwell noch 2:1 komprimiert, bei Pascal schon mit 8:1 Kompression.
https://images.anandtech.com/doci/10325/PascalEdDay_FINAL_NDA_1463156837-008_575px.png
Das könnte erklären warum das Nvidia Bild weniger dynamisch und farbecht, bzw. leicht farbarm wirkt im Vergleich zu AMD Karten (Subjektiv für manche wie z.B. für mich ;)). Könnte da was dran sein?

t9DUj5G7v_0

N0Thing
2019-02-04, 07:46:37
Verschwörungstheorie on:

Nach vielen Quellen im Netz soll das mit dem "lossless" dabei etwas euphimistisch formuliert sein, denn rein logisch ist eine Komprimierung immer mit Verlust behaftet.

Das ist offensichtlich Unsinn, oder wie sollen Kompressionsalgorithmen wie ZIP, FLAC oder PNG deiner Meinung nach funktionieren?

Zum Rest: Einzelne Bugs und Fehler sind kein Beweis für generelle Unterschiede in der Bildqualität und die subjektiven Unterschiede habe ich persönlich bei meinen Wechseln von Nvidia zu ATI zu Nvidia zu AMD nicht feststellen können.

Wenn man so etwas ernsthaft angehen will, muss man zufällig ausgesuchte, exakt gleiche Bildausschnitte miteinander vergleichen, idealerweise dann auch noch ein einer Blindstudie.

Achill
2019-02-04, 08:44:20
Um mal das Känguru zu zitieren:
Ich habe gehört ...
Ich habe gelesen ...
Schwedische Wissenschaftler haben bewiesen ...

JVC
2019-02-04, 09:57:50
Um mal das Känguru zu zitieren:
Ich habe gehört ...
Ich habe gelesen ...
Schwedische Wissenschaftler haben bewiesen ...

... ich habs selbst festgestellt :rolleyes:

Nur weil einem selbst nichts auffällt, heißt das noch nicht
das es keinen unterschied gibt. ;)

Auch bei mir fällt der unterschied auf meinem IPS übersehbar gering aus,
wohingegen auf meinem kalibrierten VA der Unterschied gut zu erkennen ist.

Das NV, durch die höhere Speicherkompression, keine höhere BQ als AMD haben kann,
klingt logisch ...

m.f.g. JVC

Timbaloo
2019-02-04, 10:05:10
Nach vielen Quellen im Netz soll das mit dem "lossless" dabei etwas euphimistisch formuliert sein, denn rein logisch ist eine Komprimierung immer mit Verlust behaftet.
Das ist so geil, da hast du dir die Signatur verdient (y)

y33H@
2019-02-04, 10:36:07
Bitte macht das zu, das tut weh beim lesen ;(

Sven77
2019-02-04, 10:39:01
X-D
Der trollt doch..

Bellspinder
2019-02-04, 10:51:47
Das ist offensichtlich Unsinn, oder wie sollen Kompressionsalgorithmen wie ZIP, FLAC oder PNG deiner Meinung nach funktionieren?

Wieso hat eine 320kbs mp3-Datei einen besseren/unverfälschteren Klang als eine 128kbs mp3-Datei? Und losless ist FLAC auch nicht, es ist blos an der Ursprungsquelle "weit näher, bzw. fast dran" und erkauft diesen Vorteil durch weit mehr Speicherplatz, ist also -weit weniger komprimiert. Dennoch kann die Komprimierung allein nicht die Ursache sein, da AMD auch komprimiert. Eventuell unterscheiden sich die Verfahren oder der Unterschied liegt in einem anderen Bereich. Eventuell harmonieren die AMD Karten besser mit gängigen Monitoren und sind weniger stark aufs Kalibrieren angewiesen. Ich hab auf jeden Fall ganz leichtes Banding mit der 1070 und das bei allen Einstellungen und Farbprofilen. Vom Banding abgesehen war die Farbwiedergabe auf der Radeon einfach angenehmer, satter, wärmer und tiefer, die Abstufungen zwischen den Farben weicher, die Palette -gefühlt- umfangreicher. Ich konnte ein ähnliches Ergebnis erzielen, wenn ich auf der Nvidia das Gamma reduziert habe, aber es ist nicht dasselbe, weil dann göleichzeitig ein paar Grautöne absaufen.

Letztlich kann man das unglaublich schwer objektiv vergleichen. Man bräuchte 2 PC's, 2 Monitore, alles identisch mit identischen Setups, einen Raum mit gleichbleibener Beleuchtung und eine gute farbechte Kamera mit Stativ. Die Mühe macht sich keiner, nur um solche Subtilitäten herauszufinden, die die meisten Menschen eh nicht bemerken.

Manche mögen die Farben von Samsung TV's nicht oder finden die von LG Fernsehern künstlich, andere loben die natürliche Farbwiedergabe von Sony oder Panasonic Screens. Man könnte ja denken, das wäre alles genormt und auf dem Papier können die alle Farben en Masse, in der Praxis ist es aber nicht so einfach. Wieso sollte es dann zwischen Nvidia und Amd nicht auch Unterschiede geben?

y33H@
2019-02-04, 10:53:06
Da wird nach Standard gerechnet.

pilzsammler2002
2019-02-04, 10:58:41
Da wird nach Standard gerechnet.
Das heisst?

Den Standard das alles intern in HDR gerechnet wird wurde auch häufiger gesagt, trotzdem gab es Performance verlust was sich keiner erklären konnte... :freak:

Bellspinder
2019-02-04, 11:04:23
Da wird nach Standard gerechnet.

Wo auf welcher Ebene und nach welchem Standart? Bei der Bildausgabe am Signalwandler? Bei der Texturkomprimierung (offensichtlich ja nicht, da unterschdl.) Bei der grundsätzlichen Orientierung an den Farbprofilen in Windows vielleicht, die sind standardisiert nach SRGB/Ycbcr ja, aber sonst? Das hieße ja noch nicht, dass die Karten mit diesen Profilen nicht unterschiedlich umgehen/arbeiten/ausgeben. Der Samsung TV hat theoretisch ja auch nicht mehr Farben als der Sony oder andere TV, aber die Wiedergabe wird sehr unterschiedlich wahrgenommen von unangenehm und künstlich überdreht, bis zu harmoisch warm ist alles dabei. Selbst wenn du Dolby Vision als Standart heranziehst, zeigt jedes Gerät das ->genormte Bild leicht anders.

Guckt euch z.B. Minute 21:05 an (Pause drücken) dann seht ihr direkt was ich meine. Das Nvidia Bild ist milchig, als würde ein Hauch von Grauschleier über allem hängen. Man sieht das auch nicht in allen Games, manche wirken tatsächlich 1:1 identisch. Bei CS:GO ist der Effekt sogar umgekehrt, da sieht die Vega ausgewaschen aus.
twY2lMrxxlc

nairune
2019-02-04, 11:36:40
Und losless ist FLAC auch nicht, es ist blos an der Ursprungsquelle "weit näher, bzw. fast dran" und erkauft diesen Vorteil durch weit mehr Speicherplatz, ist also -weit weniger komprimiert.

Hör bitte auf. Dir ist bewusst, dass das "L" in FLAC für lossless steht? Ja, es ist tatsächlich lossless.
Und das ist auch gar nicht so schwer zu verstehen. Mal ein ganz einfaches Beispiel für verlustfreie Kompression:
Quelle:
EinsichwiederholenderstringEinsichwiederholenderstring
Komprimiert:
2xEinsichwiederholenderstring

Bellspinder
2019-02-04, 11:51:45
Hör bitte auf. Dir ist bewusst, dass das "L" in FLAC für lossless steht? Ja, es ist tatsächlich lossless.

Dann ist es aber auch nicht komprimiert, sondern nur quasi in einem Container verpackt. Wenn Komprimierung automatisch lossless wäre, gäbe es ja keine Mp3s unterschiedlicher Qualität und auch keine CRC Error bei Winrar.

Baalzamon
2019-02-04, 11:52:51
Wieso hat eine 320kbs mp3-Datei einen besseren/unverfälschteren Klang als eine 128kbs mp3-Datei? Und losless ist FLAC auch nicht, es ist blos an der Ursprungsquelle "weit näher, bzw. fast dran" und erkauft diesen Vorteil durch weit mehr Speicherplatz, ist also -weit weniger komprimiert. [...]

Wenn FLAC nicht "lossless" ist, wieso heisst es dann Free Lossless Audio Codec (https://de.wikipedia.org/wiki/Free_Lossless_Audio_Codec)? Wieso steht in jeder Beschreibung, dass FLAC lossless arbeitet?

Natürlich ist es so wie N0thing sagt: Es gibt jede Menge Kompressionsverfahren die nicht Verlustbehaftet sind. (https://en.wikipedia.org/wiki/Lossless_compression)

N0Thing
2019-02-04, 11:53:10
Wieso hat eine 320kbs mp3-Datei einen besseren/unverfälschteren Klang als eine 128kbs mp3-Datei? Und losless ist FLAC auch nicht, es ist blos an der Ursprungsquelle "weit näher, bzw. fast dran" und erkauft diesen Vorteil durch weit mehr Speicherplatz, ist also -weit weniger komprimiert.

Ich habe mp3 aus gutem Grund nicht als Beispiel ausgewählt. Im Gegensatz dazu ist FLAC genau das, was du abstreitest, nämlich lossless. Vielleicht solltest du erst einmal ein paar, oder wenigstens einen Lexikonartikel über (Daten-) Kompression lesen, bevor du auf Basis von Unkenntnis Vermutungen anstellst?

nairune
2019-02-04, 11:56:10
Dann ist es aber auch nicht komprimiert, sondern nur quasi in einem Container verpackt. Wenn Komprimierung automatisch lossless wäre, gäbe es ja keine Mp3s unterschiedlicher Qualität und auch keine CRC Error bei Winrar.

Wenn die Größe des "Containers" kleiner als die Quelldatei ist, könnte man es komprimiert nennen, nicht wahr? Wo ist da der Unterschied?
Komprimierung ist nicht automatisch lossless oder lossy, verlustbehaftete Algorithmen lassen nur deutlich höhere Kompressionsraten zu und finden daher viel Anwendung.

Timbaloo
2019-02-04, 11:58:41
Dann ist es aber auch nicht komprimiert, sondern nur quasi in einem Container verpackt. Wenn Komprimierung automatisch lossless wäre, gäbe es ja keine Mp3s unterschiedlicher Qualität und auch keine CRC Error bei Winrar.
https://media.tenor.com/images/0c150a0605dbd5693c5a073b2fa4a67e/tenor.gif

Ätznatron
2019-02-04, 11:58:56
Lossless ist in dem Sinn natürlich nicht lossless, dass natürlich Rechen-Zeit aufgewendet werden muss zur Komprimierung und Dekomprimierung.

Ganz ohne Verlust geht es also nicht, wenn auch nicht unbedingt verbunden mit Qualitätsverlust.

Baalzamon
2019-02-04, 12:01:15
Dann ist es aber auch nicht komprimiert, sondern nur quasi in einem Container verpackt. Wenn Komprimierung automatisch lossless wäre, gäbe es ja keine Mp3s unterschiedlicher Qualität und auch keine CRC Error bei Winrar.
Woot? Wir reden doch über FLAC und nicht MP3?

Natürlich ist MP3 verlustbehaftet, FLAC aber eben nicht.

Es ist eine echte Kompression, aus der sich das Urpsrungsmaterial zu 100% wieder herstellen lässt. Anders als bei MP3 oder JPG.

Ein Beispiel für eine einfache Verlustfreie Kompression von Strings hat nairune bereits aufgezeigt. Wenn dich das Thema weiter interessiert, guck dir mal den Artikel zu Huffman-Kodierung (https://de.wikipedia.org/wiki/Huffman-Kodierung) an.

Baalzamon
2019-02-04, 12:05:04
Lossless ist in dem Sinn natürlich nicht lossless, dass natürlich Rechen-Zeit aufgewendet werden muss zur Komprimierung und Dekomprimierung.

Ganz ohne Verlust geht es also nicht, wenn auch nicht unbedingt verbunden mit Qualitätsverlust.

Ich verstehe was du meinst, es ist der alte Trade-Off der einem in der Computerwelt immer wieder begegnet: Laufzeit gegen Speicher.

Im Kontext von Kompressionsverfahren ist das imho eine sehr eigene Definitoion von Verlust. Konsens ist doch, dass man über Qualitätsverluste spricht und das ist ja auch das worauf Bellspinder anspielt.

N0Thing
2019-02-04, 12:06:58
Lossless ist in dem Sinn natürlich nicht lossless, dass natürlich Rechen-Zeit aufgewendet werden muss zur Komprimierung und Dekomprimierung.

Ganz ohne Verlust geht es also nicht, wenn auch nicht unbedingt verbunden mit Qualitätsverlust.

Bei der Frage ob lossless oder nicht geht es nicht um Rechenzeit, sondern um Informationen. Bei MP3, VP9, oder JPG gehen bei der Kompression Information verloren, die man nicht wieder herstellen kann. Bei ZIP, FLAC, oder PNG ist das anders. Wäre ja auch ziemlich blöde, wenn Office- oder Programmdateien durch die Komprimierung unbrauchbar werden würden.
Die Frage nach der Rechenzeit stellt sich in diesem Zusammenhang einfach nicht, das ist ein anderes Thema.

Ätznatron
2019-02-04, 12:10:49
Wenn ich mir so überlege, wieviel Rechenzeit ohne durch meinetwegen irgendeiner Bandbreitenlimitierung (bspw. zu wenig Busbreite) geschuldeter Komprimierung gespart werden und entsprechend sinnvoller für andere Bereiche eingesetzt werden könnte, stehe ich nicht ganz so positiv den Kompressionsverfahren gegenüber, vor allem nicht denen "on-the-fly".

Bellspinder
2019-02-04, 12:11:40
Und der CRT Error?!?! Wenn der nur in 0,1% aller Fälle von sogenannten lossless Komprimierungsverfahren auftaucht, dann kann man in der Gänze nicht mehr von verlustfrei sprechen und der kommt wesentlich öfter als 0,1% vor, jeder der mal alte zipfiles öffnen wollte, kennt das und dann ist in vielen Fällen direkt mal Komplettverlust also loss-stress statt lossless. ;)

Baalzamon
2019-02-04, 12:16:53
Und der CRT Error?!?! Wenn der nur in 0,1% aller Fälle von sogenannten lossless Komprimierungsverfahren auftaucht, dann kann man in der Gänze nicht mehr von verlustfrei sprechen und der kommt wesentlich öfter als 0,1% vor, jeder der mal alte zipfiles öffnen wollte, kennt das und dann ist in vielen Fällen direkt mal Komplettverlust also loss-stress statt lossless. ;)

Sorry, aber 'get your facts straight'


Why CRC Errors Occur

There are many possible causes for data damage. Among the most common is a transfer error when downloading a Zip file from the internet. Such an error can introduce invalid data into a Zip file. Some other possible causes include exposure of media to excessive temperatures or magnetic fields, cross linked disk sectors, and mechanical problems with disk drives.

http://kb.winzip.com/kb/entry/41/]

CRC (https://de.wikipedia.org/wiki/Zyklische_Redundanzpr%C3%BCfung) hat erstmal nichts mit (verlustbehafteter) Kompression zu tun, sondern ist einfach nur ein Mittel um Datenintegrität zu prüfen.

Savay
2019-02-04, 12:20:16
Und der CRT Error?!?!

Langsam tut das weh! ;)
Das Vorhandensein einer Fehlerkorrektur hat doch nichts damit zu tun ob die Daten selbst verlustfrei, verlustbehaftet oder unkomprimiert vorliegen.

Die Daten auf einer Audio CD (aka CDDA), also der gänzlich unkomprimierte 16bit 44,1kHz PCM Stream, ist auch mit einer sogenannten CIRC (https://de.wikipedia.org/wiki/Cross-interleaved_Reed-Solomon_Code) versehen.

Eine CRC an sich soll Übertragungsfehler eines Datenstroms ausgleichen/minimieren...das generelle Vorhandensein einer solchen ist per se deshalb erstmal vollkommen unabängig vom Aufbau des Inhalts! (höchstens die konkrete Ausführung hängt ggf. davon und dem Übertragungskanal/format ab.)

(...)stehe ich nicht ganz so positiv den Kompressionsverfahren gegenüber, vor allem nicht denen "on-the-fly".

Mehr Bandbreite ist aber Energetisch auch nicht wirklich umsonst zu haben!
Wenn sie denn überhaupt sinnvoll umgesetzt werden kann. :wink:

In den meisten Fällen wird da schon eine Abwägung stattgefunden haben ob es besser ist, einfach alle Datenpfade und was da zusätzlich sonst noch mit dran hängt zu verbreitern/höher zu takten, oder eine möglichst effektive und verlustfreie Laufzeitkompression umzusetzen.

Und in manchen Fällen bist du nunmal einfach Bandbreitenlimitiert...da bleibt dir dann eh nix anderes übrig, wenn in der Beziehung keine Stagnation eintreten soll.

Korfox
2019-02-04, 12:46:05
Hör bitte auf. Dir ist bewusst, dass das "L" in FLAC für lossless steht? Ja, es ist tatsächlich lossless.
Und das ist auch gar nicht so schwer zu verstehen. Mal ein ganz einfaches Beispiel für verlustfreie Kompression:
Quelle:
EinsichwiederholenderstringEinsichwiederholenderstring
Komprimiert:
2xEinsichwiederholenderstring
Da geht die Reihenfolge aber verloren.

nairune
2019-02-04, 12:54:44
Da geht die Reihenfolge aber verloren.

Reihenfolge bei identischen Strings? Macht keinen Unterschied, also geht auch keine Information verloren.
Dass das Beispiel nicht "echt" und komplett durchdacht ist, sollte klar sein - es geht um das Prinzip.

Baalzamon
2019-02-04, 12:55:43
Da geht die Reihenfolge aber verloren.
Natürlich hats du Recht, dass die Reihenfolge verlorengeht, nur ist die Reihenfolge bei zwei vollkommen identischen Strings egal. ;)

Es geht darum, dass aus den komprimierten Daten die ursprünglichen Daten zu 100% wieder hergestellt werden können und das ist im Beispiel absolut gegeben.

Korfox
2019-02-04, 12:58:58
Natürlich ist das Beispiel komplett durchdacht. Das ist Lauflängenkodierung und jeder Satz ist ein Symbol.
Also speicherst du das Symbol (den Satz) und die Häufigkeit (2).
Wenn du die Symbole festlegst kannst du sogar auf die Übertragung des Symbols selbst verzichten und nur die 2 übertragen O.o.

Ach egal. Ich habe halt einen Scherz gemacht (es gibt btw. sogar Losless JPEG...).