PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 580 vs. GeForce GTX 1050 (Encoding only)


Gebrechlichkeit
2019-06-25, 19:47:57
Kurz und bündig, beide kosten gleich viel beim Lieblingsshop (€130). Die GTX hat bloss 2gb, die RX 4gb vram.

Mein aktueller r9 280x OC taugt leider nicht mehr. Weder decoding noch encoding kann man damit. Beim Case habdelt es sich un ein node 202 von fractal design.

Brauche eine kostengünstige GPU die leichtes Zocken (die 280x langt aus),4k decoding und encoding beherrscht.

Hat hier Radeon aufgeholt? Lieber gleich eine grosse GTX?

Bedanke mich im Voraus.

dildo4u
2019-06-25, 20:02:54
Die AMD dürfte zwei mal so schnell sein und natürlich limitieren die 2GB massiv.
AMD hat Software zum streamen(Relive),das sollte ca auf Level mit Pascal sein nur Turing wäre besser aber dort hat erst die 1660(220€) die neuen Encoding Engine.

https://www.tomshardware.com/news/nvidia-geforce-gtx-1650-volta-nvenc,39161.html

aufkrawall
2019-06-25, 20:27:56
ReLive kann kein 4k 60fps.

Screemer
2019-06-25, 20:37:08
Avc 4k@60hz wären mit einer 285 oder 380 machbar.

Nicht Büro relive kann kein 4k@60hz. Der he-encddoded macchct bei 33fps dicht. Keine Software kann da mehr rausholen.

Gebrechlichkeit
2019-06-25, 22:09:40
Büro Relive? Hä :biggrin:

Als Software nutze ich A's Video Converter (https://bluesky23.yukishigure.com/en/AsVideoConv.html). Die 280x kann x264 1080p ohne Probleme bis zu/mit 130fps encodieren, Quicksync kann mehr und nvenc nehme ich an nochmals ne Schippe.

Danke an die Tipps, werde mal den verlinkten Link/Topic durchlesen, worin die sich genau unterscheiden. Mir waere halt 4K24p ausreichend, keine CPU kann das glaube ich mit gscheiten Settings (x265, 10/12bit, slow etc.).

Evtl. bestelle ich beide, mal schauen.

gmb
2019-06-25, 22:21:19
Die GTX 1050 wäre besser beim encoding/decoding. Für Spiele sieht es sicherlich anders aus, schon wegen den 2 GB.

=Floi=
2019-06-26, 00:10:01
wo kommst du denn preislich bei 8gb vs 4gb raus?

Jasch
2019-06-26, 08:51:39
Die GTX 1050 wäre besser beim encoding/decoding. Für Spiele sieht es sicherlich anders aus, schon wegen den 2 GB.


wo bitte?

Eine 580, ist in allen Belangen schneller als eine 1050.

Rancor
2019-06-26, 11:28:52
Die GTX 1050 wäre besser beim encoding/decoding. Für Spiele sieht es sicherlich anders aus, schon wegen den 2 GB.

Ja ne ist klar kalle....

Gebrechlichkeit
2019-06-26, 12:23:36
wo kommst du denn preislich bei 8gb vs 4gb raus?

Die duerfte preislich auf GTX1060 Niveau sein, €150. Ich warte noch ab, wie die neue 5700 Radeon Video Engine sich in diesem Punkt schlaegt.

dildo4u
2019-06-26, 12:26:45
Du springst hier in komplett andere Preisgefilde eine 5700 wird um 350€ kosten,dort kannste dann natürlich auch Turing nehmen.

https://www.golem.de/news/nvidia-turing-obs-unterstuetzt-encoder-der-geforce-rtx-1902-139694.html

aufkrawall
2019-06-26, 12:27:11
Dass VCN 2.0 wesenlich besser sein wird als der UVD-Gammel auf den alten Karten, ist schon lange klar.

Gebrechlichkeit
2019-06-26, 12:47:31
Du springst hier in komplett andere Preisgefilde eine 5700 wird um 350€ kosten,dort kannste dann natürlich auch Turing nehmen.

https://www.golem.de/news/nvidia-turing-obs-unterstuetzt-encoder-der-geforce-rtx-1902-139694.html

Das ist ja der Gedanke. Wenn ich schon eine €220 teuere GT1660 in die engere Auswahl nehme, kann ich gleich auf die 5700 Werte abwarten und nochmals einen €100 drauflegen.

GTX1050 2gb fuer €110
GTX580 4Gb €150
GTX1060 3gb €145
GTX1060 6Gb €200+
GTX1050TI mini 4gb €150
GTX1660 €220+

gmb
2019-06-26, 13:11:32
wo bitte?

Eine 580, ist in allen Belangen schneller als eine 1050.


Beim encoding/decoding, kannst du nicht lesen? Die AMD sind da vergleichsweise ziemlich langsam, auch ist AMD bei den Features hinten dran. Zum Beispiel gibt es kein hardware decoding für VP9 (https://www.computerbase.de/2017-09/youtube-leistungsaufnahme-amd-nvidia/).

Jasch
2019-06-26, 14:08:02
Toller Link, die 1050 braucht beim VP9 dec. also weniger Strom.
Wo sind die sonst beim dec. "vergleichsweise ziemlich langsam", da bitte mal nen Link.
Das Gefassel höre ich schon lange in allen HTPC Foren, 1050 viel besser mit madvr etc, aber 3D geht mit neuen Treiber nicht und HDR nur mit dem einen wo dann das andere nicht geht....blabla .
Mit meiner ollen 460@560 4GB läuft alles 4k60, 3D, HDR etc ohne Probleme.

Einizig der HW Encoder könnte unter bestimmten Umständen gleich oder leicht schneller sein, aber das will ich auch erstmal sehen, die 580 ist einfach um den Factor 2 dicker als die 1050.

Gebrechlichkeit
2019-06-26, 14:13:36
Hmm ...

ASUS MINING-RX470 €80? Gibt auch eine 580 mining fuer €99 ... die sind ein paar € billiger. Taugen die zum Zocken? Oder sind diese speziell fuer´s mining gedacht? Beide jeweils mit 4gb

Jasch
2019-06-26, 14:15:15
DA musst du aufpassen, die haben teils keinen Monitorausgang, sonst sind das die selben Karten.

Screemer
2019-06-26, 15:12:06
die asus mining haben zumindest einen dvi-d. sonst aber nix.

SKYNET
2019-06-26, 15:32:52
die sapphire(?) mining karten, haben doch nen verstecken HDMI ausgang, wenn ichs recht in erinnerung habe?

Gebrechlichkeit
2019-06-26, 16:31:20
Schon dreist der Shop, weder name noch url sagt was von Mining, erst wenn man unter Spezifikationen schaut (nur 1x DVI Anschluss). Das Bild von der Karte aber hat noch 2 zus. HDMi + dports? Die andere wurde korrekt abgelichtet bzw. aufgelistet, beides Asus Karten.

Ergo bleiben uebrig

580 4gb 130€
1060 3gb 145€
Sapphire Vege 56 €290 .. leider kein Budget (750Watt Netzteil, zu schwach)

Ich tendiere Richtung 1060 (wegen cuda), weil seit der 6600GT nur ATi Karten meine Beine aufgewaermt haben.

aufkrawall
2019-06-26, 16:35:23
Na, dann tob dich mal richtig mit CUDA aus, bei was auch immer...

Peek&Poke
2019-06-26, 17:15:04
Beim Encoding werden sich beide nicht viel nehmen. Nur beim Gamen ist die Rx 580 doch einiges voraus. Aber ist geschmackssache ich bin jedenfalls mit der Sapphire Rx 580 8Gb sehr zufrieden

gmb
2019-06-26, 19:20:44
Beim Encoding werden sich beide nicht viel nehmen.


Selber getestet oder wie kommst du darauf? Alles was ich bis jetzt von AMD gesehen habe, war mindestens um den Faktor 2 langsamer zu Pascal. Und auch die Qualität war mies.

Peek&Poke
2019-06-26, 21:09:41
Selber getestet oder wie kommst du darauf? Alles was ich bis jetzt von AMD gesehen habe, war mindestens um den Faktor 2 langsamer zu Pascal. Und auch die Qualität war mies.
Nicht selbst getestet mangels Nvidia Karte 😉Aber in Tests für meine Karte war vor 2 Jahren die Sache sehr abhängig von benutzten Codec VP9 ist wohl bei AMD teils mit CPU Hybrid Nutzung. Es liegt beim TE welche Karte er wählt und wo sein Schwerpunkt liegt. Ebenso beim encoding speed oder quality und da gibt es viele Möglichkeiten je nach Karte.

aufkrawall
2019-06-26, 21:14:04
dildo hatte hier mal Screenshots von NVENC Pascal gepostet. Interessehalber hatte ich es dann mit AMF Polaris via ffmpeg verglichen: Sah so grausam aus, dass ich mich nicht getraut hatte es zu posten. :freak:

Gebrechlichkeit
2019-06-26, 21:18:47
Ja wat denn nun! wollte grad ohne Witz die 580 bestellen! hmm ... na toll, ich schreib denen mal ne mail, evtl. kann ich beide testen bevor ich mich fuer eine entscheiden werde. Mal schauen ob die so kulant sind oder nicht.

aufkrawall
2019-06-26, 21:44:12
Kann sein, dass du gar nicht weißt, was du willst? Die Qualität des GPU-Encoding ist auch mit Pascal abseits von Spiele-Captures mit hoher Bitrate nicht wirklich toll nutzbar. Mit Polaris geht aber immerhin 1440p 60fps HEVC 100Mbit.

Gebrechlichkeit
2019-06-28, 16:24:03
Hab mich fuer dieGTX 1060 entschieden. Muss es wohl ueberlesen haben, Tomb Raider Shadows of Massachusset liegt der GPU mitdabei €140 ...

Peek&Poke
2019-06-28, 22:19:11
Hab mich fuer dieGTX 1060 entschieden. Muss es wohl ueberlesen haben, Tomb Raider Shadows of Massachusset liegt der GPU mitdabei €140 ...
Für 140 plus game kein schlechter Deal. Jedenfalls wesentlich besser als die 1050. Einzig die 3gb werden Dir hier und da Bauchschmerzen machen. Kann man aber bei dem Preis mit Leben. Viel Freude mit der neuen Karte!

Gebrechlichkeit
2019-06-29, 01:47:20
Danke. Die 580 hatte noch 2x extra Spiele wie Divison 2 ... benoetigt aber ein dickeres Netzteil. Ergo die 1060, die auch noch kleiner ist.

T86
2019-06-29, 01:57:02
Gab es keine 570 mit 8gb ist auch vergleichbar sparsam,
Polaris zum kleinen Preis mit mehr Puffer wenn du doch mal spielen willst.

Eine 3gb Karte neu kaufen ist irgendwie vom Bauchgefühl negativ behaftet. Hat halt den Bauern Fänger ruf nicht ganz zu unrecht das Ding.
Auch wenn es dir nicht rein aus Gaming ankommt täte ich es mir selbst mit dem 6gb Modell schon Schwer beim neu Kauf.

Aber du kannst ja probieren ob das was du da vorhast vernünftig funktioniert.
Ggf halt umtauschen

Gebrechlichkeit
2019-06-29, 02:02:36
Gezockt (wenig) wird auf der console. Die GPU soll vor erstmal 4K decodieren (die cpu pfeifft aus allen Ecken) und nebenbei auch 4K de/encodieren sprich als Retro GPU herhalten (ich weiss, overkill :biggrin: da eh nur PS1 mal gezockt werden).

gmb
2019-06-29, 22:12:11
dildo hatte hier mal Screenshots von NVENC Pascal gepostet. Interessehalber hatte ich es dann mit AMF Polaris via ffmpeg verglichen: Sah so grausam aus, dass ich mich nicht getraut hatte es zu posten. :freak:


Und hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11735223#post11735223) hatte mal jemand von einer AMD ein screenshot Vergleich gepostet und es sah grausig aus im Vergleich zu Quicksync und NVENC. Klar, jetzt muss man sagen, dass ein hingeklatschter screenshot kaum eine Aussagekraft über die Fähigkeit vom Encoder hat, weil man, egal für gut der encoder ist, Müll screens easy posten kann. Zum Beispiel ist Handbrake Müll bei NVENC auf default, weil da Features wie Lookahead und Adaptive Quantization fehlen, das macht ein riesen Unterschied.



Gezockt (wenig) wird auf der console. Die GPU soll vor erstmal 4K decodieren (die cpu pfeifft aus allen Ecken) und nebenbei auch 4K de/encodieren sprich als Retro GPU herhalten (ich weiss, overkill :biggrin: da eh nur PS1 mal gezockt werden).


Dann eindeutig die Nvidia wegen dem leistungsfähigeren decoder.

aufkrawall
2019-06-29, 22:24:42
Und hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11735223#post11735223) hatte mal jemand von einer AMD ein screenshot Vergleich gepostet und es sah grausig aus im Vergleich zu Quicksync und NVENC. Klar, jetzt muss man sagen, dass ein hingeklatschter screenshot kaum eine Aussagekraft über die Fähigkeit vom Encoder hat, weil man, egal für gut der encoder ist, Müll screens easy posten kann.
Für ffmpeg sind ja die Qualitätssettings dokumentiert.

Funktioniert übrigens auch unter Linux mittels VAAPI, kann damit auf Gemini Lake VP9 in Hardware encodieren.

Achill
2019-06-30, 11:34:15
Und hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11735223#post11735223) hatte mal jemand gmb (fixed) von einer AMD ein screenshot Vergleich gepostet und es sah grausig aus im Vergleich zu Quicksync und NVENC. Klar, jetzt muss man sagen, dass ein hingeklatschter screenshot kaum eine Aussagekraft über die Fähigkeit vom Encoder hat, weil man, egal für gut der encoder ist, Müll screens easy posten kann. Zum Beispiel ist Handbrake Müll bei NVENC auf default, weil da Features wie Lookahead und Adaptive Quantization fehlen, das macht ein riesen Unterschied.

[..]

Dann eindeutig die Nvidia wegen dem leistungsfähigeren decoder.

Und schon damals wurde von dir mein Einwand komplett ignoriert, dass es auf AMD überhaupt nicht so aussehen muss. Siehe nur wenige Posts später im gleichen Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11757975#post11757975

gmb
2019-06-30, 13:26:45
Und schon damals wurde von dir mein Einwand komplett ignoriert, dass es auf AMD überhaupt nicht so aussehen muss. Siehe nur wenige Posts später im gleichen Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11757975#post11757975


Ja weil dein Einwand sinnlos gewesen ist. Als erstes musst du die Bilder Vollbild posten damit man 1:1 vergleichen kann, die Bilder wo man den player noch sieht sind noobig. Und zweitens hast du eine komplett andere Bitrate, eine viel höhere verwendet, und damit ist ein Vergleich nicht möglich. Zumal die Bitrate von dir generell einfach viel zu hoch ist, damit kann man jeden Encoder gut aussehen lassen. Auch vergleichst du VBR und QP mit übelst unterschiedlichen Bitraten, QP ist doppelt bis fünffach so groß bei dir, das ist einfach nur komplett sinnlos. Es ist verschenkte Zeit darauf einzugehen. Man muss schon ein wenig knowhow mitbringen, wenn man das vergleichen will.

Achill
2019-06-30, 14:05:27
Ja weil dein Einwand sinnlos gewesen ist. Als erstes musst du die Bilder Vollbild posten damit man 1:1 vergleichen kann, die Bilder wo man den player noch sieht sind noobig. Und zweitens hast du eine komplett andere Bitrate, eine viel höhere verwendet, und damit ist ein Vergleich nicht möglich. Zumal die Bitrate von dir generell einfach viel zu hoch ist, damit kann man jeden Encoder gut aussehen lassen. Auch vergleichst du VBR und QP mit übelst unterschiedlichen Bitraten, QP ist doppelt bis fünffach so groß bei dir, das ist einfach nur komplett sinnlos. Es ist verschenkte Zeit darauf einzugehen. Man muss schon ein wenig knowhow mitbringen, wenn man das vergleichen will.

Zu den Bildern und der Auflösung:
- Die Bilder von mir sind PNG und damit verlustfrei Komprimiert, haben eine Auflösung von 1440p und der Player mit dem Video sind 1080p -> schneide das Bild raus und du hast die 1080p Aufnahme von dem entsprechenden Frame
- Ich habe bei den drei Bildern die jeweiligen Settings geschrieben und wie groß die finale Größe des Videos war - in deinen Post gibt es keine Info außer ...

[..], hier am Beispiel vom Frame 380.


AMD RX460= https://abload.de/img/amd_1ucs8f.png
Intel HD 630= https://abload.de/img/intel_1tbs2h.png

Videos sind gleich groß und beide VBR (QP funktioniert ja angeblich nicht).

[..]


Ich hatte gezeigt das CBR und QP funktioniert und für 3 Settings Screenshots gepostet. Welche Settings das ursprüngliche Video hatte noch was bei deinen Intel Enc. Videos für Settings oder File-Size vorlag, hast du nicht angegeben.

Auch ein Vergleich mit den NVEnc bei definierten Settings hast du nicht geliefert sondern einzig zwei Screenshots verglichen ohne das beide Videos vorlagen und man hätte prüfen können, ob es ggf. nur ein Worst-Case-Fall bei Bild 380 war.

Hier das Bild mit der CBR von 15.000 kbits und der File-Size des ganzen Videos mit ~195MB:
https://i.imgur.com/JzG77sU.png

BTW - Die ganze "Beratung" in diesem Thread deinerseits erfolgte ohne auch nur einmal etwas zu NV zu liefern ... der Post selbst trägt auch nichts bei, da ja dort nicht NV mit AMD verglichen wird.

gmb
2019-06-30, 15:58:49
Hier das Bild mit der CBR von 15.000 kbits und der File-Size des ganzen Videos mit ~195MB:
https://i.imgur.com/JzG77sU.png




Mach das mal mit 2 Mbit, dann könnten wir weitersehen. Ansonsten ist das sinnlos wie gesagt.

dargo
2019-06-30, 16:05:10
Hast du noch Festplatten aus den 90-ern oder warum sollte man das tun?

gmb
2019-06-30, 16:47:36
Das ist das gleiche wie wozu braucht man noch 720p CPU Tests, aber ok du wirst es nicht kapieren. Klar, ein Müll Encoder kann man auch mit viel Bitrate erschlagen, da ist deine Intention. Dann braucht man aber auch nicht ständig mit GPU Encoding=Müll argumentieren.

seba86
2019-06-30, 20:04:10
Beim Encoding werden sich beide nicht viel nehmen. Nur beim Gamen ist die Rx 580 doch einiges voraus. Aber ist geschmackssache ich bin jedenfalls mit der Sapphire Rx 580 8Gb sehr zufrieden

Eine RX 580 hatte ich zwar nicht, aber dafür eine RX 480 und RX 570 in kurzen Abständen, jeweils 8 GB in einem Ryzen 2600. Jetzt habe ich eine popelige 1050 2GB, da ich weniger zocke bzw. weitgehend mittelalte Spiele. Die Frametimes der 1050 sind natürlich geringer, ABER solange das VRAM einigermaßen ausreicht (auch bei etwas Swapping wie z.B. 2.5 GB VRAM-Verbrauch), sind die Frames mit der 1050 smoother und die FramesDrops weniger heftig als bei den AMDs. Die Minimum Frames sind reprozudierbar um die Hälfte besser als bei AMD. Z.B. Witcher 1 GOTY Intro Szene Nvidia 1050 40fps, AMD RX 570 30fps. Und das ist nicht das einzige Game was sich so verhält.
Irgendwie hat für mich AMD seit Polaris ein Microstutter-Problem.