PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Grafikkarten-Marktüberblick März 2020


Leonidas
2020-03-19, 11:14:14
Link zum Artikel:
https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-maerz-2020

BlacKi
2020-03-19, 11:27:24
danke

Leonidas
2020-03-19, 12:06:08
Gern :)

Ravenhearth
2020-03-19, 12:07:38
Der Link "zum Artikel" in der News funktioniert nicht

Leonidas
2020-03-19, 12:14:03
Jo, da war gar kein Link (was das CMS dann als "zurück auf Los interpretiert"). Gefixt.

Gast
2020-03-19, 13:10:37
Danke fuer die aktuelle uebersicht. Nett waere noch wenn dort jeweils fuer 4k und FHD das Performance/Watt Verhaeltnis stehen wuerde. Frueher gab es das mal. :-)

Leonidas
2020-03-19, 16:44:08
Ja .... es machte die Listen aber auch länger, wegen des Platzbedarfs. Insofern dachte ich, das wäre in den Diagrammen besser aufgehoben wäre.

Flusher
2020-03-21, 12:32:43
Gibt es einen Grund weshalb Pascal abseits der 1060 nirgends mehr auftaucht? Ich hab feststellen müssen dass es zunehmend schwieriger wird eine 1080 mit aktuellen Karten zu vergleichen.

Leonidas
2020-03-21, 12:34:41
Es wird in einem Marktüberblick immer nur das lieferbare Angebot gelistet werden. Nächstes mal werden die allermeisten Pascal-Karten daher gar nicht mehr dabei sein.

Die Performance-Listen befinden sich dagegen wo anders:
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019

Kickstart
2020-03-25, 23:15:10
Wieviel % Leistung hätte eine GTX 1070 in dieser Auflistung?

Leonidas
2020-03-26, 04:09:07
Soviel wie hier zu sehen: FHD 800%, 4K 107%:
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019

Popeljoe
2020-03-26, 07:46:35
Soviel wie hier zu sehen: FHD 800%, 4K 107%:
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019
Klasse Übersicht! Viel Arbeit! :up:
Für FHD reicht meine "neue gebrauchte" 1070 dann ja erstmal aus. ;)

Kickstart
2020-03-26, 20:50:47
Na da lohnt sich ein Upgrade nicht wirklich.
Aber gut zu wissen das AMD nicht nur bei der Leistung sondern auch beim Verbrauch mit nVidia einigermaßen gleich ziehen kann.

Ferenzo
2020-03-27, 06:52:29
Vielen Dank für den neuen Marktüberblick :smile:

Kickstart
2020-03-27, 11:55:57
Ich hab da noch ne ganz doofe Verständnissfrage: Die neue Radeon RX 5000er Serie unterstützt doch PCIe 4.0.Quelle: https://geizhals.de/?cat=gra16_512&xf=143_PCIe+4.0+x16&asuch=&bpmin=&bpmax=&v=e&hloc=de&plz=&dist=&mail=&fcols=143&sort=p&bl1_id=1000#productlist
Heist das man dann auch ein Board mit 4.0 brauch? Oder brauch man die hohe Bandbreite von 4.0 nur in bestimmten use cases? Wie zB besonders hohen Auflösungen.

dildo4u
2020-03-27, 12:02:59
Es gab mal ein Bios wo bei einem B450 Modelle 4.0 freigeschaltet wurde das wurde aber wieder zurück gezogen.
Offiziell brauchst du X570 oder zukünftig B550 Boards.
4.0 kann was bringen wenn bei Navi der Vram ausgeht.

https://www.pcgameshardware.de/Radeon-RX-5500-XT-8G-Grafikkarte-275704/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/

BlacKi
2020-03-27, 12:24:29
Ich hab da noch ne ganz doofe Verständnissfrage: Die neue Radeon RX 5000er Serie unterstützt doch PCIe 4.0.Quelle: https://geizhals.de/?cat=gra16_512&xf=143_PCIe+4.0+x16&asuch=&bpmin=&bpmax=&v=e&hloc=de&plz=&dist=&mail=&fcols=143&sort=p&bl1_id=1000#productlist
Heist das man dann auch ein Board mit 4.0 brauch? Oder brauch man die hohe Bandbreite von 4.0 nur in bestimmten use cases? Wie zB besonders hohen Auflösungen.
nope, ich spiele derzeit sogar mit ner 1080ti mit 8x pcie 3.0, weil main mainboard was weg hat. dieselbe bandbreite wie 16x pcie 2.0. spürbare auswirkungen gibts irgendwie nicht. vl fehlen die letzten 2% leistung, aber bei einer 5700x wirst du keinen unterschied zwischen 3.0 und 4.0 bemerken.

dildo4u
2020-03-27, 12:30:34
Kommt aufs Game und die Settings an bei Doom Eternal ist die 5700XT schneller als die 2070S in 1440p,in 4k aber über 20% langsamer laut PCGH.

Das könnte man mit PCI 4.0 umgehen.

https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Ultra-Nightmare-Tuning-Tipps-Benchmarks-1345721/

Kickstart
2020-03-27, 20:54:38
Das bisher nur sehr wenige Boards mit PCIe 4.0 haben ist mir bekannt. Deswegen hat es mich gewundert das AMD scheinbar PCIe 4.0 voraussetzt. Das wäre bei der aktuellen Verbreitung der Schnittstelle doch wirtschaftlicher Selbstmord

Leonidas
2020-03-28, 04:01:02
das AMD scheinbar PCIe 4.0 voraussetzt.


Nein, PCIe 4.0 wird nicht vorausgesetzt. Es würde sicherlich sogar PCIe 1.1 reichen. Die Karte unterstützt nur schon PCIe 4.0. Dies ist ein Plus-Feature, keine Zwangs-Voraussetzung.

dildo4u
2020-03-28, 07:20:25
Das bisher nur sehr wenige Boards mit PCIe 4.0 haben ist mir bekannt. Deswegen hat es mich gewundert das AMD scheinbar PCIe 4.0 voraussetzt. Das wäre bei der aktuellen Verbreitung der Schnittstelle doch wirtschaftlicher Selbstmord
Die 5700XT ist für 1440p gedacht dort reichen die 8GB fast immer,4.0 ist deutlich Relevanter wenn man aus irgend einem Grund die 4GB 5500 kauft.

Doom ist recht speicherintensiv bis 1440p ist alles ok auch mit PCI 3.0.

https://www.computerbase.de/2020-03/doom-eternal-benchmark-test/2/#diagramm-doom-eternal-2560-1440

Fast jede Website bencht eh immer noch auf Intel 9900k Systemen mit 3.0.

Narolf
2020-03-28, 15:47:05
Das bisher nur sehr wenige Boards mit PCIe 4.0 haben ist mir bekannt. Deswegen hat es mich gewundert das AMD scheinbar PCIe 4.0 voraussetzt. Das wäre bei der aktuellen Verbreitung der Schnittstelle doch wirtschaftlicher Selbstmord
Es ist bei den vorherigen Postern schon angeklungen, aber nur um es noch mal in aller Deutlichkeit zu sagen, weil es sich so anhört als ob du hier ein Verständnisproblem hast:

PCIe ist mit allen älteren Versionen in jeglicher Kombination kompatibel. Einfach gesagt: Das Mainboard und die Steckkarte tauschen sich beim Systemstart miteinander aus, was der Maximalstandard ist den beide unterstützen und nutzen diesen dann.

Beispiele:
- Mainboard PCIe 1.1, Steckkarte PCIe 4.0 -> genutzt wird PCIe 1.1
- Mainboard PCIe 3.0, Steckkarte PCIe 2.0 -> genutzt wird PCIe 2.0

Kickstart
2020-03-28, 21:37:17
Hies es nicht mal das HBM der Grafikspeicher der Zukunft wäre? Weil er, unter anderem, höhere Bandbreiten und wesentlich niedrigen Stromverbrauch verspricht. Ich meine mich zu erinnern das auch ein gewisser Leonidas (#1) 2014 etwas zu dem Thema geschrieben hatte. ;)
Und was hat sich in der Praxis in den letzten 6 Jahren getan? Die AMD Karten mit HBM Speicher verbrauchen wesentlich MEHR Strom als ihre nVidia Pendants. Und das bei vergleichbarer Leistung - Ich bin ja kein Grafikkartenexperte, aber eine Zukunftstechnologie sieht anders aus.

#1 https://www.3dcenter.org/news/ein-moeglicher-grafikspeicher-der-zukunft-high-bandwith-memory-hbm

Edit: Außerdem setzt AMD bei bei ihrer Radeon RX 5000er Serie ausschließlich auf GDDR.

dildo4u
2020-03-28, 21:51:24
Die Technologie ist überlegen nur zu teuer Nvidias HPC GPUs für 5000€ + nutzen auch HBM2.

Tesla V100s 1.1TB/Sec

https://www.techpowerup.com/gpu-specs/tesla-v100s-pcie-32-gb.c3467

Quadro RTX 8000 mit GDDR6 672GB/Sec

https://www.techpowerup.com/gpu-specs/quadro-rtx-8000.c3306

AMD war gezwungen es bei Mainstream Vega Karten zu nutzen,da erstens ihre Kompression Techniken saugen und zweitens die Karten mit GDDR5 noch mehr Strom gebraucht hätten.
Was dazu geführt hätte das die GPUs mit noch weniger Chiptakt ausgeliefert worden wären.

Denniss
2020-03-28, 22:34:35
Vega auf den bekannten Taktfrequenzen mit GDDR5 hätte sicherlich 50W mehr gebraucht.
Für absolutes High-End mit hohen Speichermengen ist HBM ein Muß, speziell wenns dann auch um Flächen- und stromverbrauch geht.

Leonidas
2020-03-29, 04:29:07
Die AMD Karten mit HBM Speicher verbrauchen wesentlich MEHR Strom als ihre nVidia Pendants. Und das bei vergleichbarer Leistung - Ich bin ja kein Grafikkartenexperte, aber eine Zukunftstechnologie sieht anders aus.
.


Aber dies nicht wegen HBM-Speicher - sondern trotz HBM-Speicher. HBM ist nach wie vor energieeffizienter. Nur auch nach wie vor teurer - und außerdem hat GDDR6 stark aufgeholt, so dass derzeit kein HBM außerhalb von HPC benötigt wird. Der springende Punkt ist allerdings der Preis - und den kann niemand von uns so direkt sehen.

Kickstart
2020-03-29, 19:43:32
Von welcher Preisdifferenz reden wir eigentlich? Also was kostet 1 GB GDDR6 und was 1 GB HBM2?

Leonidas
2020-03-30, 05:25:25
Wir wissen es nicht - müssten es aber genau wissen, um es wirklich solide beurteilen zu können. Bei HBM kommt außerdem der Kostenzuschlag für den Interposer hinzu.

JVC
2020-03-30, 10:49:16
Vega 56 14nm + 8Gb HBM (210Watt) für ~299.-
Radeon7 7nm +16Gb HBM (300Watt) für ~699.-
(RDNA 2 7nm + 12-16Gb (220-300Watt) ~666-999.- spekuliert)

1080Ti 16nm + 11GB GDDR5X (250Watt) für ~749.-
2080Ti 12nm + 11Gb GDDR6 (250Watt) für ~1199.-
(3080Ti 10nm + 12Gb? (250Watt?) ~999-1199.- spekuliert)

Man kann auf jeden fall NVs Gewinnspanne erahnen...
Die Preise für Grakas sind generell zu hoch. Meine Meinung.

M.f.G. JVC

WedgeAntilles
2020-03-30, 12:11:29
Man kann auf jeden fall NVs Gewinnspanne erahnen...
Die Preise für Grakas sind generell zu hoch. Meine Meinung.

M.f.G. JVC

Das ist IMO definitiv so.
Der Mining-Boom hat die Preise hochschießen lassen - und die gingen nie wieder runter.

Für meine GTX 970 habe ich vor 5 Jahren 330 Euro oder so bezahlt.
Und die 970 ist sehr gut vergleichbar mit der 1070 und 2070 - jedenfalls was der Abstand zur Spitze anging.

Nur das die 2070 dann preislich nicht mehr bei 350 Euro oder so lag sondern bei 600 IIRC.
Bei 4 Jahren ist das ne Inflationsrate von über 15%...

Ich bin sehr gespannt, was wir bei der 3070 sehen werden.

Kickstart
2020-08-24, 15:46:56
Ich muss sagen das mich der derzeitige GFK-Marktüberbllick ganz schön ernüchtert.
Ich hab mir vor einem reichlichen Jahr, für knapp 300€, eine GTX 1070 geholt. Laut des GFK-Marktüberblick hat diese eine Performance von 800% und eine Leistungsaufnahme von ca. 150 Watt.
Und wie sieht es heute aus? Für das gleiche Geld würde ich nicht nur keinen deutlichen Leistungszuwachs kriegen sondern müsste auch noch Abstriche beim RAM bzw. der Leistungsaufnahme machen. Super!
Es wurde ja gemunkelt das gegen Ende des Jahres ganz neue Karten raus kommen sollen, die den Markt ordentlich umkrempeln werden. Hoffen wir mal das sich dies bewahrheitet und ich hoffe das meine Karte noch eine Weile durchhält.

Leonidas
2020-08-24, 16:32:23
Speziell die GTX1070 ist eine der unterschätztesten und langlebigsten Designs von NV. Der Produktmanager wurde wahrscheinlich gefeuert, weil das Ding so langlebig ist ;)

Kickstart
2020-08-24, 20:51:54
Ja ok, aber davor hatte ich für knappe 2 Jahre eine GTX 1060. Wieviel ich für die bezahlt habe weiß ich nicht mehr genau. Ist ja schon eine Weile her.
Ausgehend von der GTX 1060 war der Performancesprung auf die 1070 für das (mehr oder minder) gleiche Geld nicht allzu groß.

Gast
2020-08-25, 00:25:41
Ja ok, aber davor hatte ich für knappe 2 Jahre eine GTX 1060. Wieviel ich für die bezahlt habe weiß ich nicht mehr genau. Ist ja schon eine Weile her.
Und auch da war der Performancesprung für das (mehr oder minder) gleiche Geld nicht allzu groß.

Der upgrade Path war aber auch nicht der Vorteilhaftestete .
Wenn du nach 2 Jahren 1060 ohen Not eine für relativ viel geld eine EoL 1070 gekauft hast( defekt z.B.) .
In einer Generation das zum Zyclusende hin im selben portfolio zu klettern lohnt sich sowohl vom Leistungsgewinn als auch finanziell sogut wie nie.
Wenigstens einen ( selten ) eher sogar 2 Generationensprünge sind hie ratsam um hier signifikant mehr leistung für vergleichbares Geld zu bekommen.

Kickstart
2020-08-25, 16:29:47
Der upgrade Path war aber auch nicht der Vorteilhaftestete .
Wenn du nach 2 Jahren 1060 ohen Not eine für relativ viel geld eine EoL 1070 gekauft hast( defekt z.B.) .
In einer Generation das zum Zyclusende hin im selben portfolio zu klettern lohnt sich sowohl vom Leistungsgewinn als auch finanziell sogut wie nie.
Wenigstens einen ( selten ) eher sogar 2 Generationensprünge sind hie ratsam um hier signifikant mehr leistung für vergleichbares Geld zu bekommen.

Als hätte ich nicht schon geahnt das so ein Schlaubi Schlumpf Kommentar kommen würde. Ich brauchte eine neue Karte weil meine 1060 defekt war.

Um das ganze abzuschließen: Aus meiner Perspektive betrachtet stagniert der GraKa Markt seit Jahren. Das einzig neue ist das die AMD Karten der aktuellen Generation nicht mehr so extrem viel Strom ziehen. Aber das ist auch schon alles was passiert. - AMD hat mit nVidia in Sachen Leistungsaufnahme gleich gezogen.
Ich fände es auf jeden Fall super wenn ein Hersteller, so wie AMD mit den Ryzen CPUs, den Markt mal ordentlich "aufräumen" würde. Und der bzw. die Mitbewerber mal ordentlich unter Zugzwang geraten würden.
Denn wenn meine 1070 ebenso ausfallen sollte, dann würde ich für meine (bis zu) 300€ nix signifikant besseres kriegen.

Gast
2020-08-25, 18:22:57
Als hätte ich nicht schon geahnt das so ein Schlaubi Schlumpf Kommentar kommen würde. Ich brauchte eine neue Karte weil meine 1060 defekt war.

Um das ganze abzuschließen: Aus meiner Perspektive betrachtet stagniert der GraKa Markt seit Jahren. Das einzig neue ist das die AMD Karten der aktuellen Generation nicht mehr so extrem viel Strom ziehen. Aber das ist auch schon alles was passiert. - AMD hat mit nVidia in Sachen Leistungsaufnahme gleich gezogen.
Ich fände es auf jeden Fall super wenn ein Hersteller, so wie AMD mit den Ryzen CPUs, den Markt mal ordentlich "aufräumen" würde. Und der bzw. die Mitbewerber mal ordentlich unter Zugzwang geraten würden.
Denn wenn meine 1070 ebenso ausfallen sollte, dann würde ich für meine (bis zu) 300€ nix signifikant besseres kriegen.

Kauf bei nem Boardpartner mit ordentlichen Garantiekonditionen und schon haste das nächste mal 1.Problem weniger.