PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Retail-Verkaufszahlen von nVidias "SUPER"-Refresh gegen AMDs ...


Leonidas
2020-01-18, 12:18:32
Link zur News:
https://www.3dcenter.org/news/retail-verkaufszahlen-von-nvidias-super-refresh-gegen-amds-radeon-rx-5700-serie



Wichtiges Update vom 19. Januar 2020

Diese Meldung enthält im Zahlenmaterial leider einige Fehler, wie eine aktualisierte Erhebung bei der Mindfactory aufzeigt. Dabei stellte sich heraus, das zum Zeitpunkt der Datenerhebung am 31. Dezember 2019 drei Grafikkarten mit bedeutsamen Stückzahlen-Absatz nicht bei der Mindfactory gelistet waren – welche aber schon seit Monaten verkauft wurden und nun (mit Stand 18. Januar 2019) auch wieder gelistet sind. Es handelt sich hierbei um eine GeForce RTX 2080 Super von MSI (Gaming X Trio) sowie zwei Radeon RX 5700 XT von MSI & Sapphire (jeweils AMD-Referenzdesign). Die auf das Jahr 2019 bezogenen Stückzahlen erhöhen sich damit bei der GeForce RTX 2080 Super um ca. 1400 Stück, bei der Radeon RX 5700 XT um ca. 1100 Stück. Bei den anderen ausgewerteten Grafikkarten konnten (bis auf minimale Abweichungen) keine solchen groben Fehler festgestellt werden, deren Werte stimmen also. Die insgesamten Auslieferungen der Grafikkarten des Sommers 2019 erhöhen sich dementsprechend, das Verhältnis zwischen AMD und nVidia bleibt jedoch (trotz dieses erheblichen Fehlers) weiterhin gleich.

Eine kleine Veränderung gibt es beim Verkaufs-Verhältnis zwischen GeForce RTX 2060 Super und Radeon RX 5700 XT, welches nun 28:72 beträgt – aber immer noch unter "grob 30:70" eingeordnet werden kann. Damit hat sich die Radeon RX 5700 XT um das 2,6fache wie die GeForce RTX 2060 Super verkauft, eine kleine Änderung gegenüber dem bisher notierten "2,4fachen". Im dem Sinne liegt hier trotzdem "Glück im Unglück" vor, das diese doch erheblichen Fehler sich gut zwischen AMD & nVidia verteilen und somit an den jeweiligen Marktverhältnissen nichts bzw. nur unwesentlich etwas ändern, die aus diesen Zahlen entnehmbaren Aussagen somit weiterhin Bestand haben. Trotzdem ist es arg bedauerlich, das es zu solchen Fehlern kam bzw. wird damit offensichtlich, das man den öffentlich angezeigten Zahlen bei der Mindfactory nicht gänzlich trauen kann. Sobald dort einzelne Grafikkarten mal tageweise aus dem Angebotsportfolio verschwinden (und somit nicht öffentlich gelistet sind), kann es jederzeit zu solcherart Unstimmigkeiten kommen. Wir bitten hiermit die von uns anfänglich verbreiteteten fehlerhaften Daten zu entschuldigen.

Aroas
2020-01-18, 12:45:09
Tja... hätte AMD im Bereich bis 300€ nicht solch eine Scheisse gebaut, würden sie dort sicher auch deutlich besser verkaufen.
Aber eine 5500XT mit nur 4GB will für 180€ kaum jemand haben. Gleiches gilt für die 8GB Version für 210€+. Das ist, angesichts der Leistung, schlichtweg zu teuer.

Und im Bereich 250-300€ kommen sie in Form der 5600XT auch nur mit einem 6GB Speicherkrüppel daher. Das Ding kauft denen doch auch kaum jemand ab, wenn der eh schon extrem starke Konkurrent in diesem Bereich gleich mehrere Karten mit gleicher Speicherbestückung hat.
Hier hätte sich AMD mit 8GB herausstellen können (ja sogar müssen). Aber nein, man kommt mit solchem Rotz daher.

Ich rate aktuell jedem Bekannten, der in diesem Leistungsbereich aufrüsten will zu einem Gebrauchtkauf einer GTX 1070. Gibts bereits für um die 200€ mit 8GB Speicher und ist somit die viel bessere Option.

Lyka
2020-01-18, 12:49:46
Ich vermute, AMD glaubt, dass nur Fanboys Grafikkarten kaufen. Ich habe seit mehr als 15 Jahren dauerhaft eine AMD-Karte, aber seit einiger Zeit frage ich mich, was der Blödsinn soll...

Ich würde gerne mal in die Köpfe der Verantwortlichen schauen ...

Gast
2020-01-18, 13:59:26
Wir wissen, dass wir die Zahlen falsch interpretieren - aber wir machen es trotzdem. *headdesk*

Complicated
2020-01-18, 14:40:05
Das erscheint mir wie ein Boardpartner-Service. 6GB kostet die GPU-Hersteller weniger beim Gesamtprodukt und verbessert die Margen. Will AMD mehr für seine GPUs von den Boardpartnern verlangen und damit mehr Marge verdienen, wäre es möglich, dass 25% weniger Kosten bei Speicher und dadurch weniger Kosten für das PCB in 10% höheren Chip-Einkaufspreisen münden kann. Nvidias Margen kommen ja nicht aus einfach mal mehr Geld verlangen von den Board-Partnern.

Ein weiteres Szenario könnte sein, dass AMD mit bisherigen exklusiven Nvidia-Partnern ins Geschäft kommen will und so die Kalkulationsbasis und Vergleichbarkeit anpaßt. Es ist ja nicht so, dass die mit weniger Speicher ausgestatteten Nvidia-Produkte Ladenhüter sind. OEMs die beide GPU-Hersteller nutzen, wie MSI, Gigabyte und Asus werden ebenfalls darüber erfreut sein und das Geschäftsverhältnis wohl verbessert werden. Die Exklusiv-Partner können beim Preis da auch besser agieren gegen Nvidias Portfolio. Unternehmerisch ist es ganz sicher sinnvoll. Ob man das Produkt sinnvoll findet steht auf einem anderen Blatt, sollte aber eher die Sorge der OEMs sein und weniger AMDs Sorge, solange Käufer noch Ihre 8 GB Karten bekommen wenn dies gewünscht ist. Irgendwie ist mir noch nicht ganz klar wie die 6GB 5600 gegen eine 8GB 5500 plaziert werden soll...mal den Launch abwarten.

Lowkey
2020-01-18, 15:02:19
Im Link geht es um andere Karten als in den Kommentaren?

FlashBFE
2020-01-18, 15:12:44
Ich hoffe, Leo hört nach der Analyse dieser Zahlen mit solchen Einstufungen auf: kleinerer HighEnd-Modelle á GeForce GTX 1070 Ti, GeForce RTX 2060, Radeon VII oder Radeon RX 5700
Wie kann eine 2060 schon ein High-End sein, wenn sich zwei Klassen darüber eine 2070 Super wie geschnitten Brot verkauft und (zumindest im deutschen Retail) das Mainstream-Produkt ist?

Complicated
2020-01-18, 15:22:44
Mainstreamkarten sind nicht im Retail umsatzstark sondern in Fertig-PCs. Retail hat seinen Schwerpunkt oberhalb des Mainstream.
Nicht was am meisten verkauft wird bei Mindfactory ist die Definition von Mainstram-GPU.

Lowkey
2020-01-18, 16:01:58
Ich sehe da den Nvidia Marktführer Bonus und den AMD PCI-E 4.0 Bonus.

Streng genommen nach Leistung gibt es kein Highend. Denn die 2080Ti kommt an heutige Grenzen. In den aktuellen Tests reicht ein 6/12 Kerner aus. Den bekommt man für 100 Euro. Doch bei den Grafikkarten fängt bei 100 Euro nicht einmal der Einstiegssektor an.

Complicated
2020-01-18, 16:12:03
Ich würde die RX 550 schon als Einstiegskarte bezeichnen, ebenso die GT 1030.

Lehdro
2020-01-18, 16:18:32
Ich hoffe, Leo hört nach der Analyse dieser Zahlen mit solchen Einstufungen auf:
Wie kann eine 2060 schon ein High-End sein, wenn sich zwei Klassen darüber eine 2070 Super wie geschnitten Brot verkauft und (zumindest im deutschen Retail) das Mainstream-Produkt ist?
Seit wann hat der Erfolg was mit der Einstufung zu tun? Seit Jahrzehnten ist der Bereich um die 400-500€ "Highend", hat nie jemanden gestört. Alles drüber ist halt gleich "Enthusiast", völlig egal ob 700 oder 2400€.

Wäre die 1080Ti bei dir damals auch kein Highend, weil sie sich so blendend verkauft hat?

Lowkey
2020-01-18, 16:47:08
Ich würde die RX 550 schon als Einstiegskarte bezeichnen, ebenso die GT 1030.

Mit der APU aka 2400G war Fortnite auf Full HD und low Details nicht gut spielbar, auch wenn das diverse Benchmarks behaupten. Erst mit der 570 4gb bekommt man knapp 60fps hin.

Die kleinen Karten waren ursprünglich als Ersatzkarten, HTPC und Officekarten gedacht. Es ging eher um die Videobeschleunigung und weniger um die Spieleleistung.

Benutzername
2020-01-18, 16:49:08
Wir wissen, dass wir die Zahlen falsch interpretieren - aber wir machen es trotzdem. *headdesk*

WEr ist "wir" in diesem Zusammenhang?

Benutzername
2020-01-18, 16:53:42
Seit wann hat der Erfolg was mit der Einstufung zu tun? Seit Jahrzehnten ist der Bereich um die 400-500€ "Highend", hat nie jemanden gestört. Alles drüber ist halt gleich "Enthusiast", völlig egal ob 700 oder 2400€.

Bei 500€ ist eben die Schmerzgrenze für die meisten Leute. Darüber sind dann nur noch verrückte enthusiaisten und eben Profis, die so teuere Karten für die Arbeit brauchen.




Wäre die 1080Ti bei dir damals auch kein Highend, weil sie sich so blendend verkauft hat?

Sie war auf ejden FAll sehr verbreitet. Bzw. ist es immer noch, weil es wenig Grund gibt von der 1080Ti wegzugehen im Moment.

Complicated
2020-01-18, 17:08:57
Mit der APU aka 2400G war Fortnite auf Full HD und low Details nicht gut spielbar, auch wenn das diverse Benchmarks behaupten. Erst mit der 570 4gb bekommt man knapp 60fps hin.
Und sind die 550 und 1030 jetzt deswegen keine Einstiegskarten? 30 fps ist da eher der Masstab und für viele ausreichend mit einem Freesync-Monitor für reichlich Games zum Einstieg.

Sumpfeule
2020-01-18, 19:46:57
DcJsbG3htEk

sys64738
2020-01-18, 22:00:13
Auf Steam sehen die Zahlen aber doch etwas anders aus. Klar, Steam ist jetzt auch nicht 100%, aber doch eher aussagekräftig, als die Verkaufszahlen eines einzigen Billigversandes.

Gebrechlichkeit
2020-01-18, 22:43:32
Anstatt eine 5800XT rauszubringen, kommen 6 Monate nach der 5700 Serie zwei Kruecken auf den Markt. Die warten tatsaechlich auf Nvidias 3080Ti ab, bevor man die RX5990XT raus haut.

All diese Monate wurden von Nvidia durch "billig super" Aufguesse dominiert, haette man da eine RX5800XT rausgebracht, saehe das Bild anders aus. Nun warten alle auf Nvidia´s Ampere, kaufen dann eine RTX3060+, RTX3070+ bzw. RTX3080Ti anstatt eine RX5990XT?

Die RX 5800XT koennen die sich jetzt schon schenken, die kauft keiner mehr.

Denniss
2020-01-18, 22:57:40
AMD hat wohl höchste Priorität auf die RDNA2-Grafik in den Konsolen gelegt, das muß vernünftig laufen denn das bringt über Jahre Kohle in die Kassen.
Ein High-End Monster mit RDNA1 rauszuprügeln hat keinen Sinn da nvidia das wohl mit einer 3000er Serie bügeln könnte, dazu wäre der Stromverbrauch sicherlich hoch.

Mortalvision
2020-01-18, 23:49:21
Naja, dann könnte man auch CPUs analog zum Intel Atom entwickeln mit dem Argument, dass das über viele Jahre Geld in die Kassen spült. AMD hat nicht begriffen, dass der westliche GPU Markt von zwei Dingen getrieben wird: Flagschiff-performance (wer den dicksten hat, kann woanders garnicht so schlimm verkac...) und elegante Effizienz (gute custom Kühllösungen auch für wenig performante Modelle, basierend auf einem Flagschiff ohne #Toaster). Deswegen hatte es mich echt gekränkt, dass keine custom VII mit besseren VRMs und besseren Kühlern rausgekommen sind, die hätten die 5700XT schön alt aussehen lassen!

Gast
2020-01-19, 00:27:40
Der Vergleich hinkt extrem stark.

Da ist einerseits der Nvidia Turing Aufguss und andererseits die Navi-Generation.

Nachdem Turing schon viel länger am Markt ist, und die Super-Karten im wesentlichen nur eine Preissenkung mit (leicht) verändertem Namen sind ist es logisch, dass hier die Navi-Karten wesentlich besser abschneiden.

Für einen halbwegs vernünftigen vergleich müsste man bei Nvidia die gesamten Non-Super-Karten ebenfalls mitrechnenen, weil wer schon Turing hat, sieht bei den Super-Karten logischerweise keinen Aufrüstgrund

Gast
2020-01-19, 00:31:23
Seit wann hat der Erfolg was mit der Einstufung zu tun? Seit Jahrzehnten ist der Bereich um die 400-500€ "Highend", hat nie jemanden gestört.



Highend ist wie der Name schon sagt immer das obere Ende, und hat überhaupt nichts mit dem Preis zu tun.

Eine 2060 kann damit niemals highend sein, so lange es deutlich schnellere Karten auf dem Markt gibt.

Nur weil Highend mal um die 500€ war, heißt das nicht das es auf ewig so bleiben muss, und ist es auch schon lange nicht mehr.

Denniss
2020-01-19, 00:49:28
Kannst AMD ja ein paar Millionen schicken damit die mehr Ingenieure einstellen können um alles auf einmal entwickeln zu können. Von Zauberhand geschieht sowas nicht.
Und die großen Umsatzbringer, die OEMs, brauchen so ein High-End Gerät in der Regel gar nicht, die brauchen eher was vom anderen Ende bis Mittelklasse.

Thomas555
2020-01-19, 01:15:38
Erst mit der 570 4gb bekommt man knapp 60fps hin.


Und genau das ist die Einstiegskarte für Full HD.
Die meisten Spiele laufen ohne Probleme, solange man es mit den Zusatz-Features nicht übertreibt.

Leonidas
2020-01-19, 06:43:03
Wichtiges Update vom 19. Januar 2020

Diese Meldung enthält im Zahlenmaterial leider einige Fehler, wie eine aktualisierte Erhebung bei der Mindfactory aufzeigt. Dabei stellte sich heraus, das zum Zeitpunkt der Datenerhebung am 31. Dezember 2019 drei Grafikkarten mit bedeutsamen Stückzahlen-Absatz nicht bei der Mindfactory gelistet waren – welche aber schon seit Monaten verkauft wurden und nun (mit Stand 18. Januar 2019) auch wieder gelistet sind. Es handelt sich hierbei um eine GeForce RTX 2080 Super von MSI (Gaming X Trio) sowie zwei Radeon RX 5700 XT von MSI & Sapphire (jeweils AMD-Referenzdesign). Die auf das Jahr 2019 bezogenen Stückzahlen erhöhen sich damit bei der GeForce RTX 2080 Super um ca. 1400 Stück, bei der Radeon RX 5700 XT um ca. 1100 Stück. Bei den anderen ausgewerteten Grafikkarten konnten (bis auf minimale Abweichungen) keine solchen groben Fehler festgestellt werden, deren Werte stimmen also. Die insgesamten Auslieferungen der Grafikkarten des Sommers 2019 erhöhen sich dementsprechend, das Verhältnis zwischen AMD und nVidia bleibt jedoch (trotz dieses erheblichen Fehlers) weiterhin gleich.

Eine kleine Veränderung gibt es beim Verkaufs-Verhältnis zwischen GeForce RTX 2060 Super und Radeon RX 5700 XT, welches nun 28:72 beträgt – aber immer noch unter "grob 30:70" eingeordnet werden kann. Damit hat sich die Radeon RX 5700 XT um das 2,6fache wie die GeForce RTX 2060 Super verkauft, eine kleine Änderung gegenüber dem bisher notierten "2,4fachen". Im dem Sinne liegt hier trotzdem "Glück im Unglück" vor, das diese doch erheblichen Fehler sich gut zwischen AMD & nVidia verteilen und somit an den jeweiligen Marktverhältnissen nichts bzw. nur unwesentlich etwas ändern, die aus diesen Zahlen entnehmbaren Aussagen somit weiterhin Bestand haben. Trotzdem ist es arg bedauerlich, das es zu solchen Fehlern kam bzw. wird damit offensichtlich, das man den öffentlich angezeigten Zahlen bei der Mindfactory nicht gänzlich trauen kann. Sobald dort einzelne Grafikkarten mal tageweise aus dem Angebotsportfolio verschwinden (und somit nicht öffentlich gelistet sind), kann es jederzeit zu solcherart Unstimmigkeiten kommen. Wir bitten hiermit die von uns anfänglich verbreiteteten fehlerhaften Daten zu entschuldigen.

Lowkey
2020-01-19, 09:58:48
Und schon ist die 5700XT vor der 2070s.

Interessant ist auch, dass die 2070s weit vor der 2060s liegt. 500 Euro ist wohl das neue Mainstream?

Leonidas
2020-01-19, 10:16:19
Jein. Bei 500€ ist NV mit der 2070S (und früher der 2070) allein im Feld. 350-400€ wird beackert durch 2060, 2060S, 5700 & 5700XT.

amdfanuwe
2020-01-19, 10:32:57
Mal gespannt wie das ausgeht, wenn AMD mal der 2070S und 2080+ etwas entgegenstellt.

Knuddelbearli
2020-01-19, 11:26:27
Naja, dann könnte man auch CPUs analog zum Intel Atom entwickeln mit dem Argument, dass das über viele Jahre Geld in die Kassen spült. AMD hat nicht begriffen, dass der westliche GPU Markt von zwei Dingen getrieben wird: Flagschiff-performance (wer den dicksten hat, kann woanders garnicht so schlimm verkac...) und elegante Effizienz (gute custom Kühllösungen auch für wenig performante Modelle, basierend auf einem Flagschiff ohne #Toaster). Deswegen hatte es mich echt gekränkt, dass keine custom VII mit besseren VRMs und besseren Kühlern rausgekommen sind, die hätten die 5700XT schön alt aussehen lassen!

Also mir ist es lieber wenn sich AMD jetzt bei GPUs erst mal zurückhält und dafür bei CPUs ein sicheren Hauptmarkt schafft womit man gute Gewinne erwirtschaftet, um anschließend mit dem Geld daraus endlich wieder bei GPUs massiv anzugreifen. Als ein Dauerpleites AMD das sowieso immer nur 90% der Leistung abliefert, und deshalb Takt hoch prügeln muss und immer kurz vor der Insolvenz steht.

etp_inxession
2020-01-19, 17:27:03
Kann man eigentlich nicht für voll nehmen.

Wenn unwissende weiterhin aus dem Saturn und Media Markt raus watscheln und eine RTX GPU in den Händen halten, weil es dort schlicht keine AMD Karten gibt.

Bezüglich 5500 und 5600 ist einiges unverständlich, bzw einfach nicht öffentlich kommuniziert.
Allein Apple benötigt massig solcher Chips.
AMD kann denke ich nicht die Kapazitäten aufbringen um Kampfpreise aufzurufen.
Deshalb nimmt man mit was geht.

Und im Grunde hat man in jedem Preissegment nun wieder Konkurrenz.
Es spricht eigentlich nichts gegen AMD GPUs, außer Vorliebe zu nV.

Im Preisbereich der 5600XT hat auch nVidia keine aktuelle Karte mit mehr als 6 GB, weshalb die VRAM Debatte eigentlich Quatsch ist.

Da AMD aktuell in anderen Bereichen wirtschaftet, kann man sich im GPU Segment einfach an nVidias hochgetriebene Preise anschmiegen und einfach abverkaufen was man an den Mann bringt.

Mehr muss nicht.

Im Laufe des Jahres kommen noch die Konsolen dazu ... AMD konsolidiert sich aktuell. Die GPU Sparte ist auch konkurrenzfähig bis zur 2080 hoch. Darunter spricht eigentlich NICHTS gegen eine AMD GPU. Um den Markt wieder auszugleichen, eher sogar für AMD.

Aber der Kunde wird durch die RTX Peitsche in den sozialen Netzwerken ja quasi überrant ohne auch nur ein bißchen vorher zu recherchieren.

Raytracing kommt.
Raytracing steht und fällt mit den Konsolen.
RTX selbst, wird gehyped und es ist auch die einzig wirkliche Neuerung von Turing. Bis auf die 2080ti steht man selbst mit Pascal noch ordentlich da...

Und damals waren die Preise schon hoch.

Jetzt sind sie pervers.

Danke nV ...

Complicated
2020-01-19, 18:11:27
Ich frage mich gerade wie viel Interesse bei Sony und Microsoft besteht, es den Entwicklern leicht zu machen das Hybrid-Raytracing, welches AMD mit RDNA2 einführen wird, für Nvidias Raytracing-Hardware zu portieren. Da kann der RTX-Bonus ganz schnell obsolet sein Ende des Jahres wenn die Konsolen mit den neuen Spielen kommen. Das ganze erinnert mich ein wenig an AMDs Trueform-Einheit, die Tesselation schon lange mit sich rum geschleppt hat in den GPUs. Und als es endlich auch die Entwickler einsetzten, war es so Nvidia optimiert, dass in den Benchmarks AMDs SFUs mit x64 Faktoren in die Knie gezwungen werden konnten.

Gast
2020-01-20, 07:27:19
Kann man eigentlich nicht für voll nehmen.

Wenn unwissende weiterhin aus dem Saturn und Media Markt raus watscheln und eine RTX GPU in den Händen halten, weil es dort schlicht keine AMD Karten gibt.

Bezüglich 5500 und 5600 ist einiges unverständlich, bzw einfach nicht öffentlich kommuniziert.
Allein Apple benötigt massig solcher Chips.
AMD kann denke ich nicht die Kapazitäten aufbringen um Kampfpreise aufzurufen.
Deshalb nimmt man mit was geht.

Und im Grunde hat man in jedem Preissegment nun wieder Konkurrenz.
Es spricht eigentlich nichts gegen AMD GPUs, außer Vorliebe zu nV.

Im Preisbereich der 5600XT hat auch nVidia keine aktuelle Karte mit mehr als 6 GB, weshalb die VRAM Debatte eigentlich Quatsch ist.

Da AMD aktuell in anderen Bereichen wirtschaftet, kann man sich im GPU Segment einfach an nVidias hochgetriebene Preise anschmiegen und einfach abverkaufen was man an den Mann bringt.

Mehr muss nicht.

Im Laufe des Jahres kommen noch die Konsolen dazu ... AMD konsolidiert sich aktuell. Die GPU Sparte ist auch konkurrenzfähig bis zur 2080 hoch. Darunter spricht eigentlich NICHTS gegen eine AMD GPU. Um den Markt wieder auszugleichen, eher sogar für AMD.

Aber der Kunde wird durch die RTX Peitsche in den sozialen Netzwerken ja quasi überrant ohne auch nur ein bißchen vorher zu recherchieren.

Raytracing kommt.
Raytracing steht und fällt mit den Konsolen.
RTX selbst, wird gehyped und es ist auch die einzig wirkliche Neuerung von Turing. Bis auf die 2080ti steht man selbst mit Pascal noch ordentlich da...

Und damals waren die Preise schon hoch.

Jetzt sind sie pervers.

Danke nV ...

Es spricht sehr viel Hausgemachter Mist gegen AMD GPUs gerade für DAUs.

Ganz oben die immernoch wackeligen Treiber seit mit Navi nochmal einen draufgesattelt bekommen haben.

Der Mediamarkt Dau will die Karte einbauen und nutzen und nicht erst Foren wälzen um seine treiberresets in den Griff zu bekommen , GN hatte dazu letztens ein nettes Video in welchen sie das mal wieder mit AMD auf der CES kommuniziert haben.

Hotspotprobleme , fehlende Effizienz unserer muss man da garnicht ins Feld führen da der Drops vorher schon gelutscht ist.

Gast
2020-01-20, 09:50:18
Ich frage mich gerade wie viel Interesse bei Sony und Microsoft besteht, es den Entwicklern leicht zu machen das Hybrid-Raytracing, welches AMD mit RDNA2 einführen wird, für Nvidias Raytracing-Hardware zu portieren. Da kann der RTX-Bonus ganz schnell obsolet sein Ende des Jahres wenn die Konsolen mit den neuen Spielen kommen. Das ganze erinnert mich ein wenig an AMDs Trueform-Einheit, die Tesselation schon lange mit sich rum geschleppt hat in den GPUs. Und als es endlich auch die Entwickler einsetzten, war es so Nvidia optimiert, dass in den Benchmarks AMDs SFUs mit x64 Faktoren in die Knie gezwungen werden konnten.

Die Frage ist doch zu allererst werden es überhaupt FF Einheiten oder wird das eine reine Softwaregeschichte über die Shader um den Punkt auf der Checkliste formal fürs Marketing stehen zu haben?

Für mich sieht es alles nach Antwort B.) aus, dafür spricht auch die Die Chipfläche und Speicheraustattung der neuen Konsolen welche bisher durch gesickert sind.

Vorallem aber fehlt die offizielle Bestättigung von RT mit Hardwarebeschleunigung seitens AMD obwohl man auf der Timeline schon sehr weit Fortgeschritten ist und NV eh schon die Hosen runtergelassen hat.

Su sagt zwar RT sei wichtig und kommt , das allein ist aber noch kein Garant für entsprechend verbaute FF einheiten.

pilzsammler2002
2020-01-20, 09:55:05
Mit der APU aka 2400G war Fortnite auf Full HD und low Details nicht gut spielbar, auch wenn das diverse Benchmarks behaupten. Erst mit der 570 4gb bekommt man knapp 60fps hin.

Whoot? Auf Medium biste mit dem 2400G schon immer über 60FPS+...

https://www.youtube.com/watch?v=OyfjmTba1A8&t=617s

Lowkey
2020-01-20, 10:18:00
Tja, du hast auch 100fps im freien Fall, aber das Video spiegelt auch nicht alle Facetten wieder. Bei Squad im Nahkampf aka Buildfight dropen die FPS und in der Ferne kannst du schwer etwas erkennen, da manche Waffen kein Scope haben. Junior ist sogar an Items vorbeigegangen, weil er sie im Gras nicht erkennen konnte. 570 rein und es läuft in Full HD perfekt. Der Sprung von APU auf Grafikkarte ist sehr groß. Ich bin selber mal von 1050Ti auf 1060 auf 2070 gewechselt, damit ich im gesamten Spiel meine 120fps auf Full HD halten kann.

Ich muss mir aber mal die DX12 Benchmarks mit AMD anschauen...

Screemer
2020-01-20, 10:26:14
du willst einfach was erzählen, oder? das video hat genug infight/buildfights mit mehreren spielern und da gibts keine drops unter 55fps. das ganze aber eben auf medium und nicht auf low wie du erzählen willst. das spiegelt auch genau die erfahrungen wieder die ich gesammelt habe. evtl. solltest du ne apu nicht mit 2133 ddr4 kombinieren :ugly:

Lowkey
2020-01-20, 10:37:17
Nee das ist nicht das Fortnite von 2020 ;)

WedgeAntilles
2020-01-20, 12:33:39
Es spricht sehr viel Hausgemachter Mist gegen AMD GPUs gerade für DAUs.

Ganz oben die immernoch wackeligen Treiber seit mit Navi nochmal einen draufgesattelt bekommen haben.

Der Mediamarkt Dau will die Karte einbauen und nutzen und nicht erst Foren wälzen um seine treiberresets in den Griff zu bekommen , GN hatte dazu letztens ein nettes Video in welchen sie das mal wieder mit AMD auf der CES kommuniziert haben.

Hotspotprobleme , fehlende Effizienz unserer muss man da garnicht ins Feld führen da der Drops vorher schon gelutscht ist.

Wieso ist man ein DAU, wenn man erwartet, dass etwas schlicht funktioniert nachdem man es gekauft hat? :confused:

Gast
2020-01-20, 13:24:10
Wieso ist man ein DAU, wenn man erwartet, dass etwas schlicht funktioniert nachdem man es gekauft hat? :confused:

Ich schrieb " gerade für DAUs " udn meinete damit im besonderen.

Ärgerlich ist das sowie so , erfahrene User haben aber zumindest die Möglichkeit eine Workaround enzurichten so das Dual Monitor Setups oder High refresh Monitore nicht mehr zum Totalausfall führen müssen.

Zum Image für die ganze Firma trägt sicher auch nicht bei das AMD der bisher einzige Anbieter von PCIE 4.0Mainboards sowie GPUs ist und es hier je nach Biosversion im PCIE 4.0 Betrieb teils zu beträchtlichen Problemen kommt.

Das sind zweifelsohne hausgemachte Probleme die hier das Bild negativ beeinflussen und unbedarfte User nunmal härter treffen da hier z.B. ein Bios Update auch wenn im Grunde einfach eine unüberwindbare Hürde darstellen kann und der Schritt der Wahl in einer RMA oder Rückabwicklung besteht..

Mr.Smith
2020-01-20, 14:49:10
und damit einen wenigstens sehr groben Vergleich der Grafikkarten-Verkäufe von AMD & Intel im Retail-Geschäft in Deutschland erlauben

gogogo Intel :D

Complicated
2020-01-20, 16:20:05
Die Frage ist doch zu allererst werden es überhaupt FF Einheiten oder wird das eine reine Softwaregeschichte über die Shader um den Punkt auf der Checkliste formal fürs Marketing stehen zu haben?

Nein das ist keine Frage.
Es werden Hardwareinheiten genutzt die schon verbaut sind und wofür es Softwareanpassungen braucht.
Ob du Texture-Prozessoren als FFU bezeichnen willst bleibt dir überlassen.

Leonidas
2020-01-20, 17:19:25
gogogo Intel :D


:up:

Gefixt.

Rabiata
2020-01-21, 10:49:17
Bezüglich 5500 und 5600 ist einiges unverständlich, bzw einfach nicht öffentlich kommuniziert.
Allein Apple benötigt massig solcher Chips.
AMD kann denke ich nicht die Kapazitäten aufbringen um Kampfpreise aufzurufen.
Deshalb nimmt man mit was geht.

Und im Grunde hat man in jedem Preissegment nun wieder Konkurrenz.
Es spricht eigentlich nichts gegen AMD GPUs, außer Vorliebe zu nV.

Im Preisbereich der 5600XT hat auch nVidia keine aktuelle Karte mit mehr als 6 GB, weshalb die VRAM Debatte eigentlich Quatsch ist.

Da AMD aktuell in anderen Bereichen wirtschaftet, kann man sich im GPU Segment einfach an nVidias hochgetriebene Preise anschmiegen und einfach abverkaufen was man an den Mann bringt.

Wenn die Aussage stimmt, daß AMD eh fast alles an Apple verkauft, ergibt die Strategie Sinn. Den Rest nehmen dann die eingefleischten AMD-Fans, auch zu Konditionen wo P/L eher hinter Nvidia zurückhängt.

Ansonsten denke ich jedoch, daß

die 5500 XT um 20 Euro oder so zu teuer ist. Auch im Vergleich zu RX 5xx Karten, ob neu oder gebraucht.
und die 5600 XT mit nur 6 GB VRAM eher uninteressant ist, da rechne ich damit daß die 6 GB zu knapp werden bevor es bei der Rechenleistung eng wird. Da würde ich noch eher die 5500 XT 8 GB nehmen.

MiamiNice
2020-01-21, 11:11:06
Im Laufe des Jahres kommen noch die Konsolen dazu ... AMD konsolidiert sich aktuell. Die GPU Sparte ist auch konkurrenzfähig bis zur 2080 hoch. Darunter spricht eigentlich NICHTS gegen eine AMD GPU. Um den Markt wieder auszugleichen, eher sogar für AMD.


Da hat aber jemand in rotem Wasser gebadet.

Was gegen eine AMD GPU spricht:

Treiber auf vielfältiger Weise. Sei es der Punkt das der AMD Treiber quasi für jedes Spiel eine Anpassung braucht um perfekt zu laufen. Teilweise ist es so das man mit einer AMD GPU ein Spiel gar nicht oder sehr schlecht spielen kann bis ein passender Treiber kommt. Für manche Indie Games erscheint nie ein Treiber, der das Spiel anständig laufen lässt. Außerdem soll der Treiber recht wackelig sein, kann ich selber nicht beurteilen, liest man aber öfter. Nächster Punkt = Leistung. Zu wenig. Und wie war das nochmal mit der generellen Unspielbarkeit von Rift-S Anwendungen auf AMD GPUs? Mittlerweile gefixt? Diverse Webseiten bescheinigen AMD GPUs diverse Unverträglichkeiten innerhalb von Spielen wie z.b. Projekt Cars 2 und das auch gerade unter VR.

Und das sind nur Dinge die mir direkt einfallen, ohne zu googlen.
Sorry aber da fällt es mir nicht schwer einen RTX Beschleuniger aus dem Laden zu tragen. Es gibt nämlich nichts anderes was ein Gamer kaufen könnte, derzeit. Ausnahme ist natürlich wenn der Anspruch gering genug ist um mit den Problemen zu leben, die einen eine AMD GPU derzeit bescheren.

Und btw: Auf einem Intel + NV Rechner läuft quasi jede Software am ersten Tag ootb gut, bis sehr gut. Das ist mit einem AMD Rechner absolut nicht immer so. Und ja, alleine schon das ist ein dicker Punkt gegen AMD.

Ätznatron
2020-01-21, 11:59:23
....

Hm, VR interessiert mich zugegebenermaßen (noch) nicht und daher kann ich das nicht beurteilen, aber was deine anderen Punkte gegen AMD betrifft, kann ich dich sehr beruhigen: ALLE meiner wirklich zahlreichen Spiele, inklusive Project Cars 2, laufen mit meiner Radeon VII und entsprechend deren Treiber ootb einwandfrei, sieht man mal vom grottigen Verhalten bei OGL-Spielen ab.

Es gibt die von dir beschriebenen Probleme bei mir einfach nicht.

maximus_hertus
2020-01-21, 12:20:15
Treiber auf vielfältiger Weise.

SO muss ein guter Treiber aussehen:

Verschlimmbesserung
Allerdings dürfte diese neueste GeForce-Version nicht für alle Spiele gleich gut funktionieren. Im Gegenteil sogar: Bei Counter-Strike: Global Offensive (CS:GO) wird die Framerate verschlechtert und das spürbar. So berichtet ein Nutzer auf Reddit, dass er den CS:GO-spezifischen FPS Benchmark schon oftmals ausgeführt habe und das durchschnittliche Ergebnis ein Wert von 320fps war (mit zuletzt Treiber 431.60).

Nach der Installation von GeForce 436.02 ist das Ergebnis je nach Latenzmodus um 60 bis 100 Frames pro Sekunde kleiner gewesen. Andere Nutzer bestätigten die Einbußen, natürlich waren die fps-Werte abhängig von der Hardware. Dennoch war das Fazit fast immer dasselbe: Der neue Treiber verschlechtert die Werte.

Das Problem ist offenbar nicht CS:GO-exklusiv, in den Nvidia-Foren (via Windows Latest) gibt es mittlerweile zahlreiche Berichte über ähnliche Probleme. Als Spieletitel werden u. a. The Witcher 3, Grand Theft Auto 5 und Battlefield 5 genannt, also durchaus auch aktuelle Titel.


Aber das ist bestimmt nur Fake-News gewesen :D

Getreu dem Motto: es kann nicht sein, was nicht sein darf.


Am Ende, wenn man objektiv ran geht, gibt es doch nur ein Fazit: Für den "normalen" Gamer bieten beide (AMD und nVidia) eine gute Performance, auch ootb.

Wenn man spezielle Anforderungen hat, die eine Nische von einer Nische darstellen (wie bei MiamiNice), kann es sich natürlich ändern.

Wie gesagt, für den 08/15 Gamer, 1920x1080, 60 Hz => da ist es ziemlich wurscht ob Grün oder Rot. Beide liefern eine vernünftige Gaming-Performance bzw. Treiber-Qualität. Bei der UI ist jedoch AMD um ganze Dimensionen voraus.

MiamiNice
2020-01-21, 16:35:09
Hm, VR interessiert mich zugegebenermaßen (noch) nicht und daher kann ich das nicht beurteilen, aber was deine anderen Punkte gegen AMD betrifft, kann ich dich sehr beruhigen: ALLE meiner wirklich zahlreichen Spiele, inklusive Project Cars 2, laufen mit meiner Radeon VII und entsprechend deren Treiber ootb einwandfrei, sieht man mal vom grottigen Verhalten bei OGL-Spielen ab.

Es gibt die von dir beschriebenen Probleme bei mir einfach nicht.

Dann scheinst Du einen klassischen 2D AAA Geschmack bei Spielen zu haben. Verlässt Du diesen Pfad einmal, erinnere Dich an meine Zeilen.

@maximus_hertus:

Du schreibst leider Stuss. Selbst die Computerbase hat mal Indie Games auf diversen HW vergleichen und kam zum selben Schluss wie von mir skizziert.

Nebenbei bin ich seit über 20 Jahren beim Gaming dabei und habe leider nicht nur Mates mit anständigen Gaming PCs. Ich weiß sehr gut wo von ich schreibe in diesem Bereich.

Und ich weiß auch nicht warum Du da jetzt einen Einzelfall raus holst wenn es bei der Konkurrenz noch nie besser war? Äpfel und Birnen? Das Software fehlerhaft ist, wissen wir alle.

Wie gesagt, für den 08/15 Gamer, 1920x1080, 60 Hz => da ist es ziemlich wurscht ob Grün oder Rot. Beide liefern eine vernünftige Gaming-Performance bzw. Treiber-Qualität. Bei der UI ist jedoch AMD um ganze Dimensionen voraus.

Da gebe ich Dir sogar teils recht. Für den 08/15 Gamer mit seinen 60Hz auf FHD macht das echt keine großen Unterschied so lange der bei den AAA Titeln bleibt. Und selbst alles andere Interessiert ihn nicht, da er FPS Drops auf 35Fps gar nicht wahr nimmt.

Gast
2020-01-21, 21:07:21
Sei es der Punkt das der AMD Treiber quasi für jedes Spiel eine Anpassung braucht um perfekt zu laufen. Teilweise ist es so das man mit einer AMD GPU ein Spiel gar nicht oder sehr schlecht spielen kann bis ein passender Treiber kommt. Für manche Indie Games erscheint nie ein Treiber, der das Spiel anständig laufen lässt.

...

Nebenbei bin ich seit über 20 Jahren beim Gaming dabei und habe leider nicht nur Mates mit anständigen Gaming PCs. Ich weiß sehr gut wo von ich schreibe in diesem Bereich.

Einer, der so hohe Meinung über sich hat, solte auch wissen dass es auf Spiele Entwickler liegt Software anzupassen und nicht umgekehrt ... Alles im Software Welt wird so entwickelt, warum solten Spiele die Ausnahme sein?

Auf nVidia Treiber funkzionieren einige Spiele besser weil sie Entwickler für Hilfe leihen, und die optimiziren schlechte Code das sie gut läuft auf nVidia GPUs. AMD macht das oft nicht, und deshalb lauft die schlecthe Code auf AMD GPUs langsam oder gar nicht.

Dass sollte aber nicht so sein. Die Spiele Entwickler sollten ihre Code Herstellerunabhängig schreiben und optimiren, und alle würden profitiren. Und der Trend scheint zu sein das nur die von AMD sponsorierte Spiele das folgen, nVidia sponsorierte Spiele aber leider meist ein Hack auf Hack sind.

Gast
2020-01-23, 10:01:18
Einer, der so hohe Meinung über sich hat, solte auch wissen dass es auf Spiele Entwickler liegt Software anzupassen und nicht umgekehrt ... Alles im Software Welt wird so entwickelt, warum solten Spiele die Ausnahme sein?

Auf nVidia Treiber funkzionieren einige Spiele besser weil sie Entwickler für Hilfe leihen, und die optimiziren schlechte Code das sie gut läuft auf nVidia GPUs. AMD macht das oft nicht, und deshalb lauft die schlecthe Code auf AMD GPUs langsam oder gar nicht.

Dass sollte aber nicht so sein. Die Spiele Entwickler sollten ihre Code Herstellerunabhängig schreiben und optimiren, und alle würden profitiren. Und der Trend scheint zu sein das nur die von AMD sponsorierte Spiele das folgen, nVidia sponsorierte Spiele aber leider meist ein Hack auf Hack sind.

Warum gehst du dann nicht unentgeltlich Nachbars Kinder betreuen damit er drauf aufbauen kann, fremde Autos aufarbeiten damit sie andere besser verkaufen können, das Dach reparieren damit sich Vermieter und andere Mietparteien um ihre Angelegenheiten kümmern können usw. davon haben schließlich alle was vorfallen die anderen, so sollte es sein...

Singen und klatschen ......

Gast
2020-01-23, 21:31:30
Warum gehst du dann nicht unentgeltlich Nachbars Kinder betreuen damit er drauf aufbauen kann, fremde Autos aufarbeiten damit sie andere besser verkaufen können, das Dach reparieren damit sich Vermieter und andere Mietparteien um ihre Angelegenheiten kümmern können usw. davon haben schließlich alle was vorfallen die anderen, so sollte es sein...

Singen und klatschen ......

Was für ein Unsinn. Wenn du ein Softwareentwickler wärst, würdest du wissen, das sich die Software immer der Platform anpasst und nich umgekert. Vielleich wirst du dich I'm 10 Jahren an diese Worte erinnern, wenn nVidia den Treiber putzt und dein lieblings Spiel nur noch mit 10 Bilder pro Sekunde läuft oder massiv Artefakte hat ;).

Gast
2020-01-24, 09:38:12
Was für ein Unsinn. Wenn du ein Softwareentwickler wärst, würdest du wissen, das sich die Software immer der Platform anpasst und nich umgekert. Vielleich wirst du dich I'm 10 Jahren an diese Worte erinnern, wenn nVidia den Treiber putzt und dein lieblings Spiel nur noch mit 10 Bilder pro Sekunde läuft oder massiv Artefakte hat ;).

Danke ,jetzt haben wir zumindest die Aussage eines waschechten Softwareentwicklers, ich sorge auch jetzt direkt schon vor mit einem extra geheimen Sparstrumpf wo amd drauf steht den in 10 Jahren geht mit Nvidia nach der großen Treiber Update danke für die Insider Infos erleuchteter

Singen und klatschen ..+ glauben und beten ... wird immer besser das Ganze 👌

MiamiNice
2020-01-24, 11:34:38
Was für ein Unsinn. Wenn du ein Softwareentwickler wärst, würdest du wissen, das sich die Software immer der Platform anpasst und nich umgekert. Vielleich wirst du dich I'm 10 Jahren an diese Worte erinnern, wenn nVidia den Treiber putzt und dein lieblings Spiel nur noch mit 10 Bilder pro Sekunde läuft oder massiv Artefakte hat ;).

Das solltest Du mal AMD erzählen. Da haben die mit dem Bulli gut Erfahrung drin gesammelt wie gut sich Software anpasst.

Und PS: Wenn ich es mir recht überlege ist es ja bis dato nichts anderes. Zig Threads in der Hardware die die heutige Software nicht mal ansatzweise ausnutzt.

Jo, Du hast bestimmt recht, Software passt sich immer der HW an :)
Kannst Dich ja mit AMD in ein Boot setzen, die sehen das ähnlich.
Die Realität sieht es allerdings (noch) anders, Danke für das Gespräch.

Exxtreme
2020-01-24, 13:07:14
Da hat aber jemand in rotem Wasser gebadet.

Was gegen eine AMD GPU spricht:

Treiber auf vielfältiger Weise. Sei es der Punkt das der AMD Treiber quasi für jedes Spiel eine Anpassung braucht um perfekt zu laufen. Teilweise ist es so das man mit einer AMD GPU ein Spiel gar nicht oder sehr schlecht spielen kann bis ein passender Treiber kommt. Für manche Indie Games erscheint nie ein Treiber, der das Spiel anständig laufen lässt.

"Quasi für jedes Spiel" ist schon sehr arg übertrieben. Und es gibt da auch noch so eine seltsame Korrelation, dass grad die Spiele Anpassungen benötigen, die ein einzelner Bughaufen sind. Und wenn du dir die Anpassungen so anschaust dann sind es zu 85% reine Performanceverbesserungen um 2 - 10%. Nicht mehr und nicht weniger.

Gast
2020-01-24, 15:26:35
Danke ,jetzt haben wir zumindest die Aussage eines waschechten Softwareentwicklers, ich sorge auch jetzt direkt schon vor mit einem extra geheimen Sparstrumpf wo amd drauf steht den in 10 Jahren geht mit Nvidia nach der großen Treiber Update danke für die Insider Infos erleuchteter

Singen und klatschen ..+ glauben und beten ... wird immer besser das Ganze 👌

Zumindest schaue ich auf das Problem der heutige Spiele von einen Neutralen Standpunkt, du aber aus Anti-AMD/nVidia Fanboy. Ich werde dir aber nich mehr kontrieren: jeder kann seine Meinung haben, auch ven es falsch ist ...

Das solltest Du mal AMD erzählen. Da haben die mit dem Bulli gut Erfahrung drin gesammelt wie gut sich Software anpasst.

Und PS: Wenn ich es mir recht überlege ist es ja bis dato nichts anderes. Zig Threads in der Hardware die die heutige Software nicht mal ansatzweise ausnutzt.

Jo, Du hast bestimmt recht, Software passt sich immer der HW an :)
Kannst Dich ja mit AMD in ein Boot setzen, die sehen das ähnlich.
Die Realität sieht es allerdings (noch) anders, Danke für das Gespräch.

Ich rede nicht vom Treiber Bugs, die natürlich korrigiert werden müssen, aber von manchmal abnormalen nummer der Bugs in den Spielen. @Exxtreme hat anderes super geklärt und ich stimme ihm zu.