PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 24. Januar 2020


Leonidas
2020-01-25, 07:03:40
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-24-januar-2020

Gouvernator
2020-01-25, 09:31:08
marktveränderten Effekt beim 4K-Gaming
Ja gut, vorausgesetzt Nvidia macht 8k zum Standard mit 3080TI, dann klingt 4K Gaming nicht so abgehoben. Die sprechen ja auch nicht von 4k@120Hz Gaming. Sprich AMD macht für 400€ eine 2080TI platt und gut ist.

Raff
2020-01-25, 10:13:56
Das Wort "disruptiv" war in AMD-Texten auch zur Radeon RX 5600 XT zu lesen. Und diese ist bekanntlich aus keiner Perspektive wirklich hilfreich für den Markt und die Kunden. AMD scheint der Erfolg im CPU-Bereich langsam zu Kopfe zu steigen - bleibt zu hoffen, dass darauf endlich auch Taten folgen.

MfG,
Raff

maximus_hertus
2020-01-25, 11:14:47
Das Wort "disruptiv" war in AMD-Texten auch zur Radeon RX 5600 XT zu lesen. Und diese ist bekanntlich aus keiner Perspektive wirklich hilfreich für den Markt und die Kunden. AMD scheint der Erfolg im CPU-Bereich langsam zu Kopfe zu steigen - bleibt zu hoffen, dass darauf endlich auch Taten folgen.

MfG,
Raff

Kommt darauf an, wie du "den Markt" definierst. Evtl. ist die 5600XT ein OEM Erfolg? Man wird es in den kommenden Monaten sehen :)

Für den DIY-Selbstbauer ist sie natürlich aktuell nicht all zu attraktiv. Umgekehrt: dem 08/15 Gamer ist es nahezu komplett egal ob die Karte für 6, 12 oder mehr Monate "reicht". Das ist nur für eine Minderheit wirklich interessant.


Schauen wir uns mal die 10 Umsatzstärksten PC-Spiele im Dezember 2019 an (am Ende stellen sie die wohl größte potentielle Käuferschaft für Grafikkarten dar):

1. LoL
2. Dungeon Fighter Online
3. Crossfire
4. Fantasy Westward Journey Online II
5. RDR2
6. Roblox
7. CoD: MW 2019
8. WoW West
9. CS: GO
10. Halo MCC

Die beiden "AAA" Spiele, CoD und RDR2 kommen bis 1440p sehr gut mit 6GB klar. Ergo keines der Top 10 Games ist mit 6GB eingeschränkt spielbar, alles läuft mit 6GB sehr gut.

Bevor man mir aber die Worte im Munde umdreht => ich finde 6GB für 2020 im 300 USD/Euro Bereich überhaupt nicht mehr zeitgemäß. Aber ich bin halt nicht der Nabel der Welt und der 08/15 Zocker interessiert sich nicht für solche "unwichtigen" Details. Dazu gibt es bis auf eine Handvoll "AAA" Games kaum Spiele, die technisch 8GB wirklich nutzen.


Last but not least: AMD könnte ja die eigenen Einnahmen mit disruptiv meinen. Quasi ein Preiskampf, aber nach oben. nV sieht, dass AMD nciht unbedingt einen aggro Preiskampf führt und steigert wie immer die Preise mit der neuen Gen. AMD zieht nach, bleibt mit einem kleinen Abstand hinter nV (beim Preis) und beide können sehr gut damit klar kommen.
Am Ende wäre der Spieler der große Verlierer ^^

basix
2020-01-25, 11:29:44
Das Wort "disruptiv" war in AMD-Texten auch zur Radeon RX 5600 XT zu lesen. Und diese ist bekanntlich aus keiner Perspektive wirklich hilfreich für den Markt und die Kunden. AMD scheint der Erfolg im CPU-Bereich langsam zu Kopfe zu steigen - bleibt zu hoffen, dass darauf endlich auch Taten folgen.

MfG,
Raff

Das ist jetzt etwas hart ausgedrückt. Die 5600 XT ist immerhin auf Augenhöhe mit dem ach so starken Nvidia. Ja, kein RT und keine Tensor Cores. Aber das haben die TU11x Chips auch nicht. Und ja, nichts was man in ähnlichem Masse schon bei Nvidia bekommen hätte. Ich denke, dass AMD das eher so gemeint hat: Marktführerschaft des Platzhirsches bedeutend "stören" (was eine mögliche Übersetzung von disruptiv ist ;)). Genau das hat Zen 1 auch geschafft. Sie haben Intel nicht überholt, aber bei den meisten Punkten eingeholt und geringere Preise verlangt. Die 5600 XT schlägt sich ganz gut gegen die GTX 1660 Derivate. Genau das erhoffe ich mir mit RDNA2: Konkurrenzfähige Produkte, wenn möglich auf Augenhöhe mit Nvidia, sowie über alles hinweg geringere Marktpreise als wir sie heute kennen. Ich meine, eine 2080 non-Ti mit 8GB für >800 Euro auf den Markt zu bringen war eine Frechheit. Eine 2080 Ti ist preislich jenseits von Gut und Böse (mea culpa). Hier täte eine Anpassung der Marktpreise sehr gut, sagen wir mal -25% in allen Produktkategorien. Top Dog wäre immer noch um die 1000 Euro, was ja immer noch viel wäre. 1660 Ti a-likes für 250 Euro anstatt 300. 2070er Klasse für 450 Euro. 2080er Klasse für 600-650. Das wäre disruptiv ;)

Edit:
Ach ja, ich habe gestern Igors Artikel (Link (https://www.igorslab.de/amd-radeon-pro-w5700-im-leistungs-test-mit-tear-down-reicht-es-fuer-die-quadro-rtx-4000/)) über die Radeon Pro W5700 gelesen. RDNA macht in vielen Anwendungen einen sehr guten Sprung. Man ist noch nicht ganz bei Nvidia aber die Lücke schliesst sich ;) Und mit PCIe 4.0 knackt man oftmals sogar die RTX 4000.

Gast Ritis
2020-01-25, 11:32:53
Auch Intel hat vor Ryzen keinerlei erkennbare Flanke offen gelassen. Die Many Cores wurden teils mit Anerkennung belächelt solange der 7700k in alten Games noch vorne lag.

Von daher kann allein AMD einschätzen ob deren neue GPUs die Chance auf disruptiv haben. Der Renoir Vega ist disruptiv.
Vielleicht der BigNavi auch aber natürlich immer nur gemessen an heutigen Produkten. Wenn Nvidia gleichermassen disruptiv ist, dann ist es eben die ganze Generation ggü. der letzten Generation.

Lehdro
2020-01-25, 12:59:48
Das Wort "disruptiv" war in AMD-Texten auch zur Radeon RX 5600 XT zu lesen. Und diese ist bekanntlich aus keiner Perspektive wirklich hilfreich für den Markt und die Kunden.
Ist ganz einfach: Wenn der unumschränkte Herrscher einfach mal so flugs seine Preise um 50$ senken muss um auf die kleine Konkurrenz zu reagieren - oder noch besser: Sich gezwungen sieht zu reagieren, so kann man das durchaus als disruptiv deklarieren, da NV eben nicht seinen Stiefel so durchziehen kann wie zuvor. War mit Zen nicht anders am Anfang.

Mr.Smith
2020-01-25, 13:14:45
ist doch klar, 7nm+ rdna2 wird 2080ti überholen und nvidia wird dann ihrerseits mit der 3080ti zurückschlage.
Trotzdem sehr schön wenn man dann mehr Leistung als bei ner aktuell 1000€ Grafikkarte bekommst für die hälfte vom Preis.

WedgeAntilles
2020-01-25, 16:55:01
Konkurrenzfähige Produkte, wenn möglich auf Augenhöhe mit Nvidia, sowie über alles hinweg geringere Marktpreise als wir sie heute kennen. Ich meine, eine 2080 non-Ti mit 8GB für >800 Euro auf den Markt zu bringen war eine Frechheit. Eine 2080 Ti ist preislich jenseits von Gut und Böse (mea culpa). Hier täte eine Anpassung der Marktpreise sehr gut, sagen wir mal -25% in allen Produktkategorien. Top Dog wäre immer noch um die 1000 Euro, was ja immer noch viel wäre. 1660 Ti a-likes für 250 Euro anstatt 300. 2070er Klasse für 450 Euro. 2080er Klasse für 600-650. Das wäre disruptiv ;)


Das wäre wirklich schön.
Die letzten 3 Monate haben bei AMD GraKas ein paar wirklich interessante Produkte gebracht.
Persönlich neige ich klar mehr zu Nvidia, da ich da einfach ein besseres Gefühl habe.
Aber die Preisentwicklung bei Nvidia die letzten Jahre war heftig.
Und meine GTX 970 ist jetzt halt doch schon recht alt.
Wenn Nvidia da durch eine starke AMD Konkurrenz gezwungen wird, wieder "normalere" Preise so wie du sie nennst anzusetzen - traumhaft :)

Rabiata
2020-01-25, 17:21:56
Ich lese aus Chandrasekars Aussage den Anspruch heraus, daß AMD zukünftig bei 4K auf Augenhöhe mit Nvidia sein will. Nicht mehr und nicht weniger.

Inwieweit das bei den "kleineren" GraKas heute erreicht wird, ist sicher diskutierbar, aber das Ziel scheint mir in Sichtweite.

Gast
2020-01-25, 17:43:19
Big Navi klingt gut, wenn er denn noch gegen Turing antreten würde.

Aber nachdem er so spät kommt, wird er wohl schon gegen Ampere antreten müssen, und da kann man eigentlich nicht erwarten, dass dieser noch gut aussieht.

Gast
2020-01-25, 20:57:51
Eigentlich sollten alle alt genung sein insolche Aussagen nicht ihr eigenes Wunschbild hinein zu interpretieren.

Is doch immer die gleiche Schiene man Lob sich und seine Ziele über den grünen Klee ohne irgend einen Anspruch auf Wahrheit.

Dann bekommt das geifernde Publikum die als Overclockers Dream Poor Volta vermöbelt um „ it just works „ in 4K distributiv an den Karten zu pissen.

KodeX
2020-01-26, 03:24:33
Man sollte die Chipgrößen nicht außer Acht lassen. Nvidia hat tatsächlich mit 12 Nanometern eine schnellere Grafikkarte als AMD in 7 Nanometer. Der Chip der 2080 TI ist allerdings auch sehr viel größer. Ich habe die genauen Zahlen zur Packdichte jetzt nicht im Kopf und habe auch keine Lust, diese nachzusehen. Aber soweit ich mich erinnern kann, wäre Nvidias GT102 auch in 7 Nanometern deutlich größer als AMDs Navi 10.

Gast
2020-01-26, 10:36:51
Man sollte die Chipgrößen nicht außer Acht lassen. Nvidia hat tatsächlich mit 12 Nanometern eine schnellere Grafikkarte als AMD in 7 Nanometer. Der Chip der 2080 TI ist allerdings auch sehr viel größer. Ich habe die genauen Zahlen zur Packdichte jetzt nicht im Kopf und habe auch keine Lust, diese nachzusehen. Aber soweit ich mich erinnern kann, wäre Nvidias GT102 auch in 7 Nanometern deutlich größer als AMDs Navi 10.

Fläche lässt sich über den Preis regeln , beim Verbrauch geht das nicht wirklich big Navi mit 400w ist einfach ein no go

Fragman
2020-01-26, 11:07:42
Trotzdem sehr schön wenn man dann mehr Leistung als bei ner aktuell 1000€ Grafikkarte bekommst für die hälfte vom Preis.

Beide werden große Chips bringen und damit wirds preislich genauso teuer. Der Performancesprung wird nach den bisherigen Gerüchten nicht so groß sein, das 50% vom Preis übrig bleiben können. Die 2080 Leistung wäre ja dann für knapp unter 350 Euro zu haben bei beiden. DAS Glaube ich nicht, vielleicht 30% günstiger, wenn man etwas realistischer bleibt? Sprich alles rutscht eine Stufe runter. Dann könnte AMD Big Navi bei 1k plazieren und nv die TI wieder bei 1.3K. Man darf ja nicht vergessen, das AMD immer bei den nv Preisen mitzieht. Deshalb verkaufen sie nicht soviel günstiger ausser sie müssen, dann ist die Leistung aber wieder nicht sogut.

Gast
2020-01-26, 11:14:19
Und mit Big navi ( RX 6000? ) kommt auch der vollwertige RDNA . RDNA 1 war ja ein hybrid GCN + RDNA . Ich bin kein träumer wie manch anderer aber ich glaube da kommt schon eine überraschung für Nvidia und ihre fanboys ;) , b.z.w bin kein fanboy hab grade ne Nvidia karte drin . Nur geht mir die Preis politik von Nvidia voll auf den keks . Und vergisst nicht Konkurenz belebt den markt und die preise werden sicher wieder humaner .

KodeX
2020-01-26, 12:33:37
Fläche lässt sich über den Preis regeln , beim Verbrauch geht das nicht wirklich big Navi mit 400w ist einfach ein no go

Naja, eigentlich wollte ich damit aussagen, dass Nvidias Architektur nicht unbedingt überlegen sein muss, nur weil sie mit 12 Nanometern AMDs 7 Nanometer schlagen. Vielmehr scheinen die beiden Architekturen recht ähnlich (pro "fertigungsbereinigte" Fläche) zu performen. Ampere und RDNA2 werden da noch etwas oben drauflegen. Es ist nicht unrealistisch, dass AMDs und Nvidias Speerspitzen der nächsten Generation wieder grob in derselben Leistungsklasse spielen. Mag sein, dass Nvidia geringe Vorteile hinsichtlich Vebrauch haben wird, aber das muss nicht unbedingt so kommen.

Gast
2020-01-26, 14:37:05
Und mit Big navi ( RX 6000? ) kommt auch der vollwertige RDNA . RDNA 1 war ja ein hybrid GCN + RDNA . Ich bin kein träumer wie manch anderer aber ich glaube da kommt schon eine überraschung für Nvidia und ihre fanboys ;) , b.z.w bin kein fanboy hab grade ne Nvidia karte drin . Nur geht mir die Preis politik von Nvidia voll auf den keks . Und vergisst nicht Konkurenz belebt den markt und die preise werden sicher wieder humaner .

Was AMD Karten mittlerweile kosten hast du schon mitbekommen, das nennt sich Marktwirtschaft , das is keine Erfindung von Nvidia oder AMD.

Gast
2020-01-27, 07:37:02
Naja, eigentlich wollte ich damit aussagen, dass Nvidias Architektur nicht unbedingt überlegen sein muss, nur weil sie mit 12 Nanometern AMDs 7 Nanometer schlagen. Vielmehr scheinen die beiden Architekturen recht ähnlich (pro "fertigungsbereinigte" Fläche) zu performen. Ampere und RDNA2 werden da noch etwas oben drauflegen. Es ist nicht unrealistisch, dass AMDs und Nvidias Speerspitzen der nächsten Generation wieder grob in derselben Leistungsklasse spielen. Mag sein, dass Nvidia geringe Vorteile hinsichtlich Vebrauch haben wird, aber das muss nicht unbedingt so kommen.

Turing brauch auch Platz für gewisse Features die der Konkurrenz fehlen . Selbst wenn das nur die oft kolportierten 10-15% sind , die nächste gen wird noch mehr davon brauchen.
Auch Navi ist gegenüber Polaris gewachsen bei gleicher Anzahl an ausführungseinheiten ohne RT aber in 7nm.

Werden es ja dieses Jahr sehen , aber ich kann mir nicht vorstellen das NV das versemmelt weil selbst mit nem simplen shrink ohne etwas zu ändern währ man hier immer noch vorn.

Gast
2020-01-27, 07:48:30
Fläche lässt sich über den Preis regeln , beim Verbrauch geht das nicht wirklich big Navi mit 400w ist einfach ein no go
Naja, eine verdoppelte 5600XT wäre doch ausreichend für Big Navi, und die braucht dann auch nur um die 300W. Keine Ahnung, wie man auf 400W kommt.

MiamiNice
2020-01-27, 13:52:14
@Leo:

Ich verstehe nicht warum in Deinen News AMD immer so "glimpflich" weg kommt bzw. warum so viel Vorschusslorbeeren an AMD vergeben werden. Du schreibst "Doch im GPU-Bereich muss sich AMD vielmehr der Realität stellen, das man die im Jahr 2019 die bessere Fertigungstechnologie brauchte, um nVidias nach wie vor vorhandenen Effizienz-Vorteil einfach nur auszugleichen" und folgerst dann "und geht somit durchaus in die Richtung, das AMD hiermit höchstselbst einen nicht erfüllbaren Hype schürt. Dabei wäre es in der aktuellen Situation für AMD (im GPU-Geschäft) wohl besser, ohne viel Worte an der eigenen Technik zu arbeiten – anstatt Dinge zu versprechen, die einem später noch einmal auf die Füße fallen können."

Dazu mal ein Text von mir, ich erwarte btw. keine Stellungnahme, lesen reicht mir.

Zen 2 ist das selbe wie Big Navi. Es brauchte eine neue CPU Architektur + 2. Itterationen + eine massiv bessere Fertigung als bei der Konkurrenz um nur aufzuschließen. Bis dato baut AMD noch immer nicht die schnellsten CPUs, dafür aber die breitesten.

Ryzen 1 wurde mit falschen Versprechungen in den Markt gebracht, man erinnere sich an die Blender Benches und wie relevant diese für Desktop User sind. Heute reichen Ryzen 1 CPUs nicht mal mehr für das ein oder andere Indie Game, weil zu schwach. So alt ist das Zeug aber nicht.

AMDs Geschichte lässt massiv zu wünschen über. Sie sind die sprichwörtlichen Eintagsfliegen die in jeder Dekade einmal aufmucken und dann wieder vergessen werden. Zugegeben bringen sie in der Aufmuck Phase immer neue Impulse, aber das ist zu wenig. Die Geschichte leert und das sich die Geschichte immer wiederholt.

Immer wen AMD aufgemuckt hat, hatten sie den besten CPU. Immer bist auf jetzt. Ryzen ist weder ein A64 noch ein K6-3. Er ist im vergleich zu Intel nur ebenbürtig mit drastischen Mitteln und an der Kante gebaut.

Ryzen ist ein Server CPU. Ausgelegt auf geringe Kosten und Lisa belügt die Kundschaft damit sie diesen Server CPU auch im Desktop verkaufen können. 95-99% aller Desktop User brauchen diese Cores nicht, sondern könnten eher mit Takt etwas anfangen, was AMD aber nicht bietet.

Im Serverbereich sind sie on Top, das Zeug verkauft sich aber kaum.

Kaum OC, hohe Latenzen, mieser Ram.

AMD braucht für alles neue Treiber, nichts läuft ootb anständig. Weder Windows, noch Games.

---

AMD hat noch gar nichts gezeigt außer bei den Server, den genau dafür wurde Zen gebaut. Unsere Home CPUs sind nicht schneller geworden seit dem Ryzen Release, absolut nicht. Auch der Markt hat sich nicht geändert, es wird heute noch genau so wert auf ST Performance wie vor 4 Jahren. Eine Änderung ist nicht in Sicht. In Spielen wie Escape from Tarkoc rennt sogar ein 7700k einem Zen 2 davon ...

Ich verstehe daher nicht wie Du immer so extrem freundlich formulieren kannst. AMD ist ein "Niemand", der Markenname hat kaum Gewicht. Ihnen passieren immer die selben Fehler seit fast 30 Jahren.

Ich bin der Meinung es gehört daher ein deutlichst kritischerer Ton an den Tag gelegt wenn man über AMD schreibt.
AMD enttäuscht quasi meistens, und das sollte man auch klar so sagen. Im Prinzip sind sie bisher nur dafür gut gewesen um die Big Player alle Jubeljahre mal wach zu rütteln und die Preise der Konkurrenz nicht durch die Decke gehen zu lassen.


Danke fürs lesen.

Gast
2020-01-27, 16:01:55
Naja, eine verdoppelte 5600XT wäre doch ausreichend für Big Navi, und die braucht dann auch nur um die 300W. Keine Ahnung, wie man auf 400W kommt.

Weil diese 400W in etwa dem entsprechen was es braucht um deutlich über 2080Ti Leistung zu liegen was wohl nötig sein wird wenn man vorn Mitspielen will im angedachten zeitraum.

Eine verdoppelte 5600XT würde gerade so an der 2080Ti im 265W Korset kratzen bei 300W Verbrauch , was soll das bringen ?

Man hat weder mehr Leistung noch bessere Effiziens , eine solche Karte würde enden wie die Vegas --> teuer in der Herstellung müsste aber trotzdem verschleudert werden.

Denkt man jetzt noch weiter so ist nicht die 2080Ti die Konkurenz die um Käufer buhlt sondern ein Produkt von NV in 7nm mit wesentlich mehr Leistung pro Watt und geringerem Preis bei gleicher performance , die Situation am Markt wird also eher noch schlechter was das regulieren über den Preis betrifft .

Big Navi sollte also allein um dies zu egaliseren soviel durch RDNA 2.0 herausholen wie vom potetniellem Nebenbuhler um die Euros allein schon durch den Sprung im Fertigungsprozess mitgenommen wird + Hardware RT in die Fläche und das TDP Buget integrieren.

Wenn sie das wirklich schaffen zieh ich meinen Hut , für wahrscheinlich halte ich das nicht wenn ich mir GCN bis Navi ansehe.

KodeX
2020-01-27, 16:59:25
Turing brauch auch Platz für gewisse Features die der Konkurrenz fehlen . Selbst wenn das nur die oft kolportierten 10-15% sind , die nächste gen wird noch mehr davon brauchen.
Auch Navi ist gegenüber Polaris gewachsen bei gleicher Anzahl an ausführungseinheiten ohne RT aber in 7nm.

Werden es ja dieses Jahr sehen , aber ich kann mir nicht vorstellen das NV das versemmelt weil selbst mit nem simplen shrink ohne etwas zu ändern währ man hier immer noch vorn.

Du denkst also wirklich, Big Navi wäre nicht schneller als eine 2080 TI? Nie und nimmer...

NeMeth
2020-01-27, 17:21:47
Zen 2 ist das selbe wie Big Navi. Es brauchte eine neue CPU Architektur + 2. Itterationen + eine massiv bessere Fertigung als bei der Konkurrenz um nur aufzuschließen. Bis dato baut AMD noch immer nicht die schnellsten CPUs, dafür aber die breitesten.

Kann man auch anders sehen...

Leonidas
2020-01-28, 04:03:51
Danke fürs lesen.


Gelesen.

Ich folge Deiner Intention, das AMD hier und da zu glimpflich wegkommt. Aber Teile Deiner Argumentation sind schwerlich mehrheitsfähig (freundlich formuliert), da solltest Du dran arbeiten. Ansonsten reibt sich alle Welt an einigen Sätzen (Lisa Su belügt ...) und beschäftigt sich nicht mehr mit dem Kern Deiner Argumentation.

KodeX
2020-01-28, 05:37:15
Ich finde die Wahrnehmung hier generell sehr "selektiv". Im letzten Jahrzehnt war AMD jedes Mal mit Nvidia gleichauf, nachdem sie mit einem Chip in die Vollen gegangen sind. Die einzige Ausnahme stellt Vega dar. Aber betrachtet man HD 7970 vs. GTX 680, R9 290X vs. GTX 780 TI oder R9 Fury X vs. GTX 980 TI, gab es eigentlich nur Nuancen an Unterschieden. Die VII ist zwar inzwischen auch auf dem Niveaus der GTX 1080 TI, aber das kann man wegen des großen Zeitunterschieds eigentlich nicht zählen lassen. Ich habe den Eindruck, dass AMD die Grafiksparte zugunsten der Prozessorsparte schlicht und ergreifend zu stiefmütterlich behandelt hat. Das Unternehmen hat sich einfach auf die CPUs konzentriert und bei den GPUs nur das Nötigste getan. Mit Big Navi dürfte sich das ändern. Optimierungspotenzial an der neuen Architektur ist gewiss reichlich vorhanden. Ich gehe davon aus, dass Ampere auch im High-End-Bereich einen Konkurrenten bekommen wird, der zumindest spürbar schneller als Nvidias zweite Geige ist.

Berniyh
2020-01-28, 08:25:19
Das Problem ist halt, dass Vega nicht nur für den hier gewünschten Einsatzzweck (hauptsächlich Gaming) ungeeignet war. Sowas kann passieren, auch Nvidia hat sich schon mal einen Griff ins Klo erlaubt.
Aber bei Vega kam halt dazu, dass die Karten so lange am Markt waren und einfach kein Ersatz kam.
Mit Navi hat sich der Blick auf AMD ja wieder ein bisschen geändert, aber die Durststrecke war halt lange.
Und hält – bezogen auf den High-End Bereich – ja auch immer noch an.

Gast
2020-01-28, 10:27:42
Weil diese 400W in etwa dem entsprechen was es braucht um deutlich über 2080Ti Leistung zu liegen was wohl nötig sein wird wenn man vorn Mitspielen will im angedachten zeitraum.

Eine verdoppelte 5600XT würde gerade so an der 2080Ti im 265W Korset kratzen bei 300W Verbrauch , was soll das bringen ?
Das sieht die Effizienzwertung bei Computerbase aber anders. Leider geht die nur bis WQHD, aber dort ist die 5600XT 6% besser als die 2070 Super. Die 2080TI wiederum ist 10% besser als die 2070 Super. Entsprechend kommt die 5600XT in dieser Auflösung fast auf die Effizienz der 2080TI, obwohl hier schon der Speicher merklich bremst. In FullHD ist sie sogar deutlich effizienter als die 2080TI. Bei entsprechender RAM Ausstattung würde man auch in höheren Auflösungen die Effizienz der 2080TI übertreffen. Entsprechend nach oben skaliert sollte sich daran auch nicht wirklich viel ändern. Deine Behauptung mit den "50% Mehrverbrauch nötig, um die TI deutlich zu schlagen" halte ich daher für übertrieben. Und es ist ja auch nicht unbedingt nötig, die 2080TI deutlich zu schlagen, der Preis macht hier auch noch ein gewisses Argument.
@MiamiNice:
Was du komplett außer Acht lässt, ist der Verbrauchsunterschied. Intel ist in der Peak Leistung pro Kern schneller, weil die dank der ausgereiften Fertigung deutlich höher Takten können. Aber dabei verbrauchen sie auch sehr viel Strom. Und nicht jeder User nutzt eine SingleThread Anwendung oder speilt hauptsächlich Spiele. Daher ist die Aussage "Bis dato baut AMD noch immer nicht die schnellsten CPUs, dafür aber die breitesten." falsch, denn für viele Nutzer ist die breiteste CPU auch gleichzeitig die schnellste, und wenn die dann noch merklich weniger verbraucht, dann ist die Sache klar.

Gast
2020-01-28, 13:51:42
Ich finde die Wahrnehmung hier generell sehr "selektiv". Im letzten Jahrzehnt war AMD jedes Mal mit Nvidia gleichauf, nachdem sie mit einem Chip in die Vollen gegangen sind. Die einzige Ausnahme stellt Vega dar. Aber betrachtet man HD 7970 vs. GTX 680, R9 290X vs. GTX 780 TI oder R9 Fury X vs. GTX 980 TI, gab es eigentlich nur Nuancen an Unterschieden. Die VII ist zwar inzwischen auch auf dem Niveaus der GTX 1080 TI, aber das kann man wegen des großen Zeitunterschieds eigentlich nicht zählen lassen. Ich habe den Eindruck, dass AMD die Grafiksparte zugunsten der Prozessorsparte schlicht und ergreifend zu stiefmütterlich behandelt hat. Das Unternehmen hat sich einfach auf die CPUs konzentriert und bei den GPUs nur das Nötigste getan. Mit Big Navi dürfte sich das ändern. Optimierungspotenzial an der neuen Architektur ist gewiss reichlich vorhanden. Ich gehe davon aus, dass Ampere auch im High-End-Bereich einen Konkurrenten bekommen wird, der zumindest spürbar schneller als Nvidias zweite Geige ist.

Thaiti war zweifels ohne Top ( meine Asus HD7970 liegt heute noch als backup GPU im Schrank ) leider hats aber die Software oft versaut , als später alles rund lief krähte kein Hahn mehr danach ,das Geschäft ist zu schnelllebig weshalb ich diese "fine wine" Argumente auch äußerst skeptisch sehe.

Du vergisst dabei auch das sich 290X/390X lange hoffnungsloss am Markt mit Maxwell herumschalgen mussten mit ensprechenden Konsequenzen,

FIJI wurde teilweise von der 980 non Ti überholt wurde obwohl sie deutlich später kam, hatte als 4k Karte vermakrtet ein Vram defiziet ? War lange auch preislich nicht sonderlich attraktiv.

Die Vega 7 ist eigendlich das beste Besipiel für AMDS letzte GPU gens
Zu spät zu wenig zu hungrig.
Säuft trotz Fertigungsvorteil viel( was zu verschmerzen wäre wenn die Performance stimmt würde tut sie aber nicht ), schwer kühlbar + laut , keine Customs mit vernünftigem Kühler für die Masse verfügbar , wie dei Vegas zuvor sehr inkonsistent je nach Spiel von der Leistung her.

Was ich von Navi halten soll weiß ich noch nicht wirklich , der Verbrauch passt mittlerweile halbwegs , der Preis ist verglichen zur NV Alternativen mittelrweiel attraktiv, gleichzeitig Quellen aber die Foren über von Problemmeldungen die im günstigsten Fall Kinderkrankheiten sind, bist dato aber immenoch nicht komplett zufriedenstellen adressiert wurden.

Gast
2020-01-28, 15:04:30
Das sieht die Effizienzwertung bei Computerbase aber anders. Leider geht die nur bis WQHD, aber dort ist die 5600XT 6% besser als die 2070 Super. Die 2080TI wiederum ist 10% besser als die 2070 Super. Entsprechend kommt die 5600XT in dieser Auflösung fast auf die Effizienz der 2080TI, obwohl hier schon der Speicher merklich bremst. In FullHD ist sie sogar deutlich effizienter als die 2080TI. Bei entsprechender RAM Ausstattung würde man auch in höheren Auflösungen die Effizienz der 2080TI übertreffen. Entsprechend nach oben skaliert sollte sich daran auch nicht wirklich viel ändern. Deine Behauptung mit den "50% Mehrverbrauch nötig, um die TI deutlich zu schlagen" halte ich daher für übertrieben. Und es ist ja auch nicht unbedingt nötig, die 2080TI deutlich zu schlagen, der Preis macht hier auch noch ein gewisses Argument.
@MiamiNice:
Was du komplett außer Acht lässt, ist der Verbrauchsunterschied. Intel ist in der Peak Leistung pro Kern schneller, weil die dank der ausgereiften Fertigung deutlich höher Takten können. Aber dabei verbrauchen sie auch sehr viel Strom. Und nicht jeder User nutzt eine SingleThread Anwendung oder speilt hauptsächlich Spiele. Daher ist die Aussage "Bis dato baut AMD noch immer nicht die schnellsten CPUs, dafür aber die breitesten." falsch, denn für viele Nutzer ist die breiteste CPU auch gleichzeitig die schnellste, und wenn die dann noch merklich weniger verbraucht, dann ist die Sache klar.

Überleg mal ganz genau wo das problem der CB Zahlen ist, als Tip : warum ändert sich wohl die Effiziens beim Wechsel der Auflösungen.

KodeX
2020-01-29, 02:52:37
Du vergisst dabei auch das sich 290X/390X lange hoffnungsloss am Markt mit Maxwell herumschalgen mussten mit ensprechenden Konsequenzen,

FIJI wurde teilweise von der 980 non Ti überholt wurde obwohl sie deutlich später kam, hatte als 4k Karte vermakrtet ein Vram defiziet ? War lange auch preislich nicht sonderlich attraktiv.

Das sehe ich absolut nicht so. Die GTX 290X kam doch sogar noch vor der GTX 780 TI, oder täusche ich mich? Die GTX 980 war dann kaum schneller als die alten Karten. Die GTX 980 TI war dann ein paar Wochen alleine und hat dann mit der R9 Fury X einen Konkurrenten bekommen, der ähnlich schnell war. Die normale GTX 980 wurde sogar von der R9 Nano (bei ähnlichem Verbrauch) geschlagen und selbst die R9 390X war ähnlich schnell, bot aber die doppelte Speichermenge.

Erst mit dem Erscheinen von Ryzen hielt AMD nicht mehr mit Nvidias Tempo mit.

Gast
2020-01-29, 08:24:33
Überleg mal ganz genau wo das problem der CB Zahlen ist, als Tip : warum ändert sich wohl die Effiziens beim Wechsel der Auflösungen.
Dann überlege doch mal zurück:
Wenn die 5600XT effizienter als alle Touring Karten ist (auch Karten, die nicht im CPU Limit hängen), warum sollte man das nicht auch bei einem größeren Chip mit mäßigem Takt hin bekommen und statt dessen auf einmal über 50% mehr verbrauchen als die kleine 5600XT? Macht noch viel weniger Sinn, oder?

Gast
2020-01-29, 09:00:45
Das sehe ich absolut nicht so. Die GTX 290X kam doch sogar noch vor der GTX 780 TI, oder täusche ich mich? Die GTX 980 war dann kaum schneller als die alten Karten. Die GTX 980 TI war dann ein paar Wochen alleine und hat dann mit der R9 Fury X einen Konkurrenten bekommen, der ähnlich schnell war. Die normale GTX 980 wurde sogar von der R9 Nano (bei ähnlichem Verbrauch) geschlagen und selbst die R9 390X war ähnlich schnell, bot aber die doppelte Speichermenge.

Erst mit dem Erscheinen von Ryzen hielt AMD nicht mehr mit Nvidias Tempo mit.

Dann haben wir ein grundsätzlich andere Wahrnehmung dieser Zeit.

Der damalige Test der Fury mit und ohne X auf CB sieht sie auch eher beibringe 980 Custom mit aber erheblich höherem Stromverbrauch zum sehr sportlichen Preis .

Gast
2020-01-29, 15:43:07
Dann überlege doch mal zurück:
Wenn die 5600XT effizienter als alle Touring Karten ist (auch Karten, die nicht im CPU Limit hängen), warum sollte man das nicht auch bei einem größeren Chip mit mäßigem Takt hin bekommen und statt dessen auf einmal über 50% mehr verbrauchen als die kleine 5600XT? Macht noch viel weniger Sinn, oder?

Weil keine lineare Skalierung vorliegt du also nicht so extrapolieren kannst , schau dir doch die Daten innerhalb einer Familie an.
Wenn du dann gezungen wirst den Betriebspunk tief für eine gute FPS/W Ausbeute wählst gibts Probleme mit dem Leistungs LVL siehe Puls Bios 1 und 2.

Rabiata
2020-01-30, 00:25:43
Die Vega 7 ist eigendlich das beste Besipiel für AMDS letzte GPU gens
Zu spät zu wenig zu hungrig.
Säuft trotz Fertigungsvorteil viel( was zu verschmerzen wäre wenn die Performance stimmt würde tut sie aber nicht ), schwer kühlbar + laut , keine Customs mit vernünftigem Kühler für die Masse verfügbar , wie dei Vegas zuvor sehr inkonsistent je nach Spiel von der Leistung her.

Was ich von Navi halten soll weiß ich noch nicht wirklich , der Verbrauch passt mittlerweile halbwegs , der Preis ist verglichen zur NV Alternativen mittelrweiel attraktiv, gleichzeitig Quellen aber die Foren über von Problemmeldungen die im günstigsten Fall Kinderkrankheiten sind, bist dato aber immenoch nicht komplett zufriedenstellen adressiert wurden.
Die Vega 7 sehe ich eher als einen Notnagel um zu zeigen "uns gibt es auch noch im High End Bereich". Eigentlich wurde das Teil als Compute-Karte für den Profibereich entwickelt, dort ist es als Radeon Instinct MI50/MI60 bekannt.

Navi ist für eine auf Gaming ausgerichtete AMD-Karte eher repräsentativ. Die High End Variante fehlt halt noch. Daß die Treiber auch nach Release noch ein Weilchen brauchen, bis sie wirklich rund laufen, ist leider nicht ungewöhnlich bei AMD.