PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 14. August 2023


Leonidas
2023-08-15, 09:54:44
Link zur News:
https://www.3dcenter.org/news/news-des-14-august-2023

Gast
2023-08-15, 10:53:41
Schon komisch das im echten Markt Intel 80% bei den CPUs hält und NVidia mittlerweile fast 90% bei den GPU. MF muss da irgendwie ein Sonderfall für AMD sein. Liegt wahrscheinlich nur an den niedrigsten Händler-Preisen im Markt, zeigt aber auf wie man es machen kann.

Vergessen darf man nicht das vermutlich Starfield auch eine Rolle spielen kann, das im Bundle mit AMD CPUs und GPUs verkauft wird. Wehedem das Spiel wird der nächste Flop von Bethesda.

Leonidas
2023-08-15, 10:57:07
Hinzu kommt der Effekt von AMD-Land Deutschland. Und der Effekt von DIY-Markt. Alle drei Effekte machen die Differenz aus.

GerryB
2023-08-15, 11:21:46
DAS hat einen Vorteil, man kann die Restbestände gut in Dtl. zu fairen Preisen verkaufen= WinWin
... denke mal, das aus "NV-Ländern" ein Teil der AMD-Ware noch rangekarrt werden kann

nur die 6900er scheinen inzwischen wirklich alle weg zu sein

Exxtreme
2023-08-15, 11:30:30
Die 6900 XT sind noch reichlich vorhanden, die Non-XT aber nicht mehr. Selbst Newegg hat keine mehr. Und das ist ein Riesenladen was Hardware angeht.

Schon komisch das im echten Markt Intel 80% bei den CPUs hält und NVidia mittlerweile fast 90% bei den GPU. MF muss da irgendwie ein Sonderfall für AMD sein. Liegt wahrscheinlich nur an den niedrigsten Händler-Preisen im Markt, zeigt aber auf wie man es machen kann.


Was Computer und Software angeht, da ist Deutschland immer recht speziell gewesen. Da gibt es noch etliche andere Beispiele wo das so ist.

Gast
2023-08-15, 11:50:35
Die 6900 XT sind noch reichlich vorhanden, die Non-XT aber nicht mehr. Selbst Newegg hat keine mehr. Und das ist ein Riesenladen was Hardware angeht.

Was Computer und Software angeht, da ist Deutschland immer recht speziell gewesen.
Die 6800 ist auch eine wirklich gute Karte, die sollten sich Aufrüster älterer Systeme ansehen. PCIe3 macht keine Probleme. Sparsam, leise, schnell und 16GiB Vram.

Hab selbst eine Nitro+, ist eine wirklich gute Karte die sich auch über den Treiber gut einstellen lässt, unhörbar im Betrieb und noch nicht so ein riesen Brett ü31cm.

Kein Wunder das die Dinger ausverkauft sind, waren auch bei Minern beliebt, weil so effizient. Die wahre 4060ti...

Was ich bis heute nicht kapiere ist, was man bei RDNA3 falsch gemacht hat. Ist überhaupt kein Vergleich zu diesen Spritfresser und funktioniert auch mit FSR2 super, keine Treiberbugs, keine Timeouts. Das Teil ist ein Bastlermonster, undervolt 140-170w oder overclock 260-280w und bis fast an die Leistung der 6800xt kein Problem. Alles stable.

Nun die 7900GRC, da kann man nur mit dem Kopf schütteln. Das AMD insgwsamt alte Designs und weniger verkauft haben die selbst verursacht.

GerryB
2023-08-15, 12:16:46
Die 6900 XT sind noch reichlich vorhanden,
bei MF ?

https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+6900+XT.html

Gerade Da wars ja interessant für 589€ und Diejenigen, die sich net an die 6950+MPT rangetrauen.

Exxtreme
2023-08-15, 12:33:37
Was ich bis heute nicht kapiere ist, was man bei RDNA3 falsch gemacht hat. Ist überhaupt kein Vergleich zu diesen Spritfresser und funktioniert auch mit FSR2 super, keine Treiberbugs, keine Timeouts. Das Teil ist ein Bastlermonster, undervolt 140-170w oder overclock 260-280w und bis fast an die Leistung der 6800xt kein Problem. Alles stable.

Nun die 7900GRC, da kann man nur mit dem Kopf schütteln. Das AMD insgwsamt alte Designs und weniger verkauft haben die selbst verursacht.

Naja, Ampere säuft auch ordentlich und das hat praktisch niemanden gestört. Hat sich trotzdem verkauft wie blöde. Vielleicht dachten sich die bei AMD das Stromverbrauch niemanden juckt. Ich gehe aber eher davon aus, dass der Stromverbrauch dann nicht juckt wenn der Stromsäufer grün ist.

Platos
2023-08-15, 12:51:27
Es liegt daran, dass AMD einfach bei so ziemlich allem schlechter dasteht bis auf Raster P/L und in manchen! Fällen der Speicher.

RT schlechter, FSR oftmals schlechter, Kein Framegen, schlechterer Stromverbrauch.

Ist hald etwas mehr als nur ein Grund.

AMD schaffts halt einfach bisher nicht.

Gast
2023-08-15, 13:01:09
Naja, Ampere säuft auch ordentlich und das hat praktisch niemanden gestört. Hat sich trotzdem verkauft wie blöde. Vielleicht dachten sich die bei AMD das Stromverbrauch niemanden juckt. Ich gehe aber eher davon aus, dass der Stromverbrauch dann nicht juckt wenn der Stromsäufer grün ist.

Das Phänomen sah/sieht man auch bei den CPUs. Als AMD effizienztechnisch weit hinten dran war, war das (ein absolut berechtigter) Kritikpunkt. Als dann AMD mit Ryzen schaffte das Blatt zu wenden, war bei einigen der lautesten Kritikern bei dem Thema die Effizienz plötzlich gar nicht mehr wichtig, sondern das neue non-plus-ultra war dann plötzlich das klein Bisschen mehr single-core-IPC. Oder das kaum nutzbare AVX. Oder der höhere Takt, auch wenn er in der Praxis dann kaum Vorteile oder Mehrnutzen brachte/bringt für den teils mittlerweile massiv höheren Stromverbrauch bei Blau.

Es ist daher momentan auch ziemlich befremdlich zu sehen, wie RDNA3 fertig gemacht wird, während die gegenüber der Konkurrenz deutlich stromsaufendere, anfangs gar vereinzelt Netzteile brutzelnde 3090(Ti) abgefeiert wurde. Aber was soll man machen bei vorgeschobenen hau-mich-tot-Argumenten wie rAytRaiCinG oder dem einst als konsolig verpönten Upscaling.

Klar RDNA3 hat definitiv kritikwürdige Punkte, wie hinlänglich bekannt der in Teilen im höherauflösenden Multimonitorbetrieb immer noch zu hohe Idle-Stromverbrauch. Oder dass sich RDNA3-Karten nicht mehr so frei, sondern mehr wie NVidia-Karten mit ihren gewollten Einschränkungen anfühlen. Aber verglichen zu den Kapriolen die teils bei RTX3000 zu sehen waren, ist RDNA3 dennoch heilig und unter dem Strich als Technologie ein relativ guter Fortschritt gegenüber RDNA2, der halt von der Konkurrenz primär durch das gewaltige 4090-Monster überstrahlt, aber auch durch eine recht gut gelungene 4080 abgeschwächt wird.

GerryB
2023-08-15, 13:16:54
Komisch nur, das Niemand die "recht gelungene" 16GB-256bit-4080 für den sinnlosen Preis kauft.

Nach m.E., ... wenns die 4090 net gäbe, sieht das grüne Lineup schwach aus.
Ausstattung und Preis sind nur Wunschdenken vom Schmalhans-Küchenchef.
und
Als Kompott gibts jetzt ne sweet Overwatch2-Zugabe, wow!


btw.
RTX I/O hakelt immer noch in R&C, trotz neuem Treiber, wtf.
https://www.computerbase.de/forum/threads/geforce-537-09-hotfix-grafiktreiber-fuer-directstorage-in-ratchet-clank-rift-apart.2155644/#post-28494819

Exxtreme
2023-08-15, 13:36:35
btw.
RTX I/O hakelt immer noch in R&C, trotz neuem Treiber, wtf.
https://www.computerbase.de/forum/threads/geforce-537-09-hotfix-grafiktreiber-fuer-directstorage-in-ratchet-clank-rift-apart.2155644/#post-28494819

Directstorage ist allgemein eher im Alpha-Status. Mich wundert es nicht, dass es da hakelt. Ich rechne damit, dass das eher in so 5 Jahren benutzbar wird.

MD_Enigma
2023-08-15, 14:21:35
Naja, Ampere säuft auch ordentlich und das hat praktisch niemanden gestört. Hat sich trotzdem verkauft wie blöde.
Ja bekannt komma aber deswegen ist die PowerCap bei ~70-80% und verzichte mit einem Lächeln auf die letzten 5-10%. Macht eigentlich jeder, oder?

Gast
2023-08-15, 15:19:04
Das Problem von RDNA3 ist die Preisgestaltung und der zuweilen fehlende Fortschritt. Eher hat er sich verschlechtert. Von Vega zu RDNA2 wars ein immenser Sprung. Der Käufer erwartet halt Konkurrenz, nicht Vergleiche zur Vorgängerversion. Das ist das Problem. Höher Verbrauch, viele Bugs, in Schlüsseltechnologien langsamer oder schlechter.

Man sieht doch an Mindfactory wie man es dann macht. Preise runter.

Sry 100w im Idle? Sowas muss AMD selbst sehen und das es in der Luft zerrissen wird.

Nv braucht nicht mehr als eine 3090ti, das ist doch schlimme. Die 4099 dreht Kreise um RDNA3. Genau deshalb bringen sie auch nichts mehr, warum auch. Selbst die 4080 ist mit DLSS3 unschlagbar für AMD. Daher senken die auch die utopischen Preise kaum.

AMD ist auf Ampere Lvl, wer braucht preiswertes Ampere noch? Kann ich bei ebay billiger bekommen.

ENKORE
2023-08-15, 15:50:29
100 W im Idle sind das eine [völlig inakzeptabel], aber war da nicht noch die Thematik mit erhöhtem Verbrauch bei mehr als einem Bildschirm? Da scheint sich ja nix getan zu haben - meine letzte AMD-Karte ist über zehn Jahre her, die konnte, wenn ich mich richtig erinnere, den niedrigsten Stromsparmodus (15 W oder so) auch nur mit einem Bildschirm anfahren. Zwei Bildschirme => direkt deutlich mehr Verbrauch. Videowiedergabe => nochmal mehr Verbrauch. Bei den AMD-Karten davor war es meine ich genau so.

Gast
2023-08-15, 16:13:57
Das AMD Hardware einen schlechten Ruf hat, liegt nicht nur an der Hardware. Es sind hauptsächlich die Schreihälse der sogannten Techpresse und Pro in den Foren, die für den schlechten Ruf sorgen.
Es fällt schon schprachlich auf, dass bei AMD Hardware im Gegensatz hauptsächlich negative Formulierungen genutzt werden. Bei Nvidia oder Intel wird das ganze freundlicher formuliert.
Der Stromverbrauch von 100 W bezieht sich auf ein bestimmtes Szenario. Es gibt mehr als genug Szenarios bei den die aktuellen AMD Grafikkarten besser als ihre Nvidia Gegenstücke darstehen. Genauso gibt es Szenarios bei den Nvidia schlecht darsteht. Aber das zählt ja alles nicht.
Das ist nur ein Beispiel von Vielen. Bei Golem gibt es gerade einen Artikel bei dem Steve Burke Linus von LTT unsauberes Arbeiten vorwirft. Auch wenn er danmit recht hat, ist bei der sogenanntenn Techpresse unsauberes Arbeit Standart. Über alle der bekannten Seiten kann man solches Video machen. Manchmal glaube ich auch, dass diese Leute gar nicht wissen, wie sauberes Arbeiten funktioniert.

Gast
2023-08-15, 16:50:16
Es liegt daran, dass AMD einfach bei so ziemlich allem schlechter dasteht bis auf Raster P/L und in manchen! Fällen der Speicher.

RT schlechter, FSR oftmals schlechter, Kein Framegen, schlechterer Stromverbrauch.

Ist hald etwas mehr als nur ein Grund.

AMD schaffts halt einfach bisher nicht.

Dazu kommt, dass RDNA2 schlechte Encoder hat, ungeeignet für Quest 2.

Dazu kommt noch, dass Nvidia leisere Partnerkarten hat. RTX 4070 und 4080 von PNY sind unter Last unter 30 db laut. Habe ich recherchiert, bei AMD bleibst du drüber mit 7900er...

Bis vor kurzem waren auch die Treiber bei AMD für VR nicht gut. Mit Quest 2 verträgt sich RDNA3 noch immer nicht ganz.

Dazu kommt noch, dass die meisten AMD Karten auf dem Markt nicht mal 3 Jahre Garantie bieten, bei Nvidia Karten ist das die Regel.

Insgesamt wirkt das Nvidia Paket einfach runder (zumindest in den höheren Preislagen) für mich persönlich.

Dadurch ist auch der Wiederverkaufswert eher besser mit Nvidia. Die Idioten auf dem Gebrauchtmarkt zahlen fast Neupreise.

MD_Enigma
2023-08-15, 17:04:37
Bei Golem gibt es gerade einen Artikel bei dem Steve Burke Linus von LTT unsauberes Arbeiten vorwirft. Auch wenn er danmit recht hat, ist bei der sogenanntenn Techpresse unsauberes Arbeit Standart. Über alle der bekannten Seiten kann man solches Video machen. Manchmal glaube ich auch, dass diese Leute gar nicht wissen, wie sauberes Arbeiten funktioniert.

LTT ist imho reine Unterhaltung. Das hat mit Techpresse wenig zu tun.

Hast du einmal eine Referenz einer 3DCenter-Launchanalyse auf LTT gefunden ;)?
Ok, das hab ich übersehen :D Vielleicht sollte man das mal hinterfragen.

Gast
2023-08-15, 17:44:21
Naja, Ampere säuft auch ordentlich und das hat praktisch niemanden gestört.

AMD war da nicht wirklich besser.
Ja eine 3090Ti war und ist ein extremer Säufer, aber nur weil AMD kein offizielles 450W Produkt vorgestellt hat, heißt es nicht dass RDNA2 die effizientere Architektur war.

450W Customs der 6900XTX sind Effizienzmäßig quasi punktgenau auf der 3090Ti gelandet.

Und das trifft auf so ziemlich das gesamte Portfolio zu, wenn man Karten vergleicht die ähnliche Powerlimits aufweisen bewegt sich RDNA2 vs. Ampere so gut wie immer im Bereich +-10% was die Effizienz betrifft.

Große Unterschiede gibt es nur wenn an die eine Architektur komplett überfährt und die andere nähere am Sweetspot betreibt.
Am Sweetspot selbst sind sie sich sehr ähnlich.

Gast
2023-08-15, 18:27:09
Die 6800 ist auch eine wirklich gute Karte...
wie es der hardwaregott gerade will...: https://www.mindfactory.de/product_info.php/16GB-MSI-Radeon-RX-6800-GAMING-Z-Trio-16G-DDR6-retail_1503588.html

:)

Gast
2023-08-15, 18:29:28
Als ob der Rest besser wäre, weil die nicht so rumhampeln.
Jeder der hauptsächlich auf die jeweiligen Marktführer einseitig optimierte Spiele für die Leistungsfähigkeit der Hardware von verschiedene Herstellern nutzt, ohne dieses zu berücksichtigen oder auch nur zu erwähnen, disqualifiziert sich selbst.
Genauso wie eine speziellen Spezialfall einfach zu verallgemeinern ohne eine brauchbaren Erklärung samt dazugehörigen Messungen zu liefern, wieso dieses statthaft ist. Das dieser spezielle Spezialfall komischerweise im Normalfall gerade die Produkte der Marktführer bevorzugen bzw. um deren Vorzuge hervorheben, ist ganz bestimmt nur Zufall.
Wieso sollte ich Leute glauben, von denen bekannt ist, ihre Aussagen zu gunsten bestimmten Marktführen eingeschränkt ist.
Auch hat die sogenannte Techpresse in der Vergangenheit bei den Schweinereien bestimmter Marktführern mitgemacht. Siehe die Schadensersatz-Vereinbarung über die Marktmanipulation zu Zeiten des ersten Athlons oder die Vereinbarung von Intel mit den amerikanischen US-Wettbewerbshüter.
Im Grunde kann die Techpresse nur froh sein, dass die Presse (allgemein) sich selbst beaufsichtigen darf.
Eine Analyse auf Basis unbrauchbarer Ergebnisse ist genauso unbrauchbar.

Gast
2023-08-15, 18:35:49
Als AMD effizienztechnisch weit hinten dran war, war das (ein absolut berechtigter) Kritikpunkt. Als dann AMD mit Ryzen schaffte das Blatt zu wenden, war bei einigen der lautesten Kritikern bei dem Thema die Effizienz plötzlich gar nicht mehr wichtig, sondern das neue non-plus-ultra war dann plötzlich das klein Bisschen mehr single-core-IPC.


Da muss man schon differenzieren.
AMD hat deutliche Vorteile bei der max. Performance Effizienz, das ist keien Frage.

In der Praxis ist das aber deutlich differenzierter. Im Teillastbereich ist AMD insbesondere mit allen Chiplet-CPUs immer noch verdammt schlecht.

Wenn ich mich an einem typischen Arbeitstag vom Homeoffice ins Büro verbinde, braucht mein Ryzen alleine mehr Strom als gesamte Rechner im Büro.
Freilich ist da kein überzüchteter KS verbaut, aber es gibt eben deutlich mehr als Verbrauch unter Volllast, und je geringer der Volllastanteil im persönlichen Nutzungsprofil ist, umso näher sind sich die beiden, bis sogar Intel vorne liegt.

Leonidas
2023-08-16, 03:32:08
Hast du einmal eine Referenz einer 3DCenter-Launchanalyse auf LTT gefunden ;)?
Ok, das hab ich übersehen :D Vielleicht sollte man das mal hinterfragen.

So etwas unter 15 anderen Reviews einzumischen, geht schon mal. Wenn die Werte komplett daneben wären, würde ich es sofort sehen (was nicht der Fall ist).

Generell muß ich sagen: Auch bei den ca. 10 der anderen Reviews hätte ich eine Reihe von Fragen zur Arbeitsweise und zum Verständnis. Wirklich erschöpfend erklären, was da genau gemessen wird, tun eigentlich nur CB, Hardware & Co., PCGH, Quasarzone und TPU. Die meisten anderen scheitern an so einfachen Dingen wie exakter Grafikkarten-Benennung und Angabe aller benutzter Treiberversionen.

Anders formuliert: Wenn ich ganz spitzfindig wäre, müsste ich 90% aller Quellen im Netz ausschließen.

crnkoj
2023-08-16, 06:40:38
Also, bei dieser Navi 4c,ist vermutlich das mcd in dem aid integriert. Ist ja aktiver interposer. So wie bei Intel mit foveros bei Meteor Lake in dem interposer viel Cache stecken kann.
Deswegen vermutlich 3 aid und nicht 1 großer.

etp_inxession
2023-08-16, 17:19:36
Ich kann hier für AMD eigentlich nur eine Lanze brechen.

Seit vielen Jahren dabei und vollends zufrieden.

Jetzt ist es natürlich so das mein Spiele Verhalten nicht auf jeden zu reflektieren ist.

Aber grundsätzlich kann ich AMD Hardware, absolut vorurteilsfrei, empfehlen.

Aktuell Ryzen 5800x + RX 6800

Top Kombi.

Ich hoffe AMD bleibt am Ball.

Auch nVidia hat schon Generationen verhunzt. Da ist der Aufschrei immer nicht so groß.

Ich bin gerne moralischer Käufer.
Da hat es nVidia enorm schwer bei mir überhaupt durchzudringen.

Gast
2023-08-17, 13:14:07
AMD war da nicht wirklich besser.
Ja eine 3090Ti war und ist ein extremer Säufer, aber nur weil AMD kein offizielles 450W Produkt vorgestellt hat, heißt es nicht dass RDNA2 die effizientere Architektur war.

450W Customs der 6900XTX sind Effizienzmäßig quasi punktgenau auf der 3090Ti gelandet.

Und das trifft auf so ziemlich das gesamte Portfolio zu, wenn man Karten vergleicht die ähnliche Powerlimits aufweisen bewegt sich RDNA2 vs. Ampere so gut wie immer im Bereich +-10% was die Effizienz betrifft.

Große Unterschiede gibt es nur wenn an die eine Architektur komplett überfährt und die andere nähere am Sweetspot betreibt.
Am Sweetspot selbst sind sie sich sehr ähnlich.
Witzig, die 6900XTX war bei 450W natürlich perfekt auf dem Sweet Spot, oder?

Schau dir mal Igor's Messungen von der 6800 MBA Karte an (also sein erster Test der RX6800, später verwendet er dann Verbrauchswerte der Partner-Karten, die viel höhere TDP haben um AMDs Vorteil zu vertuschen) und vergleiche die mit den Messwerten der 3080 Laptop (hatte er auch mal im Test). Das ist NVidia's effizienteste Ampere GPU (GA104) auf höchste Effizienz getrimmt (Igor hatte da ein Schenker Gerät im Test). Du wirst sehen, die Desktop 6800 hat quasi die selbe Effizienz. Und das, obwohl Desktop Karten alles andere als auf Effizienz getrimmt sind. Igor hat leider FHD bei den AMD Karten nicht vermessen, daher muss man QHD verwenden. Da erreicht der Schenker XMG Ultra 17 mit der 3080M 1,71W/FPS, die RX6800 schafft mit SAM 1,66W/FPS, ist also noch mal 0,05W sparsamer pro FPS. Die Desktop 3070 ist bei 1,86W/FPS und die 3080 liegt bei 2,25W/FPS, braucht für jedes Frame pro Sekunde also grob 0,6W mehr. Oder anders gesagt: Grob 35% mehr Verbrauch.
Es gibt natürlich auch genügend Beispiele, wo direkt Desktop Karten verglichen werden. 6800XT gegen 3080 sieht für NVidia auch mau aus. Wegen dem geringen VRam kann die inzwischen nicht mal mehr in RT groß punkten.
Und preislich war die 6800XT meist merklich billiger. Auf Karten wie 3070TI und Co, wo man für 2-5% mehr Leistung mal eben 20% mehr Verbrauch im Vergleich zum "normalen" Modell hat, muss ich da noch nicht mal eingehen. Ampere war alles in allem ineffizienter als RDNA2. Jetzt hat NVidia das Blatt halt gewendet, weil sie sich der Kritik angenommen haben und AMD eher sparen wollte (IF-Cache Reduktion).
Da muss man schon differenzieren.
AMD hat deutliche Vorteile bei der max. Performance Effizienz, das ist keien Frage.

In der Praxis ist das aber deutlich differenzierter. Im Teillastbereich ist AMD insbesondere mit allen Chiplet-CPUs immer noch verdammt schlecht.

Wenn ich mich an einem typischen Arbeitstag vom Homeoffice ins Büro verbinde, braucht mein Ryzen alleine mehr Strom als gesamte Rechner im Büro.
Freilich ist da kein überzüchteter KS verbaut, aber es gibt eben deutlich mehr als Verbrauch unter Volllast, und je geringer der Volllastanteil im persönlichen Nutzungsprofil ist, umso näher sind sich die beiden, bis sogar Intel vorne liegt.
Das kann man so pauschal nicht mehr sagen, kommt natürlich auch immer auf die zu verrichtende Arbeit an. Intel bietet da vor allem wegen der IGP natürlich Vorteile, die AMD erst mit R7K ausgeglichen hat. Aber gerade Alder Lake und später ist Intel im Teillast Bereich auch nicht wirklich sparsam (siehe Gaming Verbrauch).
https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/2/#abschnitt_leistungsaufnahme_in_spielen_ab_werk

Besonders erschreckend: Limitiert man die CPUs (egal ob Intel oder AMD), verliert man meist kaum und spart dabei deutlich.

Und bei AMD ist der Chipsatz entscheidend. X570 braucht mal eben 14W mehr als B550, bringt den meisten Usern aber nichts. Bei den neuen Boards ist das ähnlich, nur dass hier noch die PCIe5 Tauglichkeit was ausmacht. Bei Intel sind die Unterschiede zwischen den Chipsätzen kleiner, da muss man als User nicht so aufpassen. Inzwischen sind leider beide Hersteller in Teillast aufgrund übertriebener Boosts echt ineffizient...