PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 24. Januar 2023


Leonidas
2023-01-25, 10:04:30
Link zur News:
https://www.3dcenter.org/news/news-des-24-januar-2023

bad_sign
2023-01-25, 10:21:16
Vega 2.0 :(

Gast
2023-01-25, 10:24:50
Naja, vermutlich hat man hier den selben Fehler gemacht als wie bei Ampere. Die Shader können im Idealfall doppelt so viele FP32 Berechnungen, daher vermutet man deutlich mehr Leistung. Aber das ist halt nur der Idealfall, der in Realität nie auftritt.
Navi33 dürfte wohl in RT ganz gut vor den Vorgängern liegen, aber in Raster muss man wohl alles über die Taktraten machen, weil die Shader da praktisch keinen Vorteil liefern.
Insofern muss man schon sagen: 20% mehr Transistoren für vielleicht 5-10% mehr Leistung (mehr werden die Shader wohl nicht bringen) ist echt schwach. Ich würde jetzt nicht von einem zweiten Vega sprechen, dafür hat man immerhin in RT merkliche Schritte gemacht (auch wenn man NVidia nicht wirklich näher gekommen ist) und war wenigstens grob im Zeitplan. Aber in Relation zu RDNA1 und RDNA2 sicherlich eine Enttäuschung.

Exxtreme
2023-01-25, 10:32:30
Und nochmal, das sind alles nur Gerüchte, die ein Twitter-Account in die Welt setzt. :)

bloodflash
2023-01-25, 10:33:04
Als die ersten "handfesten" Gerüchte zu Navi 33 bzgl. Node, Infinity-Cache, Speicheranbindung und Chipgrösse rauskamen, war es doch klar, dass es eher Richtung 6700XT bei Raster rauskommen wird, Bei RT mag es sogar für eine 6800XT reichen (vielleicht).

Den Chip hätte ich gerne gehabt, da ich hoffe, dass das Teil mit einer TBP um die 150W herauskommen wird. Jetzt ist es doch eine 6700/10GB geworden, da es unwahrscheinlich wird so eine Karte in 2023 unter 350,-€ zu bekommen.

Man kann nur hoffen, dass Gameentwickler darauf achten, in jeder Lebenslage bei 1080p mit 8GB hinzukommen. Wenn man bedenkt, dass fast alle Mainstreamkarten (oder darunter) seit 2016 bis wahrscheinlich 2024 mit der Speicherbestückung kamen und kommen und auch die neuen Konsolen kaum mehr bieten.

Gast
2023-01-25, 10:40:55
Und nochmal, das sind alles nur Gerüchte, die ein Twitter-Account in die Welt setzt. :)

Was RDNA2 kann ist bekannt, womit jeder grob die Performance abschätzen kann. Dazu braucht es keinen Twitter-Account.

Dass Navi33 eine gänzlich andere Performancecharakteristik zeigt ist jedenfalls nicht zu erwarten.

Dino-Fossil
2023-01-25, 10:44:38
Ich hätte im Prinzip mal wieder Lust auf ein GPU-Upgrade (aus diversen Gründen möchte ich nicht wesentlich über 300€, v.a. weil sich mehr für mein gelegentliches Zocken mit vielen älteren Sachen mMn einfach nicht lohnt), aber auf die eine oder andere Art überzeugt mich aktuell nichts so richtig.

Trotzdem muss ich sagen, dass die RX 6700 10GB immer attraktiver erscheint, je vollständiger das Bild der neuen Mittelklasse-Karten von nVidia und AMD wird.

Zwar wären die RT Verbesserungen der neuen Generationen schon nett, aber letztlich scheint mir RT in dem Leistungsbereich sowieso eher wie eine theoretische Möglichkeit - und das vermutlich noch mindestens für die nächsten 2-3 Jahre und unahängig ob nVidia oder AMD.

Gast
2023-01-25, 10:50:29
Man kann nur hoffen, dass Gameentwickler darauf achten, in jeder Lebenslage bei 1080p mit 8GB hinzukommen. Wenn man bedenkt, dass fast alle Mainstreamkarten (oder darunter) seit 2016 bis wahrscheinlich 2024 mit der Speicherbestückung kamen und kommen und auch die neuen Konsolen kaum mehr bieten.

Keine Sorge, das wird so sein.
Die 3070 und 3060TI hatten ja auch 8GB gehabt.
Es gibt wenige, die mehr als 8GB haben - und wie du sagst kommen Konsolen dazu.

Mit 8GB wird man noch eine ganze Weile halbwegs komfortabel auskommen.
Enwickler enwickeln nie für eine kleine Minderheit - weswegen die ach so furchtbare Speicherbestückung bei Nvidia auch eher ein theoretisches Problem ist.
Klar ist Nvidia da teilweise zu knausrig - aber da Nvidia fast 90% Marktanteil hat sorgt ihre Knausrigkeit eben dafür, dass sich die Spieleentwickler daran orientieren.
Das ist eben der Luxus, den man sich als riesiger Marktführer leisten kann.
Hätte AMD 50% Marktanteil wären Nvidias Karten auch besser bestückt gewesen, weil die Gruppe die Karten mit großzügigem Vram hat deutlich größer wäre.

So bleibt der Vram AMDs einziges Verkaufsargument, was in der Praxis aber eher irrelevant ist, da Nvidia die Maßstäbe für die Spieleentwickler setzt.

Gast
2023-01-25, 11:03:18
Zwar wären die RT Verbesserungen der neuen Generationen schon nett, aber letztlich scheint mir RT in dem Leistungsbereich sowieso eher wie eine theoretische Möglichkeit - und das vermutlich noch mindestens für die nächsten 2-3 Jahre und unahängig ob nVidia oder AMD.
Ach, mit einer 3060TI und DLSS geht es teilweise schon recht gut.
Aber ja, ein bisschen Power fehlt schon noch.
Und bei 300 Euro ist eine 3060TI natürlich auch nicht, die ist deutlich teurer.

Ich fürchte für 300 Euro wirst du auch in absehbarer Zeit nur noch das bekommen, was früher mal der 100-150 Euro "Schrott" war.

Wenn man mehr zockt irgendwie noch verschmerzbar, aber wenn man wie du sagst eher selten und unregelmäßig spielt ist das eine absolute Mist-Situation.
Wer weiß, evt. ist es da sogar gut, wenn AMD technisch nur zweit- oder drittklassiges Zeug liefern kann.
Dann könnte es preislich eventuell mal wieder interessant werden. Die aktuellen Preise machen da aber wenig Hoffnung.

An deiner Stelle würde ich am meisten Hoffnung auf Intel setzen. BattleMage könnte eine attraktive Karte für dich werden. (aber eben nicht mehr dieses Jahr.)
Die Treiber haben sich bereits deutlich verbessert, wenn man nicht High-End will (da wird BattleMage garantiert nicht rankommen) könnte das eine runde Sache werden.
Und ich denke das Intel bei den Preisen eher in der Realität lebt und den eigenen Stand richtig einschätzen kann.

Gast Ritis
2023-01-25, 11:37:08
Moment mal!

Die frühen Gerüchte, die einen N33 bei N21 Klasse spekuliert hatten waren auch von 128 bis 256 MB IF-Cache ausgegangen. Alles Käse, damals.

Mit den Laptop-N33 hat AMD die Speks festgelegt. 28 bis 32 CUs, 18GBps beim Vollausbau.

Die Bandbreite und der IF-Cache geben ein Performance-Limit vor, mit den CUs kann man die Performance im Vergleich spekulativ herbeifabulieren, das kann der "Leaker" sich mal eben so wie jeder andere auch zusammengereimt haben.

Solange der Takt nicht von halbwegs offizieller Stelle feststeht ist doch nur die grobe Einordnung klar, für Desktop ist da nochmal starke Abweichung möglich, hat doch der unbeliebte RX6500XT vorexerziert.

GerryB
2023-01-25, 12:11:00
Und nochmal, das sind alles nur Gerüchte, die ein Twitter-Account in die Welt setzt. :)
This!

Erst werden vor dem Navi 31/32/33-Launch zu hohe Erwartungen geschürt, auch von einigen Fanboys in der red Corner und dann kommts zu solchen "unglücklichen"
korrigierten Aussagen von "fehlender" Performance. (wo der Twitterer zum wiederholten Male nur Klicks einsammeln will)

Wo eigentlich vorher und nachher net richtig nachgedacht wurde.
(Vermutlich könnte man sich eher über die Bandbreite seinen Teil denken, die normalerweise zur Rohpower passen sollte)

z.Bsp.
Bezeichnend ist für mich die Speku zum Takt, ... im Video ne 7900XTX-Nitro OCed
Das Frontend kann >>3,5Gig. (Shader laufen nur so schnell wie erf. bzw. im PL)

https://www.youtube.com/watch?v=qVEHxzMG9XA&t=29s

Gast
2023-01-25, 12:29:50
Und ich denke das Intel bei den Preisen eher in der Realität lebt und den eigenen Stand richtig einschätzen kann.
Und wie kommst du da bitte drauf? Schau dir doch das aktuelle Lineup an. Die A770 ist in RT etwa so schnell wie eine 6700XT, in Raster ist die AMD dann grob 30-40% schneller. Dafür kostet die Intel dann 15€ weniger. Auf NVidia Seite ist die 3060 12GB grob vergleichbar. In FHD quasi gleich schnell, in QHD dann etwas langsamer. Dafür kostet die dann ab 50€ weniger. Ist das ein "in der Realität" leben? Intel ist noch weiter weg als AMD und NVidia. Das wird auch bei Battlemage so sein. Intel kann auch bei der Fertigung nicht so große Sprünge machen, weil man aktuell schon auf 6nm ist. Sicherlich bietet dafür die Arch noch viel Potential, aber das muss dann erst mal gehoben werden. Insofern wird Intel da auch keine besseren Angebote im Vergleich zu AMD und NVidia machen.

Gast
2023-01-25, 12:45:38
This!

Erst werden vor dem Navi 31/32/33-Launch zu hohe Erwartungen geschürt, auch von einigen Fanboys in der red Corner und dann kommts zu solchen "unglücklichen"
korrigierten Aussagen von "fehlender" Performance. (wo der Twitterer zum wiederholten Male nur Klicks einsammeln will)

Wo eigentlich vorher und nachher net richtig nachgedacht wurde.
(Vermutlich könnte man sich eher über die Bandbreite seinen Teil denken, die normalerweise zur Rohpower passen sollte)

z.Bsp.
Bezeichnend ist für mich die Speku zum Takt, ... im Video ne 7900XTX-Nitro OCed
Das Frontend kann >>3,5Gig. (Shader laufen nur so schnell wie erf. bzw. im PL)

https://www.youtube.com/watch?v=qVEHxzMG9XA&t=29s
Ja bei dir ist AMD immer vollends ok. Wenn nicht sogar besser als Konkurrenz, die ganzen Test zu deren Hadrware und im Vergleich mit der Konkurrenz scheinst du komplett auszublenden. Konstruktive Kritik hilft aber manchmal viel mehr, als blinder Aktionismus.

Ist nicht persönlich gemeint, aber in deinen Beiträgen auffällig, deshalb lese ich sie mir gar nicht mehr durch. Mag dich ja nicht stören.

Ich mag Sapphire, aber was die derzeit preislich abliefern ist einfach eine Katastrophe und da skommt von einem der Sapphire jahrelang gekauft hat, für die Nitro+ bekommst du eine extrem gute 4080 OC von nV Partnern die in höheren Auflösungen Kreise um die XTX dreht die auch noch knapp 200 Watt im OC Bios mehr säuft. Selbst silent sind es noch 100-150 Watt je nach Spiel. Gibt einen wunderschönen Test von den Luxx'en die WHQD und UHD RT Performance vergleicht, ohne DLSS und FSR. Da sieht AMD einfach komplett alt aus und verliert 50% Leistung gegenüber der Konkurrenz, wobei Sapphire 1,5K verlangt. 1,2K für die kleine Karte. Gehts noch?

20GiB GDDR6 werden dir derzeit hinterher geworfen, die sind froh das die das Zeug los werden.

Das hat auch gar nichts mit Fanbois zu tun, sondern mit realer Welt und das AMD nie Gerüchte richtig stellt um sich noch paar Leute an der Stange zu halten, sonst würden die all schon im Vorfeld nV kaufen. Das erwachen kommt dann erst wenn sie die Hardware verbaut haben und bedröppelt auf den Bildschirm starren was da so abgeht und die Leistung vermissen die so oft vom Marketing vorangekündigt wird.

Frag dich mal was besser ist!

Gast
2023-01-25, 12:56:07
@gerryB
Hier guckt dir das an, 30-40fps weniger aber hoher Verbrauch, CPU kotzt toal ab im Vergleich mit nVidia und ist ein komplettes Hardware/Treiberproblem, die 7900xtx ist 25-30% langsamer, das Gesamtsystem braucht aber genausoviel Saft!!! Die Karte allein zieht 470w bei stetig 100 Load.

https://www.youtube.com/watch?v=xHgHDV1L7oA

Das soll effizient sein! Ehrlich, das ist eine komplette Katastrophe die Sapphire da abliefert, Vega ist zurück.

Rechne mal die 30% obendrauf was die XTX dann saufen würde. Dann im Vorfeld durch Marketing verbreiten, deren Effizienz sei ok!!!! Dann spart man sich solche Seitenhiebe.

Exxtreme
2023-01-25, 13:03:09
Das soll effizient sein! Ehrlich, das ist eine komplette Katastrophe die Sapphire da abliefert, Vega ist zurück.

Rechne mal die 30% obendrauf was die XTX dann saufen würde. Dann im Vorfeld durch Marketing verbreiten, deren Effizienz sei ok!!!! Dann spart man sich solche Seitenhiebe.

Wobei es witzig ist, dass sich fast niemand über den Stromverbrauch einer 3090Ti beschwert hat. ;) Wenn es Team grün versemmelt dann ist das OK so, nicht wahr?

Raff
2023-01-25, 13:17:51
Also eigentlich wurde die RTX 3090 Ti massiv für ihren Durst kritisiert. Sonst gab es (abgesehen vom Preis) ja auch keine Aufreger. ;)

MfG
Raff

Gast
2023-01-25, 13:28:47
Die Karte allein zieht 470w bei stetig 100 Load.

Die Dinger kleben an ihrem max PT das es kein morgen gibt. Zuweilen nimmt die 4090 in bestimmten Spielen bei 50FPS mehr, 100w weniger.

Ich verstehe das ehrlich gesagt auch nicht. Es passt komplett nicht zu dem was man vorangekündigt hatte. Nvidia hat AMD diesmal richtig vorgeführt. Schön Gerüchte verbreiten lassen von 600w bis 800w Karten. Den Haken hat AMD wohl geschluckt. Wenn man die 7900xtx mit einer 4080 vergleicht, das ist ja der auserwählte Gegner seitens AMD - sind das teilweise 200w mehr. Also doppelt so viel, wo die 4080 in Raster nur 10% hinterherhängt (in AMD auserwählten Spielen).

Das ist wirklich schlimm und schlecht. Jetzt weiß man auch warum Nvidia trotzig einfach mehr verlangt, die lassen sich die Effizienz vergolden.

Wobei es witzig ist, dass sich fast niemand über den Stromverbrauch einer 3090Ti beschwert hat. ;) Wenn es Team grün versemmelt dann ist das OK so, nicht wahr?
Schlimm war die 3090ti ja, nicht die 3090. Habe eine hier die kriegt man mit undervolt gebändigt und verliert kaum Leistung (fast 100w weniger im Peak). RT ist sie genauso schnell wie eine 7900xt und ich habe sie neu verpackt im Abverkauf für 850 auf ebay bekommen (Rechnung lag bei, seinerzeit von caseking 3,1k Euro ;) - vermute von einem Scalper der sie loswerden wollte), inklusive vormontiertem Wasserkühler der ja auch noch kostet. Die Frostbite von Inno3d. Super Karte. PC ist wassergekühlt, passt also perfekt.

Schaltest du DLSS an zieht sie von der 7900xt weg und die braucht kaum weniger, eher mehr weil die an ihrem max PT kleben. AMD scheint alles rauszuprügeln um an der 4080 vorbei zu kommen. Kennen wir ja schon, ala R9 Serie damals. Die Karten sind dann später massenweise gestorben.

Ob das wirlich besser ist, um mehr verlangen zu können sollte sich AMD mal selbst fragen. Manchmal ist weniger mehr, haben sie ja jahrelang so vorgelebt. Eine 7900 nonXT gibt es wohl nicht. Schade, daher ist AMD bei mir jetzt auch rausgeflogen. Hatte vorher die 6800nonXT, super Karte undervolt 4k@60Hz bei 170w. RT kann sie nix (in 1080p vllt.), war damals aber nicht auschlaggebend. Nun sollte es dabei sein. Werde sie erstmal behalten. Geht ins Zweitsystem luftgekühlt.

Crazy_Borg
2023-01-25, 13:34:00
Zur Google-Suchanfragen nach Grafikkarten:

Man sollte bedenken, dass die alte GT1030 eine der wenigen "bezahlbaren" Grafikkarten ist, welche noch in low profile zu bekommen ist, und zumindest "etwas" 3D Leistung bietet.
Die GT1050 LP ist ja selten und eher nischig mit dem Riesen Kühler dran, und die Preise für eine AMD 6400 LP oder GT1630 LP sind halt jenseits von Gut und Böse.

Also ja, SFF Aufrüster z.B. für HTPCs kaufen diese Karten noch, was auch die immer noch hohen Gebrauchtpreise dafür auf ebay & Co erklärt.

Gast
2023-01-25, 13:46:49
Und wie kommst du da bitte drauf? Schau dir doch das aktuelle Lineup an. Die A770 ist in RT etwa so schnell wie eine 6700XT, in Raster ist die AMD dann grob 30-40% schneller. Dafür kostet die Intel dann 15€ weniger.
Die UVP war bei Intel 330 Dollar, bei AMD 480 Dollar.
Damit plante AMD 50% höheren UVP, bei +29% mehr Raster Leistung (3D Center Full HD Index), bei RT sieht es deutlich schlechter aus.
Zumindest auf dem Papier war damit Intel das massiv attraktivere Angebot. Aber eben noch mit Treiberproblemen.

Am Markt hat AMD stärker nachgegeben, weil kein Mensch RDNA2 kaufen will.
Die Intention bei Intel war ein deutlich realistischerer Preis als bei AMD.

Und MSRPs werden in Zukunft wieder etwas relevanter werden als das 2021 + 2022 gewesen ist.

AMD hat keine Ahnung mehr was für Preise Leute bezahlt sind für ihr Zeug zu bezahlen - Intel scheint da sehr viel geerdeter zu sein.
Natürlich kann es sein, dass Intel bei BattleMage auch deutlich teurer wird.
Aber ja, Intel bietet leider die größere Chance auf einen attraktiven Preis als die seit ca. 1-2 Jahren völllig abgehobenen AMD Preise.

Gast
2023-01-25, 13:49:15
Wobei es witzig ist, dass sich fast niemand über den Stromverbrauch einer 3090Ti beschwert hat. ;) Wenn es Team grün versemmelt dann ist das OK so, nicht wahr?
Was???
Die 3090TI wurde überall wegen überhohtem Preis und miserabler Effizienz verrissen.

Hier jetzt zu unterstellen bei Nvidia hätte den Stromverbrauch nicht interessiert ist absurd.
Schon die 3090 wurde für den hohen Verbrauch kritisiert btw - ein Verbrauch, den bei der 7900XTX jetzt absolut keinen interessiert.
Schau doch alleine hier im Forum mal bei der 3090 rein - und vergleiche es mit der 7900XTX...

Exxtreme
2023-01-25, 14:03:32
Was???
Die 3090TI wurde überall wegen überhohtem Preis und miserabler Effizienz verrissen.

Hier jetzt zu unterstellen bei Nvidia hätte den Stromverbrauch nicht interessiert ist absurd.
Schon die 3090 wurde für den hohen Verbrauch kritisiert btw - ein Verbrauch, den bei der 7900XTX jetzt absolut keinen interessiert.
Schau doch alleine hier im Forum mal bei der 3090 rein - und vergleiche es mit der 7900XTX...

Wenn ich mir die Tests so durchlese dann ist das weit von einem Verriss. Die hohe Leistungsaufnahme wird zwar erwähnt aber verrissen wird die Grafikkarte deswegen jetzt nicht. Offenbar hat Team grün hier einen Bonus.

Raff
2023-01-25, 14:07:56
Der "Bonus" ist, dass das im März eine konkurrenzlos schnelle Grafikkarte war. Wenn heute eine RX 7950 YUY (kommt nach "XTX" ;)) mit 500 Watt erscheint und dabei Kreise um die RTX 4090 dreht, wäre das genauso.

MfG
Raff

etp_inxession
2023-01-25, 14:12:29
Aber bei den Hauptargumenten, steht einfach

Raster 7900 XTX > 4080
RT 4080 > 7900 XTX
Speicher 7900 XTX > 4080
Verbrauch 4080 < 7900 XTX

Preis spricht wiederum für die Radeon.

Alles andere ist dann eben Spezifisch.

Legendenkiller
2023-01-25, 14:33:43
weil ich es mehrfach gelesen haben.

Die Konsolen können beide die vollen 16Gbyte als Grafik-Ram nutzen.
Da sie aber irgendwie immer was davon abzeigen müssen wenden sie es wohl nie nutzen. Aber irgend ne Techdemo könnte auch mit 15,9 Gbyte laufen :-)

Grafisch aufwendige Titel werden aber mit Sicherheit mehr als 8GB nutzen oder tun es bereits ...

Lehdro
2023-01-25, 14:48:38
Die UVP war bei Intel 330 Dollar, bei AMD 480 Dollar.
Die eine Karte kam 10/2022 raus, die andere schon 03/2021, 1,5 Jahre früher. Das ist quasi fast eine Generation.
Da war zudem so etwas unscheinbares wie die Miningblase am werken - ohne die hätte AMD die Karten allesamt niedriger bepreisen müssen - was sie jetzt auch tun, wobei die 6700XT immer noch bei 400€ rumdümpelt. Der Vergleich ist einfach voll daneben, vor allem wenn man die Leistungsdifferenz, den zeitlichen Vorsprung mitsamt der GPU Krise in Betracht zieht.

ElectricLeaf
2023-01-25, 15:09:28
Amd ist als Multimedia Plattform einfach uninteressant, selbst eine Intel IGP bietet bessere Qualität beim Rendern.
Für interessierte Nutzer gibts mit den Karten von Intel nur noch die Wahl zwischen Intel und Nvidia bzw. Quicksync und NVENC.

Außerhalb von Spielen wird als GPU Compute nahezu überall Intel akzeptiert (99,2%), in 85% Nvidia via Cuda, Amd ist irgendwo bei 40%,
was sogar agenommen hat zu FM2/+ Zeiten konnte selbst die Software die ich verwende gut 3/4 AMD GPU Compute, seit Ryzen gings runter zu nicht erwähnenswert.


AMD meint einfach nur sie sinds und aus neuen Ideen die sie hatten, haben sie sie wieder verworfen um nur noch der Sache des Profits zu dienen,
wieso UMA, HSA etc. weiter verfolgen wenn wir Cash aus der CPU beziehen können. Vorbei ist die Zeit der Revolution wie die CPU mit der IGP harmoniert.

Einzig bei den Konsolen ist das noch vorhanden.

bloodflash
2023-01-25, 19:56:18
die Wahl zwischen Intel und Nvidia bzw. Quicksync und NVENC.

Ich dachte immer die beiden sind der Garant für schlechte Qualität und kodieren über CPU oder GPU-unterstützte Routinen abseits davon sind der Holy Grail.

Gast
2023-01-25, 20:45:23
Die UVP war bei Intel 330 Dollar, bei AMD 480 Dollar.
Damit plante AMD 50% höheren UVP, bei +29% mehr Raster Leistung (3D Center Full HD Index), bei RT sieht es deutlich schlechter aus.
Zumindest auf dem Papier war damit Intel das massiv attraktivere Angebot. Aber eben noch mit Treiberproblemen.

Am Markt hat AMD stärker nachgegeben, weil kein Mensch RDNA2 kaufen will.
Die Intention bei Intel war ein deutlich realistischerer Preis als bei AMD.

AMD hat keine Ahnung mehr was für Preise Leute bezahlt sind für ihr Zeug zu bezahlen - Intel scheint da sehr viel geerdeter zu sein.
Natürlich kann es sein, dass Intel bei BattleMage auch deutlich teurer wird.
Aber ja, Intel bietet leider die größere Chance auf einen attraktiven Preis als die seit ca. 1-2 Jahren völllig abgehobenen AMD Preise.
Das sind deine Ansichten. Meine Ansichten sind, dass die A770 eine UVP von 349$ hat (laut PCGH) und nicht 330$, und das AMD die 6700XT für 479€ UVP vor fast 2 Jahren auf den Markt gebracht hat. Dann sehe ich halt eher 415€ UVP bei Intel gegen 479€ UVP bei AMD (wobei UVP für mich als Endkunden irrelevant ist). Übrigens geht dann deine Rechnung nicht mehr wirklich auf.
Aber wenn man deine Ausführungen so liest, interessiert dich das eh nicht wirklich. Auch das Thema 3060 hast du gekonnt ausgeblendet, denn deren UVP von 329€ würde ja auch klar belegen, dass Intel's Preise keinesfalls besser als bei der Konkurrenz sind.

Gast
2023-01-25, 21:10:35
Amd ist als Multimedia Plattform einfach uninteressant, selbst eine Intel IGP bietet bessere Qualität beim Rendern.
Für interessierte Nutzer gibts mit den Karten von Intel nur noch die Wahl zwischen Intel und Nvidia bzw. Quicksync und NVENC.

Außerhalb von Spielen wird als GPU Compute nahezu überall Intel akzeptiert (99,2%), in 85% Nvidia via Cuda, Amd ist irgendwo bei 40%,
was sogar agenommen hat zu FM2/+ Zeiten konnte selbst die Software die ich verwende gut 3/4 AMD GPU Compute, seit Ryzen gings runter zu nicht erwähnenswert.
Interessant... Welche relevante Compute Schnittstelle bedient Intel denn, die AMD nicht bedient? Und wo wird die aktuell angeboten, wo gleichzeitig dann keine AMD Karte unterstützt wird?
Wie kommt es dann, dass AMD gerade bei den Compute Karten aktuell so gut unterwegs ist und zwei der drei schnellsten Rechner mit ihren Karten ausrüstet? Wenn die so schlecht sind, warum kaufen die dann Karten von AMD?
Bezüglich AMDs Media Engine: Wenn die so schlecht ist, warum soll eine 7900XT(X) dann schneller sein als die ME von Intel (incl A770) und dabei teilweise sogar bessere Bildqualität in AV1 liefern (siehe Bericht bei Techspot)? Dir ist schon klar, dass AMD da auch mal Updates bringt? Die aktuelle soll wohl grob im Bereich von Intel liegen und beide ein wenig hinter NVidia liegen. Klingt für mich nicht so, als wäre die "uninteressant".

Redirion
2023-01-26, 08:21:36
Aus der grundsätzlichen Leistungsklasse des Vorgänger-Chips kommt Navi 33 damit aber kaum heraus, selbst Navi 22 ist damit (wahrscheinlich) nicht zu erreichen. Dies ist aus Performance-Sicht enttäuschend, könnte allerdings dennoch eine gewisse Chance darauf ergeben, wieder einmal etwas zugunsten schneller wie preisgünstiger FullHD-Beschleuniger zu tun: Denn mittels der 6nm-Fertigung von Navi 33 vermeidet AMD den Preisnachteil der 5nm-Fertigung, hat eine etwas kleinere Chipfläche, die gleiche Speichermenge und letztlich sogar Kompatibilität zu Platinenlayouts für Navi 23. Da sollte doch ein gewisser preislicher Angriff möglich sein, wenn schon der Performance-Angriff ins Wasser fällt. AMD darf sich hierbei gern an früherer Ruhmestaten wie die Radeon RX 580 erinnern, welche anno 2017 für 229 Dollar ins Rennen ging – auch schon mit 232mm² großem Grafikchip sowie per default mit 8 GB VRAM.

diesen Paragraph fand ich besonders schön. Es schwingt auch etwas Hoffnung mit. Es klingt auch gar nicht so unrealistisch, wenn das Lineup der 7600 unter 400€ bleibt, bestenfalls sogar um die 300€ landet. AMD hat ja netterweise mit dem Naming etwas Luft dazwischen gelassen.

Der Oberon-SoC der PS5 wurde ja aus Kostengründen in 6nm geschrumpft (https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/59564-amd-schrumpft-oberon-soc-der-playstation-5-auf-6-nm.html) und ist trotzdem noch größer und komplexer als Navi 33. Das zeigt eigentlich die massentauglich und günstig 6nm sind. Hier muss preislich einfach ein Signal von AMD kommen.

MasterElwood
2023-01-26, 08:28:02
@RAFF

Bei vielen ist leider trollen das Hobby - und die Hardware nur das Werkzeug :D

Buddy Casino
2023-01-26, 09:54:08
Bezüglich AMDs Media Engine: Wenn die so schlecht ist, warum soll eine 7900XT(X) dann schneller sein als die ME von Intel (incl A770) und dabei teilweise sogar bessere Bildqualität in AV1 liefern (siehe Bericht bei Techspot)? Dir ist schon klar, dass AMD da auch mal Updates bringt? Die aktuelle soll wohl grob im Bereich von Intel liegen und beide ein wenig hinter NVidia liegen. Klingt für mich nicht so, als wäre die "uninteressant".

Schön dass es bei AV1 vorwärts geht, H.264 ist immer noch relevant und leider immer noch nicht gut:

"Even though AMD's AV1 encoder doesn't outright beat its competitors, it is much better than AMD's H.264 encoders which have been sitting behind Nvidia and Intel's on a consistent basis. These days, AMD's AMF H.264 encoder can output good quality videos, thanks to updates from AMD, but it's still widely regarded as a last place resident when compared to its competitors." [0]

Das sind einfach Dinge um die man sich bei Nvidia keine Gedanken machen muss. Man hat das Gefühl bei AMD ist vieles einfach so hingeschludert.

[0] https://www.techspot.com/news/96945-amd-radeon-rx-7900-av1-encoder-almost-par.html

Dino-Fossil
2023-01-26, 11:07:15
Es sind allerdings auch Dinge, die 95% der Käufer nie interessieren werden.

Exxtreme
2023-01-26, 11:19:29
Es sind allerdings auch Dinge, die 95% der Käufer nie interessieren werden.

Das ist zwar korrekt. Aber hier fehlt AMD einfach mal die Power und der Wille Dinge konsequent zuende zu implementieren. Das ist eher ein Mentalitätsproblem. Wenn Nvidia etwas einbaut dann wird das ausgemaxt bis es wirtschaftlich absolut nicht mehr sinnvoll ist.

Und das ist auch der Grund warum AMD trotz guter Produkte nicht aus dem Marktanteil-Loch kommt. Wer braucht gute H.264- und AV1-Encoder? Twitch-Streamer und Youtuber. Und die sind was Marketing angeht richtig heftige Multiplikatoren. Diese kann AMD aber nicht anzapfen weil diese Leute wegen der guten H.264-Unterstützung Nvidia-Hardware nutzen müssen.

Bei AMD hat man echt das Gefühl als ob das Marketing und der Vertrieb die Ingenieursarbeit der Entwickler mit Absicht sabotiert.

iamthebear
2023-01-26, 12:56:01
Was für eine Überraschung:
Ein 200mm² N33 in N6 ist in etwa so schnell wie
ein 237mm² N23 in N7

N6 hat ca. 10% mehr Density wie N7.

Und nein es ist kein Vega 2.0

Vega 2.0 wäre es wenn N33 350mm² groß wäre und HBM bräuchte um N23 zu schlagen (siehe Radeon VII)

Gast
2023-01-26, 12:58:20
Aber hier fehlt AMD einfach mal die Power und der Wille Dinge konsequent zuende zu implementieren. Das ist eher ein Mentalitätsproblem.

Bei AMD hat man echt das Gefühl als ob das Marketing und der Vertrieb die Ingenieursarbeit der Entwickler mit Absicht sabotiert.
Dito.

Die scheinen sich einfach in ihrer eigenen Blase aufzuhalten, wenn man nicht konkurrenzfähig ist macht man es eben so. Man ignoriert die Konkurrenz, nimmt sie nicht mehr als Maßstab und das was der Markt verlangt. Konnten wir leider nicht, tut uns Leid - aber hier unsere Produkte! Leider genauso teuer wie die Konkurrenz, da vom selben Fertiger, das böse TSMC. Poor TSMC, Poor Nvidia, Poor 12VHPWR.

Kein GDDR6X, weniger SI Cache, weniger Shader, hoher Verbrauch, weniger RT Cores...steht aber Radeon drauf, ist doch toll oder? Nun könnt ihr endlich nach zehn Jahren auslesen was die Karte komplett und real verbraucht, nicht mehr nur noch Asic Power. Daran haben wir zwei Jahre entwickelt. Leide rist der trieber noch vermurkst aber wir arbeiten daran, in einem Jahr wird alles gut.

MCM zumindest ist kein gutes Omen, und war es bei Fiji und Vega mit HBM auch nicht. Viel Aufwand für nichts und viel "Experimentelles" verfrüht, das der Markt nicht braucht oder lange noch nicht so weit ist und diese Mehrleistung dann verpufft, nicht nutzbar ist siehe Vega. Warum macht man immer wieder die gleichen Fehler, wiederholend?

Das es an den Engineers oder Devs liegt glaube ich nicht (die bauen und entwickeln dir alles), der Fisch fängt am Kopf an zu stinken, nicht am Schwanz! Gepaart mit der Unfähigkeit bestimmter Manager und Abteilungsgrößen. AMD hat diesen Markt nicht und wird sich darin nie etablieren wenn sie so weitermachen, man wird immer nur zweite Wahl bleiben. Thema Koduri, der viel mehr wollte man ihm aber Personal und Finanzen dafür gestrichen hatte und ihm das Leben mit dem Abzug von Treinberentwickeln erschwerte. CPUs sind wichtiger, na dann...

Was könnte man im Bereich GPU alles entwicklen und verkaufen, siehe Preise derzeit. Das würde Unmengen an Finanzmittel in die Kassen spülen, was die nächste Gen und deren Leistungssprünge fast schon sichert. Nein brauchen wir nicht. Ja dann eben nicht.

So bleibt das Image der Frickelbude anhaften, das überzeugt Enthusiasten letztendlich nicht.

Exxtreme
2023-01-26, 13:51:49
Dito.

Die scheinen sich einfach in ihrer eigenen Blase aufzuhalten, wenn man nicht konkurrenzfähig ist macht man es eben so. Man ignoriert die Konkurrenz, nimmt sie nicht mehr als Maßstab und das was der Markt verlangt. Konnten wir leider nicht, tut uns Leid - aber hier unsere Produkte! Leider genauso teuer wie die Konkurrenz, da vom selben Fertiger, das böse TSMC. Poor TSMC, Poor Nvidia, Poor 12VHPWR.


Ich habe mal gelesen, dass AMD Nvidia nicht so wirklich als Konkurrenz wahrnimmt und Intel der eigentliche Feind ist. Das deckt sich durchaus damit wie sie agieren. Gegen Intel kämpfen sie schon sehr wacker und sind praktisch überall konkurrenzfähig. Klar, hier gibt es auch mal Bauchklatscher ala Bulldozer. Aber davor ist keine Firma sicher. Die Grafikkartensparte ist da mehr eine Art Entwicklungsabteilung + Zubrot.


Kein GDDR6X, weniger SI Cache, weniger Shader, hoher Verbrauch, weniger RT Cores...steht aber Radeon drauf, ist doch toll oder? Nun könnt ihr endlich nach zehn Jahren auslesen was die Karte komplett und real verbraucht, nicht mehr nur noch Asic Power. Daran haben wir zwei Jahre entwickelt. Leide rist der trieber noch vermurkst aber wir arbeiten daran, in einem Jahr wird alles gut.


Wobei die meisten dieser Dinge praktisch niemanden interessieren. Ob eine Grafikkarte jetzt GDDR6X oder nur GDDR6 hat ... Oder frag jemanden, der nicht in der 3DC-Blase ist, wo da der Unterschied ist. Der wird dich alleine bei dem Begriff GDDR6X anschauen wie ein Uboot.


Das es an den Engineers oder Devs liegt glaube ich nicht (die bauen und entwickeln dir alles), der Fisch fängt am Kopf an zu stinken, nicht am Schwanz! Gepaart mit der Unfähigkeit bestimmter Manager und Abteilungsgrößen. AMD hat diesen Markt nicht und wird sich darin nie etablieren wenn sie so weitermachen, man wird immer nur zweite Wahl bleiben. Thema Koduri, der viel mehr wollte man ihm aber Personal und Finanzen dafür gestrichen hatte und ihm das Leben mit dem Abzug von Treinberentwickeln erschwerte. CPUs sind wichtiger, na dann...


AMD hat das Problem, dass deren Marketing und Vertrieb was Grafikkarten angeht sehr eindimensional denkt. Die können tolle Präsentationsfolien machen, sie stehen in Benchmarks auch sehr gut da und sie kaufen sich hier mal da in ein Spiel ein. Aber das war's auch. Für mehr taugen weder das Marketing noch die Produkte da sie nicht in der Lage sind so eine Art virales Marketing zu nutzen. Grad Youtuber, Twitch-Streamer etc. sind da Multiplikatoren ohne Ende und AMD ist da komplett blind dafür.

Bei Nvidia ist das anders. Deren Marketing ist absolut Mega und durchdringt die gesamte Firma und beeinflusst auch stark ihre Produkte. Alles was sie machen taugt für Marketing und wird auch so benutzt, auch wenn das einige Dinge unbrauchbar macht. Die Whitepapers z.B. kann man sich gleich sparen weil sie nichts aussagen und nur Wischiwaschi-Marketing-Blabla sind etc. Die richtigen Produkte werden aber ausgemaxt und funktionieren auch in diversen Nischen.

Gast
2023-01-26, 15:12:05
Schön dass es bei AV1 vorwärts geht, H.264 ist immer noch relevant und leider immer noch nicht gut
Ist allerdings eine komplett andere Aussage als die (falsche) Behauptung, dass das Ding grundsätzlich unbrauchbar ist und jeder User mit Intel und NVidia besser bedient ist. Das ist in AV1 halt nicht der Fall.
Leider gibt es auch bezüglich Video kaum Tests. Früher hatte Anandtech da mal ausführlich geprüft, machen die aber schon länger nicht mehr. Gibt's da andere Tester, die das bieten?

Und bezüglich Wille bei AMD: In dem oben von Buddy Casino zitierten Test wird bestätigt, dass AMD bei H.264 was verbessert hat (sind zwar immer noch nicht auf dem Niveau der Konkurrenz, aber deutlich besser als am Anfang). AMD hat also durchaus ein gewisses Maß an "Power" hinein gesteckt. Honoriert wurde das aber offensichtlich gar nicht. Insofern ist es natürlich auch schwer, weiteren Aufwand in dem Bereich irgendwie zu verargumentieren. Die Kosten haben offensichtlich 0 Nutzen gebracht, also warum sollte man noch mehr Kosten verursachen, wenn die wieder 0 Nutzen bringen werden? AMD ist ja schlussendlich auch eine AG, die Geld verdienen will.

bad_sign
2023-01-26, 18:03:58
Was für eine Überraschung:
Ein 200mm² N33 in N6 ist in etwa so schnell wie
ein 237mm² N23 in N7

N6 hat ca. 10% mehr Density wie N7.

Und nein es ist kein Vega 2.0

Vega 2.0 wäre es wenn N33 350mm² groß wäre und HBM bräuchte um N23 zu schlagen (siehe Radeon VII)

Vega passt zur RDNA3
Stromhungrig (1/3 mehr Strom für selbe Leistung, XTX vs 4080 ), schlechter als die chippendanten der Konkurrenz (diesmal ohne Fertigungsnachteil), teuer (Vega64 war zu Anfangs ein schlechter scherz zum Preis einer 1080) und bleiben weit hinter den selbst gesteckten Erwartungen zurück (54% bessere Effizienz)

Redirion
2023-01-26, 21:03:42
[...](diesmal ohne Fertigungsnachteil)[...]

N4n vs N5 würde ich schon als Fertigungsnachteil sehen.

iamthebear
2023-01-28, 00:00:30
Ja die Energieeffizienz von RDNA3 ist nicht sehr berauschend aber der Großteil liegt einfach daran, dass Nvidia die letzten 2 Generationen eben auf alte Ramschfertigung gesetzt hat und 1-2 Nodes hinten waren.

ryan
2023-02-16, 13:34:33
Bezüglich AMDs Media Engine: Wenn die so schlecht ist, warum soll eine 7900XT(X) dann schneller sein als die ME von Intel (incl A770) und dabei teilweise sogar bessere Bildqualität in AV1 liefern (siehe Bericht bei Techspot)? Dir ist schon klar, dass AMD da auch mal Updates bringt? Die aktuelle soll wohl grob im Bereich von Intel liegen und beide ein wenig hinter NVidia liegen. Klingt für mich nicht so, als wäre die "uninteressant".



Sie ist nicht schneller und die Qualität ist deutlich unter dem von Intel und Nvidia. Kannst du hier nachsehen: https://rigaya.github.io/vq_results/

MD_Enigma
2023-05-09, 19:20:10
83845
Lustig. Did not age well :)

DozerDave
2023-05-09, 20:16:18
Und was genau?