PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 8. Februar 2023


Leonidas
2023-02-09, 08:59:05
Link zur News:
https://www.3dcenter.org/news/news-des-8-februar-2023

Aroas
2023-02-09, 10:37:27
Ich bin wirklich gespannt, ob Intel bei seinen GPUs den nötigen langen Atem beweist und das Ganze nicht direkt wieder zu Grabe trägt.
Die Treiber scheinen sich ja durchaus stetig zu verbessern.
Evtl. wäre eine zweite Generation dann tatsächlich schon eine echte Konkurrenz zu NVidia und AMD.

Hogwarts Legacy zeigt einmal mehr, wie mies die Damen und Herren Entwickler da gearbeitet haben. Das Spiel hat nicht einmal im Ansatz eine Optik, die in FullHD 8GB Speicher als zu wenig herausstellen sollte.
Hier hat einfach so gut wie keine Optimierung stattgefunden und man wird (wieder einmal) auf Patches warten müssen.

Das ist nicht nur grundsätzlich ärgerlich, sondern auch in Hinblick darauf, dass sich dieses Spiel auch an ein Publikum richtet, welches nicht aus der Hardcore Gamer Ecke kommt, welche mit teuren High End PCs ausgestattet ist.
Solch ein Spiel MUSS einfach auch problemlos auf schwächeren PCs laufen um die Zielgruppe bedienen zu können.

Leonidas
2023-02-09, 11:00:01
Frage an der Stelle natürlich: Läuft es nicht eventuell mit niedrigerer Texturen-Einstellung problemlos?

Aroas
2023-02-09, 11:04:18
Kann schon sein, dass es dann besser läuft. Aber wie gesagt, das Spiel sieht jetzt nicht so bombastisch aus, dass das auf FullHD mit einer 8GB Grafikkarte notwendig sein sollte.

Gast
2023-02-09, 11:36:17
Hogwarts Legacy zeigt einmal mehr, wie mies die Damen und Herren Entwickler da gearbeitet haben.


Immer wieder interessant wie Leute die keine Ahnung von Softwareentwicklung haben den Herren und Damen Softwareentwickler Faulheit vorwerfen.

OpenVMSwartoll
2023-02-09, 12:19:46
Hogwarts Legacy ist wohl primär ein Konsolenspiel. Die PC-Version wirkt insgesamt halbfertig.

Aroas
2023-02-09, 12:53:40
Immer wieder interessant wie Leute die keine Ahnung von Softwareentwicklung haben den Herren und Damen Softwareentwickler Faulheit vorwerfen.

Woher willst du denn bitte wissen, ob ich von Softwareentwicklung Ahnung habe, oder nicht?
Immer wieder interessant, was mancher so zu wissen glaubt.

Aber ich bin ja kein Unmensch und lasse den Damen und Herren Entwicklern gern noch etwas Zeit um die anfänglichen Probleme zu beheben. In nem Jahr kaufe ich das Spiel dann in ordentlichem Zustand zum halben Preis in einem Sale ;)

Aroas
2023-02-09, 12:54:19
Hogwarts Legacy ist wohl primär ein Konsolenspiel. Die PC-Version wirkt insgesamt halbfertig.

Genau so sieht es aus.

Gast
2023-02-09, 13:53:51
Ich bin wirklich gespannt, ob Intel bei seinen GPUs den nötigen langen Atem beweist und das Ganze nicht direkt wieder zu Grabe trägt.
Die Treiber scheinen sich ja durchaus stetig zu verbessern.
Evtl. wäre eine zweite Generation dann tatsächlich schon eine echte Konkurrenz zu NVidia und AMD.
Naja, gerade bei den Min FPS war man aber auch deutlich schlechter als die Konkurrenz. Insofern war das auch dringend nötig.
Beim Nachtest auf CB war man z.B. in Guardians of the Galaxy in FullHD mit RT bei den Min FPS mit einer A750 kaum besser als eine 6650XT. Im average war man hingegen vor einer 6700XT. Und das, obwohl RDNA2 ja in RT echt schlecht ist. In Far Cry 6 (Worst Case Szenario) war dann sogar die A770 bei den Min FPS hinter einer 6650XT, obwohl Intels RT Ansatz ja eigentlich viel leistungsfähiger sein müsste.
Insofern: Ja, sehr gute Fortschritte, aber die waren da auch mehr als Nötig, um Konkurrenzfähig werden zu können.

Ich rechne nicht damit, dass Intel mit BM schon vollständig konkurrenzfähig sein wird, aber danach würde ich schon vermuten und hoffen. Das Thema ist allerdings auch, dass Intel immer gut ein Jahr Versatz hat. Daher ist etwas schwierig, mit was man vergleicht. Sollte man Arc mit Ada und RDNA3 vergleichen, oder mit Ampere und RDNA2?

Buddy Casino
2023-02-09, 13:59:05
Hogwart‘s Legacy benutzt die Unreal Engine 4. An was können die Entwickler denn da groß optimieren, wenn die Engine eh 3rd party ist? Eigentlich doch nur an den Assets, oder?

Lehdro
2023-02-09, 14:00:47
Der TDP Hammer von Intels neuen mobile CPUs wird wegen der Leistung gelobt, aber es wird nur kaum ein Wort über die eigentliche Sinnlosigkeit dieses Vorgehens verloren. Es ist ein Notebook, da ist Effizienz > Leistung, nicht andersherum. Verkehrte Welt. Man muss sich mal auf der Zunge zergehen lassen dass ein 7950X mit 88W schneller ist als diese Notebookmissgeburten HK/HX - bei fast halber TDP! 150/220W vs 88W +weitere Einträge (https://www.computerbase.de/2023-02/intel-core-i9-13950hx-i7-13700hx-test/#abschnitt_leistung_in_anwendungen)
Bin schon gespannt wie dumm AMDs neue 16 Kern Notebook-CPUs "zer"konfiguriert werden - scheint ja gar nicht laut genug sein zu können.

Redirion
2023-02-09, 14:53:50
Hogwart‘s Legacy benutzt die Unreal Engine 4. An was können die Entwickler denn da groß optimieren, wenn die Engine eh 3rd party ist? Eigentlich doch nur an den Assets, oder?

Falls Hogwards Legacy noch UE4 4.26 nutzt, könnten sie auf die neueste Version 4.27.2 (vom Dezember 2021) updaten. 4.26 ist die Mindestversion für DLSS und FSR Plugins.

Ich kenne mich nicht mit der Spieleentwicklung aus, aber ich hab zumindest bei einem Spiel (TO4) mitbekommen, wie ein kleines Entwicklerteam monatelang dabei war, von einer UE4 Version auf eine neuere Version zu portieren. Könnte also durch aus sein, dass man bei Hogwards Legacy nach bereits einigen Engine Upgrades bei 4.26 die rote Linie gezogen hat, weil ein Release ja ursprünglich in 2022 angedacht war. Da wollte man wohl nicht mehr Anfang 2022 noch mit der Engine rumfrickeln.

Gast
2023-02-09, 15:16:12
Der TDP Hammer von Intels neuen mobile CPUs wird wegen der Leistung gelobt, aber es wird nur kaum ein Wort über die eigentliche Sinnlosigkeit dieses Vorgehens verloren.

Nicht bei Notebooks in denen diese CPU zum Einsatz kommt, dafür gibt es andere CPUs im Angebot.

Und die Tatsache, dass man Intel CPUs bei hohen TDPs im Gegensatz zu AMD kühlen kann, und auch eine bedeutsame Mehrleistung bekommt, wenn auch natürlich bei deutlich verringerter Effizienz ist positiv zu erwähnen.

Troyan
2023-02-09, 15:50:50
Der Quellcode von der UE4 ist offen. AAA-Entwickler sind ja nicht nur Assets-Dropper sondern entwickeln selbst ihren eigenen UE4-Branche.

OpenVMSwartoll
2023-02-09, 16:12:51
Hogwart‘s Legacy benutzt die Unreal Engine 4. An was können die Entwickler denn da groß optimieren, wenn die Engine eh 3rd party ist? Eigentlich doch nur an den Assets, oder?

Auf die Schnelle habe ich das hier gefunden: https://gpuopen.com/unreal-engine-performance-guide/

Ein Entwickler wäre aber eine spannende Informationsquelle. Aber die Engine ist ja nur ein Gerüst, in dem man sich bewegt. Wie man sich nun bewegt, ist entscheidend.

Aroas
2023-02-09, 16:21:46
Man muss sich mal auf der Zunge zergehen lassen dass ein 7950X mit 88W schneller ist als diese Notebookmissgeburten HK/HX - bei fast halber TDP! 150/220W vs 88W +weitere Einträge (https://www.computerbase.de/2023-02/intel-core-i9-13950hx-i7-13700hx-test/#abschnitt_leistung_in_anwendungen)


Also ich sehe in dem Ranking den 7950X nur mit 230W angegeben.
Lediglich der 7900X wird da auch mit 88W gezeigt und ist mit diesem Limit langsamer als die Intel CPU. Allerdings nicht so viel langsamer, dass die deutlich höhere Leistungsaufnahme der Intel CPU gerechtfertigt wäre.

Bis zu 220W in nem Notebook wegkühlen zu wollen ist allerdings tatsächlich absoluter Quark.
Selbst eine mobile Workstation würde mir da zu schwer und zu laut werden.

Aroas
2023-02-09, 16:23:58
Sollte man Arc mit Ada und RDNA3 vergleichen, oder mit Ampere und RDNA2?

Ganz klar mit Letzteren. Denn die Intel GPUs befinden sich ja auch in diesem Preisbereich.

Wann die Produkte nun genau veröffentlicht wurden, spielt für den Endkunden doch absolut keine Rolle.

Gast
2023-02-09, 19:51:35
Also ich sehe in dem Ranking den 7950X nur mit 230W angegeben.

Rechts oben im Diagramm auf "+146 Einträge" klicken und es wird auch der 7950X mit 88W angezeigt und weitere 145-CPUs bzw. CPU-Konfigurationen, die getestet wurden.

Leonidas
2023-02-10, 04:39:30
Der TDP Hammer von Intels neuen mobile CPUs wird wegen der Leistung gelobt, aber es wird nur kaum ein Wort über die eigentliche Sinnlosigkeit dieses Vorgehens verloren.

Du hast ja eigentlich Recht. Aber andererseits gibt es SKUs für jede TDP-Klasse, die gewünscht wird. Niemand wird zu 150W im Notebook gezwungen.

Platos
2023-02-10, 07:11:39
Du hast ja eigentlich Recht. Aber andererseits gibt es SKUs für jede TDP-Klasse, die gewünscht wird. Niemand wird zu 150W im Notebook gezwungen.

Ist das so? Die 15Watt U-Serie ist doch mittlerweile eher ne 28Watt Serie und dementsprechend auch die ganzen Laptops.

Leonidas
2023-02-10, 08:52:29
Richtig. Aber nach wie vor kann man sich aussuchen, was man bekommt. Man bekommt halt nicht mehr wirklich Zugewinn, wenn man TDP-genormt sucht. Genau DAS gehört thematisiert.

Gast
2023-02-10, 08:55:02
Der TDP Hammer von Intels neuen mobile CPUs wird wegen der Leistung gelobt, aber es wird nur kaum ein Wort über die eigentliche Sinnlosigkeit dieses Vorgehens verloren. Es ist ein Notebook, da ist Effizienz > Leistung, nicht andersherum. Verkehrte Welt. Man muss sich mal auf der Zunge zergehen lassen dass ein 7950X mit 88W schneller ist als diese Notebookmissgeburten HK/HX - bei fast halber TDP! 150/220W vs 88W +weitere Einträge (https://www.computerbase.de/2023-02/intel-core-i9-13950hx-i7-13700hx-test/#abschnitt_leistung_in_anwendungen)
Bin schon gespannt wie dumm AMDs neue 16 Kern Notebook-CPUs "zer"konfiguriert werden - scheint ja gar nicht laut genug sein zu können.

Falsche Tabelle gelinkt? Weil in deiner Tabelle läuft der 7950X mit 230 Watt und ist damit nur 30% schneller als der 13950HX, der mit nur 150 Watt läuft.

Außerdem gibt es für jedes Use-Case andere Notebooks. Wer keine Leistung braucht wird sich nicht diese CPU gönnen ...

Gast
2023-02-10, 10:47:53
Bis zu 220W in nem Notebook wegkühlen zu wollen ist allerdings tatsächlich absoluter Quark.
Selbst eine mobile Workstation würde mir da zu schwer und zu laut werden.

Wieso soll in einem Gaming-Notebook, bei dem eh schon die GPU 200W+ verbraucht, die CPU das nicht auch dürfen?

Lehdro
2023-02-10, 11:24:53
Falsche Tabelle gelinkt? Weil in deiner Tabelle läuft der 7950X mit 230 Watt und ist damit nur 30% schneller als der 13950HX, der mit nur 150 Watt läuft.

Deswegen hatte ich "+weitere Einträge" geschrieben, klick da mal drauf. Dann siehst du folgendes:

https://abload.de/img/sgddl1ig0.jpg

Gast
2023-02-10, 13:22:00
Deswegen hatte ich "+weitere Einträge" geschrieben, klick da mal drauf. Dann siehst du folgendes:


Willst du damit sagen, dass AMD mit 2,6 mal so viel Watt nur 30% mehr Leistung bringt? Ja, das ist schon echt ein Trauerspiel. Brechstange und so ... Aber natürlich kann man bei den Intel Prozessoren nichts rausholen, wenn man diese von Hand nachjustiert ... Wollen wir bitte bei Äpfeln bleiben und nicht zu Zitronen abschweifen bei solchen stupiden Vergleichen?

Weil wenn du die Tabelle mal genau betrachtest wirst du auch sehen, dass der 13900k mit 88 W auch Runden um den 7700 mit 88 W läuft und auch um den 7700x mit 88 W und den 7900x mit 88 W und und und ...

Es lässt sich nicht alles einfach mit allem Vergleichen und daraus Schlüsse auf die ganze Architektur ziehen.

Du kannst doch nicht ernsthaft einen auf Kante genähten Laptop-Prozessor mit einem NACHJUSTIERTEN best-case-scenario eines Desktops vergleichen und denken da würde etwas sinnvolles bei rum kommen ...

Lehdro
2023-02-10, 13:56:44
Willst du damit sagen, dass AMD mit 2,6 mal so viel Watt nur 30% mehr Leistung bringt? Ja, das ist schon echt ein Trauerspiel. Brechstange und so ... Aber natürlich kann man bei den Intel Prozessoren nichts rausholen, wenn man diese von Hand nachjustiert ... Wollen wir bitte bei Äpfeln bleiben und nicht zu Zitronen abschweifen bei solchen stupiden Vergleichen?

Weil wenn du die Tabelle mal genau betrachtest wirst du auch sehen, dass der 13900k mit 88 W auch Runden um den 7700 mit 88 W läuft und auch um den 7700x mit 88 W und den 7900x mit 88 W und und und ...

Es lässt sich nicht alles einfach mit allem Vergleichen und daraus Schlüsse auf die ganze Architektur ziehen.

Du kannst doch nicht ernsthaft einen auf Kante genähten Laptop-Prozessor mit einem NACHJUSTIERTEN best-case-scenario eines Desktops vergleichen und denken da würde etwas sinnvolles bei rum kommen ...
Doch. Es ist im Falle von Intel sogar dasselbe Silizium: 13950HX = 13900K = RPL. Übrigens erwarte ich von einer die CPU die explizit für Mobile gedacht ist genau das: Effizienztuning ab Werk. Nicht nur dass die CPU schon im Desktop ineffizienter als AMD ist, nein auch im Mobile ist sie ineffizienter als ihr eigener Desktopbruder. Das ist lächerlich, weil der Unterschied zur Desktopkonkurrenz halt so absurd riesig ist, nichts anderes zeige ich damit auf.
142W 13900k = 8% schneller als 13950HX auf 150/200W. ;D
Die CPU ergibt so keinen Sinn, sondern ist komplett "überfahren" was die Settings angeht. Klappt halt nicht alles mit der Stromkeule, erst recht nicht im Mobilebereich.

Gast
2023-02-10, 14:34:45
Übrigens erwarte ich von einer die CPU die explizit für Mobile gedacht ist genau das: Effizienztuning ab Werk.

Übrigens erwarte ich von einer CPU die explizit für Desktop gedacht ist genau das: Das sie nicht mit 2,6 fachem Stromverbrauch nur 30% mehr Leistung bringt.

Nicht jede CPU ist für jeden gemacht, nicht jedes Spiel ist für jeden gemacht, nicht jedes Essen ist für jeden gemacht. Manchmal muss man damit klarkommen, dass sich nicht alles in der Welt um einen selbst dreht.

Weißt du, ob W im Desktop und W im Laptop das selbe sind? W im AMD und W im Intel sind ja auch nicht das selbe ... wer weiß was noch alles über die Laptop W abgerechnet wird ...

Gast
2023-02-10, 20:24:19
Übrigens erwarte ich von einer CPU die explizit für Desktop gedacht ist genau das: Das sie nicht mit 2,6 fachem Stromverbrauch nur 30% mehr Leistung bringt.
Naja, dann kauf dir halt keinen Raptor Lake. Da ist das nämlich auch so. Da ist ein 13900K auf 253W auch nur 36% schneller als auf 88W. AMD zieht hier Intel immer nach, ist aber generell bei beiden Herstellern Scheiße. Und deswegen hat man auch so Probleme, wenn man gegen Apple's M1 oder M2 verglichen wird. Die machen nämlich keinen total unnötigen und überdrehten Boost, jenseits von Gut und Böse.

Gast
2023-02-10, 20:55:35
Ganz klar mit Letzteren. Denn die Intel GPUs befinden sich ja auch in diesem Preisbereich.

Wann die Produkte nun genau veröffentlicht wurden, spielt für den Endkunden doch absolut keine Rolle.
Achso, steht jetzt schon fest, dass weder NVidia noch AMD etwas in dem Preisbereich bringen werden? Und ich dachte, AMD wird eine 7600 (Vorgänger im Preisbereich der A770) und NVidia eine 4050 (Vorgänger im Preisbereich der A750) bringen. Aber die sind dann ja wohl nicht im Preisbereich ihrer Vorgänger, wie du ja jetzt erklärt hast. Oder sind die nicht RDNA3 oder ADA?
Nur, weil die Dinger noch nicht auf dem Markt sind, darf man die doch nicht vernachlässigen.
Wer weiß, wann Intel Arc in dem Marktsegment ablöst.
Du hast es ja selber gesagt: Dem Endkunden ist es egal, für den zählt der Preis. Wenn aber eine 7600 oder 4050 eben grob ähnlich viel wie ARC kostet, aber deutlich schneller sind, dann gibt's keinen Grund mehr für ARC.
Und genau darauf wollte ich hinaus: Wann Intel ARC in dem Segment ablöst, ist entscheidend. Wenn die Konkurrenz vor der Mitte des Lifecycles kommt, sind die Konkurrenten eben nicht z.B. 6700XT oder 3060 12GB, sondern 4050, 4060 und 7600.

Casillas
2023-02-20, 10:17:14
Achso, steht jetzt schon fest, dass weder NVidia noch AMD etwas in dem Preisbereich bringen werden? Und ich dachte, AMD wird eine 7600 (Vorgänger im Preisbereich der A770) und NVidia eine 4050 (Vorgänger im Preisbereich der A750) bringen. Aber die sind dann ja wohl nicht im Preisbereich ihrer Vorgänger, wie du ja jetzt erklärt hast. Oder sind die nicht RDNA3 oder ADA?
Nur, weil die Dinger noch nicht auf dem Markt sind, darf man die doch nicht vernachlässigen.
Wer weiß, wann Intel Arc in dem Marktsegment ablöst.
Du hast es ja selber gesagt: Dem Endkunden ist es egal, für den zählt der Preis. Wenn aber eine 7600 oder 4050 eben grob ähnlich viel wie ARC kostet, aber deutlich schneller sind, dann gibt's keinen Grund mehr für ARC.
Und genau darauf wollte ich hinaus: Wann Intel ARC in dem Segment ablöst, ist entscheidend. Wenn die Konkurrenz vor der Mitte des Lifecycles kommt, sind die Konkurrenten eben nicht z.B. 6700XT oder 3060 12GB, sondern 4050, 4060 und 7600.

Weiß jetzt nicht ganz, worauf du mit deiner Aussage hinaus willst.

AMD und Nvidia haben doch in dem Preissegment nicht wirklich Druck etwas neues bringen zu müssen. Von Intel schon gar nicht.

die 66xx laufen bei AMD recht gut. Auch die 6700 XT und non XT sind preislich relativ gesehen (gerade auch zur ARC 770) sehr attraktiv aufgestellt.

Ich sehe da für Intel kein Land.