PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 19. September 2023


Leonidas
2023-09-20, 08:20:18
Link zur News:
https://www.3dcenter.org/news/news-des-19-september-2023

Platos
2023-09-20, 09:23:17
Interessant finde ich das Tile-Design vor allem deshalb, weil Intel sich damit ins Mobile-Segment (Laptops) wagt. Bei AMD hat das sehr wohl Gründe (Stromverbrauch), warum man das nicht will/kann.

Intel scheint also überzeugt zu sein, dass der Stromverbrauch hier nicht signifikant steigt für Laptops. Das lässt auf niedrige Verbräuche unter Teillast hoffen.

ceed
2023-09-20, 09:32:57
Interessant finde ich das Tile-Design vor allem deshalb, weil Intel sich damit ins Mobile-Segment (Laptops) wagt. Bei AMD hat das sehr wohl Gründe (Stromverbrauch), warum man das nicht will/kann.

Intel scheint also überzeugt zu sein, dass der Stromverbrauch hier nicht signifikant steigt für Laptops. Das lässt auf niedrige Verbräuche unter Teillast hoffen.

Die haben sicher nicht ohne Grund im SOC-Tile zwei E-Cores drin. Ich vermute im Teillast wird vielleicht die ganze "dicke" CPU-Tile schlafen gelegt.

MiamiNice
2023-09-20, 09:37:31
So ist es. Für surfen und Pornhub schauen, muss nur der SOC Tile laufen.

Aroas
2023-09-20, 10:07:22
Die haben sicher nicht ohne Grund im SOC-Tile zwei E-Cores drin. Ich vermute im Teillast wird vielleicht die ganze "dicke" CPU-Tile schlafen gelegt.

Wäre mir sehr recht. Möglichst geringer Stromverbrauch bei wenig Last ermöglicht das Abschalten der Lüfter.
Insbesondere in Gaming Notebooks ist das äußerst selten der Fall (wobei ich glaube, die Hersteller wollen das einfach nur nicht) und es nervt tierisch, wenn die Dinger ständig laufen, auch wenn man gerade nicht zockt.

Gast
2023-09-20, 10:51:22
Intel scheint also überzeugt zu sein, dass der Stromverbrauch hier nicht signifikant steigt für Laptops. Das lässt auf niedrige Verbräuche unter Teillast hoffen.


Die Idle-Grundlast wird wohl alleine das SOC-Tile stemmen können, und alles andere schlafen legen.

Andererseits ist das Interface eine Interposer-Lösung, und sollte damit mindestens eine Größenordnung effizienter sein, als AMDs Infinity-Fabric durchs Substrat.

CD-LABS
2023-09-20, 11:01:24
Interessant finde ich das Tile-Design vor allem deshalb, weil Intel sich damit ins Mobile-Segment (Laptops) wagt. Bei AMD hat das sehr wohl Gründe (Stromverbrauch), warum man das nicht will/kann.
(...)AMD und Intel setzen bei CPU-Chiplets auch insgesamt nicht auf die gleichen Konzepte. Bei Intel sitzen sie direkt nebeneinander, siehe SapphireRapids, siehe PonteVeccio, ...
AMD nutzt hingegen Designs mit recht viel Freiraum dazwischen. Bei Genoa sitzen zwar bis zu drei CCDs direkt nebeneinander, doch dann herrscht bis zum IO-DIE eine große Lücke. Das gleiche gilt für Raphael. Hier kommen schlicht und ergreifend keine Interposer oder ähnliches zum Einsatz.
(...) Intel scheint also überzeugt zu sein, dass der Stromverbrauch hier nicht signifikant steigt für Laptops. Das lässt auf niedrige Verbräuche unter Teillast hoffen.
Die haben sicher nicht ohne Grund im SOC-Tile zwei E-Cores drin. Ich vermute im Teillast wird vielleicht die ganze "dicke" CPU-Tile schlafen gelegt.
So ist es. Für surfen und Pornhub schauen, muss nur der SOC Tile laufen.
Ja, steht groß und fett auch in der gesamten Präsentation drinnen. Darüber hinaus ist das auch nicht erst seit gestern bekannt.
Wäre mir sehr recht. Möglichst geringer Stromverbrauch bei wenig Last ermöglicht das Abschalten der Lüfter. (...)Auf jeden Fall.
(...) Insbesondere in Gaming Notebooks ist das äußerst selten der Fall (wobei ich glaube, die Hersteller wollen das einfach nur nicht) und es nervt tierisch, wenn die Dinger ständig laufen, auch wenn man gerade nicht zockt.
Wenn das manche absichtlich machen würden, dann wären diese Hersteller äußerst dumm, schließlich wird das in Testberichten ja negativ enthüllt.
Die restlichen Hersteller haben einfach Probleme damit, mit Race2Idle umzugehen. Kurzer Boost führt zu großen Temperaturspikes und damit springt der Lüfter an. Wenn das mehr in die Hände der CPU/APU selbst wandert, sollten diese Probleme nachlassen.

MiamiNice
2023-09-20, 11:33:04
Die für mich relevante Frage als Gamer ist, hat der Interposer auch so miese Latenzen, wie es beim Ryzen der Fall ist? Weil genau das ist der Punkt, warum AMD CPUs für Gaming sucken. Dann kamen die großen Caches. Sobald die riesen Caches nicht mehr wirken können, sinkt die Leistung dramatisch. Wird das bei Intel auch so sein, oder macht es Intel richtig?

Leonidas
2023-09-20, 11:45:51
Mit kürzeren Wegen und vor allem nur einemm CPU-Tile könnte es bei Intel besser laufen. Aber dennoch: Diese Frage existiert nunmehr in der Tat.

Aroas
2023-09-20, 12:27:18
Weil genau das ist der Punkt, warum AMD CPUs für Gaming sucken.

Oh ja, mit AMD CPUs kann man absolut nicht zocken. Völlig unmöglich. Totaler Crap das Ganze...

Himmel, was für ein Blödsinn.

MiamiNice
2023-09-20, 12:37:11
Oh ja, mit AMD CPUs kann man absolut nicht zocken. Völlig unmöglich. Totaler Crap das Ganze...

Himmel, was für ein Blödsinn.

Habe ich so nicht geschrieben ;)
Aber ja, manche Spiele laufen auf AMD Hardware ziemlich mies. Das sind vor allem Games, die aus dem 3D Cache keinen Nutzen ziehen und mehr auf Ram Latenz stehen. Meine Frage ist ob Intel, in dieser Disziplin, noch immer weit führen wird oder ob es jetzt ähnlich zu AMD wird. Der Ringbus wurde scheinbar abgeschafft, da kann man so eine Frage schon mal stellen. Mit erschließt sich das anhand der Schaubilder nämlich nicht.

Gast
2023-09-20, 12:57:56
So ist es. Für surfen und Pornhub schauen, muss nur der SOC Tile laufen.
Die Idle-Grundlast wird wohl alleine das SOC-Tile stemmen können, und alles andere schlafen legen.
Naja, das Bild muss auch irgendwie raus kommen. Intel hat zwar die Media Einheit im SoC, aber die kann nicht einfach irgend ein Bild ausgeben, dafür muss schon die GPU Tile ran. Insofern sind dann doch zwei Tiles aktiv.

Und soweit ich weiß, gibt es auch von AMD Notebooks mit Chiplet. Sind halt nur die schweren Gaming-Dinger. Insofern ist Intel da auch nicht wirklich erster.

Patrick0809
2023-09-20, 13:23:10
Naja AMD ist jetzt nicht so schlecht. In 25 Spielen 7950x3d vs 13900k um 4.4% vorne.
Intel ist besser in Wolfenstein, AC, Doom, Cyberpunk, Spiderman. Aber ansonsten war es das auch schon...

Der Unterschied liegt im Detail, z.b. Cyberpunk braucht halt ein Intel 13900k dann 130+ Watt , wogegen ein 7950x3d dann 85 Watt braucht. (in 4k)

In 1080p braucht der Intel sogar das doppelte.

Aber Intel ist ja so toll. Hab kein Problem auf 10fps von 200+ zu verzichten und dafür fast die hälfte an Strom zu verbrauchen. (Außer man hat halt eine E-Heizung zu Hause, dann geht das schon)
Definiere mies bitte, mein 3900x läuft mit der 3080 auch immer noch easy peasy.

PS: Die Rede war nur von Gaming, Produktivität sieht dann ein bisschen anders aus.

amdfanuwe
2023-09-20, 14:15:41
Meteorlake mit Interposer sieht nicht grad billig aus. Mal sehen, was daraus wird.

MiamiNice
2023-09-20, 14:59:13
Der Interposer soll angeblich günstig sein, da er wohl in einem uralt Prozess hergestellt werden kann und nur Leitungen enthalten soll.

Gast
2023-09-20, 15:07:28
Naja, das Bild muss auch irgendwie raus kommen. Intel hat zwar die Media Einheit im SoC, aber die kann nicht einfach irgend ein Bild ausgeben, dafür muss schon die GPU Tile ran. Insofern sind dann doch zwei Tiles aktiv.

Alles was man für dene Desktop können muss, ist den Framebuffer aus dem (V)RAM auslesen und an die Displayausgänge schicken, das sollte das SOC-Tile alleine schaffen.

Aber der Pornhub-Player verwendet glaub ich die GPU, da muss dann wohl doch auch das entsprechende Tile ran.

Leonidas
2023-09-20, 15:28:45
Sie haben auch die Media-Einheit im SoC. Sprich Video-Beschleunigung und Audio-Fähigkeiten. Sofern Dein Porthub-Player nicht explizit die GPU anfragt, sollte der aus dem SoC heraus laufen. Zielsetzung dürfte sicherlich genau das sein: Für YouTube keine GPU-Nutzung notwendig.

Gast
2023-09-20, 15:35:05
Sie haben auch die Media-Einheit im SoC. Sprich Video-Beschleunigung und Audio-Fähigkeiten. Sofern Dein Porthub-Player nicht explizit die GPU anfragt, sollte der aus dem SoC heraus laufen.

Decoding ja, soweit ich weiß verwendet der Pornhub Player (und bzw. jeder andere Moderne Mediaplayer im Netz) die GPU z.B. für die Skalierung.
Im Endeffekt wird der Output vom Decoder heutzutage auf ein Polygon gerendert, und für letzteres sollte man die GPU brauchen.

Kein Die Ohne Kern
2023-09-20, 16:03:23
Die haben sicher nicht ohne Grund im SOC-Tile zwei E-Cores drin. Ich vermute im Teillast wird vielleicht die ganze "dicke" CPU-Tile schlafen gelegt.

Es würde mich gar nicht wundern, wenn AMD das nicht auch tut. AMD hatte bei AM4 furchtbare Probleme mit dem Idle-Stromverbrauch, die sie nie in den Griff gekriegt haben, und AM5 ist nur unwesentlich besser, wenn überhaupt.
Zen 4c/5c Kerne sind winzig, wenn sie die auf den IOD-Prozess portieren und da 2-4 Kerne unterbringen, können sie im Idle die CCDs samt Vcore einfach komplett abschalten, IF/xGMI tot machen und haben ihr Stromproblem mehr oder weniger gelöst.

MiamiNice
2023-09-20, 16:07:03
Kann die Media Einheit auch irgendwie AI? Weil ohne RTX Video Super Resolution schaut doch keiner mehr die 720p Videos auf den diversen Webseiten ;D

Birdman
2023-09-20, 16:14:14
RTX Video Super Resolution nutzt doch jeder maximal so lange bis er die erste Stromrechnung ins Haus flattern sieht...

Was ich bisher von diesem Feature gesehen habe, überzeugt mich überhaupt nicht.
Qualitätsgewinn minimal, Stromverbrauch maximal

Leonidas
2023-09-20, 16:30:05
Kann die Media Einheit auch irgendwie AI? Weil ohne RTX Video Super Resolution schaut doch keiner mehr die 720p Videos auf den diversen Webseiten ;D

Der AI-Beschleuniger (NPU) ist Teil des SoCs - also ja, müsste möglich sein.

MiamiNice
2023-09-20, 16:35:21
Kann ich so nicht bestätigen @ Birdman.

Der AI-Beschleuniger (NPU) ist Teil des SoCs - also ja, müsste möglich sein.

Wäre ja cool wenn Intel etwas ähnliches bringt. Optisch macht das durchaus Sinn bei dem im Netz üblichen Auflösungen.

Gast
2023-09-20, 21:23:29
Also wenn ich die Folien von Intel und die Medienberichte richtig verstanden habe, soll Meteor Lake in der Lage sein, alles was man im niedriglast Bereich macht, nur mit dem SoC Tile meistern zu können, scheinbar sind in dem GPU Tile lediglich die XE cores und nichts anderes. Von daher Video Output, Media Decode (Encode?), die AI NPU, gewisse PCIE/USB Schnitstellen und der Ram Controller. Deswegen heisst es wahrscheinlich auch System on Chip :)
Ich vermute in solchen Situationen und mit entsprechenden Laptops, wo die Peripherie an die PCIE/USB Linen des SoC verbunden sind, wird der Chip vermutlich genauso sparsam wie die Arm CPUs.
Der SoC Tile ist recht genial, ein eigener selbstständiger Rechner fast.

Gast
2023-09-20, 21:32:51
Sie haben auch die Media-Einheit im SoC. Sprich Video-Beschleunigung und Audio-Fähigkeiten.
Hatte ich ja geschrieben. Nur was genau stellt dann den Desktop von irgendeinem Betriebssystem dar? Das kann die Media Engine wohl eher nicht, zumindest, wenn der Name Programm ist.

Gast
2023-09-20, 21:45:42
Es würde mich gar nicht wundern, wenn AMD das nicht auch tut. AMD hatte bei AM4 furchtbare Probleme mit dem Idle-Stromverbrauch, die sie nie in den Griff gekriegt haben, und AM5 ist nur unwesentlich besser, wenn überhaupt.
AM5 ist im Idle erheblich schlechter als AM4. Und AM4 ist zum Beispiel besser als alle Intel Plattformen nach dem 9900K. Man darf halt nicht X570 mit irgend einem PCIe 3.0 Board vergleichen. Die PCIe Lanes ziehen viel Strom im Idle, weil die keine vernünftigen Stromspar Mechanismen haben (daher haben Notebooks in der Regel auch weniger Lanes). Und dann ist auch klar, dass ein X570 mit insgesamt bis zu 32 PCIe 4.0 Lanes (bis zu 16 vom Chipsatz) mehr verbraucht als ein B550. Auf B550 braucht der 5950X im CB Testsystem 42W im Idle, liegt damit gleichauf mit dem i7-9700. Ein 10900K braucht 47W, ein 12900k 54W. Wo AMD hier als viel verbraucht, ist mir nicht klar, denn Intel verbraucht mehr. Man sieht aber auch bei Intel: Ab PCIe 4.0 geht der Idle Verbrauch rauf, je mehr Lanes je stärker.

Gast
2023-09-20, 21:49:19
Es würde mich gar nicht wundern, wenn AMD das nicht auch tut. AMD hatte bei AM4 furchtbare Probleme mit dem Idle-Stromverbrauch, die sie nie in den Griff gekriegt haben, und AM5 ist nur unwesentlich besser, wenn überhaupt.

Das Problem vom AMD ist dass der IF offensichtlich keine Powerstates kennt und immer Vollgas rennt.

Die CCDs brauchen im Idle kaum was, der IF rennt aber durch. CPUs mit 2CCDs sind deshalb deutlich schlechter, und ein höherer Speichertakt, der auch den IF mitzieht verschlechtert den Idle-Verbrauch enorm.

Aroas
2023-09-21, 00:15:28
Habe ich so nicht geschrieben ;)


Du weißt genau, was du geschrieben hast.

Deine Aussage war quasi, dass AMD CPUs für Gaming nichts taugen. Da stand nichts von "manchen Spielen" oder ähnliches.

Also rede dich nicht schon wieder raus. Du bist ein Intel Fanboy, das weiß doch jeder hier.

Leonidas
2023-09-21, 04:13:55
Hatte ich ja geschrieben. Nur was genau stellt dann den Desktop von irgendeinem Betriebssystem dar? Das kann die Media Engine wohl eher nicht, zumindest, wenn der Name Programm ist.

So ganz 100% sicher bin ich mir da auch noch nicht, ob dies so funktionieren kann. Letztlich sollten Media-Engine und Display-Controller immer noch einen kleinen Teil GPU benötigen, um die Pixel in die richtige Position zu schubsen. Es sei denn natürlich, man läßt dies die CPU machen in diesem Fall. Video-Beschleunigung gäbe es ja trotzdem.

MiamiNice
2023-09-21, 09:51:31
Du weißt genau, was du geschrieben hast.

Deine Aussage war quasi, dass AMD CPUs für Gaming nichts taugen. Da stand nichts von "manchen Spielen" oder ähnliches.

Also rede dich nicht schon wieder raus. Du bist ein Intel Fanboy, das weiß doch jeder hier.

Ich habe geschrieben, dass AMD CPUs beim Gaming sucken. Und dazu stehe ich auch :D
Die internen Latenzen bei AMD sind zu hoch. Daher auch die initiale Frage, ob es bei Intel jetzt auch derart mies wird. Ein Gaming PC lebt von geringen Latenzen, zumindest wenn man abseits des ganzen AAA Mülls für junge Gamer Konsumenten Brieftaschen spielt.

Exxtreme
2023-09-21, 10:25:16
Das ist egal ob die internen Latenzen höher sind. Latenzen lassen sich mit Cache gut kaschieren und das tut AMD ja auch reichlich. Intels CPUs sind beim Gaming zwa auch top, erkaufen sich das aber durch einen exorbitant höheren Stromverbrauch. Drosselt man Stromverbrauch auf AMD-Niveau dann verlieren sie sehr oft. Das ist der derzeitige Stand. Kann sich in 2 Jahren ja wieder ändern wenn Intel mit was neuem kommt.

MiamiNice
2023-09-21, 11:56:12
Es ist einiger Software, auch Spielen, eben nicht egal. Caches helfen leider nicht immer, wie man eben am Ryzen sieht. AMD hat ihren MCM Ansatz von Grund auf für Many Cores CPUs ausgelegt, eben Server CPUs. Das dies am Desktop suckt, ist nur logisch. Daher die dicken Caches, wie Dir auch bewusst ist (und natürlich die Tatsache, dass immer mehr Cores in ein CCD gewandert sind). Wenn die Caches am Ende sind, und das passiert öfter als es dem geneigtem AMD Käufer lieb ist, läuft es deutlich schlechter. AMD CPUs sind deshalb nicht (leistungs)konsistent, das ist mein Punkt.

Und ich will eben wissen ob das bei Intel nun auch so ist oder nicht.

Leonidas
2023-09-21, 12:02:45
Das Intel keine CPU-Daten über mehrere Tiles hinwegbewegen muß, scheint man einen Vorteil zu haben. Es ist halt nur ein einziges CPU-Tile.

Allerdings scheinen die Nachteile bei AMD selten genug zu sein, dass ein 7700X nicht einen 7950X in Spielen vernascht. Im Mittel liegt letzterer sogar vorn, so dass dessen gewisser Mehrtakt in der Gesamtabrechnung sogar höher wiegt. Die Fälle, wo AMD durchs eine zwei CCDs im Nachteil ist, müssen ergo in der Praxis selten und kaum mit schwerwiegenen Folgen sein.

Exxtreme
2023-09-21, 12:23:47
Einiger Software ist es nicht egal, anderer Software ist es egal und der Vorteil des größeren Cache überwiegt sehr stark. Und Intel-CPUs haben das Problem, dass wenn sie schneller sind dann saufen sie so richtig viel Strom.

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-Leistungsaufnahme-Review-CPUs-im-Test-1429579/

Nur so zum Drübernachdenken:

https://i.ibb.co/nmxdNJH/Screenshot-2023-09-21-121839.jpg (https://ibb.co/JtD6wJf)

https://i.ibb.co/wMJvd69/Screenshot-2023-09-21-122031.jpg (https://ibb.co/bzHf6dS)

Wenn man noch miteinbezieht, dass LGA 1700 ein EOL-Sockel ist, ist die AMD-Plattform IMHO das beträchtlich bessere Gesamtpaket.

MiamiNice
2023-09-21, 12:39:51
Exxtreme, Du bist heute bissig. Mir geht es nicht um AMD vs. Intel, Stromverbrauch (ich habe keinen) oder sonstigen Müll, an dem ihr euch so gerne hoch zieht. Auch nicht ums Cherry Picking von irgendwelcher tot optimierter AAA Software (spiele ich nicht).
Mir geht es ausschließlich um Latenzen über den Interposer. Ram Latenz, Core to Core bzw. Intercore Latenz und andere, ganz unwichtige Dinge innerhalb einer CPU.

Platos
2023-09-21, 13:26:22
Die haben sicher nicht ohne Grund im SOC-Tile zwei E-Cores drin. Ich vermute im Teillast wird vielleicht die ganze "dicke" CPU-Tile schlafen gelegt.

Dann müsste man halt die komplett ausschalten können. Also bei AMD kann man ja auch die einzelnen Kerne schlafen legen, aber das ist ändert ja nichts am Stromverbrauch des Infinity-Fabric. Aber die Frage ist dann natürlich, wie viel Last "ausgehalten" werden kann, bis dann wieder mehrere Tiles aktiviert werden. Die Frage ist dann auch, wie viel "Grundlast" dazu kommt, wenn dann doch mal alle Tiles aktiv sind.

AMD und Intel setzen bei CPU-Chiplets auch insgesamt nicht auf die gleichen Konzepte. Bei Intel sitzen sie direkt nebeneinander, siehe SapphireRapids, siehe PonteVeccio, ...
AMD nutzt hingegen Designs mit recht viel Freiraum dazwischen. Bei Genoa sitzen zwar bis zu drei CCDs direkt nebeneinander, doch dann herrscht bis zum IO-DIE eine große Lücke. Das gleiche gilt für Raphael. Hier kommen schlicht und ergreifend keine Interposer oder ähnliches zum Einsatz.

Bin mir nicht sicher, wie du das meinst, aber du schreibst das so, als wäre es eine Ausrede und kein Vorteil von Intel. Wenn/falls Intel das gut hinkriegt mit dem Stromverbrauch, ist das ja dann eher genau die Stärke des Designs und viel besser wie das, was eben AMD liefert (in diesem Anwendungsbereich). AMD's Chiplet-Design ist nicht für Laptops geeignet. Die sind zwar super bei Last, weil das da nicht ins Gewicht fällt, aber ansonsten kann man das (offensichtlicherweise) nicht gebrauchen (nicht umsonst werden in Laptops die monolithischen APUs verbaut).

Ja, steht groß und fett auch in der gesamten Präsentation drinnen. Darüber hinaus ist das auch nicht erst seit gestern bekannt.


Ich habe halt die News von Leonidas gelesen. Deshalb bin ich hier, um nicht alles selbst lesen zu müssen. Leonidas sagt halt, man kann die schlafen legen. Das alleine sagt ja noch nicht aus, dass die Verbindung zwischen den Tiles nicht eine Grundlast an Stromverbrauch bedeutet. Bei den AMD CPUs können die einzelnen Kerne auch schlafen gelegt werden, löst das Problem aber nicht. Der Infintiy-Fabric zieht weiterhin Strom dann.

Wo ist denn da technisch der Unterschied? Also bei AMD zieht der Infinity-Fabric weiterhin Strom. Warum ist das bei Intel so viel besser? Das liegt wohl nicht nur an den kürzeren Wegen oder?

Mit kürzeren Wegen und vor allem nur einemm CPU-Tile könnte es bei Intel besser laufen. Aber dennoch: Diese Frage existiert nunmehr in der Tat.

Ich meinte, Intel sei inzwischen nicht mehr so weit entfernt von AMD bei der Latenz. AMD ist bisschen runter gekommen und Intel hoch gekommen, habe ich gemeint?

Und soweit ich weiß, gibt es auch von AMD Notebooks mit Chiplet. Sind halt nur die schweren Gaming-Dinger. Insofern ist Intel da auch nicht wirklich erster.

Es ging ja nicht darum, wer jetzt erster ist. Es ging darum, dass AMDs Chiplet-Design nicht geeignet ist für Laptops, die eine hohe Akkulaufzeit haben wollen (bzw. eben das Chiplet-Design kann keine niedrigen Stromverbräuche bei niedriglast leifern).

Sie haben auch die Media-Einheit im SoC. Sprich Video-Beschleunigung und Audio-Fähigkeiten. Sofern Dein Porthub-Player nicht explizit die GPU anfragt, sollte der aus dem SoC heraus laufen. Zielsetzung dürfte sicherlich genau das sein: Für YouTube keine GPU-Nutzung notwendig.

Stimmt, aber da frage ich mich, wofür wird dann das GPU-Tile noch gebraucht? Wenn Videoplayer und grundsätzliche Grafikausgabe vom SoC-Tile erledigt werden, wofür dann noch den GPU-Tile? Zum Gamen ist das sowieso zu schwach, also was macht das noch, wenn Videos und grundsätzliche Bildausgabe schon gedeckt werden?

RTX Video Super Resolution nutzt doch jeder maximal so lange bis er die erste Stromrechnung ins Haus flattern sieht...

Was ich bisher von diesem Feature gesehen habe, überzeugt mich überhaupt nicht.
Qualitätsgewinn minimal, Stromverbrauch maximal

Ist das so? Ist an mir vorbei gesaust. Wie nutzt man das nochmals ? Funktioniert auch über Youtube hinaus? Auch offline-Videos ?

Exxtreme
2023-09-21, 14:50:13
Ich bin nicht bissig. X-D

Mir ist es halt wichtig, was hinten rauskommt und nicht was theoretisch rauskommen sollte. Und da ist es mir egal ob ein Chip intern irgendwie niedrigere Latenzen hat. Wenn sich das in der Praxis kaum bemerkbar macht bzw. ein Konkurrenzprodukt in der Praxis kaum schlechter ist, dazu noch 1/3 des Stroms verbraucht und obendrein auch noch weniger kostet dann ...

Aber mal schauen wie Arrow Lake so wird. Der wird dann gegen Zen 6 oder so antreten.

Leonidas
2023-09-21, 15:45:34
Stimmt, aber da frage ich mich, wofür wird dann das GPU-Tile noch gebraucht? Wenn Videoplayer und grundsätzliche Grafikausgabe vom SoC-Tile erledigt werden, wofür dann noch den GPU-Tile? Zum Gamen ist das sowieso zu schwach, also was macht das noch, wenn Videos und grundsätzliche Bildausgabe schon gedeckt werden?

Naja, erstens wird iGPU tatsächlich nachgefragt. Und zweitens will Intel hier ja stark vorangehen, sprich bessere Architekturen und mehr Einheiten. Der Vorteil des extra GPU-Tiles ist nunmehr: Man könnte auch zwei davon auflegen, einen großen und einen kleinen - je nach Prozessor. Damit fällt die Silizium-Verschwendung bei Salvage-Versionen kleiner aus als bisher.

Platos
2023-09-21, 16:35:43
Naja, erstens wird iGPU tatsächlich nachgefragt. Und zweitens will Intel hier ja stark vorangehen, sprich bessere Architekturen und mehr Einheiten. Der Vorteil des extra GPU-Tiles ist nunmehr: Man könnte auch zwei davon auflegen, einen großen und einen kleinen - je nach Prozessor. Damit fällt die Silizium-Verschwendung bei Salvage-Versionen kleiner aus als bisher.


Wie meinst du das mit nachgefragt? Und die funktion der iGPU ist ja dann eben zum Teil schon im SoC Tile. Somit wäre die Nachfrage dann ja nicht mehr gegeben für einen extra GPU-Tile.

Und für's Gaming mag sein. Aber ich meinte jetzt mehr bezogen auf die jetzigen Intel iGPUs am Dekstop. Inwiefern braucht es für deren Tätigkeiten noch ein GPU-Tile, wenn der SoC-Tile schon Videos wiedergeben kann und sonst eig. auch das Bild darstellen kann?

MiamiNice
2023-09-21, 16:53:51
Die Media Engine im SOC Tile dürfte nur für kleine Dinge taugen und so ausgelegt sein, das sie den üblichen Kram schafft ohne den GPU Tile zu wecken. Ich denke mehr als Windows Desktop und bissel Video abspielen, wird da nicht drin sein ohne den GPU Tile.

Platos
2023-09-21, 22:07:58
Was für Aufgaben fallen (abgesehen von Einsteiger-Gaming) denn für eine iGPU an, neben Desktop und Video?

MiamiNice
2023-09-21, 22:27:09
Diverse Kovertierer (Audio & Video), Rendern, Photoshop. Sind die Dinge, die mir als erstes einfallen. Gibt bestimmt noch mehr.

Leonidas
2023-09-22, 04:32:27
Wie meinst du das mit nachgefragt? Und die funktion der iGPU ist ja dann eben zum Teil schon im SoC Tile. Somit wäre die Nachfrage dann ja nicht mehr gegeben für einen extra GPU-Tile.

Ich meinte: Gaming-fähige iGPUs werden nachgefragt. Weniger von den Notebook-Käufern, aber von den Notebook-Herstellern.

Gast
2023-09-22, 09:57:35
Wie meinst du das mit nachgefragt? Und die funktion der iGPU ist ja dann eben zum Teil schon im SoC Tile. Somit wäre die Nachfrage dann ja nicht mehr gegeben für einen extra GPU-Tile.

Im Zeitalter von Steamdeck und ROG Ally werden durchaus halbwegs Gamingtaugliche IGPs nachgefragt.