Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 6. Juni 2022
Leonidas
2022-06-07, 07:20:47
Link zur News:
https://www.3dcenter.org/news/news-des-6-juni-2022
Allerdings lohnt diese extra Betrachtung so lange nicht, wie unklar bleibt, ob Intels Benchmark-Optimierungen speziell für den 3DMark immer noch in den benutzten Intel-Treibern aktiv sind. Als Intel nur iGPUs vermarktet hat, konnte man über diesen Punkt hinwegsehen – aber nun, wo es um ernsthafte Grafikchips geht, muß Intel diese Alt-Sünde bestätigerweise hinter sich bringen.
Wieso? Echte Optimierungen die den Output nicht verändern sind zulässig und bei allen Herstellern üblich, Intel ist lediglich der einzige der dies auch mehr oder weniger offiziell kommuniziert.
Demzufolge kann es AMD & Intel so ziemlich egal sein, was Apple da macht – man bedient im Endeffekt grundverschiedene Märkte, in welchen die Kunden auch nicht so einfach hin- und herwechseln können.
Intel geht auf jeden Fall einiges an Geld verloren, dadurch dass man Apple als Kunden verloren hat.
Der Software-Welt auf Windows-Seite kann das freilich egal sein, der Hardware-Welt aber weniger.
Intel hat wie erwähnt direkt Umsatz verloren, und AMD als aktueller Effizienzkönig der x86 Welt wäre der nächste logische Partner, wenn Apple denn nicht seine eigen SoCs designen würde, genauso wie damals der Wechsel von PowerPC zu Intel vollzogen wurde, weil PowerPC den Effizienzansprüchen von AMD nicht mehr genügte.
GerryB
2022-06-07, 08:00:01
Der 730M mit 125W.
Da bin ich ja mal gespannt wie der größte Desktop-Chip mit 250...300W skaliert.
und
Wie die TS-Ergebnisse ohne Optimierungen mit nem gültigen Treiber ausschauen.
(wenn FS rel. schwach ist, hat Intel evtl. u.A. an der Tesselation im TS geschraubt)
10000-->9000 ohne Opt.?
x 250/125 = skaliert meist net linear = ca. 1,5...1,6 (1,8...2x dann nur mit 300W)
Interessant+VerySpecial wärs natürlich, wenn Intel das AsyncCompute auf den TensorCores erledigt
und ob das auch bei anderen Games dann so funzt.
Leonidas
2022-06-07, 08:09:12
Intel geht auf jeden Fall einiges an Geld verloren, dadurch dass man Apple als Kunden verloren hat.
Da hast Du komplett Recht, hier entsteht tatsächlich Verlust für Intel. Ich hatte meine Betrachtung aber eher aus Kunden-Seite gesehen, wo man gar nicht so einfach wechseln kann und wo es demzufolge fast egal ist, was Apple macht.
Es ging dabei eher um diesen Gedanken: Wenn wir einen M2-SoC in der Windows-Welt hätten, würde der AMD & Intel stark Marktanteile abnehmen. So lange aber Apple in seiner eigenen Welt bleibt, wird das nicht passieren.
Sofern der Stromverbrauchs-Wert von 420 Watt hierfür nicht völliger Nonsens ist, dürfte damit auch eine GeForce RTX 4090 auf nur 450 Watt außerhalb der Möglichkeiten liegen – und geht es bei dieser größeren Karte eher in Richtung der maximal genannten Werte.
Nicht unbedingt.
2080 Super und 2080Ti hatten beide 250W@Referenz.
Auch bei 3080 und 3090 betrug der Abstand mit 320W und 350W 30W.
Bei dem deutlichen Hardwareunterschied würde 4080 und 4090 auch bei nahezu identischem Powerlimit weit genug auseinanderliegen.
Ein nicht zu weit auseinanderklaffendes Powerlimit würde sogar Sinn machen, wenn sich der Performanceabstand zwischen größter und zweitgrößter Karte im für Nvidia üblichen Rahmen bewegen sollte.
Bei dem Hardwareabstand würde kombiniert mit einem deutlichen Powerlimit-Unterschied eine ziemliche Lücke zwischen größter und zweitgrößter Grafikkarte sein.
Leonidas
2022-06-07, 08:13:46
Nicht unbedingt.
2080 Super und 2080Ti hatten beide 250W@Referenz.
Das ist mal ein gutes Argument. Selbst wenn die Realwerte etwas differieren (246W vs 272W), zeigt es doch darauf hinaus, dass man mit größeren Chip nicht viel mehr verbrauchen muß - sofern man die Taktraten nicht ganz maximal hochzieht.
basix
2022-06-07, 08:42:50
Wenn der breitere Chip -10% niedriger taktet, gewinnt man bereits die +30% Effizienz die es für den Performance-Abstand für die nächste SKU bei mehr oder minder gleichbleibender TDP braucht. +30W oben drauf für das breitere SI und fertig ist die Sauce. 450W für das Topmodel sind bei diesen Gegebenheiten also nicht unmöglich.
Sweepi
2022-06-07, 09:37:22
Daneben hat sich nach dem aufsehenerregenden Release der M1-SoCs inzwischen die Erkenntnis verbreitet, dass Apples technologischer Vorteil letztlich gar nichts für den allgemeinen PC-Markt bedeutet
Naja - für den DIY Markt sicher nicht (bzw. sehr wenig).
Ansonsten:
- Das M1/M2 MBA ist ein heiser Kandidat für "bestes Schul-/Uni Notebook wenn Budget >= 1000.-"
- Die Einstiegsmodelle / "jungen gebrauchten" vom MBA sind auch gute Performance/Preis Optionen
- Für "Ich bin Developer, das OS ist mir fast egal, meine Editor läuft auf allen Plattformen" Menschen (Hi!) ist das Apple Lineup auch interessant, da beste SC Leistung, und MC Leistung/Watt (welche im NB Lmitiert) auch vorne
- Bei Foto/Video Edit, wo traditionell Apple stark ist, gibt es diverse Software native für Apple ARM, Performance/Watt ist top, Performance/Preis ist ok bis gut.
- Für die Gruppe an Menschen, deren wichtige und gut bezahlte Arbeit mit Browser, Office, PDF und Mail abgedeckt sind, ist die hohe Effizienz auch ein Pluspunkt; einziger Nachteil: für 16" + 1TB SSD ist zahlt man schon 3k, wobei HQ (Windows) Business Laptops jetzt auch nicht günstig sind.
- Wenn Apple die GPU im ARM Mac Pro nochmal verdoppelt wird das eine Option für Hyper-Enthusiasten, auch wenn mensch für 90% der Games fummeln muss (und >= 60% auf Arm nicht gehen). Für Leute, die das SLI Feeling vermissen :D
... und wenn weniger Intel Latops verkauft werden - hat das natürlich Auswirkungen auf Intel's Entwicklung insgesamt
The_Invisible
2022-06-07, 10:27:51
Mich stört bei Apple halt das man so eingesperrt ist, wenn man da bei Kauf zu wenig Hardware reinsteckt ist man später am Ars** :D
Hab bei meinem älteren Lenovo NB gerade 32GB RAM, 2TB SSD und schnelleres WLAN-Modul aufgerüstet, das Ding hatte am Anfang mal 4GB RAM und 1TB HDD. CPU hab ich extra dicker genommen, fürs mobile entwckeln reichts noch immer aus.
Das ist mal ein gutes Argument. Selbst wenn die Realwerte etwas differieren (246W vs 272W)
Die differieren wenn die FE verglichen wird. Die FE der 2080Ti hatte 260W Powerlimit + etwas höhere Taktraten.
Die Referenz hatte nur 250W Powerlimit, wobei diese allerdings recht schwer anzutreffen war, weil eben schon die FE leicht übertaktet war und die meisten Herstellerkarten eher Powerlimits im Bereich 300W+ verwendet hatten.
H0fn43rrchen
2022-06-07, 10:44:36
"Intel Arc Mobile-Grafiklösungen im 3DMark13-Benchmark mit fernöstlicher Quelle: So konnte eine "Arc A730M" mit 24 Xe-Kernen (Abspeckung des ACM-G10 mit physikalisch 32 Xe-Kernen) im TimeSpy-Test eine GeForce RTX 3070 Laptop überrunden und kam sogar an einige Resultate der GeForce RTX 3070 Ti Laptop (auf niedrigen TDP-Werten) heran. Eine andere "Arc A730M" lief im FireStrike-Test dann allerdings beachtbar schlechter, zwischen GeForce RTX 3060 Laptop und 3070 Laptop liegend."
Da keine Verbrauchswerte genannt werden, ist diese Meldung komplett witzlos. Gerade bei Mobilgeräten macht ein derartiger Vergleich nur dann Sinn, wenn alle Geräte mit vergleichbaren Grundvoraussetzungen antreten.
basix
2022-06-07, 11:27:43
92W in Furmark ;)
https://www.computerbase.de/2022-06/intel-arc-a730m-praxistests-zeigen-diskrepanz-zwischen-3dmark-und-spielen/
110W Boardpower für A730M
Im Endeffekt wäre das auf Augenhöhe einer 3070M oder 6800S. Somit auf Augenhöhe von RDNA2 und Ampere. Aus meiner Sicht sind das sehr gute Werte.
Problem:
Wie sieht das bei Spielen aus?
Leonidas
2022-06-07, 12:44:04
Nicht mehr so gut:
https://videocardz.com/newz/intel-arc-a730m-has-been-tested-in-games-with-performance-between-rtx-3050-and-rtx-3060
Lehdro
2022-06-07, 15:22:32
Das ist mal ein gutes Argument. Selbst wenn die Realwerte etwas differieren (246W vs 272W), zeigt es doch darauf hinaus, dass man mit größeren Chip nicht viel mehr verbrauchen muß - sofern man die Taktraten nicht ganz maximal hochzieht.
Nein, es ist kein gutes Argument, weil es sich auf Refreshes bezieht. Siehe 3070 Ti und 3080 - die trennen auch nur 20W - aber quasi Welten bei der Performance im Verhältnis zum Verbrauch.
Anderes Beispiel: 1070 Ti vs. 1080 - auch hier hat der Refresh die TDP auf Augenhöhe mit dem eigentlich größerem Modell bekommen. Auch die 2070 Super hatte dieselbe TDP wie die 2080 non FE.
Will sagen: Das ist bei NV seit mehreren Generationen Usus, den Refresh durch die TDP hochzuprügeln. Im Anfangslineup hat NV immer einen gewissen Abstand gewahrt, den man dann mithilfe des Refreshes nutzen kann. Zudem ist 3080 -> 3090 ein seltener Spezialfall, da der Abstand echt nur minimal ist im Vergleich zu früher: Man Vergleiche die 2080 zur 2080 Ti/ Titan RTX, 1080 vs. 1080Ti/Titan X (Pascal), 980 vs. 980 Ti/Titan X, 680 vs. 780 Ti/Titan - die Abstände sind da weitaus größer gewesen.
Im gewissen Sinne ist die 3080/3080 12 GiB/3080 Ti vs 3090 das, was damals (Maxwell + Pascal + Turing) das Ti Modell gegen die Titan war - nur halt extrem fein segmentiert, so wie das auch schon mit Kepler praktiziert wurde (780/780 6 GiB/780 Ti + Titan, alle mit GK110). Wenn Ada Lovelace wieder abweichend davon 4080 und kleiner nicht auf dem größten Chip, sondern auf einem anderen aufbaut, wird auch die TDP das dementsprechend widerspiegeln. Also nix mit knapper TDP Annäherung. Wird die 4080 aber tatsächlich AD102 tragen, macht ein kleiner Abstand der TDP Sinn - dann stimmen aber sicherlich die Hardwaredaten mit diesem Riesenunterschied zur 4090 nicht. Mein Tipp: NV wird AD102 mit mindestens 2, eher 3 Karten (Beispiel: 4080 Ti und 4090 (+Ti?)) aufteilen um das Performancedifferenzial zu nutzen. AD103 und drunter kann dann mit genügendem Abstand alles andere beackern - man muss bedenken wie eng die Kartenstaffelung derzeit mit Ampere eigentlich ist - so etwas gab es schon lange nicht mehr. Da drängeln sich in den oberen 20% einfach direkt mal 5 Karten mit demselben Chip (3080/3080 12 GiB/3080 Ti/3090/3090 Ti) - das gabs ebenfalls zuletzt mit Kepler (780/780 6 GiB/780 Ti/Titan/Titan Black).
Leonidas
2022-06-07, 15:43:13
Tja, beide Argumentationen sind korrekt. Beide Effekte sind zu beachten.
bbott
2022-06-07, 22:21:35
Es ging dabei eher um diesen Gedanken: Wenn wir einen M2-SoC in der Windows-Welt hätten, würde der AMD & Intel stark Marktanteile abnehmen. So lange aber Apple in seiner eigenen Welt bleibt, wird das nicht passieren.
Selbst wenn der M2 in der x86 Welt "Spielen" würde, wäre er aufgrund von N5 und Die Size Preislich wohl in einer eigenen Welt.
Denniss
2022-06-08, 08:09:44
als x86 wäre der auch wesentlich langsamer, ist halt optimiert auf seinen besonderen Einsatzbereich.
Selbst wenn der M2 in der x86 Welt "Spielen" würde, wäre er aufgrund von N5 und Die Size Preislich wohl in einer eigenen Welt.
Der M2 ist nicht groß.
als x86 wäre der auch wesentlich langsamer, ist halt optimiert auf seinen besonderen Einsatzbereich.
Das ist doch Unsinn. Ansonsten belege doch mal diese Aussage. Was ist der spezifische Einsatzzweck?
Die IPC von dem M1 bzw. M2 ist sehr gut und hat nichts mit Optimierung oder sonst was zu tun.
Das scheinen einige Probleme zu haben, das anzuerkennen oder haben das noch nicht mal bemerkt. Als wenn jegliche Software nur Hardware-Encoder (gibt es in der x86-Welt genauso) und "MachineLearning" von morgens bis abends nutzt.
Es gibt hingegen Software, die auf x86 optimiert ist und M1/M2 daher (noch?) nicht das komplette Potential abrufen kann. Ggf. hat Intel auch mit AVX Vorteile, wenn das genutzt wird.
Vor 1-2 Wochen gab es wenn ich mich recht erinnere beim Igor einen recht glaubhaften Leak der Kühlkörper für die 40xx Karten. Im Prinzip waren es leicht verbesserte Varianten der 30xxer.
Natürlich ist es möglich eine 420W-450W 4080 mit einem verbesserten 2-Slot Kühler mit genug Drehzahl unter 100 Grad zu halten, dann ist aber Gehörschutzpflicht im Raum. Wenn das die finalen Kühllösungen waren halte ich alles über 350W für eher unwahrscheinlich
Relativ egal, wenn die iGPU nicht für anspruchsvolle Aufgaben taugt.
Die IPC von dem M1 bzw. M2 ist sehr gut und hat nichts mit Optimierung oder sonst was zu tun.
Ja und nein, die Apple Kerne sind so schnell weil sie ein ultrawide design sind (sogar die neuesten "kleinen" Kerne von Apple sind fast so breit wie die "schnellen" x86 Kerne).
Ob etwas derartiges auch mit x86 möglich wäre ist zumindest fraglich, von AMD gibt es die Aussage, dass es breiter als mit Zen3 nicht geht.
Alderlake hat es dagegen gezeigt, dass es noch breiter geht, und dass es auch Performance bringt, allerdings auf Kosten des Verbrauchs.
Also ja es ist zumindest ziemlich fraglich ob Apple mit x86 so schnell und vor allem so effizient wäre, mit spezieller Optimierung hat das aber nichts zu tun.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.