Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 22. Dezember 2021
Leonidas
2021-12-23, 08:36:15
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-22-dezember-2021
konkretor
2021-12-23, 09:13:08
Anmerkungen zu den GPU wieso haben die kein Blower Kühler? Im Rechenzentrums Betrieb sind Kühler mit 2 oder 3 Lüfter drauf eher störend für den Durchzug.
Wieso sind die Teile dann eher Gaming mäßig Design, das kostet ja nur unnötig Aufwand.
Da jemand mit Design zu beschäftigen.
Die These reiner Rechenzentrums Betrieb kann ich nicht teilen.
Die Fanless Variante ist fürs RZ Gedacht da geht der Luftstrom gut dran vorbei.
Legendenkiller
2021-12-23, 09:25:10
Das ist noch was anders als der hier ?
https://www.golem.de/news/jingjia-micro-jm9-schnellster-chinesischer-grafikchip-ist-da-2112-161989.html
Naja China hat das teils unfreiwillige aber mittlerweile klare Ziel, jede Hardware selber bauen zu können.
IMO sind die Karten also für chineische Gaming und Server PCs als 100% Ersatz für AMD/Nvidia/Intel gedacht ...
konkretor
2021-12-23, 09:35:56
Ja die Jingjia Micro JM9 sind wohl eine Eigententwicklung ohne Mithilfe von PowerVR oder anderen westlichen IP sachen.
Diese GPU hier in der News ist ja mit PowerVR IP entstanden.
Zwei völlig unterschiedliche Architekturen.
Gast Ritis
2021-12-23, 11:25:46
Es sind mobile Chips in den Innosilicon GPUs, die B-Seire von IMG-Tech.
Die Nachfolge-Gen auf IMG-Tech Webseite gefunden via https://forum.planet3dnow.de/index.php?threads/cxt-raytracing-gpu-vorgestellt-imagination-technologies.453464/
This is why we’re excited to bring the IMG CXT to market. Our CXT 48-1536 RT3 core offers 48GTexels/s, equivalent to
1.5 TFLOPS FP32 to superb rasterisation performance, closely coupled with 1.3Gray/s or performance. It can also deliver 6 TOPS of AI performance for good measure – and all within a mobile power budget of around 1-2 watts.
Also wenn die neueste Gen für 10 TFLOPs vielleicht nur 20W braucht, dann muss die Vorläufer Gen auch nicht mehr als 50W benötigen.
Was oben drauf kommt ist die Boad-Power und der VRAM.
Die Specs Sheets kann man sich nach Registrierung runterladen.
Natürlich muss man abwarten was davon realistisch in dGPUs ankommt in einem Multi-GPU Package und wie das mit dem Marketing Sprech wirklich gemeint ist, nicht dass die nur die ALU Einheiten im Verbrauch gemessen haben ;)
amdfanuwe
2021-12-23, 12:00:56
Zudem wird AMD auf der CES auch diverse andere Produkte regelrecht vorstellen, hat aber mit keiner Silbe erwähnt, welche das sein werden.
Dann bräuchten sie keine CES oder andere Offizielle Termine, wenn sie alles schon vor den Terminen rausposaunen würden.
Benutzername
2021-12-23, 12:27:28
Anmerkungen zu den GPU wieso haben die kein Blower Kühler? Im Rechenzentrums Betrieb sind Kühler mit 2 oder 3 Lüfter drauf eher störend für den Durchzug.
Wieso sind die Teile dann eher Gaming mäßig Design, das kostet ja nur unnötig Aufwand.
Da jemand mit Design zu beschäftigen.
Die These reiner Rechenzentrums Betrieb kann ich nicht teilen.
Ja, sehe ich auch so, daß sie auch auf Gamer zielen, aber vielleicht dachte sich auch einfach nur ein Marketingfutzi, daß Grafikkarten so aussehen müssen. Auch im Profibereich.
Die Fanless Variante ist fürs RZ Gedacht da geht der Luftstrom gut dran vorbei.
Ja, Ich bezweifele, daß man die passiv in einem normalen PC betreiben sollte. Und wozu mit einem Blowert rummachen, wenn sowieso vorne eine Batterie Deltas föhnt im 19" Einschub.
Was mirmaufgefallen ist,daß sie auch treiber für MIPs anbiewten wollen. Wer benutzt denn noch im großen Stil MIPS heutzutage?
Warten wir ab, was AMD zur CES veröffentlicht, aber ich persönlich erwarte von Zen 3D nicht wirklich viel.
Für Upgrades zu teuer (weil mit Sicherheit nicht günstiger als Zen3 heute) und zu wenig Mehrwert. Auch wenn ich darauf hoffe, dass Viele upgraden und damit Zen3 CPUs 58xx/59xx auf dem Gebrauchtmarkt günstig zu haben sind.
On Zen4 nun DDR4 unterstützt oder nicht, ist zumindest für mich unerheblich. Wenn schon eine neue Plattform, dann gleich richtig und nicht eine Zwitterlösung, bei der man sich im nächsten Jahr ärgert, nicht gleich das Moderne gekauft zu haben. Spannend ist, ob Zen4 gleich mit 3D V-Cache kommt.
konkretor
2021-12-23, 15:10:55
Ich meine in China ist MIPS noch angesagt
https://www.golem.de/specials/mips/
Loongson CPU war erst vor ein paar Monaten hier auch News Thema
Die Nachfolge-Gen auf IMG-Tech Webseite gefunden via https://forum.planet3dnow.de/index.php?threads/cxt-raytracing-gpu-vorgestellt-imagination-technologies.453464/
1,2 GRays/s wären das Vierfache vom Vorgänger. Ampere benötigt für ~0,9 GRays/s über 350W und ein Vielfaches der Chipfläche.
Die 7,8 GRays/s der Multichip-Lösung würden für immerhin ~62 Rays pro Pixel unter 1080p@60fps reichen.
"ähnlich wie augenscheinlich Zen 4 über ein solches Kombi-Speicherinterface für DDR4- und DDR5-Speicher verfügt."
Zen hat gar kein Speicherinterface. Zen ist alleinig die CPU Architektur. Ueber was fuer ein Speicher Interface der I/O Chip oder das APU Package verfuegt, das ist vollkommen unabhaengig von den CPU Kernen ^^ Just sain, weiss man doch eigentlich. Die koennten GDDR6X und HBM mit Zen 1/2/3/4/whatever kombinieren wenn es Sinn machen wuerde und sich verkaufen liesse. ^^
Leonidas
2021-12-24, 03:41:22
Also wenn die neueste Gen für 10 TFLOPs vielleicht nur 20W braucht, dann muss die Vorläufer Gen auch nicht mehr als 50W benötigen.
Die Lüfter, Boardkonstruktion und die Stromstecker sprechen dagegen. Zudem waren die Verbrauchsangaben von Innosilicon nie unter Vollast, sondern nur unter Desktop-Aufgaben.
Zen hat gar kein Speicherinterface. Zen ist alleinig die CPU Architektur. Ueber was fuer ein Speicher Interface der I/O Chip oder das APU Package verfuegt, das ist vollkommen unabhaengig von den CPU Kernen ^^ Just sain, weiss man doch eigentlich. Die koennten GDDR6X und HBM mit Zen 1/2/3/4/whatever kombinieren wenn es Sinn machen wuerde und sich verkaufen liesse. ^^
Technisch gesehen korrekt. In der Praxis wird es aber nur Speicherchips für DDR4/DDR5 geben. Auch ein IOD will konstruiert werden, muß in den Tape-Out und die Validierung gehen. Ob man nun an Skylake ein HBM-Interface dranbastelt oder an Zen 4, bleibt sich vom Aufwand und Zeitbedarf fast gleich.
Lehdro
2021-12-24, 22:13:58
1,2 GRays/s wären das Vierfache vom Vorgänger. Ampere benötigt für ~0,9 GRays/s über 350W und ein Vielfaches der Chipfläche.
Diese maximal vereinfachte Aussage halte ich für technischen Schwachsinn. Ampere braucht für die 0,9 GRays/s sicher keine 350W. Eher für die ganzen TFlops des zusätzlichen Rasterkrimskrams und die GRays/s kombiniert.
Die 7,8 GRays/s der Multichip-Lösung würden für immerhin ~62 Rays pro Pixel unter 1080p@60fps reichen.
Und dazu gibt es dann eine handvoll normaler Rasterleistung, womit bei den heutigen Hybridlösungen auch wieder nichts zu holen ist. Es kommt auf die Balance an, zumindest solange wir kein pures RT haben.
Diese maximal vereinfachte Aussage halte ich für technischen Schwachsinn. Ampere braucht für die 0,9 GRays/s sicher keine 350W. Eher für die ganzen TFlops des zusätzlichen Rasterkrimskrams und die GRays/s kombiniert.
Dein Vorwurf fällt auf dich zurück. Du bist Nvidias Marketing auf den Leim gegangen und verwechselst Raytracing mit Hybridrendering.
Auch beim Raytracing ist die Leistungsaufnahme von Ampere so hoch:
https://www.pugetsystems.com/pic_disp.php?id=64506&width=800
Und dazu gibt es dann eine handvoll normaler Rasterleistung, womit bei den heutigen Hybridlösungen auch wieder nichts zu holen ist. Es kommt auf die Balance an, zumindest solange wir kein pures RT haben.
Bei soviel GRays/s ist die Krücke Hybridrendering überflüssig. Schon 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p (100% raytraced):
https://www.youtube.com/watch?v=uxE2SYDHFtQ&list=PLnOXj03cuJjmRN_Y8aN0vUH_jNbjyDXjB&index=8
Der BRIGADE-Engine (https://www.youtube.com/watch?v=xKEWWYBAJPo&t=340) reicht übrigens schon die niedrige RT-Leistung von Ampere für 60fps.
Diese maximal vereinfachte Aussage halte ich für technischen Schwachsinn. Ampere braucht für die 0,9 GRays/s sicher keine 350W. Eher für die ganzen TFlops des zusätzlichen Rasterkrimskrams und die GRays/s kombiniert.
Ampere hat auch keine 0,9 GRays/s, schon Turing hatte 10 davon, und Ampere pro Einheit und Takt das Doppelte.
Ob man nun an Skylake ein HBM-Interface dranbastelt oder an Zen 4, bleibt sich vom Aufwand und Zeitbedarf fast gleich.
Nicht wirklich, einen neuen IOD zu Designen und zu validieren wäre bedeutend einfacher und Kostengünstiger zu realisieren als eine Komplett neue CPU mit anderem Speicherinterface.
Leonidas
2021-12-26, 16:19:26
Jein. Ein IOD ist immer einfacher zu basteln. Aber ein vorhandenes CPU-Design auf neuen Speicher umzubauen, könnte sogar noch einfacher sein. Ich redete ja explizit nur davon, einer vorhandenen Architektur ein anderes Interface zu spendieren. Das ist schlicht eine Baugruppe, die ersetzt wird - noch dazu eine, die keine echten Wechselwirkungen mit der ganzen Architektur hat.
Designphase, Tape-Out, Validierung ist hingegen bei beiden Varianten gleich.
Ampere hat auch keine 0,9 GRays/s, schon Turing hatte 10 davon, und Ampere pro Einheit und Takt das Doppelte.
Du gehst dem Nvidia-Marketing und dessen Phantasie-Rays auf den Leim.
Turing hat nur ~0,4GRays/s.
https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg
Designphase, Tape-Out, Validierung ist hingegen bei beiden Varianten gleich.
Tapeout und Validierung sind bei einer CPU wesentlich aufwändiger, ein IOD ist dagegen nicht viel mehr als ein PCIe Hub, das sollte sowohl vom Zeit- als auch vom Kostenaufwand wesentlich geringer sein.
Leonidas
2021-12-27, 03:45:40
Ist schon klar. Aber es würde sich in diesem Beispiel ja nur um eine CPU-Neuauflage handeln, mit einer einzelnen veränderten Baugruppe. Das braucht dann auch nicht mehr so lange.
Nebenbei gilt auch beim IOD: Getestet werden muß primär die ganze CPU, nicht nur das IOD. Und das muß dann alle Tests durchlaufen, auch die rein CPU-bezogenen.
Du gehst dem Nvidia-Marketing und dessen Phantasie-Rays auf den Leim.
Turing hat nur ~0,4GRays/s.
https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg
Das ist der theoretische Wert an Ray-Intersections welche die GPU berechnen kann.
Freilich ist man in der Praxis immer mehr oder weniger deutlich niedriger, das trifft aber auf jede Architektur zu.
Ist schon klar. Aber es würde sich in diesem Beispiel ja nur um eine CPU-Neuauflage handeln, mit einer einzelnen veränderten Baugruppe. Das braucht dann auch nicht mehr so lange.
Was einen neuen Floorplan für die CPU bedingt und damit wesentlich aufwändiger ist als die CPU gleich zu lassen und nur das vergleichsweise simple IOD neu auflegt.
Nebenbei hätte man für neue CPUs sogar die Wahl ein neues IOD für DDR5 only aufzulegen, und bei bedarf noch CPUs mit dem alten IOD für DDR4 aufzulegen.
Leonidas
2021-12-28, 03:42:06
Denkbar, dass das mit dem Floorplan aufwendiger ist. Genauso denkbar, dass es keinen Unterschied macht (wenn das neue Interface kleiner als das alte ist, wie HBM).
Lehdro
2021-12-28, 13:37:19
Dein Vorwurf fällt auf dich zurück. Du bist Nvidias Marketing auf den Leim gegangen und verwechselst Raytracing mit Hybridrendering.
Auch beim Raytracing ist die Leistungsaufnahme von Ampere so hoch:
https://www.pugetsystems.com/pic_disp.php?id=64506&width=800
Der dort getestete 300W Gegenbeweis widerlegt dich, wenn man deiner Argumentation unbedingt folgen will. Da liegt etwas anderes im Argen.
Zudem: Da läuft sicher nicht nur RT auf nur RT Cores, sondern dort wird alles benutzt was irgendwie rechnen kann. Also auch der nicht-explizit-RT-Kram.
Bei soviel GRays/s ist die Krücke Hybridrendering überflüssig. Schon 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p (100% raytraced)
Der BRIGADE-Engine (https://www.youtube.com/watch?v=xKEWWYBAJPo&t=340) reicht übrigens schon die niedrige RT-Leistung von Ampere für 60fps.
Toll. Was bringt mir das wenn 90% der Spiele non-RT und die restlichen 9,9% Hybride sind? Richtig, gar nichts. Kannst ja gerne deine RT Only Karte nutzen, wird nur derzeit nichts bringen, da alles noch Hybrid ist und auch für eine Weile bleiben wird. Mag die Zukunft sein, sogar ziemlich sicher, aber ich und der Rest der Welt zockt mit den GPUs halt leider noch im Hier und Jetzt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.