PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 12. April 2021


Leonidas
2021-04-13, 09:43:41
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-12-april-2021

HisN
2021-04-13, 09:45:53
Ich glaub der Name, ist das was am wenigsten interessiert.
Aber mehr gibts wohl nicht.

Leonidas
2021-04-13, 09:59:05
Bislang nur Platzhalter an allen Ecken und Enden. Einzige echte Info: Grobe Terminlage.

Gast
2021-04-13, 10:23:05
Einzige echte Info: Grobe Terminlage.


Info: Nvidia stellt den Betrieb nicht ein und wird auch in Zukunft an neuen Produkten arbeiten.

JVC
2021-04-13, 11:13:32
"Ampere Next" "Ampere Next Next"... "Bislang nur Platzhalter an allen Ecken und Enden."

Sieht schlimm aus, so "ganz ohne Ideen" im GPU Bereich...

M.f.G. JVC

Gast
2021-04-13, 11:40:03
Vielleicht meinen die ja die "nächste und übernächste" Lieferung von Ampere-Chips?

MD_Enigma
2021-04-13, 11:43:07
Totaler Marketing Bullshit was die da abgeliefert haben. Das hört sich für n Manager ja fast so an als ob NVidia das RZ neu erfindet ... aber die bauen nur hochspezialisierte PCI-Express Karten:
DPU -> Mellanox NICs (mit Block-Storage-Emulation)
GPU -> Nvidia GPUs
CPU -> Nividia ARM mit viel Bandbreite

Ich hab aber noch nicht ganz verstanden, wo sich bei GPU-Karten und CPU-Karten unterscheiden. Gerade durch die Tensor-Cores sind GPU's keine klassischen GPU's mehr. Was bieten die Arm-CPU's dann für spezialisierungen?

bloodflash
2021-04-13, 11:45:20
Das mit den Ladezeiten ist ein wirklich schwer zu analysierendes Problem.
Da spielen zuviele Komponenten eine Rolle: CPU, Kerne, RAM-Menge/-Anbindung, GPU, Schnittstellen, diverse Kopieraktionen und natürlich ob die Softwareentwickler überhaupt daran gedacht haben diese Vorgänge auf Kerne aufzuteilen, zu parallelisieren, die Queue Depth von SATA oder NVMe auszunutzen oder optimierte Streams auf den Datenträger abzuspeichern.
Wenn das ganze erst entpackt und diverse Male zwischen Disk, RAM, CPU und GPU hin und her kopiert werden muss, kommen halt aktuelle Rechner nichtmal ansatzweise an ihre Grenzen.

Bei den Konsolen wurde das Problem ja erkannt und in den aktuellen Generationen angegangen.

Bin mal gespannt, ob wir am PC erst in 2022 mit DDR5 und PCIe5 bessere Ladezeiten bekommen, oder ob die Entwickler langsam mal ein 4-Core-System mit SATA-SSD auszulasten gedenken...

Ich glaube nicht mehr daran.

Gast
2021-04-13, 12:52:41
Wenn das ganze erst entpackt und diverse Male zwischen Disk, RAM, CPU und GPU hin und her kopiert werden muss, kommen halt aktuelle Rechner nichtmal ansatzweise an ihre Grenzen.


Kommen sie schon, allerdings in den meisten Fällen mit jeder SSD nicht an die Grenzen der Datenübertragunsrate sondern der CPU-Leistung.

Buddy Casino
2021-04-13, 13:34:20
Wie ist das eigentlich mit den ~1 Minute Intro-Videos? Wird währenddessen schon geladen, oder ist das schlicht ein Lebenszeit-Shredder?

Denniss
2021-04-13, 13:57:39
Beim Ladezeitentest ist die SATA-SSD aber komplett Banane gewählt mit der 8TB 870QVO und ist somit absolut nicht vergleichbar mit den 1TB NVME SSD. Da hätte eine vergleichbare 1TB TLC benutzt werden müssen.

Lehdro
2021-04-13, 14:18:52
Beim Ladezeitentest ist die SATA-SSD aber komplett Banane gewählt mit der 8TB 870QVO und ist somit absolut nicht vergleichbar mit den 1TB NVME SSD. Da hätte eine vergleichbare 1TB TLC benutzt werden müssen.
Zumindest im Lesen ist eine QVO nicht wirklich schlechter als eine TLC SATA SSD (https://www.computerbase.de/2021-04/crucial-mx500-m3cr033-test/#abschnitt_crystaldiskmark). Sollte also beim Ladevorgang eher nicht der Pferdefuß sein, wie man ja auch in dem Test so sieht. Die Unterschiede sind wirklich sehr gering, eine schnellere SATA würde das eventuell sogar noch näher zusammenschieben - wobei der Nutzen allein dafür so oder so fraglich ist.

Denniss
2021-04-13, 15:11:36
es geht primär um die schiere Größe der SSD denn die kann durchaus einen gewissen einfluß haben auf die Werte ob der Anzahl und Kapazität der NANDs

Lehdro
2021-04-13, 15:18:05
es geht primär um die schiere Größe der SSD denn die kann durchaus einen gewissen einfluß haben auf die Werte ob der Anzahl und Kapazität der NANDs
Beim Schreiben macht das definitiv einen Unterschied, beim Laden eines Spielstandes wird aber fast nur gelesen.

Gast
2021-04-13, 16:12:55
es geht primär um die schiere Größe der SSD denn die kann durchaus einen gewissen einfluß haben auf die Werte ob der Anzahl und Kapazität der NANDs
Ja, normalerweise je größer je schneller. Da man mehr NAND Chips braucht und mehr Kanäle nutzen kann. Eine TLC wäre da nicht schneller. Im Gegenteil, denn die Samsung hat immerhin 8GB DRAM Cache, was bei billigen TLC oft komplett eingespart wird (oder man nutzt einen im Controller integrierten Cache mit 32MB). Kann daher durchaus sein, dass TLC Laufwerke langsamer lesen als die Samsung.

Leonidas
2021-04-13, 17:05:20
Info: Nvidia stellt den Betrieb nicht ein und wird auch in Zukunft an neuen Produkten arbeiten.

Wäre nun auch nicht zu erwarten.



Sieht schlimm aus, so "ganz ohne Ideen" im GPU Bereich...

So war es ganz gewiß nicht gemeint.

Platos
2021-04-13, 17:37:11
Immerhin ist ein 2 Jahres Zyklus (Der "historisch" zu erwarten war) nun offiziell bestätigt. Also Chipgenerationen versteht sich natürlich.

Offen bleibt, ob es zwischen Ampere und Ampere next (next) dann gar keine neue Grafikkartengeneration gibt, wie z.B von Pascal zu Turing oder ob es sowas wie ein Super Refresh gibt oder ein etwas potenterer Refresh.

Eine 4070 wird dann vermutlich irgendwo knapp unterhalb/gleich/ knapp oberhalb der 3090 rauskommen in 4k. Und die 4060 dann irgendwo bei auf ähnliche weise bei der 3070. Mal schauen, wie viel sie dann kosten ;)

iamthebear
2021-04-13, 18:44:01
Das ging ja schnell. Kaum angekündigt und schon sind die ersten geleakten Reviews online:
https://youtu.be/0frNP0qzxQc

wolik
2021-04-13, 20:21:30
Es fehlt Ampere Next Next Next.

Gast Ritis
2021-04-13, 20:51:47
V.a. ist beängstigend dass Huang von Nvidia eine FUD-Campaign gegenüber x86 fährt um eigene Grace ARM-Spezialcores anzupreisen und das unkritisch von vielen "Pressevertretern" übernommen wird.

Es ist ja nicht gerade so, als ob man gigantische Datenmodelle im System-RAM vorhalten müsste weil das in den jeweiligen lokalen GPU-RAM nicht hineinpassen würde. Also das Datenset, auf das man bei Clustern auf einzelnen GPUs ausführt ist dann doch immer noch gross genug, dass da ne GPU lange dran rechnen kann und die CPUs da die Zeit haben das zu managen. Die Regel ist doch eher die, dass alle GPUs mit dem gleichen Neuralen Netz von ein paar Gigabyte auskommen das an alle Rechenknechte verteilt wurde und ab und an minimste Ergebnisse und Updates hin und her geschoben werden, oder dass ohnehin nur relativ kleine Chunks im Cluster verteilt werden.

Viel Bandbreite zwischen Chips kostet auch immer verhältnismässig viel Energie. Da muss man schon gute Gründe haben wenn man das ausbaut und nicht OnChip auf HBM setzt.

NVLink mit IBM Power war jetzt auch nicht der grosse Durchbruch dem alle folgen mussten.

Wäre aber gefährlich würde CUDA step by step in eine Richtung "optimiert" in der mit Grace eine hohe Bandbreite vom Hauptspeicher über CPU-Cores zu den GPU Cores erst notwendig würde.

Leonidas
2021-04-14, 03:07:09
Viel Bandbreite zwischen Chips kostet auch immer verhältnismässig viel Energie. Da muss man schon gute Gründe haben wenn man das ausbaut und nicht OnChip auf HBM setzt.

Ich denke, NV setzt bewußt auf ein System, was zum Vorteil von leistungsfähigen GPUs (mit starken Anbindungen) ist - denn das kann man.

Gast Ritis
2021-04-14, 12:33:22
Ich denke, NV setzt bewußt auf ein System, was zum Vorteil von leistungsfähigen GPUs (mit starken Anbindungen) ist - denn das kann man.

Nur weil man es kann ist es nicht einzig richtig.

Auch x86-Plattformen haben eine Evolution durchgemacht, bei der die grössten Bottlenecks regelmässig beseitigt wurden. Und x86 hat sich in HPC damit breit gemacht. Der Mix mit GPUs ist derzeit sehr erfolgreich.

Das Mantra im Compute ist zumindest seit einigen Jahren die Lokalität der Daten zu erhöhen um für den schnellen Zugriff darauf möglichst wenig Energie einsetzen zu müssen. Das wird auch in den Softwaremodellen so berücksichtigt.
Das von Huang vorgestellte Modell behauptet nun das wäre nicht mehr der Fall. Das ist IMHO FUD solange man nicht in breiter Front dazu gezwungen wird auf die Lokalität wieder zu verzichten und mehr in zentralen Speichern abzubilden.

Leonidas
2021-04-14, 21:49:13
Nur weil man es kann ist es nicht einzig richtig.

Die Entscheidungs-Grundlage dürfte hier eher gewesen sein: Was ist gut für NV - und nicht, was ist gut für den Markt.