PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 25. April 2024


Leonidas
2024-04-26, 04:04:47
Link zur News:
https://www.3dcenter.org/news/news-des-25-april-2024

amdfanuwe
2024-04-26, 05:34:54
wobei "Strix Point" als typische Mobile-APU wieder nur 4 Lanes zu Anbindung erhält, die Big-APU "Strix Halo" hingegen die vollen 16 Lanes.
Wie kommst du da drauf? Im Dokument sind beide mit 16 Lanes angegeben.
HPT2 in der linken Spalte mit 14 Lanes.
16 Lanes insgesamt wären allerdings untypisch. Ich würde eher davon ausgehen, dass es wie bei Phoenix/Hawk ist: (Total/Usable)20/16 und das Document nicht ganz konsistent ist. Gibt dann in Desktop eine x8 Anbindung am GPU Port. https://www.amd.com/en/products/processors/desktops/ryzen/8000-series/amd-ryzen-5-8600g.html
Halo wird kaum in den Desktop kommen aber bei Strix Point wäre eine x4 Anbindung doch etwas mager.
Phoenix2/Hawk2 haben 14/10 https://www.amd.com/en/products/processors/desktops/ryzen/8000-series/amd-ryzen-3-8300g.html
Bei Ryzen 7000 sind es 28/24 https://www.amd.com/en/products/processors/desktops/ryzen/7000-series/amd-ryzen-9-7900x.html

Gast
2024-04-26, 07:16:40
mich interessiert ai nicht die bohne. das thema ist jetzt schon ausgelutscht, in consumerhardware sowieso. die recheneinheiten sind für komplexere berechnungen unter denen man dann ai auch versteht, viel zu schwach. das ganze ist reines marketing und gehype, mit geringstem aufwand für fette gewinne. revolution, eher nicht. nicht mal evolution. daher konnen mich huang und su gerne mal, da le.... wo die sonne nicht scheint.

ryzen9000 mit ai area, aber pcie gen4 interface...lol.

ist mittlerweile wie mit den e autos, potthässlich und niemand braucht es, bei schlechterer usability.

Platos
2024-04-26, 08:32:01
Man muss hald nicht blind auf Werbung anspringen, das gilt überall.

Vlt. mal sich fragen: "und was bringt mir das jetzt?" oder "Inwiefern erleichtert mir das nun den Alltag (signifikant)?"

Generell aber kommt es drauf an. Mit "AI" (Stichwort Tensor Cores) kann schon sehr nützlich sein. Stichwort Videobearbeitung (vor allem Animiertes Zeug, aber in den nächsten 5 Jahren wird auch Reallifestuff (gratis) brauchbar werden).

Aber natürlich ist das "AI"-Zeug in CPUs dafür sowieso viel zu schwach und m.M.n ist (qualitativ hochwertiges) AI-Upscaling in Realtime sowieso viel zu Rechenaufwendig und daher für die meisten Leute nur wieder so eine Massnahme, den Stromverbrauch signifikant zu steigern. Die wenigsten konsumieren heute noch offline und online runterladen und dann upscalen macht natürlich sowieso niemand. Und das meiste, was online konsumiert wird, ist vermutlich Reallife-Zeug und das wird noch erst recht Rechenaufwendiger (wenn es qualitativ hochwertig sein soll). In Realtime ist das vermutlich selbst in 10 Jahren nicht auf einer 4090 zu schaffen. Bei 24FPS versteht sich.

Gast
2024-04-26, 08:47:20
Hmm, könnte es bei Strix Halo wieder passieren, dass Multi-GPu geht?
mit der integrierten GPU + der dedizierten 8700xt? Um die Perf zu verbessern (verdoppeln wäre zu gut)?

Leonidas
2024-04-26, 08:50:02
Wie kommst du da drauf? Im Dokument sind beide mit 16 Lanes angegeben.

Mein Fehler, habe mich hier verwirren lassen. Ist gefixt.

The_Invisible
2024-04-26, 10:00:01
mich interessiert ai nicht die bohne. das thema ist jetzt schon ausgelutscht, in consumerhardware sowieso. die recheneinheiten sind für komplexere berechnungen unter denen man dann ai auch versteht, viel zu schwach. das ganze ist reines marketing und gehype, mit geringstem aufwand für fette gewinne. revolution, eher nicht. nicht mal evolution. daher konnen mich huang und su gerne mal, da le.... wo die sonne nicht scheint.

ryzen9000 mit ai area, aber pcie gen4 interface...lol.

ist mittlerweile wie mit den e autos, potthässlich und niemand braucht es, bei schlechterer usability.

DLSS gibts schon fast seit 6 Jahren, FG und RR sind dazugekommen, keine Ahnung was du noch willst. Aber gut, Copilot & Co können mich auch mal :D

Platos
2024-04-26, 10:11:24
Die News ging um CPUs

Gast
2024-04-26, 11:08:39
DLSS gibts schon fast seit 6 Jahren, FG und RR sind dazugekommen, keine Ahnung was du noch willst. Aber gut, Copilot & Co können mich auch mal :D
dlss ist doch kein ai, genau darum gehts es und um die massenhafte verblödung um dieses thema. bisher werden mit ai auf consumersystemen reine werbeeinanahmen über werbung eingespielt. du wirst über und mit ai auspioniert, die hersteller können auf dem system prozesse ausführen die du nicht mitbekommst, profile über deine aktivitäten anlegen, ohne das ein mitarbeiter da nochmal drüber schauen muss.

siehs an gpt das ding erzählt und schreibt soviel blödsinn, nur weil es sich einfach gut anhört. seitdem goodle die ai gestützte suche eingeführt hat wirft das ding auch nur noch blödsinn aus.

richtige ai liegt in einer herststellercloud, zentral und wird auch zentral gebunden, verwaltet und überwacht, schön bei dem hersteller/entwickler. eine ai sie alle zu knechten. du versorgst das ding nur mit daten. wie geschrieben, das thema ist reinster blödsinn. es wird nicht für verbesserungen genutzt, sondern zur gewinnmaximierung.

an dlss ist nichts ai. das ist alles vorprogammiert. anhand weniger matrizen wird dir ein bild dargestellt, das ist reiner vergleich und abgleich. das braucht keinerlei intelligenz, sondern ist ein automatisierter algorithmus der sich immer wiederholt und keinerlei entscheidungen trifft. was auch gut so ist weil sonst unsere bildquali bei gleichen grunddaten und voraussetzungen unterschiedlich ausfallen würde, das will niemand. die typische nvidia verarsche für viel geld und war ja letztlich nur dafür gedacht rt überhaupt lauffähig zu bekommen. dazu hat man es mit schönsten buzzwörtern versorgt. was davon läuft denn wirklich über tensor und welches ai level haben diese cores?

Leonidas
2024-04-26, 13:15:17
Das Training von DLSS läuft sicherlich mit AI. Aber die ausgelieferte Form ist dann statisch - eben weil das Ergebnis auf jedem PC gleich aussehen soll, so wie Du es schon sagst.

1ch0
2024-04-26, 14:51:17
siehs an gpt das ding erzählt und schreibt soviel blödsinn, nur weil es sich einfach gut anhört.

Du liegst leider komplett falsch und zeigst, dass du keine Ahnung von KI hast..

KI-Modelle wie GPT lernen, Sätze zu verstehen, indem sie Muster, Kontext und Semantik erfassen. Sie verarbeiten Eingaben durch neuronale Netzwerke und berücksichtigen dabei den gesamten Kontext.

Kurz gesagt: Um ein Wort zu predicten, musst du den Satz und und was damit gemeint ist verstehen. Was wenn nicht das ist Intelligenz. Noch einfacher kann mans echt nicht versuchen zu erklärem.

Exxtreme
2024-04-26, 15:02:13
Du liegst leider komplett falsch und zeigst, dass du keine Ahnung von KI hast..

KI-Modelle wie GPT lernen, Sätze zu verstehen, indem sie Muster, Kontext und Semantik erfassen. Sie verarbeiten Eingaben durch neuronale Netzwerke und berücksichtigen dabei den gesamten Kontext.

Kurz gesagt: Um ein Wort zu predicten, musst du den Satz und und was damit gemeint ist verstehen. Was wenn nicht das ist Intelligenz. Noch einfacher kann mans echt nicht versuchen zu erklärem.

Nein, eine AI versteht keinen einzigen Satz. Von daher hat der Gast recht. Die AI kennt die Struktur eines Satzes, sie weiss aber nicht was dieser Satz bedeutet. Und deshalb kann sie lediglich plausibel aussehende Antworten generieren. Semantik und Kontext sind einer AI völlig unbekannt.

1ch0
2024-04-26, 17:17:49
Nein, eine AI versteht keinen einzigen Satz. Von daher hat der Gast recht. Die AI kennt die Struktur eines Satzes, sie weiss aber nicht was dieser Satz bedeutet. Und deshalb kann sie lediglich plausibel aussehende Antworten generieren. Semantik und Kontext sind einer AI völlig unbekannt.

Falsch.

OpenVMSwartoll
2024-04-27, 07:57:48
Ich glaube hier herrscht primär eine unterschiedliche Wahrnehmung des Begriffs "verstehen" vor.


Es ist weniger der bewusste Vorgang, als ein automatisiertes Reagieren. Also eher Reflex als Verständnis.

1ch0
2024-04-27, 08:19:45
Das ist gut möglich. Mir drängt sich immer der Eindruck auf, dass LLMs dümmer gemacht werden als sie sind. Sie heißen nicht umsonst "language" models.

Gerade das Verstehen von Language und Semantik macht sie ja so bahnbrechend. Man kann mit GPT richtig kommunizieren.

LLMs (wie GPT-4) sind gerade gut darin, Kontext, Nuancen und den Fluss von Gesprächen zu verstehen. Sie generieren kohärente Antworten auf komplexe Anfragen. Cortana und Alexa zum Beispiel hingegen sind dazu nicht in der Lage.

Dieses Verständnis ist eben auch was man unter Intelligenz versteht. Ist sicher nen komplexes philosophisches Thema, aber das fällt schon unter Intelligenz.

OpenVMSwartoll
2024-04-27, 09:13:43
Ich bin nicht tief genug in der Thematik, aber aufgrund des "Erfahrungsschatzes" der KI scheint mir ein semantisches Verständnis vorhanden, wenn ich die Interaktionen mit GPT allein betrachte.

Die Validität der Auskünfte ist derzeit wesentlich fraglicher. Was dafür spricht, dass es noch zu keiner Reflektion des Wiedergegeben kommt.

Exxtreme
2024-04-28, 18:41:50
Ich bin nicht tief genug in der Thematik, aber aufgrund des "Erfahrungsschatzes" der KI scheint mir ein semantisches Verständnis vorhanden, wenn ich die Interaktionen mit GPT allein betrachte.



Nein, da gibt es kein semantisches Verständnis. KI ist soetwas wie ein Papagei, der Sprachgeräusche nachahmt. Der Papagei weiss auch nicht was diese Wörter bedeuten, die er nachahmt. Sie sind für ihn einfach nur Geräusche. Und exakt genauso funktioniert KI: nachahmen, ohne zu verstehen was man nachahmt und warum.