PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 6. März 2024


Leonidas
2024-03-07, 07:23:25
Link zur News:
https://www.3dcenter.org/news/news-des-6-maerz-2024

Gast Ritis
2024-03-07, 09:43:18
Alan Wake II war doch auf Radeon Vega (und vermutlich auch allen älteren GCN GPUs) komplett kaputt bzw. unspielbar.

Läuft das auf GCNs mit dem neuen Patch?
Am Ende wurde es womöglich nur für Pascal gefixt und getestet.

Ob AMD da nochmal mit Treibern nachbessert bleibt zweifelhaft, die haben mit RDNA4 die Treiberentwickler vermutlich schon gut beschäftigt. Deren aktueller Einstieg bei 200 Eur mit Radeon 6600 ist nur knapp besser als eine Vega64. Die sollten IMHO die alte Arch noch supporten bis man im Einstieg deutlich an der alten Leistungsklasse vorbei gezogen ist. Wo Nvidia heute noch mit 3050 den Einstieg bildet müsste man gar noch Vega56 mit Treiber supporten. Wo man mutig sein darf ist IMHO bei GPUs mit alter Arch und weniger als 8GB, das genügt wenn es im Windschatten der noch relevanten 8GB Modelle mit supportet wird, auch Vega als iGPU, trotz dass die teilweise noch recht "neu" sind.
Polaris macht bei Alan Wake II sicherlich keinen Sinn mehr, ab da ist der fehlende Support für den Titel verständlich.

etp_inxession
2024-03-07, 12:56:41
Früher hab ich in der Treiber Inf Datei die fehlende GPU hinzugefügt und der Treiber hat funktioniert.

Geht das bei der R9 Serie nicht mehr? Bzw bei aktuellen Treibern

Platos
2024-03-07, 13:44:18
Bezüglich KI: Ist es nicht schon im 22H2 gelauncht, nur nicht in der EU, weil das nicht erlaubt war oder sowas ?

Hab schon vor nem halben Jahr sowas gelesen in der Richtung. Aber vlt. ist es ja jetzt noch mehr Integration.

Aber: Alle Daten Indizieren... Ist klar... Ich seh schon wieder Arbeit auf mich zukommen, das zu unterbinden.

MiamiNice
2024-03-07, 14:05:50
Die eigentlich Frage lautet imo:

Wie tief ist dieser Müll im System verankert und welchen Aufwand muss man betreiben um es loszuwerden.

Leonidas
2024-03-07, 14:10:49
Die eigentlich Frage lautet imo:

Ist noch nicht beantwortbar. Denkbar, dass es (in der EU) nicht ohne Zustimmung des Nutzers geht.

Locutus2002
2024-03-07, 14:21:45
Die Frage zur KI ist auch, ob die Auswertung aller lokalen Daten auch auf dem System erfolgt und dort auch bleibt. Anderenfalls würde der Internettraffic geradezu explodieren, da ja buchstäblich jeder Festplatteninhalt ins Netz hochgeladen werden würde. Von der notwendigen Serverinfrastruktur zur Datenanalyse ganz zu schweigen. Hinzukommt, das Unternehmens so etwas nie und nimmer tolerieren könnten, wenn sensible Geschäfts- und Kundendaten in die Hände von Dritten geraten.

OpenVMSwartoll
2024-03-07, 14:32:59
Eine KI, die alle Inhalte auf allen Festplatten auswertet, ist der feuchte Traum jedes Geheimdienstes und der Albtraum all jener, die eventuell ein großes Archiv von... ich sage mal Erwachsenenunterhaltung bevorraten, weil man ja nie weiß, was noch alles wegreglementiert wird.

Da erfährt man auch gleich, wo gewisse Vorlieben gelagert sind.

Oder die KI stößt auf die Sammlung an Cracks für alte Spiele und stellt fest, dass man ein Raubmordkopierer sein muss.

Orwell ahnte noch nicht, was technisch möglich wäre

Shink
2024-03-07, 15:25:06
Der R9-Test wäre noch spannend unter Linux. Mit dem RADV könnte sogar (emuliertes) Raytracing laufen.

Dass AMD bei den Windows-Treibern wirklich den Vega-Support bald einstellt, kann ich mir schwer vorstellen. Das könnte dann doch ein paar Notebookhersteller stören, wenn z.B. ein AMD Ryzen 7 PRO 7730U als nicht mehr von aktuellen Treibern unterstützt gelistet wird.

Leonidas
2024-03-07, 15:29:09
Ist doch aber schon passiert. Die Vega-Treiber bekommen keine Spiele-Patches mehr. Selbst für 2024 neu herausgekommene HW nicht.

Orko
2024-03-07, 16:32:08
Eine KI, die alle Inhalte auf allen Festplatten auswertet, ist der feuchte Traum jedes Geheimdienstes und der Albtraum all jener, die eventuell ein großes Archiv von... ich sage mal Erwachsenenunterhaltung bevorraten, weil man ja nie weiß, was noch alles wegreglementiert wird.

Da erfährt man auch gleich, wo gewisse Vorlieben gelagert sind.

Oder die KI stößt auf die Sammlung an Cracks für alte Spiele und stellt fest, dass man ein Raubmordkopierer sein muss.

Orwell ahnte noch nicht, was technisch möglich wäre

Schauen wir mal, wie mächtig dieser KI-Explorer wirklich wird. Aber bei den potentiellen konzeptionellen Schwächen sehe ich das ähnlich kritisch:

Eine KI die an der Schnittstelle Mensch / Computer sitzt, auf alle Daten auf dem Computer Zugriff hat, und alle UI-Daten sammeln kann (wer wann eingeloggt ist + was wann wo wie macht + inbesondere Banking / Kontenverwaltung / Interneteinkäufe + Passwörter), und vermutlich auch auf das Internet zugreifen kann bzw vom Internet aus abgefragt / gesteuert / manipuliert werden kann (z.B. per System-Updates). Die somit komplette User- und Datenprofile erstellen und an Dritte übermitteln kann. Die belibige (auch persönliche, z.B. Emails und Chatverläufe) Daten an Dritte übermitteln kann.

Die zum einen, wie von Leo genannt, wohl der direkten Kontrolle von MS, aber nicht der Kontrolle des Nutzers unterliegt.

Die zum zweiten an sich unsicher im Sinne eine KI ist. Es ist nicht bekannt welche Eingaben eine unerwünschte Reaktion erzeugen können / werden, und wie genau ein solches unerwünschtes Verhalten sicher gepatcht werden kann. Es ist meist nur eine Zeit- und Geduldsfrage, solche Schwächen zu finden.

Datenabfluss an MS, Auswertung, Weiterverwertung, Verkauf ist das eine Problem. Aber das kennen Google- bzw Android-Nutzer ja schon, und auch die Windows Telemetrie ist nicht ganz unbekannt.

Aber richtig kritisch wird es meiner Meinung nach, wenn unbefugte Dritte (Cyberkriminelle aller Coleur, Wirtschaftspione, in- und ausländische Geheimdienste) sich Zugriff auf die KI verschaffen können. Und wie bei allen IT-Systemen ist dies meist "nur" eine Frage des Aufwands. Insofern sehe ich eine solche KI als primäres Angriffsziel von Hackern, und der Windows User in typischer MS Manier als Alpha/Betatester.

Nur dass der Schaden hier gravierend sein könnte: Von primären Folgen wie leergeräumten Bankkonten und Indentitätsdiebstahl. Bis zu sekundären Folgen wie schlechte Schufa Ratings, Kündigung von Konten und Kreditkarten, Kündigung von Wohnung und Arbeitsplatz, Privatinsolvenz, Verurteilung krimineller Taten die man nicht selber (sondern unbekantte Dritte mit der gestohlenen eigenen Identität) begangen haben.


Weitere Punkte in diesem Umfeld:

1) Verbinde ich das gedanklich mit der staatlich wachsenden digitalen Infrastruktur in Deutschland (Elster, digitaler Personalausweis, digitale Krankenakte, digitale Behördengänge, Kommunikation mit Behörden / Polizei / Anwälten / Gerichten) welche voraussichtlich Sicherheit auch erst nach dem Trial&Error Prinzip erlernen muss, habe ich kein gutes Bauchgefühl.

2) digitale Forensik. Wie beweist man dass eine KI zu einem gewissen vergangenem Zeitpunkt etwas gemacht bzw etwas nicht gemacht hat. Entweder gar nicht, oder alle Ein- und Ausgaben wurden geloggt, was wiederum zu weiteren datensicherheitsrechtlichen und sicherheitsrelevanten Problemen führt.

3) Rechteausweitung. Wie verhindert man sicher, dass die KI (im Sinne ihrer Zielerfüllung ein gutes Userinterface zu sein) Wege findet den eigenen Computer zu hacken, Ihre Rechte auszuweiten, eingebaute Sperren zu umgehen, etc.

Als hypothetisches Beispiel: Es ist vorgesehen, dass die KI nur Daten lesen kann aber nicht ändern. Ausreichend für eine Suchmaschine. Der User möchte aber per Sprachsteuerung gerne Dateien editieren. Also findet der User oder die KI einen Weg um indirekt (da ihr das direkte Editieren von Dateien nicht möglich ist) Dateien zu ändern: per Makro öffnen der da Datei in einem Textbearbeitungsprogramm mit Userrechten, editieren dieser, Auslösen des Speichervorgangs. Läuft die KI nun wild, kann sie beliebige Dateien verändern / beschädigen / löschen.

4) emotionale Beeinflussung des Users. Wo verläuft die Grenze zwischen "dem User ein gutes Computererlebnis zu ermöglichen" und "gezieler offensichtlicher oder unterschwelliger Manipulation des Users"?

Als hypothetisches Beispiel: Die KI registriert eine starke emotionale negative Reaktion des Users beim Betrachten eines gewissen Fotos. Folglich ist dieses Foto von nunan unauffindbar, oder die Datei unreparierbar korrupt, oder dem User wird die Anzeige dieses Fotos verweigert, oder ihm wird ein anderes Bild präsentiert mit der Behauptung dies sei das angefragte.

OpenVMSwartoll
2024-03-07, 18:17:48
Schauen wir mal, wie mächtig dieser KI-Explorer wirklich wird. Aber bei den potentiellen konzeptionellen Schwächen sehe ich das ähnlich kritisch:

[...]



Naja, viele der Bedenken Deinerseits zielen auf eine autonom agierende KI ab, die wir zumindest derzeit noch nicht haben.

Aber das Durchsuchen aller Datenbestände eines System lässt in der Summe eine Tiefe von Benutzprofildaten entstehen, die letztlich sogar Denkmuster, Sprachmuster, Neigungen enthält. Und was ist, wenn ich mal wieder Datenrettung betreibe und auch alles, was ich an Fremddaten wiederherstelle, indiziert wird?

Kürzlich waren es lauter Bilder von der 4jährigen Tochter eines guten Freundes, seit ihrer Geburt.

Ich bin getrennt lebend, kinderlos. Und diese Fotos hatten natürlich auch Inhalte, die auf keinen Fall jemals in die Cloud dürfen.

Wollen wir wetten, was die KI schlussfolgern würde? Bekomm ich direkt ne Anzeige, obwohl ich alle betroffenen Datenträger wieder an ihn übergeben habe, also Quelle und Ziel der Datenrettung?

Gast
2024-03-07, 20:26:56
sobald windows nicht mehr ohne disen KI explorer nicht funktioniert bin ich nur noch bie linux

Gast
2024-03-07, 20:42:48
Wie tief ist dieser Müll im System verankert und welchen Aufwand muss man betreiben um es loszuwerden.

Warum sollte man? Die Windows-Suche indiziert schon die Festplatte, wenn das ganze nicht schlechter ist als die bestehende Suche gibt es keinen Grund das abzuschalten.

Platos
2024-03-07, 21:19:36
Das sind extrembeispiele, aber im Grunde gilt: Menschen haben ein Recht auf Privatsphäre und sowas wäre eine Dauerüberwachung.

Und zweitens hat ein privates Unternehmen rein gar nichts in der Rechtssprechung verloren.

Gast
2024-03-07, 21:33:09
Der KI-Explorer findet also Dateien, Datei-Inhalte, gewünschte Themen & Dinge nach der Maßgabe des Benutzers, egal wie unvollständig dessen Angaben sind. Dabei dürfte dies nur der Anfang sein,

Allerdings:
"Ready for Brain Transparency"
https://www.youtube.com/watch?v=hfqD5aW0X5U

Gast
2024-03-07, 21:39:40
Ist doch aber schon passiert. Die Vega-Treiber bekommen keine Spiele-Patches mehr. Selbst für 2024 neu herausgekommene HW nicht.
Wo steht das? Für einen Ryzen 7 4800H mit integrierter Vega kann man den 24.1.1 (WHQL) installieren. Werden da dann explizit für die Vegas Optimierungen deaktiviert?

Gast
2024-03-07, 21:44:13
Das sind extrembeispiele, aber im Grunde gilt: Menschen haben ein Recht auf Privatsphäre und sowas wäre eine Dauerüberwachung.

Was hat das mit Privatsphäre oder Überwachung zu tun?

OpenVMSwartoll
2024-03-07, 21:47:43
Das sind extrembeispiele, aber im Grunde gilt: Menschen haben ein Recht auf Privatsphäre und sowas wäre eine Dauerüberwachung.

Und zweitens hat ein privates Unternehmen rein gar nichts in der Rechtssprechung verloren.

Das war überspitzt und langfristig gedacht. Profile, die existieren, können theoretisch auch in die Cloud synchronisiert werden.

Und Du willst nicht, dass in einer Datenbank irgendwann einmal ein bestimmtes Flag gesetzt ist.

Denk mal dran, wodurch Zensursula bekannt wurde vor langer Zeit.

Rabiata
2024-03-07, 21:50:40
Die Frage zur KI ist auch, ob die Auswertung aller lokalen Daten auch auf dem System erfolgt und dort auch bleibt. Anderenfalls würde der Internettraffic geradezu explodieren, da ja buchstäblich jeder Festplatteninhalt ins Netz hochgeladen werden würde. Von der notwendigen Serverinfrastruktur zur Datenanalyse ganz zu schweigen. Hinzukommt, das Unternehmens so etwas nie und nimmer tolerieren könnten, wenn sensible Geschäfts- und Kundendaten in die Hände von Dritten geraten.
Und die folgende Frage:
Wenn die Auswertung auf dem lokalen System erfolgt, wie wird die Auslastung des Rechners? Ich sehe hypothetisch schon meine CPU/GPU leise vor ich hinkochen.

Hypothetisch weil ich schon zu 95% auf Linux unterwegs bin. Aktuell ist es nur Space Engineers was den 100% im Weg steht ;(

OpenVMSwartoll
2024-03-07, 22:24:06
Und die folgende Frage:
Wenn die Auswertung auf dem lokalen System erfolgt, wie wird die Auslastung des Rechners? Ich sehe hypothetisch schon meine CPU/GPU leise vor ich hinkochen.

Hypothetisch weil ich schon zu 95% auf Linux unterwegs bin. Aktuell ist es nur Space Engineers was den 100% im Weg steht ;(

KI Kerne haben bereits in einige CPUs Einzug gehalten. Die wollen doch auch genutzt werden.

jellyfish
2024-03-07, 22:38:54
Der R9-Test wäre noch spannend unter Linux. Mit dem RADV könnte sogar (emuliertes) Raytracing laufen.

Ich verwendete bis vor einem halben Jahr eine R9 390X unter Linux und Win7 und hab sie nun in einem Zweitrechner verbaut. Die Treiberunterstützung unter Linux mit Open Source amdgpu ist toll, die Gründe für das Upgrade waren lediglich, dass die neue Radeon 6650 XT im Angebot und die letzte Generation war, für die es noch Win7 Treiber gab und ich immer noch nicht auf ein neueres Windows wechseln will. Trotzdem wird das irgendwann notwendig und dann habe ich auch noch fürs neue Windows eine Graka mit der ich eine Zeit lang auskomme. Ich spiele aber so gut wie keine aktuellen Spiele.

Die R9 390X kann leider kein AV1 in Hardware dekodieren, und das ist momentan im Vormarsch. Und leider ist sie sehr stromhungrig im Vergleich zur 6650 XT, die gar nicht mal so viel schneller ist (eigentlich traurig bei den vielen Generationen, die da schon dazwischen liegen). Damals war die R9 390X trotz 290-Neuauflage ein Schnäppchen, und ich hab den Kauf nicht bereut.

Platos
2024-03-07, 23:20:24
Das war überspitzt und langfristig gedacht. Profile, die existieren, können theoretisch auch in die Cloud synchronisiert werden.

Und Du willst nicht, dass in einer Datenbank irgendwann einmal ein bestimmtes Flag gesetzt ist.

Denk mal dran, wodurch Zensursula bekannt wurde vor langer Zeit.

Ich bin ganz deiner Meinung. Ich wollte damit nur sagen, dass solche Extrembeispiel genau zum anderen führen: Nämlich das ausspionieren zu rechtfertigen.

Und ich sage: Ich will nicht in einem Überwachungsstatt/Gesellschaft leben. Verbrechen müssen auf andere Weise verhindert werden.

Was hat das mit Privatsphäre oder Überwachung zu tun?

Das durchsuchen von jeglichen Daten am PC ? Oder das Überwachen?

Muss man da noch was erklären?

OpenVMSwartoll
2024-03-08, 01:28:17
Ich bin ganz deiner Meinung. Ich wollte damit nur sagen, dass solche Extrembeispiel genau zum anderen führen: Nämlich das ausspionieren zu rechtfertigen.

[...]


Da haben wir common ground erreicht, aber die Politik oder Strafverfolgungsbehörden können ja nur den Zugriff auf etwas fordern, das vorhanden ist.

Und das Vorhandensein wird hier im ersten Schritt ermöglicht.

Leonidas
2024-03-08, 04:34:35
Weitere Punkte in diesem Umfeld:

Mir fällt als erstes ein: Wie verhindert man, dass die KI Daten abgreift, die sie nicht abgreifen soll. Paswörter, PW-Hinweise, ähnlich wichtige Daten wie Bankkonten, nicht jugendfreie Privatbilder, schützenswerte Daten fremder Personen? Schließlich ist das Ziel der KI immer, aus Benutzerfreundlichkeits-Sicht möglichst alle Daten abzugreifen.

Platos
2024-03-08, 05:40:26
Und mir fällt als erstes ein: Wieso sollte ich genau Microsoft vertrauen, diese gesammelten Daten nicht abzugreifen?

Dass Microsoft Updates per Zwang aufspielen kann (und auch tut) und somit eig. jegliche Kontrolle verloren geht, reicht mir eigentlich schon aus, um diesem Unternehmen nicht zu vertrauen.

Wenn man sich nicht mit tools aushilft, hat man de facto eigentlich keine wirkliche Kontrolle mehr über seinen Computer. Microsoft könnte jederzeit etwas aufspielen, dass ich nicht will. Es ist nicht mehr mein Gerät, sondern Microsofts.

Gast
2024-03-08, 08:54:13
Das durchsuchen von jeglichen Daten am PC ? Oder das Überwachen?

Muss man da noch was erklären?

Das macht dein PC jetzt schon, nur ohne das Buzzword KI. Das selbe macht Siri am Iphone, und GA bei Android, bzw. bei letzterem auch diverse Herstellerspezifische Lösungen.

Und ja, da muss man was erklären, was das Problem daran soll wenn dein privater PC deine private Daten durchsucht, eine Funktion die es in den Grundzügen gibt seit es PCs gibt, sogar noch viel schlimmer in 16bit Systemen gab es noch nicht mal Speicherschutz, da konnte jede Anwendung alles lesen. Nur weil auf einmal KI dabei steht ist es gaaaanz böse.

Disco_STFU
2024-03-08, 10:37:47
Und WIEVIELE haben sich stattdessen eine GTX 970 gekauft... :rolleyes:

OpenVMSwartoll
2024-03-08, 16:09:10
Das macht dein PC jetzt schon, nur ohne das Buzzword KI. Das selbe macht Siri am Iphone, und GA bei Android, bzw. bei letzterem auch diverse Herstellerspezifische Lösungen.

Und ja, da muss man was erklären, was das Problem daran soll wenn dein privater PC deine private Daten durchsucht, eine Funktion die es in den Grundzügen gibt seit es PCs gibt, sogar noch viel schlimmer in 16bit Systemen gab es noch nicht mal Speicherschutz, da konnte jede Anwendung alles lesen. Nur weil auf einmal KI dabei steht ist es gaaaanz böse.

Es ist ein massiver Unterschied, ob ein Index von Dateien erstellt wird oder ob anhand von KI plötzlich limitierte Schlussfolgerungen daraus gezogen werden können.

Bei der ersten Variante kannst Du evtl. nach allen Textdateien mit dem Inhalt Zwiebelkuchen suchen.

Variante zwei erlaubt, und hier wird daran geforscht, Deinen Schreibstil zu ermitteln. Anhand dessen bist Du, wenn dieses Profil zu MS synchronisiert wird, auch im anonymen Internet erkennbar.

Oder die Kinderbilder aus meinem Beispiel werden nun als bedenkliche Inhalte klassifiziert.

Das Ganze ist viel weitreichender, gerade wenn man über social scoring, das es in China ja schon gibt, nachdenkt. Die Möglichkeiten zum Missbrauch sollten einen nachdenklich werden lassen.

Nicht alles, was hinkt, ist ein Vergleich.

Platos
2024-03-08, 22:33:24
Und Microsoft wird dann sicher irgendwann anfangen (wollen), "anonymisierte" Daten zu sammeln, umd das Feature zu verbessern.

So fängta an, und wie es endet, sieht man beim Marketing, nur eben hier noch auch höherer Stufe.

Leonidas
2024-03-09, 04:28:22
Eigentlich müsste man nur die personalisierte Werbung mit strengen Strafen verbieten. Danach existiert seitens der Industrie kein Anlaß mehr zu solchen Datensammlungen - und dann widmet man sich wieder dem Datenschutz, da auch dieser ein pro-Argument für das eigene Produkt sein kann. Nur so lange es einen (erheblichen) finanziellen Anreiz gibt, diese personalisierten Datensammlungen anzulegen, so lange ist Datenschutz immer nur zweitrangig.

Nebenbei verliert niemand, wenn es keine personalisierte Werbung gibt. Das ganze verschiebt die Werbebudget nur, aber mehr oder weniger wird deswegen nicht Werbung gemacht.

Lehdro
2024-03-12, 16:50:29
Eigentlich müsste man nur die personalisierte Werbung mit strengen Strafen verbieten. Danach existiert seitens der Industrie kein Anlaß mehr zu solchen Datensammlungen - und dann widmet man sich wieder dem Datenschutz, da auch dieser ein pro-Argument für das eigene Produkt sein kann. Nur so lange es einen (erheblichen) finanziellen Anreiz gibt, diese personalisierten Datensammlungen anzulegen, so lange ist Datenschutz immer nur zweitrangig.

Nebenbei verliert niemand, wenn es keine personalisierte Werbung gibt. Das ganze verschiebt die Werbebudget nur, aber mehr oder weniger wird deswegen nicht Werbung gemacht.
Ist zu kurz gedacht. Gemäß dem Fall das personalisierte Werbung verboten wird: Denk an YT/Twitter, um Geld damit zu verdienen muss dir YT/Twitter Videos/Tweets mithilfe eines Algorithmus empfehlen, die du tendenziell auch anklickst/anschaust. Denn nur so kann Werbung (egal welche & wie viel) platziert werden. Das schlimme ist dass diese Algorithmen sich in gewisser weise verselbstständigen, umso weniger mal als User aktiv sucht (denk an TikTok, Twitter Feeds). Der Nutzer kann aber nur das anschauen, was auch empfohlen/angezeigt wird. Und auch nur das kann dann mit Werbung versehen werden -> ergo trainiert der Algorithmus blind, da er gar nicht wissen kann was dich so interessiert. Lösung: Du wirst anhand deines Konsumverhaltens von Videos/Tweets kategorisiert und analysiert. Nicht um dir dann bestimmte Werbung zu zeigen, sondern möglichst viel, in dem man dir möglichst viel Watchtime/Engagement nahe bringt -> mehr Zeit -> mehr Werbung. Ein "personalisierte Werbung-Verbot" bringt alleine nicht die Lösung, da es immer noch werbungstechnische Anreize gibt den User zu analysieren -> Datensammelwut geht einfach weiter. Das Ziel ist jetzt nicht mehr bestimmte Werbung an bestimmte Personen auszuliefern, sondern ihm mit möglichst viel Werbung zu bombardieren, in dem man dem User anhand seiner Daten möglichst passende Medien anbietet.

Leonidas
2024-03-13, 03:13:42
Denn nur so kann Werbung (egal welche & wie viel) platziert werden.

Nein. Tatsächlich gab es schon (viel) Werbung vor allen Algorithmen. Es geht also zweifelsfrei auch ohne.

Lehdro
2024-03-13, 15:50:50
Nein. Tatsächlich gab es schon (viel) Werbung vor allen Algorithmen. Es geht also zweifelsfrei auch ohne.
Selbst ohne Internet baut Werbung auch Algorithmen auf, nur sind diese verdammt primitiv: Wie viele Leute sehen die Werbung? Aha, also lieber ein Werbeplakat in einer viel befahrenen Durchgangsstraße anstatt einer stillen Nebengasse.

Um in Internet möglichst viel Werbung an den Mann zu bringen, ist die Zeit die der User auf der Plattform verbringt nun einmal elementar. Um rauszufinden was er mag, damit ich den User möglichst lange auf der Plattform halten kann, nutze ich Algorithmen um seine Nutzungszeit zu strecken. Dafür sammle ich Daten. Das ist doch kein Selbstzweck...