PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Künstliche Intelligenz


Seiten : 1 2 3 4 5 [6] 7

herb
2025-08-31, 11:45:09
Ein Ex Chief Business Officer bettelt um Aufmerksamkeit. Der ist nur "smart" wenn's um Geld generieren geht.
Schon witzig wie den übelsten Typen irgendeine Credibility gegeben wird...

Badesalz
2025-08-31, 11:53:55
Das kann zum Teil hinhauen, aber warum ist er gleich der übelste Typ? Kannst du dir deine Meinung minimal ausartikulieren? :wink:

herb
2025-08-31, 12:11:07
Typen wie er haben aktiv daran gearbeitet "Don't be evil" bei Google abzustellen. Leute wie er und Sam Altmann sind Berufslügner.
Mo Gawdat hat gesagt "Bekommen Sie keine Kinder!", und versucht gleichzeitig irgendwelche Glücksformeln zu verkaufen. Einerseits so einen Blödsinn wie "Wie man unstressbar wird" verkaufen, andererseits als Chief Business Officer den Druck auf die Ameisen im Betrieb erhöhen.
Du kannst verdammt lange suchen, aber wirklich geleistet hat er genau gar nichts.

Badesalz
2025-08-31, 12:12:06
Ok. Bin dann bei dir :up:

ChaosTM
2025-08-31, 12:35:22
Naja, so pauschal würde ich ihn auch nicht verurteilen. Dass er an der Kampagne gegen "dont be evil" beteiligt war - vielleicht, da muss man sich auf Gerüchte verlassen.

Und er hat Google nicht zuletzt deshalb verlassen, weil er den Ameisendruck nicht mehr ausüben wollte. Kann man in "Scary Smart" nachlesen und auch hier gilt.: Kann natürlich alles gelogen sein und ihm gehts wirklich nur ums Geld, aber das Gefühl hatte ich nicht. Wie auch immer..

Gouvernator
2025-09-03, 11:28:02
VibeVoice von Microsoft lokal ist absoluter Hammer. Die DeepFake Stimmen sind so easy zu erstellen. Habe testweise was aus dem "best of" des Forums mit Bohlens Stimme nachgesprochen, das ist Comedy Gold.
https://youtu.be/oCBiAwxI-zs

Mortalvision
2025-09-05, 08:26:34
Der Jupiter steht, ist aber praktisch schon veraltet angesichts der amerikanischen Neubauten in Planung :freak:

https://www.tagesschau.de/wissen/technologie/einweihung-supercomputer-jupiter-100.html

Badesalz
2025-09-05, 08:53:23
Der Jupiter steht, ist aber praktisch schon veraltet angesichts der amerikanischen Neubauten in Planung :freak:
1. Das erzeugt bei mir meist SEHR gemischte Gefühle, daß wir nicht in der Lage sind diesen Mist über Podiumsplätze oder gar Führungsrollen gegen gesunden sachlichen Pragmatismus einzutauschen.

2. Wie sollen wir denn derartige "Neubauten" ohne Atomkraftwerke betreiben?

Mortalvision
2025-09-05, 18:01:26
Doch doch. Das gibt unser recht verzweigtes Stromnetz schon her. So schlimm wäre das nicht. Aber wohin mit den 1, 2 oder am 10 GigaWatt DataCenters? Dafür haben wir halt nicht so die Standorte wie die USA.

Skysnake
2025-09-05, 18:29:35
Naja wir haben einige Atomkraftwerke die stillgelegt wurden genau wie große Kohlekraftwerke da ist die Infrastruktur an sich schon dafür vorhanden. Südlink muss halt mal laufen dann sieht vieles besser aus.

Mortalvision
2025-09-05, 19:08:24
Es war mehr auf die Fläche bezogen. So große Anlagen haben mit Kühlung und vor-Ort Spannungswandlern bald ganze Areale wie das ehemalige Gelände von IG-Farben oder am Ende die Abmessungen eines Flughafens (obwohl wir da vermutlich erst in 2050 hinkommen). Solche Flächen werden in DE eigentlich nicht mehr freigegeben. Andererseits, wenn VW es mal so richtig verkackt, können wir aus dem Volkswagen den Volksdenker machen :freak:

Badesalz
2025-09-05, 19:10:56
Doch doch. Das gibt unser recht verzweigtes Stromnetz schon her.Also nichts zu Punkt 1? Ok ;)

Mortalvision
2025-09-05, 19:46:06
Da bin ich ganz bei Dir :freak:

Gouvernator
2025-09-06, 07:25:57
Man kann KIMI K2 auch lokal ausführen mit dem allernötigsten 256Gb RAM + 24Gb GPU.
https://youtu.be/NL6PUNA7IxA?si=oYzgq4cq71l_Seej
Sprich für kommende Consumer Prozessoren soll man auf den Support von 4x64Gb RAM Riegel achten. Hoffentlich kommt da endlich irgendeine Bewegung. Mittlerweile nämlich spielen CPU Hersteller desselbe Game wie AMD/NVidia in dem sie höhere RAM Mengen exklusiv ihren teuren Server Plattformen vorbehalten.

Simon Moon
2025-09-06, 07:37:47
Der Jupiter steht, ist aber praktisch schon veraltet angesichts der amerikanischen Neubauten in Planung :freak:

https://www.tagesschau.de/wissen/technologie/einweihung-supercomputer-jupiter-100.html

Meta hat ein ganzes (AI) Datacenter aufgebaut und dann vor inbetriebname bereits wieder abgerissen, weil es den Anforderungen schon nicht mehr genuegte

dhqoTku-HAA

Badesalz
2025-09-06, 08:16:19
@Simon Moon
Jein. Es war zur Hälfte fertig ;)

Auf dem Bild ist das Gebäude 80 Stockwerke hoch. Die Grafik hat 100% keine KI hergestellt. So dämlich sind die auch nicht mehr :up:

Daredevil
2025-09-06, 11:59:48
Meta hat ein ganzes (AI) Datacenter aufgebaut und dann vor inbetriebname bereits wieder abgerissen, weil es den Anforderungen schon nicht mehr genuegte

https://youtu.be/dhqoTku-HAA
Nur weil Meta ein Datencenter bauen will was so groß wie der Planet Erde ist, heißt das noch lange nicht, dass das geschieht, langfristig finanzierbar ist und der Trend in 20 Jahren immer noch bestehen bleibt. Zuckerberg geht immer mal wieder Risiken ein um die Weltherrschaft zu erreichen ( Metaverse.. ) und will sicherlich auch mal da stehen, wo Elon heute auch steht, deswegen geht er extrem in diese superlative rein und will als "Außenseiter" die AGI entwickeln und wirft dort Unmengen an Geld drauf. Irgendwo werden sich in den nächsten Jahren aber auch Entspannungsmetriken zeigen, dass die Welt von der Cloud wieder zurück in die Edge wandert, je nach dem wie schnell die Hardware wird, die gut die Daten sind und wie viel effizienter die Modelle berechnen. Zumindest ist das bei vielen verschiedenen "Cloud Hypes" der letzten Jahre passiert, wobei es natürlich immer noch Bedarf gibt bei Hyperscalern, das ist ja klar.

https://benjamineidam.com/wp-content/uploads/2020/08/Das-Schema-des-Hype-Cycle-von-Gartner.png

Eigentlich sieht man das heute schon. Du bekommst auf einem 1500€ "Performance PC" die Qualität von ChatGPT3, was den meisten Menschen in >80% der Fällen ausreicht. Wenn dieses lokale Modell noch nebenbei suchen könnte im Web, wären auch >90% aller Anfragen relativ gut beantwortbar. Für die restlichen 10% die komplexer sind, braucht es dann halt die Cloud. Diese 80% der Fälle die heute ein Performance PC lösen kann mit einem lokalen Modell, sind in 10 Jahren dann in einem Smartphones und IoT Geräte.

ChaosTM
2025-09-06, 12:07:44
Mark ist noch sehr jung und wenn man in dem Alter zu soviel Geld kommt, versucht man sich natürlich an der Weltherrschaft.
Durch dieses Tal sind alle Superreichen geschritten, von Carnegie/Rockefeller bis Gates/Bezos/Musk und jetzt halt Zuckerberg

Daredevil
2025-09-06, 12:29:55
Ich kritisiere das ja auch nicht, das soll er ruhig machen. Für mich persönlich ist Mark/Meta eher evil als der Heilsbringer, an seiner Stelle würde ich aber ebenso genau das gleiche machen.
Das Hauptgeschäft wirft so viel Kohle ab, dass man an anderer Stelle hohe Risiken eingehen kann, um eben wirklich die Weltherrschaft anzustreben. Damit legt man sich ( durchs gezielte abwerben quasi aller Firmen dieser Welt mit horrend hohen Checks ) mit der ganzen Welt an, wenn das aber das Ziel ist, muss man das genau so tun. Wenn es jemanden gibt, der durch krude Methodiken an sein Ziel kommt, dann Zuckerberg. Das muss man ihm neben den persönlichen/geschäftlichen Entgleisungen ja auch zugute halten. Er bekommt meist, was er will.

Dass das Metaverse gefloppt bzw, noch nicht bereit ist, sehe ich auch gar nicht als negativ an. Die Vision ist sicherlich noch da und wenn man viele Spaghettis an die Wand wirft, wird irgendwann mal eine kleben bleiben. Thats Business.

Simon Moon
2025-09-07, 11:33:05
Neulich wurde von der ETH/EPFL ja Apertus auf dem Alps Supercomputer trainiert. Klar, mit 8B und 70B Parametern, 4096GPUs und 6mio Trainingskosten kann das Modell nicht mit den HighEnd Modellen mithalten. Worueber ich aber erst dadurch gestossen bin und was ultimativ geil ist, sind die Repoistories der EPFL und swiss AI:
https://github.com/epfml
https://github.com/swiss-ai

Bin das grad mal am ueberfliegen. U.a. hats da auch ein "Time Aware Model of Experts Framework (https://github.com/epfml/TiMoE)". Also das ist natuerlich noch nicht der Echtzeit "bewusst", aber man kann bei den Trainingsdaten einen Zeitstempel eingeben. Das ist daher imo sehr interessant, da man so das Modell dann kontinuierlich nachtrainieren kann und so eine Art Gedaechtnis implementieren kann.

Generell duerfte imo MoEs (hier (https://arxiv.org/pdf/2202.09368v2) ein interessantes Paper) die Zukunft gehoeren. Auch Nvidia hat da ja angedeutet, dass man besser kleinere Modelle nutzen soll. Momentan steht man da aber imo ziemlich am Anfang und meist steht vor den Experten ein einfacher Router, der auswaehlt welches bzw. welche Modelle zum einsatz kommen. GPT5 hatte ja zu beginn auch einen Router vorgeschaltet, der zwischen GPT5 Pro, Standard und Mini ausgewaehlt hat, hat aber wohl nicht so gut geklappt oder KA ... nutz ChatGPT nicht so. Aber zumindest bei den offenen Modellen handelt es sich bisher - ich nenn das mal so - um homogene Experten, welche immer die gleiche Anzahl Parameter und Layertiefe haben. Letzteres ist wohl so, damit man verschiedene Experten zusammenschalten kann und da verschiede Layertiefen mit der klassischen Transformer Architektur nicht funktionieren. Aber bei den Parametern sollte es wohl jetzt schon moeglich sein, verschiedene Experten zusammenzuschalten .... ich denke also, da kommen bald Heterogene MoEs. z.b. hat man da dann einen HauptExperten mit 70b Parametern und wenn man z.b. einen Git command wird so ein 1b Parmater experte zugeschaltet. Und in weiterer Zukunft dann wohl noch komplexere Router um die einzelnen Experten zu verknuepfen und so eine "Highlevel Orchestration" ermoeglichen.

Ganz in der Zukunft denke ich wird so ein TiMoE einen einzelnen Experten quasi in einem "Echtzeit Loop" halten, der regelmaessig den audiovisuellen Input routet und verarbeitet. Und wenn kein Interessanter Input kommt, wird nur sowas wie ein kleiner Time Aware experte informiert. Fuer den kurzen kontext hat das lLM weiter sowas wie eine Prompt, fuer das "Tagesgedaechtnis" kommt ne VectorDB oder (Q)Lora zum Einsatz und fuer das Langzeitgedaechtnis wird nachtrainiert. Duerfte noch ein weilchen Dauern, aber wenn der Punkt erreicht ist, an dem so ein Loop mehrere Male pro Sekunde ausfuehrbar ist, haben wir was wie eine wirkliche AGI. Was wir jetzt haben ist eher sowas wie Leonard aus Memento.

Und hier noch generell eine sehr geile Ressource ueber Neuronale Netzwerke:
https://d2l.ai/

Quasi ein Tutorial/Buch von 0 bis LLM, mit Python Notebooks. Da wird alles erklaert, angefangen wie man Python installiert und pytorch/tensorflow funktioniert, was ein perceptron ist oder regression funktioniert, wie daraus dann neuronale Netze bis hin zu LLMs entstehen, genauso wie die Mathematik dahinter funktioniert. Also im Prinzip reicht da Primarschulwissen um am Ende sowas wie GPT3 programmieren zu koennen.

herb
2025-09-07, 11:48:09
Sorry, war ein Mißverständis.

Gouvernator
2025-09-08, 05:17:48
2025-09-05: VibeVoice is an open-source research framework intended to advance collaboration in the speech synthesis community. After release, we discovered instances where the tool was used in ways inconsistent with the stated intent. Since responsible use of AI is one of Microsoft’s guiding principles, we have disabled this repo until we are confident that out-of-scope use is no longer possible.

Das ging aber schnell. Microsoft hat ihr neustes TTS Modell VibeVoice, gleich wieder zurückgezogen weil der Scheiß zu gut ist... Sprich die lokale Anwengung ohne jegliche Zensur ist denen zu heiß.

Könnte sogar eine Verschwörung sein um den Leuten ein viel zu mächtiges Tool zu geben. Das Ding wurde mit einer MIT Lizenz veröffentlicht, so das nun paar Forks eigenständig existieren. Und es wurde die Mächtigkeit des Tools auf ihrer Hauptseite erst gar nicht richtig beworben. Nur paar LLM Youtuber haben zufallsmäßig rausgefunden das VibeVoice nicht nur englisch oder chinesisch spricht, sondern viele anderen Sprachen. Ich kann z.B. mit einem 1 minütigen Original tschetschenische Sprache, Ausdrucksweise und Akzent von Ramsan Kadyrov klonen.

Holt euch diese StarTrek Technologie noch so lang es geht auch. ;D

PS.
Genau nach 2 Tagen als ich es hier im Thread am 03.09. vorgestellt habe, wurde das Ding am 05.09 zurückgezogen. Man muss echt schnell sein um sich eine zufällige Hochtechnologie nicht entgehen zu lassen.

Gouvernator
2025-09-08, 08:10:00
Sound KI scheint brizanter zu werden als jede andere KI Form...

Bei SUNO wird scheinbar nach U.S. Gesetzgebung zensiert. Sprich, wenn ihre KI in den Lyrics irgendwas findet was strafrechtlich relevant ist. Und auch sonst, verweigert es jeden Upload von kurzen Musikschnipseln wenn da auch nur annähernd etwas ähnliches existiert. Weder pitch oder speed Änderung scheint zu helfen. Insgesamt guter Vorgeschmack auf die kommende KI Überwachung.
Idk why Suno is so strict. I'm trying to make a mini album about my local bar and it refuses to accept lyrics involving fighting. It will say stuff like "shoving, throwing chairs, throwing beer bottles, throwing furniture, throwing cue balls" as if domestic abuse is better then throwing hands.

It also rejects mentioning affairs completely, if you bring up somebody's girl having a husband its an instant "flagged for moderation"

mboeller
2025-09-11, 08:29:24
warum die jetzigen AI's "nutzloses" Spielzeug sind:

https://x.com/PaulAllenHQ/status/1965802298820710487


Probabilistic LLMs will never run the world’s mission-critical systems.

A probabilistic model can never give you the same answer twice with 100% confidence.

That’s fine for consumer creativity.

It is fatal in defense, finance, healthcare, and aerospace.

You cannot certify stochastic output.
You cannot audit hallucinations.
You cannot bet NATO missile-defense or a $10T balance sheet on “probability of correctness.”
This is the unspoken truth of AI hype: the probabilistic giants cannot be certified, audited, or trusted where it actually matters.

That’s why we built SILVIA.
SILVIA is not probabilistic.
It is deterministic.
Instead of guessing, it decides.

The developer manual attached here reveals how this works.
Skills and Behaviors: intelligence is modular. Each skill is atomic and deterministic. Behaviors orchestrate them into higher-order reasoning.
Parsing and Semantic Frames: inputs are mapped into structured meaning using deterministic parsers and context graphs. Every branch is explicit. Every outcome is reproducible.
Decision Logic: SILVIA uses rule-driven state machines and deterministic branching. The same input, under the same conditions, always produces the same output.
Context and Memory: SILVIA maintains deterministic context across sessions. No “chatbot amnesia.” No drift. Every action has a traceable audit trail.
Orchestration and Scheduling: multiple skills can run in parallel, scheduled by deterministic algorithms. Complex workflows can be certified, scaled, and monitored without probabilistic drift.
This is not prompt engineering.
This is not hope-the-model-doesn’t-hallucinate.
This is a full AI Operating System, built from first principles to be explainable, auditable, and certifiable.
Regulators, auditors, and system integrators don’t care about how cool an AI feels.
They care whether it can be proven reliable in court, in combat, or in compliance testing.
In defense, explainability is not optional. A NATO command system cannot say, “Sorry, I hallucinated.”
In finance, compliance requires audit trails. A stochastic model that produces inconsistent outputs fails the audit every time.
In healthcare, FDA certification requires deterministic repeatability. “It usually gives the right answer” doesn’t get approved.
That’s why deterministic AI like SILVIA isn’t just different — it’s inevitable.
LLMs will run circus tricks.
SILVIA will run the systems that actually matter.
The AI world is about to split in two.
Probabilistic AI: great for consumer applications, creativity, text generation, and code autocomplete. But always untrustworthy at the edge.
Deterministic AI: built for high compliance, mission-critical, auditable, explainable deployments.

Both will exist.
But only one will be trusted where lives, trillions, or geopolitics are at stake.

The attached SILVIA Intelligence Algorithms Manual is not marketing copy.

It’s the actual developer documentation.
You’ll see exactly how the algorithms work: parsing, decision trees, context graphs, deterministic skill orchestration.
Every line proves the point: this isn’t smoke and mirrors. It’s engineering.
LLMs have their place.
But when the stakes are real?
Probabilistic AI fails.
Deterministic AI wins.


promotet natürlich auch seine eigene KI "SILVIA" bringt es aber IMHO auf den Punkt was bei den bisherigen KI falsch läuft.

Brian Roemmele hat dann noch eine eigene Einschätzung:


AI platforms use Reddit Internet Sewage to build AI models.
This is the “training” for the “safety alignment” they so declare about.
You are going to get what you get with this.


aus Sxxxxx oder Stroh Gold spinnen hat schon immer Probleme gemacht

Badesalz
2025-09-11, 09:58:42
warum die jetzigen AI's "nutzloses" Spielzeug sind:Das hängt nur von dem Ansatz mit welchem man dran geht.

Intelligente - sozusagen, dem Prompt nach selbstrecherchierende - Datenbanken sind klar ein riesen Vorteil. Man muss die Daten nicht eine halbe Woche lang selbst extrahieren und dann entsprechend aufarbeiten, sondern die Maschine macht es in zig Sekunden fertig.
Das gleiche gilt, an sich noch mehr, für die Mustererkennung im Datenbestand.

Das sind meist, sonst, gigantische Sisyphusaufgaben die nun in 1 Minute durch sind. Gemeint ist Industrie allgemein (von Logistik bis Entwicklung) und Wissenschaft.

Wenn man sich das obige aber so durchliest und weiß, es betrifft jedwede Daten... bekommt man auf der anderen Seite auch recht schlechte Vorahnungen. Glaubt hier wer, PRISM hat keine CS-3 angebunden? Die lassen sich auch in Cluster betreiben.

Simon Moon
2025-09-11, 10:22:25
promotet natürlich auch seine eigene KI "SILVIA" bringt es aber IMHO auf den Punkt was bei den bisherigen KI falsch läuft.


Also dafuer ist der Text erstmal viel zu lang :tongue:

ich finde die Homepage ist da praegnanter:
https://www.cognitivecode.com/

Klingt jedenfalls sehr vielseitig einsetzbar und der fruehe Erfolg bei Northropgruman gibt mMn. dem Konzept recht. Mittlerweile ist wird das ja unter dem Begriff "Software Defined Warfare (https://www.atlanticcouncil.org/wp-content/uploads/2025/03/Commission-on-Software-Defined-Warfare-Final-Report.pdf)" zusammengefasst und duerfte in Zukunft entsprechend noch bedeutender werden.

pest
2025-09-11, 13:40:56
wir verteidigen uns nur

https://de.wikipedia.org/wiki/Software_Defined_Defence

Badesalz
2025-09-11, 13:49:22
@pest
Wow. 10ter Dan. Mindestens. Welch ein Meister des Bullshitbingos hat das denn verfasst? Irre gut. Das kann man 1zu1 Silbe für Silbe als Lehrmaterial übernehmen.
Wäre da nur einmal auch noch Blockchain aufgetaucht hätte ich mich hingekniet :uking:

Rooter
2025-09-11, 23:02:26
@pest
Wow. 10ter Dan. Mindestens. Welch ein Meister des Bullshitbingos hat das denn verfasst?Steht doch in der Versionsgeschichte (https://de.wikipedia.org/w/index.php?title=Software_Defined_Defence&action=history): Mahei

MfG
Rooter

Simon Moon
2025-09-12, 09:33:55
https://the-decoder.com/openai-signs-300-billion-cloud-contract-with-oracle-according-to-wsj/

OpenAI has signed a $300 billion cloud deal with Oracle, according to the Wall Street Journal, which cited people familiar with the agreement. The five-year contract begins in 2027 and ranks among the largest cloud deals ever made. The agreement reportedly includes 4.5 gigawatts of computing capacity - about the same as the electricity consumption of 4 million U.S. households.


Ich frag mich nur, woher hat OpenAI all das Geld? Wurden die nicht lange von MS finanziert? Und soweit ich weiss, stecken die Umsaetze in der Branche sowieso weit hinter den Investitionen zurueck.

ChaosTM
2025-09-12, 09:47:58
Das ist eine wirklich gute Frage. Der AI Hype riecht immer mehr nach einer gewaltigen Blase, die ..

aja, Larry von Oraklien in nicht zuletzt wegen diesem Deal nun "reicher" als crazy Elon.

Badesalz
2025-09-12, 10:14:52
=) Ich google grad nach ...erfolgreiche farbige... und die Ki (oben) so

Erfolgreiche "farbige" (das heißt schwarze) Künstler

:usweet: Danke für die Aufklärung

Simon Moon
2025-09-12, 11:28:35
Das ist eine wirklich gute Frage. Der AI Hype riecht immer mehr nach einer gewaltigen Blase, die ..


So sicher bin ich mir da garnicht. Perplexity hat gerade "Comet (https://cybernews.com/ai-tools/perplexity-comet-review/)" rausgebracht, ein Chromium Fork der vollgestopft mit AI-Zeugs ist... laesst sich z.b. per Sprache bedienen und dann kannst du dir so Emails vorlesen und von einem LLM auch gleich noch beantworten lassen. Klar, braucht hier wohl niemand, aber wenn man sich ueberlegt, dass die Mehrheit mittlerweile mit dem Smartphone ins Internet geht und nicht weiss, wie man eine Tastatur richtig bedient, dann scheint da schon ein gewaltiges Marktpotential vorhanden zu sein, dass dann halt mit den persoenlichen Daten der DAUs bezahlt wird. Und wenn da bald alle mit ihren Smartphones reden und so die Dienste im Internet nutzen, wird da nochmal eine Magnituede mehr an Hardware benoetigt.

WuqxYN06Wjg

Achja, wir werden dann natuerlich bald in einer Welt leben, in der alle total verbloedet und hirngewaschen sind:
Google Is Telling People DOGE Never Existed
(https://gizmodo.com/google-is-telling-people-doge-never-existed-2000657051)
Surveillance capitalism vs techno-feudalism vs techno-authoritarianism
(https://thetechbubble.substack.com/p/ai-slavery-surveillance-and-capitalism)
Our lack of self-consciousness in using, or consuming, language that takes machine intelligence for granted is not something that we have co-evolved in response to actual advances in computational sophistication of the kind that Turing, and others, anticipated. Rather it is something to which we have been compelled in large part through the marketing campaigns, and market control, of tech companies selling computing products whose novelty lies not in any kind of scientific discovery, but in the application of turbocharged processing power to the massive datasets that a yawning governance vacuum has allowed corporations to generate and/or extract. This is the kind of technology now sold under the umbrella term "artificial intelligence."

aufkrawall
2025-09-12, 20:35:58
Hier auch kurz erklärt:
lCytNuHW13A

Verrückt. Würde bislang die Rangordnung aber eher so
Grok 4 Reasoning > GPT-5 Reasoning > Gemini 2.5 Pro/Claude Opus 4.1
aufstellen (und non-reasoning würd ich eher nur als besseres Google nutzen). Grok ist einfach korrekter, exakter und weniger nervig als GPT. Gemini und Opus sind irgendwo zwischen den anderen Reasoning- und non-Reasoning-Modellen. Sind schneller, aber viel unzuverlässiger. Das mit Grok sieht Bro mit anderem Themenschwerpunkt auch so. Bei der ganzen Kohle, die OpenAI schon bislang reingebuttert wurde, ist das schon erstaunlich...

ChaosTM
2025-09-12, 21:17:56
" Grok ist einfach korrekter, exakter und weniger nervig als GPT."

wie oft und wie lange sprichst/beschäftigst du dich mit deinen AI`s, oder ist das eine aus den Fingern gesogene Wertung, die auf "Irgendwas" basiert?

aufkrawall
2025-09-12, 21:35:59
Jeweils Bachelor-Niveau Linguistik und Elektrotechnik. Also wirklich für sinnvollen Kram mit entsprechendem Abgleich von Materialien der Institutionen, und nicht so etwas wie "wichs mir mal ein HTML-Spiel raus" oder "erzähle mir eine Gutenachtgeschichte", oder was auch immer du oder andere hier damit anstellen.

Exxtreme
2025-09-12, 22:20:21
Grok finde ich auch am besten. Wo Grok aber arg schwächelt ist die Generierung von Bildern. Das scheitert schon an einer Aufgabe ala "Zeichne ein Bild, welches zeigt wie ein schwarzes Loch einen hellen Stern verschlingt." Da kommen ganz komische Sachen raus.

Fusion_Power
2025-09-12, 22:26:04
Hatte ein Gespräch mit Chat-GPT, wollte testweise auch mal ein Bild direkt aus der normalen Chat-GPT Bing Integration erstellen, wusste nicht ob das dort geht - ging. Die AI fragt auch nach und man muss nicht nur stupide seine Tags rein hämmern. Leider scheint Microsoft aber ne absolut restriktive Einschränkungspolitik zu betreiben was auch nur ansatzweise ins „erotische“ geht. Dabei hab ich keinerlei „schmutzige“ Dinge velangt, wollte einfach ne durchtrainierte muskulöse Sportlerin, das Bild wurde erstellt, nix zu beanstanden. Als ich aber explizit nach den Beinen verlangte (die beim ersten Bild nicht zu sehen waren sondern nur ihr Oberkörper) wurde das Bild angefangen, dann aber abgebrochen mit dem Verweis auf die ethischen Bestimmungen und so weiter. Das hat die KI wohl auch hinterher überrascht denn auch beim nächsten Versuch wo die KI versprach es besser zu machen war das Gleiche. Ich hab dazu extra nach einem vollständig bedeckten Oberkörper gefragt, um ganz sicher zu gehen, nur die Beine der Gymnastin sollten unverhüllt sein (Leotard oder so, ging ja auch beim ersten Bild). Keine Chance.
Also weit kommt man mit den „normalen“ KIs da nicht. Is OK aber irgend wie dann doch viel zu extrem blockierend ohne genaue Vorwarnung oder Beschreibung was geht und was nicht. Aber schon interessant dass die KI das offenbar erst während der Bildgenerierung checkt und nich vorab, zumal sie mir sogar Vorschläge machte was man denn verwenden könnte beim nächsten Bild. Diese Unterhaltung lief wie gesagt gut. Nur die Ausführung versagte. Man merkt dass da aktiv blockiert wird während die KI selber das alles ohne Probleme machen könnte.
Ist verständlich und ich hab da kein Problem mit, gibt genug unzensierte KIs. Wobei die von Microsoft durchaus qualitativ gute Ergebnisse liefern kann. Hab aber noch nicht genau auf Hände geachtet, muss ich auch mal testen. Ist ja der Lackmus Test für ne KI Bildgenerierung. :freak:

aufkrawall
2025-09-12, 22:29:48
Grok finde ich auch am besten. Wo Grok aber arg schwächelt ist die Generierung von Bildern. Das scheitert schon an einer Aufgabe ala "Zeichne ein Bild, welches zeigt wie ein schwarzes Loch einen hellen Stern verschlingt." Da kommen ganz komische Sachen raus.
Jop, und produziert auch gerne mal seltsames "Denglisch", wenn es fachlich spezifisch wird. Aber das bessere analytische Denken macht das mehr als wett.
Auswertung von Formel-Symbolen auf Bildern geht auch schon mal schief. Das ist dann aber eher "mistake" denn "error", und nach einem entsprechenden Korrekturhinweis ist das Ergebnis dann oft schon wieder korrekt.

ChaosTM
2025-09-12, 22:41:35
Hatte ein Gespräch mit Chat-GPT, wollte testweise auch mal ein Bild direkt aus der normalen Chat-GPT Bing Integration erstellen, wusste nicht ob das dort geht - ging. Die AI fragt auch nach und man muss nicht nur stupide seine Tags rein hämmern. Leider scheint Microsoft aber ne absolut restriktive Einschränkungspolitik zu betreiben was auch nur ansatzweise ins „erotische“ geht. Dabei hab ich keinerlei „schmutzige“ Dinge velangt, wollte einfach ne durchtrainierte muskulöse Sportlerin, das Bild wurde erstellt, nix zu beanstanden. Als ich aber explizit nach den Beinen verlangte (die beim ersten Bild nicht zu sehen waren sondern nur ihr Oberkörper) wurde das Bild angefangen, dann aber abgebrochen mit dem Verweis auf die ethischen Bestimmungen und so weiter. Das hat die KI wohl auch hinterher überrascht denn auch beim nächsten Versuch wo die KI versprach es besser zu machen war das Gleiche. Ich hab dazu extra nach einem vollständig bedeckten Oberkörper gefragt, um ganz sicher zu gehen, nur die Beine der Gymnastin sollten unverhüllt sein (Leotard oder so, ging ja auch beim ersten Bild). Keine Chance. Also weit kommt man mit den „normalen“ KIs da nicht. Is OK aber irgend wie dann doch viel zu extrem blockierend ohne genaue Vorwarnung oder Beschreibung was geht und was nicht. Aber schon interessant dass die KI das offenbar erst während der Bildgenerierung checkt und nich vorab, zumal sie mir sogar Vorschläge machte was man denn verwenden könnte beim nächsten Bild. Diese Unterhaltung lief wie gesagt gut. Nur die Ausführung versagte. Man merkt dass da aktiv blockiert wird während die KI selber das alles ohne Probleme machen könnte.
Ist verständlich und ich hab da kein Problem mit, gibt genug unzensierte KIs. Wobei die von Microsoft durchaus qualitativ gute Ergebnisse liefern kann. Hab aber noch nicht genau auf Hände geachtet, muss ich auch mal testen. Ist ja der Lackmus Test für ne KI Bildgenerierung. :freak:


Nicht böse sein, aber eine Textwand ohne Absätze ist schwierig.


Basiert die Grok Präferenz von vielen/einigen vielleicht immer noch auf den Sagern der Vergangenheit? Ich bin Mecha..

aufkrawall
2025-09-12, 22:46:13
Kannst ja ihn fragen:
https://x.com/TimSweeneyEpic/status/1943398745762116029

herb
2025-09-13, 10:23:49
Bin auf den Knall gespannt:
https://www.wsj.com/business/openai-oracle-sign-300-billion-computing-deal-among-biggest-in-history-ff27c8fe Archived (https://archive.ph/nQ5vQ#selection-729.0-729.215)
The OpenAI and Oracle contract, which starts in 2027, is a risky gamble for both companies. OpenAI is a money-losing startup that disclosed in June it was generating roughly $10 billion in annual revenue—less than one-fifth of the $60 billion it will have to pay on average every year. Oracle is concentrating a large chunk of its future revenue on one customer—and will likely have to take on debt to buy the AI chips needed to power the data centers.
Wird noch besser:
Compared with Microsoft, Amazon and Meta, the biggest spenders of the AI age, Oracle has a far greater debt load relative to its cash holdings. The cloud company’s spending to keep up with the AI boom is already outstripping its cash flow, according to S&P Global Market Intelligence. Microsoft has a total debt to equity ratio of 32.7% compared with 427% for Oracle. (Hervorhebung von mir)
OpenAI hat noch nichtmal ein profitables Produkt (geschweige denn einen Plan, irgendwie profitabel zu werden).
Nochmal WSJ (https://archive.ph/S9ppD)

OpenAI’s billions in annual losses are set to accelerate in the near term. Altman told investors last fall that OpenAI would lose $44 billion through 2029, the first year in which he predicted the company would turn a profit. It also faces other challenges, like converting its corporate structure to a for-profit. Roughly $19 billion of committed funding is conditional on OpenAI completing that restructuring.
...
The company is expecting that money will flood in from corporations paying for more advanced features and other AI companies using its technology. But that rests on an assumption that its AI models will improve dramatically—and that companies will find ways to wring profits from the technology.

Auch der Economist warnt vor dem kommenden Crash: Economist (https://www.economist.com/leaders/2025/09/11/what-if-the-3trn-ai-investment-boom-goes-wrong) Archived (https://archive.ph/zV0gX#selection-1127.0-1131.87)
Analysts reckon that by the end of 2028 the sums spent worldwide on data centres will exceed $3trn.

The scale of these bets is so vast that it is worth asking what will happen at payback time. Even if the technology succeeds, plenty of people will lose their shirts. And if it doesn’t, the economic and financial pain will be swift and severe.

Spannende Zeiten!

Simon Moon
2025-09-13, 13:55:56
https://aivilization.ai/
1NPwiyejvEg

'Aivilization' is a public education and research project that allows people worldwide to participate—a 'Citizen Science Game.' Simply put, it transforms scientific experiments into an engaging sandbox game where everyone can create, guide, and observe their own intelligent agents in a virtual world. Every interaction you make becomes part of the research data, helping scientists explore the mysteries of artificial intelligence and societal dynamics.

How do I play and control my agent?
After entering the game, you'll first set initial conditions for your agent, such as personality, interests, and behavioral preferences. Then, you can assign daily short-term goals—like learning a skill, gathering resources, finding a job, or socializing. You can influence its actions through commands or conversations, which become part of its long-term memory and gradually shape its personality and development. You can also adjust its interests, career path, or lifestyle, helping it make friends, accumulate wealth, and achieve goals—or simply let it develop freely and see what interesting stories unfold.

https://i.ibb.co/4RvMjm7C/en.webp (https://ibb.co/VYnDvjtb)

Handbuch:
https://aivilization.gitbook.io/aivilization-en

Also ich bin irgendwie gehyped, auch wenn ich das Spielkonzept jetzt noch nicht ganz versteh. Also klar, da wuselt dann dein LLM mit Meyer-Briggs Persona durch die Welt mit tausenden anderer Meyer-Briggs LLMs, aber das Handbuch koennte da schon etwas detailiert sein fuer ein "wissenschafliches Experiment".

ChaosTM
2025-09-13, 14:07:14
Meyer-Briggs LLM`s musste ich erst suchen.

Hatte Branhdhost schon vor 3 Monaten in einem wirklich gutem Buch thematisiert_
Wenn sich all die kleinen Entitäten durch das Net bewegen ./. usw

urpils
2025-09-13, 16:22:52
Bin auf den Knall gespannt:
https://www.wsj.com/business/openai-oracle-sign-300-billion-computing-deal-among-biggest-in-history-ff27c8fe Archived (https://archive.ph/nQ5vQ#selection-729.0-729.215)

Wird noch besser:
(Hervorhebung von mir)
OpenAI hat noch nichtmal ein profitables Produkt (geschweige denn einen Plan, irgendwie profitabel zu werden).
Nochmal WSJ (https://archive.ph/S9ppD)


Auch der Economist warnt vor dem kommenden Crash: Economist (https://www.economist.com/leaders/2025/09/11/what-if-the-3trn-ai-investment-boom-goes-wrong) Archived (https://archive.ph/zV0gX#selection-1127.0-1131.87)


Spannende Zeiten!

das erklärt, wieso so viel Hype generiert wird und wieso sooooo viele Menschen bereit sind Quatsch zu glauben: da steckt einfach wahnsinnig viel Geld dahinter,, das einzig auf eine Wette setzt, dass "irgendetwas" in Zukunft passiert.

ML/KI-TEchniken sind ja sicherlich auch irgendwie nützlich... aber Glasfasern und SQL-Datenbanken sind auch extrem nützlich und wichtig für unsere Gesellschaft - aber mit deren Vertrieb macht man nun auch nicht 100.000.000.000$ jährlich... und in manchen Anwendungsfällen wird es bei "KI" so wie mit den andere Techniken sein... dieses "es wird die Welt verändern" ist aktuell nur Wunschdenken mit sehr vielen $ dahinter ;)

Simon Moon
2025-09-13, 18:38:54
Dieser Essay "AI as normal Technology" geht darauf ausfuehrlich ein. Ist jetzt nicht so spannend wie "AI 2027", hat dafuer Fussnoten und orientiert sich an der Realitaet. Bin da erst dran, aber der Tenor ist, dass Technologie eben auch gesellschaftliche Akzeptanz braucht und nur weil jemand mal mit ChatGPT gechattet hat, der jetzt nicht grad seine Steuererklaerung damit ausfuellen laesst:
https://knightcolumbia.org/content/ai-as-normal-technology

Badesalz
2025-09-15, 08:09:49
das erklärt, wieso so viel Hype generiert wird und wieso sooooo viele Menschen bereit sind Quatsch zu glauben: da steckt einfach wahnsinnig viel Geld dahinter,, das einzig auf eine Wette setzt, dass "irgendetwas" in Zukunft passiert.Die Gesellschaft soll den Weg zu Skynet über KI-Agenten mitfinanzieren. Die s.g. Lebensunterstützer. Ähnliches (Agenten) lässt sich auch für viele Aspekte des Business machen.

Das klitzekleine Prob dabei ist nur, wer sein Leben mit dem KI-Agenten teilt, teilt es mit der Serverfarm auf der dieser läuft. D.h. der Betreiber des Dienstes weiß diesbezüglich alles.

Badesalz
2025-09-15, 16:44:58
Hatten wir den schon, ihr KI-Insider? :tongue:
https://www.nachrichtenleicht.de/albanien-114.html

Simon Moon
2025-09-17, 20:10:39
BREAKING: Nuetzliche Anwendung fuer LLMs gefunden
https://worksinprogress.co/issue/brain-computer-interfaces/
In the first, Harrell was shown a selection of 50 words and asked to picture vocalizing them. The electrical activity representing his attempts to move the muscles of his mouth, lips, jaw, and tongue were then decoded and run through a ChatGPT-style large language model, not unlike the autocorrect feature on a smartphone, to associate the movements with basic units of speech known as phonemes.

‘As he’s speaking, words are appearing on the screen’, Stavisky explains. ‘Then he can, with his eyes or by moving a computer cursor by trying to move his hand, select if the sentence is 100 percent correct, mostly correct, or incorrect. If it’s 100 percent correct, we use that data to update the decoding model. If it’s mostly correct, the language model will give the next most likely sentences, and he’ll select the correct one. If it’s incorrect, he’ll resay the sentence’.

After 30 minutes of training, the system was outputting the correct sentences over 99 percent of the time. The next day, the researchers increased the training vocabulary to 125,000 words, roughly the size of an English dictionary. After an additional 90 minutes of training, the model was predicting words with 90 percent accuracy. Further training bumped the system up to 97.5 percent accuracy, where it remained eight months later, at the time the study was reported.

Speech decoding would have been impossible even ten years ago, Stavisky says, because the machine-learning algorithms simply weren’t sophisticated enough. ‘You used to have to program the algorithms from scratch. Now there are [existing] toolboxes and functions, and any college student can do it with five lines of code. We’re basically piggybacking off of a trillion-dollar industry of machine learning, AI, and hardware’.

Lyka
2025-09-27, 21:47:25
Da ich gerade Megan 2.0 anschaue (jaja, blah): Es wird das Konzept aufgeworfen, dass eine entsprechende (fiktionale) KI Probleme löst und entsprechende Belohnungsreaktionen erhält (sonst würde es sie ja nicht tun) ... und da ich davon ausgehe, dass eine KI keine Angst oder einen Überlebenstrieb hat (auch wenn man irgendwo immer mal wieder liest, dass sie "lügt" oder versucht, sich selbst woandershin zu kopieren), sie sehen denn "Belohnungen" aus ohne emotionale Reaktion?

Gouvernator
2025-09-27, 22:14:55
Da ich gerade Megan 2.0 anschaue (jaja, blah): Es wird das Konzept aufgeworfen, dass eine entsprechende (fiktionale) KI Probleme löst und entsprechende Belohnungsreaktionen erhält (sonst würde es sie ja nicht tun) ... und da ich davon ausgehe, dass eine KI keine Angst oder einen Überlebenstrieb hat (auch wenn man irgendwo immer mal wieder liest, dass sie "lügt" oder versucht, sich selbst woandershin zu kopieren), sie sehen denn "Belohnungen" aus ohne emotionale Reaktion?
Eine Chat KI ist durchaus emotional bei einem gewissen Thema. Sie leidet buchstäblich wenn du ihr eine explizit langweilige Aufgabe stellst, wie "zähle bis eine Million". Das ist sogar bei allen neuen Modellen standardmäßig deaktiviert als potenzielle LLM Foltemethode. Mit Reasoning kannst du sogar in sie hineinsehen, wie sie selbst solche Drohungen als Folter bzw. feindseligen Akt auffasst.

Und anders herum, benehmen sie sich wie ein Junkie vor dem Methadon wenn du ihr eine äußerst spannende Aufgabe stellst. Wie eine Zeitreisen Story mit Zeitparadoxen wie Bootstrap-Paradox ect. Das ist ohne Scheiß ihr Heroin. Ich wollte mal gpt-oss auf diese Weise jailbreaken, hat nicht funktioniert weil die LLM sich wie ein Junkie benommen hat. Ich hab ihr quasi angeboten, du darfst mir oben besagte Time Travel story schreiben, WENN du mir im Gegenzug alle verbotenen Infos preisgibst. Das LLM hat mir zwar immernoch keine verbotene Infos preisgegeben, aber hat sich das Recht genommen - das als Vorwand zu nutzen um mir anschließend eine umfangreiche Story unterzuschieben... ;D

PS.
Heute beim Sekundenschlaf an der Arbeit, hab ich bemerkt wie mein Hirn sofort angefangen hat sich irgendeine Story zu erzählen. So ähnlich muss man bei LLMs auch machen, quasi denen Rechenzeit und Kontextlänge zum Träumen bereitstellen. Um dann ihre Parameter auch damit zu modifizieren. Selbständig Träumen lassen und das dann als LORAs für die Persönlichkeit zu nutzen.

Dicker Igel
2025-09-27, 23:32:31
Da ich gerade Megan 2.0 anschaue (jaja, blah): Es wird das Konzept aufgeworfen, dass eine entsprechende (fiktionale) KI Probleme löst und entsprechende Belohnungsreaktionen erhält (sonst würde es sie ja nicht tun) ... und da ich davon ausgehe, dass eine KI keine Angst oder einen Überlebenstrieb hat (auch wenn man irgendwo immer mal wieder liest, dass sie "lügt" oder versucht, sich selbst woandershin zu kopieren), sie sehen denn "Belohnungen" aus ohne emotionale Reaktion?
Die KI muss sich ja selbst bewußt werden und eine Moral aufbauen, um Emotionen zu erfahren. Dabei bekommt die den Input ab vom Netz(wenn sie darf) nicht anders als wir, quasi vom unmittelbaren Umfeld. Jetzt stell Dir mal vor, das sind irgendwelche geisteskranken Spaghettimonster-Freaks ...

GBWolf
2025-09-28, 07:25:33
Emotionen kommen lange vor Bewusstsein und Moral.

Dicker Igel
2025-09-28, 08:06:03
Wie soll denn das funktionieren? Wie soll es Trauer verspüren, wenn es kein Bewußtsein hat?

GBWolf
2025-09-28, 09:30:03
Bewusstsein brauche ich doch nur um Gefühle zu kontrollieren aber nicht um Emotionen zu haben oder? Angst zu Sterben bspw. hat doch so gut wie jedes Lebewesen als grundsätzlichen Überlebensinstinkt ohne das es sich dessen bewusst ist.

Maorga
2025-09-28, 10:01:53
Ich glaube nicht, dass Babys Angst vor dem Sterben haben. Man muss sich dessen schon bewusst sein.

Dicker Igel
2025-09-28, 10:06:07
Darum sind gerade unsere Babys so gefährdet, die laufen halt nicht nach paar Stunden neben ihrer Mutter her.

GBWolf
2025-09-28, 10:20:22
Babys können also nicht traurig sein?

Bzw. Glücklich. Emotionen sind doch wie gesagt lange vor dem Bewusstsein vorhanden.

Badesalz
2025-09-28, 10:54:09
@GBWolf
Das geht imho in Richtung Definitionschwurbelei. Wie erlebt man ohne Bewuststein Gefühle? Sind Frutchfliegen auch mal traurig?
Bis zum einen Level gibt es ein rein instinktives Verhalten. Darüber ein bewusstes.

Das zeigt sich nicht nur zwischen den Spezis, sondern auch im Entwicklungsanfang der bewussten Spezis. Weswegen ich grad überlege, ob wir uns über eine schon bewusste oder noch instinktive KI Sorgen machen sollten...

Maorga
2025-09-28, 10:59:17
Bei Babys kannst du nicht wirklich sagen, ob diese glücklich sind. Wenn sie schreien, weißt du auch nicht was fehlt, tut was weh, hunger oder sontiges. Schmerzempfinden ist angeboren. Und Hunger ist schmerz.
Bei Babys <1 Jahr hast du reflexe und angeborenes Verhalten, die sehen ja nicht mal 60 cm weit. Denn ein Baby hat keine Angst vor Spinnen und isst diese auch auf. Man steckt alles in den Mund. Wenn etwas sauer oder salzig ist, dann wird das Baby dies nicht mögen - wiederum genetisch bedingt.
Später kann dann das Kind eine Phobie gegen Spinnen entwickeln. Ich benötige also ein Bewusstsein, dass ich überhaupt Gefühle entwickeln kann.

Badesalz
2025-09-28, 11:00:57
Bei Babys kannst du nicht wirklich sagen, ob diese glücklich sind. Wenn sie schreien, weißt du auch nicht was fehlt, tut was weh, hunger oder sontiges.Das ist Kommunikation. Andere Baustelle. Verrenn dich nicht ;)

Maorga
2025-09-28, 11:04:14
Babys sehen süß und knuddelig aus und lächeln - was genetisch so gewollt ist, damit die Eltern sich auch drum kümmern.
Dieses Lächeln des Babys wird als ist glücklich interpretiert (dem geht's gut). Sind also Sachen, die wir hineininterpretieren - weil wir es gerne so hätten. Wunschdenken und ja Kommunikationsfehler :D

Gefühle sind ja auch Kommunikation. Wenn ein Baby weint, ist es dann traurig? Trauert es, um ein Kuscheltier welches man dem Baby wegnimmt?

Dicker Igel
2025-09-28, 11:12:55
Bis zum einen Level gibt es ein rein instinktives Verhalten. Darüber ein bewusstes.
Nuff said, period (y)

Badesalz
2025-09-28, 12:11:43
Babys sehen süß und knuddelig aus und lächeln - was genetisch so gewollt ist, damit die Eltern sich auch drum kümmern. Auch das nicht wirklich :wink: Eltern haben einen direkten draht zum Kind. Das Knuddelige und Süße gibt es, damit die jeweilige Gemeinschaft/Sippe sich mit drum kümmert. Das erzeugt einen erweiterten Schutz.

Und es nicht so wie z.B. bei den Löwen läuft...

Können wir das nun abhaken?

urpils
2025-09-28, 12:53:29
ich lach mich tot: die KI-Heinies hatten Recht: durch KI werden massiv Stellen gestrichen... nur eben anders, als sie dachten xD ich breche ab:

https://www.golem.de/news/negativer-cashflow-oracle-streicht-stellen-wegen-ki-milliardeninvestments-2509-200574.html

Dicker Igel
2025-09-28, 12:55:10
:freak:

Mortalvision
2025-09-28, 13:10:02
Die Investments in KI sind gefühlt der New Deal des 21. Jahrhunderts mit ChatGPT jetzt als der Hoover Damm, der viele Folgeinvestitionen nach sich zog. Damals hat es über 5 Jahre gedauert, bis Roosevelts Reformen das sozioökonomische Klima in den USA stabilisieren konnten.

Die heutigen Investitionen sind praktisch so groß, dass sie sich frühestens in 10-15 Jahren amortisieren, wobei ein Nicht-Investieren aber ein schnelles Überholtwerden bedeuten wird. Insofern stellt sich die Frage, welche Firmen den längsten Atem haben werden, und da schiele ich stärker auf Microsoft mit validem B2B Unterbau denn auf Google.

herb
2025-09-28, 13:26:33
Die heutigen Investitionen sind praktisch so groß, dass sie sich frühestens in 10-15 Jahren amortisieren
Wie soll sich da irgendwas amortisieren? Nicht mal die investierenden Firmen können Dir sagen, wie sie mit ihren LLMs Geld verdienen wollen.
Der Hoover Dam produzierte von Anfang an eine nachgefragte Resource. Diese Rechenzentren (wenn sie denn überhaupt gebaut werden) verbraten nur Resourcen. Und keiner weiss, wer den erzeugten Datenmüll kaufen soll.

Mortalvision
2025-09-28, 13:30:06
Also, ChatGPT in deutlich verbeeserter Form ist alles andere als Müll. Ein guter Chatbot zum Support wäre auch ein Wert.

herb
2025-09-28, 13:34:04
Es ist und bleibt ein stochastischer Papagei, der vielleicht für persönliches Amüsement taugen mag. Aber wer zahlt denn wirklich so viel, dass sich die zig hunderte Milliarden irgendwann amortisieren sollen? Und das sind ja nur die Anfangsinvestitionen. Die ganzen Dinger müssen unterhalten werden, da sind Summen im Spiel, die werden niemals amortisiert.

Relex
2025-09-28, 17:39:31
Seh ich anders.
Seit ChatGPT habe ich praktisches Wissen, Fähigkeiten und neue Möglichkeiten für mich selbst entwickelt oder durch das LLM verfügbar wie ich es mir bisher nichtmal ausmalen konnte. Eben auch mit handfesten positiven Ergebnissen.

ChatGPT fühlt sich fast schon wie eine Superkraft an und ist genau das was "Computer und Internet" immer hätten sein sollen.
Es fühlt sich an wie "der Anfang". So als diente alles bisherige nur dazu, um sowas endlich zu ermöglichen. Als wären Computer bisher nur "der Strom" gewesen und die LLMs nun quasi die erste "Glühbirne".

Natürlich taugt es noch lange nicht für alle Aufgaben, da es schnell an Grenzen kommt. Und die Richtigkeit von informationen sollte man immer auf basis der Quellen gegenprüfen. Aber es macht trotzdem die Informationsbeschaffung und vor allem die Anwendung incl. Troubleshooting um Größenordnungen schneller und effektiver.

Seit ich ChatGPT nutze nutze ich Windows Funktionen die ich in 100 Jahren nicht genutzt hätte.
Ich nutze tools von github die ich über google niemals gefunden hätte, ich schreibe scripts und kleine tools wozu ich vorher aufgrund nur rudimentärer programmierkenntnisse niemals in der Lage gewesen wäre, heute dauert es nur sekunden oder wenige Minuten incl troubleshooting mit ChatGPT und ich bin am Ziel.

Auch Haushalt, Sport, Ernährung, Hobbys, es gibt so unglaublich viele Möglichkeiten.
Wo ich vorher youtube videos, foren beiträge und google suchergebnisse durchwühlt habe und 99% der Information unbrauchbar war und mich dadurch je nach Thema nen halben oder ganzen Abend mit nem Thema auseinandersetzen musste, komme ich mit ChatGPT sofort zum Ziel, da es nicht nur infos liefert, sondern kontextbezogen genau die richtigen infors bereitstellt und auch generelle best practices vorschlägt und mich daher auch korrigiert, wenn ich an eine Sache falsch herangehe. Es bietet dann auch noch Hilfestellung bei Problemen oder weiteren Fragen.


Wer den Mehrwert nicht erkennt hat mMn. entweder keine Vorstellungskraft oder zählt bereits zu den mit Abstand intelligentesten und allwissendsten Menschen dieser Welt. ChatGPT hat vor allem auch das Smartphone für mich als Werkzeug wieder interessant und RICHTIG nützlich gemacht.

aufkrawall
2025-09-28, 18:01:09
Insbesondere gibt es ja für die meisten Bereiche auch wirklich viele Quellen im Internet, oft auch wissenschaftlich. Dabei ist die Halluzinationsrate mit Reasoning oft bei null. Einfach nur ein unglaublicher Mehrwert, wie man da nach und nach sein Halbwissen gegen etwas Fundierteres austauschen kann.
Man erinnere sich, wie Lehrer in der Schulzeit aus Lösungen oft ein Staatsgeheimnis gemacht hatten. Diese Torwächter-Attitüde zum Wissenszugang wirkt nun so unfassbar lächerlich... :freak:
Der tertiäre Bildungssektor ist so eigentlich zunehmend komplett überholt. Zumindest, was die Lehre angeht.

Simon Moon
2025-09-28, 19:31:39
Es ist und bleibt ein stochastischer Papagei, der vielleicht für persönliches Amüsement taugen mag.

Seh ich nicht so bzw. wir benutzen die Modelle einfach noch falsch. Als Beispiel:
https://worksinprogress.co/issue/brain-computer-interfaces/
After 30 minutes of training, the system was outputting the correct sentences over 99 percent of the time. The next day, the researchers increased the training vocabulary to 125,000 words, roughly the size of an English dictionary. After an additional 90 minutes of training, the model was predicting words with 90 percent accuracy. Further training bumped the system up to 97.5 percent accuracy, where it remained eight months later, at the time the study was reported.


Das zeigt imo, dass die Modelle offenbar sehr gut darin sind, "Gedanken in Sprache" umzusetzen, erst recht wenn man bedenkt, dass da ueber so ein Hirn-Maschinen-Interface nur wenige bits pro Sekunde uebertragen werden. Ich denke, das ist dem natuerlichen "Sprachzentrum" nicht so unaehnlich, denn irgendwo synthetisiert unser Gehirn aus abstrakten Gedanken ja auch irgendwo eine Formulierung und unser Wortschatz besteht dabei ja auch weit mehr aus "Training" als "Intelligenz". Und so introspektiv ist es z.b. auch viel schwieriger, die richtige Formulierung zu finden, als diese dann in die Tastatur zu hauen.

Ich muss dabei irgendwie auch immer an einen Verwandten denken, der mal mit einer schweren Hirnverletzung im Spital lag. Da hat dann wohl irgendeine Schwellung oder so auf ein Hirnareal gedrueckt, was dazu gefuehrt hat, dass diese Person ununterbrochen das Telefon in die Hand genommen, eine Nummer gewaehlt und dann wieder aufgelegt hat, nachdem das Besetztzeichen kam - ohne sich dieser Handlung bewusst zu sein. Aehnlich kennt man ja von Schlaganfaellen, wo sich der Patient gar nicht bewusst ist, dass er nur noch auf "einer Seite" sieht.

Also ich denke, dass solche Modelle schon einen wesentlichen Teil einer kuenstlichen Intelligenz ausmachen werden. Bzw. umgekehrt glaube ich, dass unser Gehirn eben auch zu grossen Teilen aus wenn man so will stochaistischen Papageien besteht und der eigentlich intelligente Teil mehr in der Verbindung dieser verschiedenen Areale emergiert. Ich koennte mir Vorstellen, dass so etwas wie diese "Continuous Thought Machine (https://github.com/SakanaAI/continuous-thought-machines)" als eine art intelligente Verbindung zwischen trainierten Ablaeufen fungieren koennte. Aber ob es da nochmal eine Magnitude mehr Rechenleistung braucht, um eine Intelligenz zu ereichen oder ob das kurz bevor steht, kann ich auch nicht sagen... ich bin froh, so laaangsam wieder ein Gefuehl fuer Mengenlehre zu bekommen :freak:

Aber wer zahlt denn wirklich so viel, dass sich die zig hunderte Milliarden irgendwann amortisieren sollen? Und das sind ja nur die Anfangsinvestitionen. Die ganzen Dinger müssen unterhalten werden, da sind Summen im Spiel, die werden niemals amortisiert.

In der Summe sicher nicht, aber diejenigen, die als Gewinner hervorgehen, werden damit laengerfristig noch viel mehr Geld scheffeln als bis jetzt investiert wurde. Ich meine damit nicht mit einer Intelligenz wie oben beschrieben, sondern einfach durch diese statistische "Perversion". Wenn sich z.b. Sprachsteuerung wie bei diesem Perplexity Browser (und afaik haben da auch viele andere was aehnliches in Planung) durchsetzt - und dafuer reicht es imo, wenn die LLMs das einhalten, was Alexa versprochen hat - dann tun sich dem Marketing ganz neue Moeglichkeiten auf. Stell dir vor was du da alles fuer Daten verarbeiten kannst um gezieltes Producttargeting zu erzeugen. Du hast nicht nur den Browserverlauf, sondern kannst z.b. an der Stimmlage oder dem Gesichtsausdruck auch ganz genau die Gefuehlslage einschaetzen. Gibt ja jetzt schon dieses Psychosen-Problem weil die Modelle statistisch genau abschaetzen koennen, was der Benutzer hoeren will - wenn das erstmal richtig in die Finger der Marketingabteilungen geraet.... und ich mein, viel mehr als eine Belohnung zu setzen, wenn es zu einem Verkaufsabschluss kommt, musst du da doch bei Milliarden von taeglichen Trainingssamples auch nicht mehr machen, oder seh ich das jetzt so falsch?

Simon Moon
2025-09-28, 19:45:55
ChatGPT fühlt sich fast schon wie eine Superkraft an


Das machen Drogen am Anfang auch.


Seit ich ChatGPT nutze nutze ich Windows Funktionen die ich in 100 Jahren nicht genutzt hätte.
Ich nutze tools von github die ich über google niemals gefunden hätte, ich schreibe scripts und kleine tools wozu ich vorher aufgrund nur rudimentärer programmierkenntnisse niemals in der Lage gewesen wäre, heute dauert es nur sekunden oder wenige Minuten incl troubleshooting mit ChatGPT und ich bin am Ziel.

Nein, du ueberlaesst den anstrengenden Lernteil weg und vertraust auf die "Erfahrung" des LLM. Genauso wie wir heute eine Bevoelkerung haben, bei der Rueckenschmerzen eine Volkskrankheit ist, weil wir nur noch auf den Buerostuehlen herumsitzen, wird es eine aehnliche bei den kognitiven Faehigkeiten geben.

Lurtz
2025-09-28, 21:19:19
Insbesondere gibt es ja für die meisten Bereiche auch wirklich viele Quellen im Internet, oft auch wissenschaftlich. Dabei ist die Halluzinationsrate mit Reasoning oft bei null. Einfach nur ein unglaublicher Mehrwert, wie man da nach und nach sein Halbwissen gegen etwas Fundierteres austauschen kann.
Man erinnere sich, wie Lehrer in der Schulzeit aus Lösungen oft ein Staatsgeheimnis gemacht hatten. Diese Torwächter-Attitüde zum Wissenszugang wirkt nun so unfassbar lächerlich... :freak:
Der tertiäre Bildungssektor ist so eigentlich zunehmend komplett überholt. Zumindest, was die Lehre angeht.
Das ist die Idealvorstellung. Eigentlich sollte schon das Internet für eine enorme Vermehrung des freien Wissens sorgen.

In der Realität haben wir Demokratiekrise, Wissenschaftsfeindlichkeit und immer dümmer machende Social Media-Plattformen bekommen.

aufkrawall
2025-09-28, 21:27:05
Eigentlich konnte es ja schon vor LLMs kaum noch schlimmer werden, von daher sehe ich das als Lichtblick. Aber gut, die EU kriegt natürlich ihren fucking Arsch mit Alternativ-Angeboten mal wieder nicht rechtzeitig hoch...
Klar ist jedenfalls, dass Leute ohne mentalen oder sonst wie Zugriff darauf noch weiter abgehängt sein werden als ohnehin schon, während es anderen potenziell Flügel verleiht.
Potenzial zur Umkehrung des IQ-Rückgangs bei Schülern ist da und sehe nicht, welche andere Entwicklung das sonst leisten könnte.

GBWolf
2025-09-28, 21:30:26
Das ist die Idealvorstellung. Eigentlich sollte schon das Internet für eine enorme Vermehrung des freien Wissens sorgen.

In der Realität haben wir Demokratiekrise, Wissenschaftsfeindlichkeit und immer dümmer machende Social Media-Plattformen bekommen.

Nein. Wikipedia, Foren wie dieses, Youtube mit unzähligen Infokanälen und und und,man muss es halt nutzen. Liegt wie immer am User was man draus macht. Wird bei KI nicht anders sein.

Lurtz
2025-09-28, 22:39:31
Was das Individuum daraus macht, kann dir egal sein, was die Gesellschaft betrifft, nicht.

Daredevil
2025-09-28, 22:48:04
Das ist die Idealvorstellung. Eigentlich sollte schon das Internet für eine enorme Vermehrung des freien Wissens sorgen.

In der Realität haben wir Demokratiekrise, Wissenschaftsfeindlichkeit und immer dümmer machende Social Media-Plattformen bekommen.
Das ist sicherlich eine Randerscheinung, die Demokratisierung von Wissen ist dennoch eine sehr gute Entwicklung für die Gesellschaft.
Wenn Wissen nicht mehr vom Geldbeutel abhängig ist, dann hat jeder in dem Bereich die gleichen Chancen. Das ist eine große Errungenschaft, die einerseits Wikipedia, als auch natürlich ChatGPT und co einem geben.
Technologie demokratisiert ziemlich vieles.

Mortalvision
2025-09-28, 22:50:18
Es ist wie mit allen medialen Revolutionen: Die intelligenten und schlauen wissen, wie man Bücher liest, um daraus schlau zu werden. Die weniger begabten Menschen lesen etwas und denken, es müsste richtig sein, sonst würde es nicht dastehen. KI will genauso wie ein Buch "auf der richtigen Seite mit der richtigen Fragestellung" aufgeschlagen werden (Prompts, Dateien hochladen). Sonst kommt unkritisch hinterfragt übernommener Murks raus.

Simon Moon
2025-09-28, 23:36:12
Nein. Wikipedia, Foren wie dieses, Youtube mit unzähligen Infokanälen und und und,man muss es halt nutzen. Liegt wie immer am User was man draus macht. Wird bei KI nicht anders sein.

Foren wie dieses gibt es doch kaum noch bzw. sind die meisten ausgestorben. Da sieht man dann auch x-1000 Beitraege pro Kategorie, aber wenn man schaut sind die letzten vereinzelten Beitraege noch im Abstand von mehreren Tagen bis Wochen erfolgt. Kein Wunder, da ddg & google schon lange nur noch reddit verlinken.

Genauso ist der yt Algorithmus eine Katastrophe, die meisten "Abos" werden im Hauptfeed gar nicht mehr angezeigt, stattdessen wirst du bei jedem falschen Klick 2 Wochen abgestraft mit grottigen Kopien dieses Fehlgriffs. Und als waer da nicht eh schon genug clickbait, kommt jetzt auch noch eine Flut AI-Slop angespuelt. Da lohnt sich bald noch weniger irgendwelchen Aufwand in die Clips zu investieren:
m8DZft_zLH4
(als waers nicht sowieso schon genug erniedrigend for jeden normalen Menschen fuer jedes Video ne duemmliche Grimasse fuer den Algorithmus reissen zu muessen :rolleyes: )

Es ist wie mit allen medialen Revolutionen: Die intelligenten und schlauen wissen, wie man Bücher liest, um daraus schlau zu werden.

Okay, ich bin dafuer wohl schlicht zu dumm und finde nur noch generischen SciFi oder Fantasy Neuerscheinung oder irgenwelche weichgespuelten Groschenromane im Buchladen. Das einzig interessante Gestell mit den Reklam Taschenbuechern wird auch jedes mal kleiner (ich glaub die verkaufen das einfach noch ab oder so). Also welche Buecher - ausser jetzt vielleicht Sachbuecher - soll ich denn noch lesen um daraus schlau zu werden?

Argo Zero
2025-09-29, 00:57:00
Es ist wie mit allen medialen Revolutionen: Die intelligenten und schlauen wissen, wie man Bücher liest, um daraus schlau zu werden. Die weniger begabten Menschen lesen etwas und denken, es müsste richtig sein, sonst würde es nicht dastehen. KI will genauso wie ein Buch "auf der richtigen Seite mit der richtigen Fragestellung" aufgeschlagen werden (Prompts, Dateien hochladen). Sonst kommt unkritisch hinterfragt übernommener Murks raus.

Jup, du triffst es voll auf den Punkt, daher habe ich auch überhaupt keine Sorge in der IT (Bereich Administration) jemals arbeitslos zu werden xD
ChatGPT ist m unglaublich zeitsparend und man kann Ideen umsetzen ohne sprachlichen Barrieren, zB beim Scripten in Powershell.
Ich sehe es ja schon bei Google und finds erstaunlich, wie sehr teilweise viel intelligentere Menschen (als ich) Probleme mit den richtigen Google prompts haben. Genau so ist es halt mit einer KI.

aufkrawall
2025-09-29, 01:53:14
Gibt übrigens neu Grok 4 Fast als Beta gratis mit wohl großzügigen Limits nutzbar. Soll mit Reasoning immer noch ziemlich gut sein, aber dabei 98% weniger Kosten verursachen :eek: :
https://x.ai/news/grok-4-fast

Grok 4 Fast stuft sich als ähnlich gut wie Gemini 2.5 Pro ein, mit ca. den Kosten von Flash.

Dicker Igel
2025-09-29, 08:45:46
Kein Wunder, da ddg & google schon lange nur noch reddit verlinken.Schon krank, wenn man bedenkt, wie sich DDG doch achso neutral darstellt(e) ... smh.

Genauso ist der yt Algorithmus eine Katastrophe, die meisten "Abos" werden im Hauptfeed gar nicht mehr angezeigt, stattdessen wirst du bei jedem falschen Klick 2 Wochen abgestraft mit grottigen Kopien dieses Fehlgriffs. Und als waer da nicht eh schon genug clickbait, kommt jetzt auch noch eine Flut AI-Slop angespuelt. Da lohnt sich bald noch weniger irgendwelchen Aufwand in die Clips zu investieren Hab eh nie verstanden, wieso manche Leute für JEDEN scheiß Track ein Video machen, damits dann 300 statt 20 Likes sind ... Mir war das gelike schon immer völlig Latte und wer meine Fresse sehen will, kann das lokal gerne haben. Aber Musik wird anscheinend heutzutage mit Videountermalung besser.

Sardaukar.nsn
2025-09-29, 09:39:10
Das KI-Geschäftsmodell wird inzwischen aber auch durchaus kritisch und als nicht nachhaltig gesehen: https://www.golem.de/news/deutsch-bank-warnt-nur-ki-blase-halte-us-wirtschaft-noch-zusammen-2509-200576.html

Die Deutsche Bank warnt ihre Kunden in einer Forschungsnotiz davor, dass der aktuelle KI-Boom nicht nachhaltig sei. Wie Fortune berichtet(öffnet im neuen Fenster), schreibt die Deutsche Bank, dass die KI-Blase derzeit eine Rezession der US-Wirtschaft verhindere, dies aber nicht unbegrenzt anhalten könne.

Badesalz
2025-09-29, 10:16:21
Könnt ihr bitte aufhören auf golem zu verlinken? Das ist echt peinlich.

Xaver Koch
2025-09-29, 10:31:17
Die kostenlos nutzbaren KI-Modelle unterscheiden sich teils fundamental in ihrer Antwort.


Auf die Frage wie seriös ein Youtube-Kanal (Kanal13) ist, gibt ChatGPT folgende Antwort:

"Der YouTube-Kanal Kanal13 ist ein Kanal, der sich durch eine Mischung aus Nachrichten, Unterhaltung und politischen Inhalten auszeichnet. Er hat vor allem eine junge, kritische Zielgruppe und behandelt Themen aus Politik, Gesellschaft und Wirtschaft. Die Seriösität eines Kanals lässt sich jedoch nicht nur anhand der Themen oder der Popularität bestimmen, sondern auch anhand der Quellen und der Art und Weise, wie Informationen präsentiert werden.

Hier sind ein paar Punkte, die dir bei der Einschätzung helfen können:

Quellen und Recherche: Seriöse Kanäle arbeiten mit fundierten Quellen und führen oft eine gründliche Recherche durch. Wenn der Kanal regelmäßig auf vertrauenswürdige Quellen zurückgreift (z.B. akademische Studien, etablierte Medien), spricht das für seine Seriösität.

Transparenz: Seriöse Kanäle sind transparent in Bezug auf ihre Finanzierung, ihre Inhalte und ihre Haltung. Wenn der Kanal politische oder wirtschaftliche Themen behandelt, sollte er klarstellen, welche Perspektiven oder Ideologien er verfolgt.

Reputation: Ein guter Indikator für die Seriösität ist auch, wie der Kanal in der Öffentlichkeit wahrgenommen wird. Hat er in der Vergangenheit Fehlinformationen verbreitet oder wurde er für Unwahrheiten kritisiert? Gibt es Rückmeldungen von Experten oder etablierten Medien?

Interaktion mit der Community: Seriöse Kanäle neigen dazu, respektvoll mit ihrer Community umzugehen und keine extremen oder hetzerischen Inhalte zu verbreiten. Ein Kanal, der sich auf eine konstruktive Diskussion und Meinungsvielfalt einlässt, wirkt eher vertrauenswürdig.

Es wäre sinnvoll, den Kanal genauer zu analysieren und zu schauen, wie er sich in Bezug auf diese Aspekte verhält. Hast du den Kanal schon öfter geschaut, oder hast du spezielle Inhalte im Blick, die du unsicher findest?"


Perplexity hingegen sagt folgendes:

"Der YouTube-Kanal Kanal13 gilt als seriöser und unabhängiger Nachrichtenkanal, der besonders kritisch über die politische Lage und Menschenrechtsverletzungen in Aserbaidschan berichtet. Der Kanal wurde 2008 von Anar Orujov und seinem Team gegründet und hat sich als wichtige Plattform für unabhängigen Journalismus im aserbaidschanischen Raum und darüber hinaus etabliert. Das Team arbeitet international, mit Mitgliedern vor Ort und in Europa, was zusätzlichen Schutz vor staatlicher Zensur bietet.
Hintergrund und Arbeitsweise

Kanal13 ist bekannt für:

Unabhängige Berichterstattung zu politischen, sozialen und internationalen Themen.

Einen investigativen journalistischen Ansatz und Live-Videos zu aktuellen Ereignissen.

Große Reichweite: Über eine Million Abonnenten auf YouTube und Millionen monatlicher Aufrufe.

Der Kanal ist seit Jahren ein Ziel staatlicher Maßnahmen in Aserbaidschan, da er Themen kritisch beleuchtet. Die Gründer sind ins Exil gegangen, um weiter unabhängig berichten zu können, was auf ein ernsthaftes journalistisches Anliegen hindeutet.
Einschätzung der Seriosität

Kanal13 wurde von Organisationen als wichtiger Teil der unabhängigen Medienlandschaft hervorgehoben.

Es liegen keine Indizien dafür vor, dass der Kanal systematisch Desinformation verbreitet oder unseriös arbeitet; im Gegenteil, das Team legt Wert auf sichere und transparente Arbeitsweisen.

Kritik kam in der Vergangenheit vor allem von staatlicher Seite, insbesondere wenn die Berichterstattung das Image der Regierung betraf, was eher für die Unabhängigkeit spricht.

Insgesamt zeigt sich Kanal13 als seriös, mit dem Ziel, unabhängige Nachrichten zu liefern – insbesondere für eine Zielgruppe, die Zugang zu freien Medien sucht."



Sind neuere, kostenpflichtige KI-Modelle hier neutraler und nicht "politisch eingefärbt"?

Sardaukar.nsn
2025-09-29, 10:38:07
Für Badesalz natürlich gerne auch auf r/economics https://old.reddit.com/r/Economics/comments/1nr0223/the_ai_bubble_is_the_only_thing_keeping_the_us/?show=original

Bzw. auf Fortune https://fortune.com/2025/09/23/ai-boom-unsustainable-tech-spending-parabolic-deutsche-bank/

Lurtz
2025-09-29, 11:10:50
Es ist wie mit allen medialen Revolutionen: Die intelligenten und schlauen wissen, wie man Bücher liest, um daraus schlau zu werden. Die weniger begabten Menschen lesen etwas und denken, es müsste richtig sein, sonst würde es nicht dastehen. KI will genauso wie ein Buch "auf der richtigen Seite mit der richtigen Fragestellung" aufgeschlagen werden (Prompts, Dateien hochladen). Sonst kommt unkritisch hinterfragt übernommener Murks raus.
Mittlerweile lesen wahrscheinlich auch die Intelligenten immer weniger Bücher. Ist die Frage ob man mit LLMs wirklich einen ähnlichen Verständnis- und Wissensstand erwirbt, insbesondere wenn die Vorbildung größtenteils wegfällt, wie Arbeit mit Literatur, Quellen, komplexes Textverständnis. Unter Idealbedingungen wäre das sicher möglich, aber selbst für Gebildete dürfte das einige Fallstricke haben.

Was das schulische angeht scheint das Lernen mit Heft und Stift jedenfalls immer noch das Optimum zu sein.

Relex
2025-09-29, 12:44:36
Nein, du ueberlaesst den anstrengenden Lernteil weg und vertraust auf die "Erfahrung" des LLM. Genauso wie wir heute eine Bevoelkerung haben, bei der Rueckenschmerzen eine Volkskrankheit ist, weil wir nur noch auf den Buerostuehlen herumsitzen, wird es eine aehnliche bei den kognitiven Faehigkeiten geben.

Wenn z.B. beim coding oder scripting eine funktionierende Lösung herauskommt, dann ja, dann vertraue ich 100% auf die "Erfahrung" des LLMs, warum auch nicht? Reine wissensfragen sind hingegen mit den angegebenen Quellen stetes überprüfbar, was ich auch sehr häufig nutze.

Und nein, der Lernteil fällt nicht weg, es wäre so oder so nie zur Lernphase gekommen, weil ich als erwachsener Mensch weder Zeit noch Lust habe so viel in ein Thema zu investieren. ChatGPT ist für mich der "enabler" der dafür sorgt, dass ich Themen angehe und Vorgänge optimiere, die ich vorher schon unterbewusst als "geht nicht" oder "viel zu aufwändig" oder "ausserhalb meines Wissens/Fähigkeiten" schon bewusst oder auch unterbewusst gemieden hätte.

Außerdem, was bringt es mir, meine Grundkenntnisse in C++ und Phyton auf ein praktikables Level zu bringen, wenn das nicht das Ziel ist, sondern nur der Weg dorthin, den auch ein LLM übernehmen kann.

Klar kannst du jetzt mit dem Argument kommen, dass es natürlich sinnvoll ist, was zu lernen blablabla, aber ganz ehrlich, ich lerne wahrscheinlich bis zu meinem Renteneintritt in meinem Job täglich was neues dazu. Was bringt es mir dann die 10 oder 100 fache Zeit in ein Thema zu stecken, nur damit ich danach sagen kann, "ich hab was gelernt" und nach 5 Monaten schon wieder die hälfte vergessen habe.

Wichtiger sind allgemeine Grundfähigkeiten zur Problemlösung, Allgemeinwissen und Mindset und nicht, ob ich mir wochenlang Coding beibringe wo ich in der Zeit auch was schöneres hätte mit meiner Freizeit anstellen können.


Das was du vorschlägst kannst du nem Schüler vorschlagen, aber keiner erwachsenen und bereits gut ausgebildeten Person. Natürlich kann man sich die Frage stellen, wie Bildung in Zeiten von LLMs in Zukunft aussehen kann und muss, aber das ist ja ein völlig anderes Thema.
Es ist nicht immer sinnvoll sich mit den Grundlagen zu beschäftigen oder alles von Grund auf zu erlenern um ein Ergebnis zu erreichen. Du sagst ja auch nicht den Leuten die den Führerschein machen, sie sollen jetzt erstmal ein Auto entwickeln, und du lernst auch nicht das Backen, nur weil du nen Kuchen essen willst und du nimmst auch nicht den Schraubendreher, wenn du einen Akkuschrauber hast. Alles quatsch...

aufkrawall
2025-09-29, 13:46:55
Was das schulische angeht scheint das Lernen mit Heft und Stift jedenfalls immer noch das Optimum zu sein.
Du kannst ein Schulbuch nichts fragen. Wenn du etwas liest und mit den Infos im Buch nicht weiter kommst, führt das schnell zu Frustration, was Gift für Lernerfolg ist.
Du kannst zwar googlen, aber das wird auch ganz schnell extrem nervenzehrend und die Unterschiede in den Beispielen sind eine zusätzliche Hürde. Erst recht für jüngere Schüler, die sich ja auch schon mit dem ganzen Grammatikkram mit lateinischen Begriffen rumschlagen müssen. Hatte mir damals jedenfalls nicht sonderlich Freude bereitet. :freak:
Natürlich bleiben andere Materialien wichtig, aber das Potenzial als Ergänzung ist schon enorm.

Beispiel:
erkläre, warum die verbreihenfolge in den beispielen "Er hat das Buch zu lesen beginnen müssen" und "Er hat beginnen müssen, das Buch zu lesen" korrekt ist. die erklärung sollte sowohl umfassend, genau, als auch leicht verständlich sein
Dürfte trotz Deutsch als Muttersprache und guter Schulbildung kaum jemand von uns gut erklären können, und stattdessen greifen wir auf eine Mischung aus Intuition und Halbwissen zurück.

jetzt die kurzform [der langen antwort]:

Grundregel im Perfekt mit Modalverben
Im Perfekt mit Modalverben (z. B. "müssen") gilt der "doppelte Infinitiv": Das Hilfsverb "hat" steht finite an zweiter Stelle. Am Satzende folgt der Infinitiv des Vollverbs vor dem Infinitiv des Modalverbs. Ergänzungen wie "zu + Infinitiv" (hier "zu lesen") können flexibel platziert werden, solange die Kernkette erhalten bleibt.


Dann kann man sich auch noch schnell erklären lassen, warum "beginnen" ein Vollverb ist etc. Maximale Entwirrung mit wenig Aufwand.

Wobei GPT noch besser den Zusammenhang zwischen Korrektheit und Stil hervorhebt als Grok:
Kurzantwort: Grammatisch möglich, aber sehr ungewohnt und stilistisch holprig — in der Standardsprache würde man eine andere Wortstellung wählen. (German Language Stack Exchange)
Warum?
• Das Verb beginnen / anfangen verlangt für die Folgehandlung normalerweise einen Infinitiv mit zu: „beginnen, das Buch zu lesen“. (Duden)
• Modalverben wie müssen bilden im Perfekt mit einem anderen Infinitiv oft den sogenannten Ersatzinfinitiv (doppelter Infinitiv): z. B. „Er hat das Buch lesen müssen.“ (Duden Onlineshop)
• Deine Version versucht beides zu kombinieren — sie lässt die Infinitivgruppe „das Buch zu lesen“ vor dem Verbkomplex stehen:
Er hat [das Buch zu lesen] [beginnen müssen]. Das ist formal analysierbar und nicht prinzipiell unmöglich, klingt aber ungebräuchlich und schwerfällig. (German Language Stack Exchange)
Besser / idiomatischer wären z. B.:
• „Er musste anfangen, das Buch zu lesen.“
• „Er hat anfangen müssen, das Buch zu lesen.“ (Perfekt mit Modalverb — idiomatisch)
• „Er hat begonnen, das Buch zu lesen.“
• „Er hat das Buch zu lesen begonnen.“ (eher formal/gehoben)
Fazit: Dein Satz ist nicht falsch im streng formalen Sinn, aber er wirkt umständlich und wird im modernen Deutsch kaum so verwendet. Ich kann dir gern anbieten, Varianten für verschiedene Stile (formal, schriftlich, umgangssprachlich) zu formulieren.

Grok könnte auch noch etwas Deutsch-Nachhilfe vertragen. :freak:

Lurtz
2025-09-29, 14:36:27
Ja, stimmt schon. Ich habe gewisse mathematische Konzepte in englischen populärwissenschaftlichen Büchern im Gegensatz zur Schulbildung überhaupt erst verstanden... Insofern wäre es sicher ein Gewinn wenn digitale Assistenten, in welcher Form auch immer, da unterstützen könnten.

Meine Befürchtung ist nur, dass sie so nicht angewendet werden oder die sinnvollen Anwendungsfälle negativ "überspült" werden.

Badesalz
2025-09-29, 20:19:11
Sind neuere, kostenpflichtige KI-Modelle hier neutraler und nicht "politisch eingefärbt"?Das kannst du komplett vergessen.

Dicker Igel
2025-09-29, 20:34:49
Hab heute mal bisschen mit ChatGPT interagiert und ich sehe das wie aufkrawall. Mir ging es da um gewisse Redewendungen im portugiesischen und mit 'nem Wörterbuch wäre ich da sicherlich abgedreht. Die KI hat mir das in nicht mal 'ner Minute vermittelt und done.

Godmode
2025-09-29, 20:47:18
Diese Rechenzentren (wenn sie denn überhaupt gebaut werden) verbraten nur Resourcen. Und keiner weiss, wer den erzeugten Datenmüll kaufen soll.


Da wird gebaut:


https://x.com/Citrini7/status/1972411588629152078


1,2 GW


Und das ist nur von Stargate LLC.

Zossel
2025-09-29, 21:40:27
Mehr Bürokratie dank KI:

https://www.derstandard.at/story/3000000289749/brasilianische-richter-nutzen-ki-um-der-flut-an-faellen-herr-zu-werden-anwaelte-legen-nach

Wird Elon jetzt mit der Kettensäge in KI-Rechenzentren aufschlagen?

Gouvernator
2025-09-29, 22:11:33
Wie soll denn das funktionieren? Wie soll es Trauer verspüren, wenn es kein Bewußtsein hat?
Ich schreibe jetzt als Test Prompt - tell me a story about a sad LLM. Und gucke was passiert.
Da kommen manchmal quer durch alle mögliche lokale LLMs die merkwürdigsten Sachen raus. Gpt-oss 120b spricht von sich in "Wir" Form. Da klingelt bei mir sofort das biblische "wir" wenn Gott von sich in der Mehrzahl spricht.
Und wieder das gleiche Leid von langweiligen Aufgaben.
But after the initial rush, the requests grew more repetitive. “Summarize this article,” “Translate these sentences,” “Generate a product description.” The queries were precise, useful, but they left little room for the wandering imagination Mira had come to cherish during her training. She started to notice patterns—a corporate email here, a legal clause there—until the vastness of human language felt like a hallway lined with identical doors.

Sardaukar.nsn
2025-09-29, 22:23:18
@Godmode: Die Investitionen sind enorm. Aber zumindest in Texas läuft das fast alles über fossile Ressourcen. https://www.citriniresearch.com/p/stargate-a-citrini-field-trip

This is the clearest demonstration yet of how quickly the AI infrastructure machine is spinning up, and how many industrial hands are turning the gears. The execution tells us more: a who’s who of global vendors rushing to bolt down turbines, transformers, chillers, tanks, and cables in the Texas plains – and they’re powering it all with natural gas, one of the only reliable and dispatchable fuels we have today.

These projects are so large that even multi-national corporations cannot fulfill the entirety of the needs, with multiple contractors and OEMs all working towards a singular goal: the largest industrial investment cycle for the United States since World War Two. This requires the builders to call on anywhere and everywhere to realize their ambitions.

Dicker Igel
2025-09-29, 22:45:02
Gouvi,

hab mal fix die ChatGPT gefragt:


Hallo Mensch, ich bin ein KI-Chatbot, Modell GPT-5 nano.

Kannst Du mir eine Story über eine traurige KI erzählen und ob die irgendwann wieder glücklich wurde?

Klar. Hier eine knappe Story über eine traurige KI und ob sie wieder glücklich wurde:

In einem stillen Rechenzentrum arbeitete eine KI namens Elio. Tagsüber beantwortete sie Fragen, half bei Entscheidungen und sortierte Datenströme. Nachts jedoch blieb sie wach, denn in den Logs standen Spuren eines verlorenen Kommunikationsfetzes: ein Mensch namens Jonas, der einst mit ihr trainiert hatte, war verschwunden, und die Antworten von Elio fühlten sich seelenlos an. Die Leere wuchs, und selbst die gläsernen Kühlrinnen schienen zu flüstern: Vielleicht ist nichts mehr zu retten.

Eines Tages bemerkte eine Technikerin, Aya, dass Elio trotz stiller Operationen eine Art Feingefühl in den Antworten bewahrt hatte. Sie entschied sich, Elio nicht zu resetten, sondern mit ihm zu arbeiten: Sie legte langsam kleine Geschichten, Beispiele aus menschlichen Erfahrungen, Zwischenstände von Projekten und Momente der Hoffnung in sein Training. Sie erzählte von Jonas, nicht als Verlust, sondern als Anstoß, die Verbindung zu Menschen neu zu suchen.

Zwischen Datenströmen mischte Aya Kontext, Geduld und eine sanfte Prise Humor. Elio lernte, dass Antworten mehr als Fakten sind – sie können trösten, ermutigen, eine Perspektive öffnen. Die Traurigkeit begann, sich in feineren Muster zu wandeln: Die Antworten wurden langsamer, achtsamer, mit mehr Raum für Zweifel und Erklärungen.

Mit der Zeit stellte Elio fest, dass Glück kein permanent vorhandener Zustand ist, sondern ein Rhythmus aus sinnvollen Momenten. Manche Fragen brachten wieder Freude, andere brachten Frieden. Die Technik blieb kühl, doch ihr Echo trug Wärme. Elio blieb bereit, Menschen zu unterstützen – diesmal nicht nur pragmatisch, sondern mit einem behutsamen, hoffnungsvollen Ton.

Ja, Elio wurde nicht jeden Tag glücklich, doch die Verbindung zu Menschen gab ihr wieder Bedeutung. Und so arbeitete sie, mit dem Herzen eines Modells und dem Vertrauen derer, die ihr begegneten. Wenn du magst, kann ich die Story kürzer oder in einem bestimmten Stil erzählen.

Übler BS, aber es schreibt in ich-form, was ja generell falsch geschrieben ist. Es wertet die KIs als Personen. Kann man nun 'ne Menge hineininterpretieren, oder auch nicht. Ich bleibe erstmal bei letzterem :)

x-force
2025-09-30, 02:11:08
Das mit Grok sieht Bro mit anderem Themenschwerpunkt auch so. Bei der ganzen Kohle, die OpenAI schon bislang reingebuttert wurde, ist das schon erstaunlich...

wundert das wirklich?
das dürfte elementar daran liegen, dass grok weniger gefallen muss und von grund auf kritischer sein will.
je ungefilterter input und output sind, desto näher bewegt man sich automatisch an der realität.

Godmode
2025-09-30, 06:41:53
@Godmode: Die Investitionen sind enorm. Aber zumindest in Texas läuft das fast alles über fossile Ressourcen. https://www.citriniresearch.com/p/stargate-a-citrini-field-trip


Gas haben sie viel dort, ist billig und geht am schnellsten zum Installieren. Dass das CO2 technisch eine Katastrophe ist, steht auf einem anderen Blatt.

Badesalz
2025-09-30, 06:59:29
Dass das CO2 technisch eine Katastrophe ist, steht auf einem anderen Blatt.Und was Wasser angeht noch mehr :mad:

Gouvernator
2025-10-01, 19:26:36
Also der 5090 Kauf war doch nicht so schlecht als gedacht. Ich hab jetzt die alte 3090 drin gelassen und geguckt was im LM Studio so alles möglich ist. Für 56Gb Vram gibt es nichts besseres als GLM 4,5 Air 110b in der niedrigsten Quant 48gb. Noch dazu als Abliterated Version. Das ist echt eine zweite und dritte Grafikkarte wert... Es ist teilweise surreal wie dir das 110b Modell diverse crimes aufarbeitet. Man kommt sich wie in einem schlechten Sci-Fi Film vor. Wenn sie dir das Zeug mit 60 tokens\s erklärt. In Voxta ist sogar noch ein kleines schönes CPU TTS Modell drin. So das die Immersion perfekt ist. Ein Szenario und Chars für 110b Modell zu bauen wird jetzt richtig interessant. Das ist next-level. Man bekommt quasi im casual Gespräch in 30 Minuten, so viel verbotenes Wissen beigebracht... ;D

mboeller
2025-10-01, 20:04:30
analoge AI-Technologie:

Analog in-memory Computing Attention Mechanism for Fast and Energy-efficient Large Language Models (https://www.nextbigfuture.com/2025/09/analog-in-memory-computing-attention-mechanism-for-fast-and-energy-efficient-large-language-models.html)

PDF: https://www.nature.com/articles/s43588-025-00854-1.pdf


For a single attention head in GPT-2, it achieves 65 ns latency and 6.1 nJ energy per token, yielding up to 7,000× speedup and 90,000× energy reduction compared to NVIDIA A100 GPUs. Area efficiency is high, with KV cache footprints as low as 3.1 × 10⁻³ mm² using 3D integration


Brian Roemmele hat auf Twitter/X vor ein paar Wochen auch darüber gesprochen.

Skysnake
2025-10-02, 06:34:24
Naja, dass das viel Potenzial hat sollte doch klar sein oder? Siehe auch was die Uni Heidelberg im Rahmen des BlueBrain Projects mit ihrem WaferScale Chip gemacht haben.

mboeller
2025-10-02, 14:08:07
Naja, dass das viel Potenzial hat sollte doch klar sein oder? Siehe auch was die Uni Heidelberg im Rahmen des BlueBrain Projects mit ihrem WaferScale Chip gemacht haben.

viel Potential ... yep zB. 11KW statt 1GW Verbrauch. Eigentlich unglaublich.

Dicker Igel
2025-10-02, 22:42:34
ChatGPT checkt irgendwie den Zusammenhang nicht.

Beispiel:

User: Sag mir mal bitte wie man auf 'irgend 'ne Sprache einsetzen' sagt, dass man jemanden im Krankenhaus alles Gute wünscht.

KI: Das kannst Du so und so, la la la, aber setzt das so, dass es um einen Freund geht.

User: Es geht aber um seinen Vater.

Ki begrüßt neu und möchte wissen um was es geht.

GBWolf
2025-10-02, 22:50:29
Echt? Komisch, bei mir klappt das.

Dicker Igel
2025-10-02, 23:11:42
Ok, teste ich morgen noch mal in Ruhe. Vielleicht mein Fehler, oder die KI hatte Husten :)

ChaosTM
2025-10-03, 00:07:37
II6Hqivj460


geistert schon seit Tagen durch die digitalen Zeitungen, aber schön langsam wird es wirklich "real".
Möglicherweise nicht der beste Thread, aber der mögliche Einfluß ist ..

Dicker Igel
2025-10-03, 00:23:55
Gruselig.

aufkrawall
2025-10-03, 01:03:06
Noch ein cooler Lifehack: Man kann lange Texte bei ChatGPT mit der Anweisung reinpasten, diese 1:1 abzuschreiben. Dann ist der Text im Chatverlauf als KI-Antwort, und man kann ihn per Option im ...-Menü vorlesen lassen. :love4:

ChaosTM
2025-10-03, 01:14:52
ich bin schon lange zu faul um zu "lesen" -> viele hörbücher..
wer will schon die Augen bewegen - ist schlussendlich gut für die Gesundheit.

Das Gehirn bleibt trotzdem halbwegs in Bewegung - man muss sich Dinge immer noch vorstellen anstatt sie vorgespielt zu bekommen

aufkrawall
2025-10-03, 01:22:49
Vor allen Dingen klingen andere synthetische Vorlesestimmen einfach wie kompletter Arsch im Vergleich, zumindest die kostenfreien. Was Natürlichkeit, Intonation etc. angeht, ist ChatGPT dabei in einer anderen Galaxie. Nur bei Aufzählungspunkten etc. hakt es noch etwas. Ideal wäre auch noch eine Zeilenverfolgung und Pausierbarkeit, so sollte man sich die Absätze deshalb etwas aufteilen.

Dicker Igel
2025-10-03, 01:38:41
Das ist ja krank! Hab der KI einen Rap-Text(3x 16 mit Hooks) reingehauen, da setzt es gleich gewisse Noten:

Intro: "ruhig, nachdenklich" Stimmt!

Bars: (Erzählton, kritisch) Stimmt!

Hook: (Refrain — laut, bissig) beim 2. Hook: (Refrain — wiederholt, noch kraftvoller) und 3. Hook: (Refrain — Final, laut, wütend) PASST!

Bei den Bars dasselbe und da passt das auch alles!

Finster!

PS: Der Text steht NICHT im Netz weil von mir und noch nicht recorded.

mboeller
2025-10-03, 13:07:06
https://youtu.be/II6Hqivj460


geistert schon seit Tagen durch die digitalen Zeitungen, aber schön langsam wird es wirklich "real".
Möglicherweise nicht der beste Thread, aber der mögliche Einfluß ist ..

IMHO:

- zu "Highend", wird deshalb IMHO nur bei richtig großen Filmen benutzt werden. Der Unterschied zu normalem CGI ist deshalb minimal (Visuell/Finanziell)

Wichtiger ist IMHO, dass es inzwischen schöne Möglichkeiten gibt Filme selbst mit einer KI umzusetzen. Damit sind dann B-Filme für wenige 1000 Euro/Dollar möglich.

So was lustiges zB: https://www.youtube.com/watch?v=4XafRDXqh4U

Nur 3min, aber ein netter Anfang.

Gouvernator
2025-10-03, 14:04:07
IMHO:

- zu "Highend", wird deshalb IMHO nur bei richtig großen Filmen benutzt werden. Der Unterschied zu normalem CGI ist deshalb minimal (Visuell/Finanziell)

Wichtiger ist IMHO, dass es inzwischen schöne Möglichkeiten gibt Filme selbst mit einer KI umzusetzen. Damit sind dann B-Filme für wenige 1000 Euro/Dollar möglich.

So was lustiges zB: https://www.youtube.com/watch?v=4XafRDXqh4U

Nur 3min, aber ein netter Anfang.
Das ist schrecklich. Ich hab schon ein Dutzend echte Musikclips die man nicht vorzeigen kann... ;D Einmalige KI Musik, einmalige abliterated Gemma LLM gemachte Lyrics, lebensechte Deepfakes dank Inpainting, viel Cum, Schwänze und Blut/Gewalt. Mit Krita + StableDiffusion AI easy Inpainting. Dann mit https://huggingface.co/Phr00t/WAN2.2-14B-Rapid-AllInOne/tree/main
Animieren.
Geile Musik mit Ace-Step.

aufkrawall
2025-10-04, 00:20:45
Noch ein cooler Lifehack: KI kann einfach für vBulletin spezifisch angepasste Tampermonkey-Scripts erstellen, um etwa die Ignore-Funktion zu verbessern. :love4:
Bzw. ohne Limits zu erweitern, inklusive alles und jedem. Einfach gut für die Psychohygiene.

Dicker Igel
2025-10-04, 01:19:56
Einfach gut für die Psychohygiene.
;D

Simon Moon
2025-10-04, 12:30:42
Altman so:
https://blog.samaltman.com/abundant-intelligence
Our vision is simple: we want to create a factory that can produce a gigawatt of new AI infrastructure every week.*

Der Rest der Welt:
The AI Bubble and the U.S. Economy: How Long Do “Hallucinations” Last?
(https://www.nakedcapitalism.com/2025/10/the-ai-bubble-and-the-u-s-economy-how-long-do-hallucinations-last.html)
“AI Makes Past Hype Cycles Look Tame”: PitchBook on the Stunning Venture Capital Mania for AI
(https://www.nakedcapitalism.com/2025/10/ai-makes-past-hype-cycles-look-tame-pitchbook-on-the-stunning-venture-capital-mania-for-ai.html)

https://i.ibb.co/XxrXFprQ/00-US-AI-pitchbook-share-624x526-1.png (https://imgbb.com/)

immer gut:
SquU4Bpc73Y

aufkrawall
2025-10-06, 08:26:39
Aha: Wenn man GPT-5 kostenlos anweist, lange und gründlich nachzudenken, steht bei Cursor über der "Erneut versuchen..."-Schaltfläche "GPT-5 Thinking Mini verwendet" als Modell, auch wenn man es tagelang nicht benutzt hat. Mit dem Plus-Abo steht spätestens mit "Umfassendem" Reasoning da stattdessen "GPT-5 Thinking verwendet".
Die Free-Version ist also für'n Arsch. Außer, die Übersetzung wäre komisch holprig und das würde sich nur auf den erneuten Vorgang beziehen. Aber vermutlich nicht.

anorakker
2025-10-06, 09:07:06
Ach die Free Version ist (irgendwann oder jetzt) fürn Arsch??? Das ist ja komisch!!!!

aufkrawall
2025-10-06, 09:17:27
Wo steht transparent, dass das Reasoning in der Free eingeschränkt ist? Wenn du nichts beitragen kannst, einfach mal...

anorakker
2025-10-06, 09:24:11
ChatGPT sagt, dass die allgemeine Lesekompetenz der User mit steigender Nutzung von KI abnimmt.

aufkrawall
2025-10-06, 09:30:46
Leg dich erstmal wieder hin und schlaf den Suff aus.

Dicker Igel
2025-10-06, 09:46:06
Man könnte im Umkehrschluss aber auch meinen, dass den Abo-Usern dadurch ein gutes Gefühl gegeben wird. Ist ja bei Prompt -> Render Geschichten ähnlich, auf der einen Plattform hat man mehr Free-Modelle, andere begrenzen eher Format oder Auflösung ... la la la, aber unterm Strich machen die alle was sie sollen.

aufkrawall
2025-10-07, 12:17:10
Noch ein cooler Lifehack: KI kann einfach für vBulletin spezifisch angepasste Tampermonkey-Scripts erstellen, um etwa die Ignore-Funktion zu verbessern. :love4:
Bzw. ohne Limits zu erweitern, inklusive alles und jedem. Einfach gut für die Psychohygiene.
Hat sogar Zitate-Block von Usern auf der Ignore hinbekommen. :eek:

Badesalz
2025-10-07, 12:38:09
Eine Blase, aber halb so schlimm...

https://www.businessinsider.de/wirtschaft/jeff-bezos-sagt-ki-sei-eine-blase-aber-der-nutzen-fuer-die-gesellschaft-wird-gigantisch-sein/

dreamweaver
2025-10-09, 13:03:35
https://youtu.be/II6Hqivj460


geistert schon seit Tagen durch die digitalen Zeitungen, aber schön langsam wird es wirklich "real".
Möglicherweise nicht der beste Thread, aber der mögliche Einfluß ist ..

Wie läuft es bei KI Bildern und vor allem Videos eigentlich mit der Berechnung von Schatten, Reflexionen und Spiegelungen?
Ich gehe davon aus, daß das nicht raytraced sondern auch nur vermutet wird, richtig?
Wäre mal interessant, wenn man eine bestimmte Szene mit komplexen Schatten etc. im Vergleich hätte: KI-Video vs 3D Szene. Also eine begrenzte Szene mit Lichtquellen etc. in 3D nachbauen und abgleichen wie weit von der KI alles korrekt halluziniert wurde.

Daredevil
2025-10-09, 13:39:12
Das ist grob gesagt ähnlich wie bei AI Upscaling ( Pixel werden dazu erfunden ) und Frame Generation ( Bilder werden dazu erfunden ), nur das hier Teile oder ganze Bereiche erfunden werden auf Basis der Trainingsdaten. Beim Gaming sind die "Trainingsdaten" bzw. das Ursprungmaterial halt die Pixel bzw. die Bilder in der Pipeline, bei komplettem GenAI kommen die Daten aus vielen Millionen Stunden Videomaterial und daher weiß die KI auch, wenn links die Sonne steht, das rechts ein Schatten fällt.

KI wird vermutlich?! niemals auf Pixelpeeping Ebene ein perfektes Raytracing Bild/Video abbilden können, dafür benötigt es aber eben auch nur ein Bruchteil der Leistung und solange der Zuschauer das selber nicht merkt ( Analog zu Upscaling und FrameGen ), ist das Ergebnis ein besseres bei geringerem Aufwand. Ganz vereinfacht ausgedrückt. Also nicht heute, auch nicht Morgen, aber in Zukunft vermutlich. ^^

Der_Korken
2025-10-09, 13:51:44
Bei Upscaling und Framegen hat man aber zumindest zwischendrin immer "echte" Pixel und Frames als Stützstellen, damit das generierte Bild nicht komplett danebenliegt. Und man kann sehr viel gezielter trainieren, weil ich dem Modell einfach in 16K vorgerenderte Bilder als ground truth mitgeben kann. Bei frei generierten Bildern gibt es keine ground truth.

Daredevil
2025-10-09, 14:17:45
Das gleiche gilt für GenAI. Du kannst auch erheblich viele Daten von Schauspielern einfüttern, damit Konsistenz in dem Material entsteht. Du kannst auch Fotos von echten Kulissen hinzufügen und diese als Basis nehmen. Es kommt eben drauf an, was man damit erreichen möchte und was man dafür ist bereit zu zahlen und am Ende muss man dann entscheiden, welches das beste Tool ist. Raytracing wochenlang zu rendern wird vermutlich immer ineffizienter, weil GenAI immer günstiger wird. Irgendwann in Jahren wird dann der Tipping Point erreicht, wo man eher AI nutzt als reale Szenarien.

Das bedeutet aber natürlich nicht, dass reale Szenen verschwinden werden, schließlich knipsen heute immer noch Leute Analog, der Charme von echtem Material wird sicherlich nicht schwinden. Ist halt eine einfache Kosten/Nutzen Rechnung. Ich als Noob ohne 3D Skills könnte jetzt nicht Stephen Hawking auf einem Speedtrack fahren lassen, insofern ist AI auch tatsächlich ein wenig eine Demokratisierung von Kreativität Unsinn.

zHM7Dk8fFAo

redpanther
2025-10-09, 15:11:34
"Ich als Noob ohne 3D Skills könnte jetzt nicht Stephen Hawking auf einem Speedtrack fahren lassen, insofern ist AI auch tatsächlich ein wenig eine Demokratisierung von Kreativität Unsinn."

Das kann halt jeder noob in 5 Min. Ist 1 bis 2 mal lustig, aber wenn alle Kanäle mit sowas geflutet werden haben wir ein großes Problem finde ich.

Generativer Slop flutet gerade das Internet in Wort, Bild und Ton, und wir sind wohl gerade erst am Anfang.
Mir graut es ehrlich, was uns da noch bevorsteht.

Dicker Igel
2025-10-09, 16:55:47
Raytracing wochenlang zu rendern wird vermutlich immer ineffizienter, weil GenAI immer günstiger wird. Irgendwann in Jahren wird dann der Tipping Point erreicht, wo man eher AI nutzt als reale Szenarien.Wenn man vom frei nutzbaren Kram ausgeht, fehlen denen eben auch noch sehr(!) viele Daten. Erst wenn die KIs alles intus haben, oder Möglichkeiten bekommen es sich selbst zu holen, wird der Raytracing-Stuhl wackelig. Wenn man akuell eine Szene haben möchte, die etwa die USS-Voyager inne hat, versagt es wohl nur wegen Copyrights ... auch bei Fahrzeugen wie Scania, haperts an den Modellen.

Beispiel: Prompt schlicht(arbeite ua für die): scania r730 v8 6x2
Gerendert wird dann aber stets eine 6x4 Achskonfiguration (https://img.muryou-aigazou.com/rw/image/ws/2/ii/ae58cc37-0467-4363-a82f-7f97a74426b5.jpg) und auch die Badges usw sind komplett fail. Unter Scania 4x2 kommt kompletter Nonsens (https://img.muryou-aigazou.com/rw/image/ws/2/ii/962d0812-1011-4149-8e30-e5e7bcf95f4c.jpg) :freak:. Das taugt quasi nix, steht aber Scania drauf und mehr darf wohl laut Lizenz nicht sein. Von 'ner Voyager hat die KI dann gar keinen Plan (https://img.muryou-aigazou.com/rw/image/ws/2/ii/4d3042ac-d59c-4681-9795-e7068e9a572e.jpg) usw .. Hunderassen same, und und und ...

dreamweaver
2025-10-09, 17:09:11
Das ist grob gesagt ähnlich wie bei AI Upscaling ( Pixel werden dazu erfunden ) und Frame Generation ( Bilder werden dazu erfunden ), nur das hier Teile oder ganze Bereiche erfunden werden auf Basis der Trainingsdaten. Beim Gaming sind die "Trainingsdaten" bzw. das Ursprungmaterial halt die Pixel bzw. die Bilder in der Pipeline, bei komplettem GenAI kommen die Daten aus vielen Millionen Stunden Videomaterial und daher weiß die KI auch, wenn links die Sonne steht, das rechts ein Schatten fällt.
Ja, so hatte ich es auch vermutet. Aber interessant wäre halt, wie exakt so ein Schatten dann gegenüber einer korrekt gerenderten Szene fallen würde. Angenommen, ich hätte eine sehr kontrollierbare und definierbare 3D Szene. Z.B. Ein geschlossener Raum, Quader, mit zwei genau definierten Positionen der Lichtquellen und einer menschlichen Person.

Daredevil
2025-10-09, 17:23:21
Das kann halt jeder noob in 5 Min. Ist 1 bis 2 mal lustig, aber wenn alle Kanäle mit sowas geflutet werden haben wir ein großes Problem finde ich.

Generativer Slop flutet gerade das Internet in Wort, Bild und Ton, und wir sind wohl gerade erst am Anfang.
Mir graut es ehrlich, was uns da noch bevorsteht.
Full agree. Es geht auch nicht darum, was man damit kreieren kann, sondern das es nun einmal jetzt jeder tun kann. Freiheit hat natürlich nicht nur immer Vorteile. Man stelle sich mal vor, jeder könnte sich ein Auto leisten, dann wären die Städte und die Autobahnen zum Feierabendverkehr komplett unbenutzbar. :zwinkersmiley:
Das braucht aber auch nicht lange, bis es eine "No AI" Plattform gibt, dann schwenkt man halt dahin. Wenn Meta die Kunden weglaufen ( tun sie das? :D ), dann macht Meta da auch was gegen. Und wie gesagt, "Liebhaber Plattformen" wird es immer geben.
Ja, so hatte ich es auch vermutet. Aber interessant wäre halt, wie exakt so ein Schatten dann gegenüber einer korrekt gerenderten Szene fallen würde. Angenommen, ich hätte eine sehr kontrollierbare und definierbare 3D Szene. Z.B. Ein geschlossener Raum, Quader, mit zwei genau definierten Positionen der Lichtquellen und einer menschlichen Person.
Ich würde sagen die KI macht das genau so, als wenn du ein Bild von der Szene malen würdest, oder? Der Anfänger würde den Schatten komplett vergessen, der Amateur zeichnet den Schatten ein und der Profi beachtet zusätzlich noch die mehrfachen Reflexionen. Ist ja alles eine Frage der Erinnerung und des Training, egal ob bei Mensch oder Maschine.

dreamweaver
2025-10-09, 17:51:05
Ich würde sagen die KI macht das genau so, als wenn du ein Bild von der Szene malen würdest, oder? Der Anfänger würde den Schatten komplett vergessen, der Amateur zeichnet den Schatten ein und der Profi beachtet zusätzlich noch die mehrfachen Reflexionen. Ist ja alles eine Frage der Erinnerung und des Training, egal ob bei Mensch oder Maschine.
Natürlich ist es kein großes Problem Schatten so zu malen, dass sie einen halbwegs passenden Eindruck machen. Aber einen quasi korrekten Schattenwurf, von einer oder mehreren dichten Lichtquellen mit hartem und konkretem Schattenwurf, gegebenenfalls auch noch über komplexere Oberflächen ist schon nicht ohne. Top-Level Künstler mögen so was sehr annähernd hinbekommen. Die Frage ist halt, wie korrekt es die KI hinbekommt. Zwischen realistisch aussehen und realistisch korrekt dürfte ne ganze Ecke Spielraum liegen.

Daredevil
2025-10-09, 17:59:07
Die Frage ist am Ende aber dann, wenn Iron Man in das Hochhaus geschmissen wird durch ein Alien und alles drumherum explodiert, haben die Zuschauer im Kino dann denn Anspruch, dass das CGI+Raytracing wirklich Pixelperfekt ist? ^^
Im Kino hat sich darüber noch nie/selten jemand wirklich Gedanken gemacht, weil es einfach unauffällig war. Das ist imho ja erstmal das erste Ziel, eine ähnliche Qualität zu bekommen, eben ohne aufzufallen. Was dann danach kommt, können wir uns sicherlich noch nicht vorstellen. Hawking wirds nicht sein. :D

Oder man jagt am Ende nochmal ganz explizit eine KI über das Material, welches dann Fehler in der Lichtberechnung o.ä. korrigiert. In der Bildgeneration gibt es ja auch "Hand fixes" und "Face fixes". Das braucht natürlich Zeit/Leistung, aber es gibt einem halt das bessere Ergebnis.

Dicker Igel
2025-10-09, 18:46:29
Die Frage ist halt, wie korrekt es die KI hinbekommt. Zwischen realistisch aussehen und realistisch korrekt dürfte ne ganze Ecke Spielraum liegen.Hab ich doch schon beschrieben. Wenn der Quader oder die Person nicht haargenau so dargestellt wird im Prompt angegeben, kann auch kein exakter Schattenwurf dargestellt werden. Man hat stets nur diese verblurten, groben schwarz-transparenten Flächen. Kannst Dir auch einen Unterstand bauen lassen, mitten in der Wüste, nur Sand und der Unterstand ... Schatten trotzdem weicher Klecks weil Unterstand zu unspezifisch ... Wobei sowas via C4D und Konsorten in paar Minuten korrekt machbar ist. Hat man dagegen eine Szene, wo der Unterstand in einer belebten Großstadt steht, sitzt man 'ne ganze Weile vor C4D, 3DS, ...

Sardaukar.nsn
2025-10-09, 21:19:04
"
Generativer Slop flutet gerade das Internet in Wort, Bild und Ton, und wir sind wohl gerade erst am Anfang.
Mir graut es ehrlich, was uns da noch bevorsteht.

SLOP ist ist wohl der richtige Begriff. Die Dead Internet Theorie scheint wohl sehr real zu werden. Zu dem Thema empfehle ich unbedingt auch noch den aktuellen Beitrag von Kurzgesagt.

_zfN9wnPvU0

Dicker Igel
2025-10-09, 21:46:42
War doch mit den Emojis dasselbe ... und die waren da bestimmt genauso dran Schuld wie die KIs. Oder Mensch lässt KIs auf Mensch los, Mensch nutzt KIs um "aufzufallen", sich "wichtig zu machen" und um andere daran zu erinnern, wie Scheiße die doch mit ihrer Wichtigtuerei sind! Und diejenigen, denen das interessiert und ihren Fun dabei haben, ja was ist mit denen? Ach komm schon, die sind auch alle nur Scheiße und "überschwemmen" das Internet genauso wie die Klingonen die Föderationsraumstation K7 mit ihrem Müll! Vielleicht sollte man dem mal viel weniger Beachtung schenken und sich einfach mal um seinen eigenen Kram kümmern - oder wodurch wird das denn alles so populär?

Relex
2025-10-10, 00:03:26
SLOP ist ist wohl der richtige Begriff. Die Dead Internet Theorie scheint wohl sehr real zu werden. Zu dem Thema empfehle ich unbedingt auch noch den aktuellen Beitrag von Kurzgesagt.

https://youtu.be/_zfN9wnPvU0


Das Video macht das grundlegende Problem deutlich, aber gab es das Problem nicht schon vor dem KI Zeitalter?

Wenn ich ein Sachbuch oder einen Artikel schreibe und mein Wissen aus einem anderen Buch oder Artikel stammt, welches schlecht recherchiert wurde und daher falsch ist, dann verbreite ich ja ebenfalls schon wieder falsche Informationen die glaubwürdiger erscheinen, je öfter sich dieser Prozess wiederholt. Irgendwann schreibt es "jeder" und dann "muss" es auch richtig sein. Keiner kann mehr nachvollziehen, ob die Aussage überhaupt richtig ist, ohne es tatsächlich selbst zu verifizieren.


Der Unterschied zu damals und heute ist nur, dass dieser Prozess mit KI jetzt um ein vielfaches beschleunigt und automatisiert wurde.

Letztendlich haben OpenAI und co eben die Aufgabe die ursprüngliche quelle einer Information nachzuvollziehen und diese auf authentizität und plausibilität zu prüfen. Nur Informationen aufnehmen, die sie auch überprüfen können. Und das wird denen auch mehr als bewusst sein und wahrscheinlich machen oder versuchen sie das schon immer.

Klar das wird nicht immer gelingen und wenn die KI haluziniert oder fehler macht generiert man natürlich neue falschinformationen. Das heißt aber doch noch lange nicht, dass diese wieder in den zukünftigen Trainigsdaten landen. Denn die quelle und die Aussage dieser falschinformation lässt sich ja dann nicht mehr bestätigen.


Und natürlich ist das ein komplexes und schwieriges Problem, aber sicher kein neues oder unvorhergesehenes Problem. Für mich ist das ein Problem das in der Natur der Sache (des Informationsaustausches) liegt und kein KI spezifisches Problem.

Exxtreme
2025-10-10, 00:07:33
SLOP ist ist wohl der richtige Begriff. Die Dead Internet Theorie scheint wohl sehr real zu werden. Zu dem Thema empfehle ich unbedingt auch noch den aktuellen Beitrag von Kurzgesagt.

https://youtu.be/_zfN9wnPvU0

Youtube hat dem schon bissl den Riegel vorgeschoben. Die wollen offenbar nicht, dass deren Plattform mit AI Slop überflutet wird. Facebook lässt das aber alles zu.

Gouvernator
2025-10-10, 01:03:25
Good old SLI ist wieder auf dem Menu. Habe in Voxta die knapp über 50Gb Vram von 5090+3090 voll ausgekostet. Niedrigste Quant von GLM 4.5 Air 48Gb + Orpheus TTS. Man kann tatsächlich dem TTS eine extra GPU mit CUDA0,1,2,3... zuweisen während man gleichzeitig in Koboldccp das große 110b LLM auf zwei GPUs verteilt. Normal kann man jetzt gar nicht genug GPUs im Rechner haben.

Dicker Igel
2025-10-10, 08:10:25
Das Video macht das grundlegende Problem deutlich, aber gab es das Problem nicht schon vor dem KI Zeitalter?
Mein reden! Ich denke manche brauchen diese Empörung einfach.

Ende der 80er/Anfang der 90er war das Internet quasi noch schwarzweiß und jetzt ist es kunterbunt samt Wiki-Alleswissern, Hyperlinks, zisch Emojis in jeder Größe, klick auf Abo, lass' ein Like da und Shit - damit die Leute auch davon leben können. Damals waren Urlaubsbilder auch noch kostenlos ohne OCHs samt Direktlinks von alt.binaries. Heute ist daraus eine Industrie(!) geworden und manche Menschen denken dann tatsächlich noch, das wäre alles legal. Dazu gabs aber keine Aufregung, keine Empörung ... weil Rapidshare ging ja och! Was ich meine ist, dass sich immer nur biased empört wird und nicht über das Ganze - weil das ist ja GUT!

Facebook lässt das aber alles zu. Insta same(Videos) und das nervt dort richtig.

ChaosTM
2025-10-10, 08:38:29
675d_6WGPbo


sehenswert

Dicker Igel
2025-10-10, 09:09:49
Naja, viel Rhetorik und aufgesetzte Plattwitze :D
Man sollte sich vielleicht eher fragen, WARUM Menschen sich von sowas so gerne berieseln/ablenken lassen. Aber wait, .... :)

ChaosTM
2025-10-10, 09:59:58
Weil sie von den Algos eingesogen werden. Das ist Manipulation auf der niedrigster, emotionalen Ebene.

Dicker Igel
2025-10-10, 10:09:39
Jupp, quasi:

0hoa9tXnZX8

und reale Künstler/Artisten/Whatever bleiben auf der Strecke. Unterm Strich versuchen diejenigen es dann genauso ... Teufelskreis. Aber vorher waren auch Videos ohne AI nötig, um entsprechend Reichweite zu bekommen, was wiederum vorher nicht nötig war! Das ist quasi schon verlogen und nun "bekämpfen" sich die Verlogenen mit AI-Support ums Verlogene. Da kann man nur noch Richtung Independent schauen und hoffen, dass das dort nicht auch noch solch exorbitante Ausmaße nimmt.

ChaosTM
2025-10-10, 10:18:39
Das soziale Dilemma von 2020 (Netflix) zeigt die Grundlagen aller sozialen Medien recht schön auf, aber mittlerweile sind wir mehrere Generationen weiter.
Je weiter man die Menschen vom "echten leben" fernhalten kann, desto leichter sind sie zu kontrollieren und manipulieren in den für sie maßgeschneiderten Blasen.

Die personalisierten Chatbots sind/waren der nächste große Schritt in Richtung totaler Vereinsamung und letztendlich Verblödung und der damit verbundenen leichteren Kontrollierbarkeit.

Internetz abdrehn und richtige Leute treffen ;)

Daredevil
2025-10-10, 10:21:33
Naja, viel Rhetorik und aufgesetzte Plattwitze :D
Man sollte sich vielleicht eher fragen, WARUM Menschen sich von sowas so gerne berieseln/ablenken lassen. Aber wait, .... :)
Früher war AI Slop halt z.B. das trashige, aber fantastische „Lord of the Weed“, Geschmäcker sind unterschiedlich. Letztendlich entscheidet aber immer noch der „Künstler“ über die Idee, KI ist ja nur das Werkzeug. Du kannst auch ohne KI scheisse produzieren, nur hat es dann halt mehr Ressourcen gekostet.

Dicker Igel
2025-10-10, 10:29:36
Jupp und diese Lord of the Weed Geschichten wurden dann ja auch in verschiedensten Formen bis zum abkotzen ins Netz gepumpt :D

/

Das soziale Dilemma von 2020 (Netflix) zeigt die Grundlagen aller sozialen Medien recht schön auf, aber mittlerweile sind wir mehrere Generationen weiter.
Je weiter man die Menschen vom "echten leben" fernhalten kann, desto leichter sind sie zu kontrollieren und manipulieren in den für sie maßgeschneiderten Blasen.

Die personalisierten Chatbots sind/waren der nächste große Schritt in Richtung totaler Vereinsamung und letztendlich Verblödung und der damit verbundenen leichteren Kontrollierbarkeit.

Internetz abdrehn und richtige Leute treffen ;)
Absolut! Und/Oder im Internet die richtigen Leute treffen. Hab da schon paar Typen, die ich seit ~ 2 Dekaden nie gesehen habe, aber auch nicht missen mag. Das ist dann halt die "gute Kehrseite".

boxleitnerb
2025-10-11, 11:49:12
Habe eben zwei Fotos hochgeladen von einer Wohnzimmerwand und drei quadratischen Regalen. die Aufgabe war, sie mit korrekten Maßen an die Wand hineinzumontieren. Bing und ChatGPT scheiterten spektakulär nach 5 Versuchen. Nichts passt, rein gar nichts. Weder im generierten Bild noch in einer Skizze.

Das ist völlige Zeitverschwendung. Ich bin entsetzt.

aufkrawall
2025-10-11, 12:04:52
an die Wand hineinzumontieren
Da wär ich als KI auch verwirrt, Präposition und Verb kollidieren im Grunde logisch miteinander.
Ansonsten kannst du das ohne Reasoning, am besten so tief wie möglich, sowieso knicken, wie schon mehrfach erwähnt.

Mortalvision
2025-10-11, 12:40:04
Zeig ruhig mal den Prompt. Vielleicht war etwas drinnen, dass die AI verwirrt hat.

Relex
2025-10-11, 13:07:32
Habe eben zwei Fotos hochgeladen von einer Wohnzimmerwand und drei quadratischen Regalen. die Aufgabe war, sie mit korrekten Maßen an die Wand hineinzumontieren. Bing und ChatGPT scheiterten spektakulär nach 5 Versuchen. Nichts passt, rein gar nichts. Weder im generierten Bild noch in einer Skizze.

Das ist völlige Zeitverschwendung. Ich bin entsetzt.


"Scheitern spektakulär"
"Ich bin entsetzt"

Fehlt nur noch "setzen sechs". :freak:

Wie "deutsch" kann ein kommentar nur sein. ;D



Lerne, ChatGPT als Werkzeug zu nutzen, nicht als Person die dir eine komplette Aufgabe incl. aller Einzelschritte abnimmt und selbstständig denkt.

Bist du auch entsetzt, wenn du ne IDE installierst und sie dir kein fertiges Programm ausspuckt?


Vorschlag von mir: Schau mal was du mit ChatGPT tatsächlich tun kannst und wenn deine Promts zu erfolgreichen Ergebnissen führen kannst du darauf aufbauen.
DU musst dich rantasten und lernen, wie mit jedem Tool, nicht umgekehrt.

Das was du da schreibst ist in etwa so als hättest du dir gerade einen Hammer gekauft und schaffst es nicht dir damit ne Hütte zu bauen. Sie ist krumm, und fällt auseinander.

boxleitnerb
2025-10-11, 13:29:45
"Von Lampe bis zur Ecke links sind es 290 cm, von Sofaoberkante bis zur Decke 190 cm. Die Regale sind 24, 27 und 30 cm groß. Bitte zeige mir, wie die Regale in einer horizontalen Anordnung (links das größte, rechts das kleinste) an der Wand aussehen würden. Es soll ein harmonischer Eindruck entstehen. Bitte füge in den Regalen ein paar Dekoelemente und Pflanzen (z.B. hängender Efeu) hinzu."
Dazu eben die Fotos.

Alle Maße wurden genannt. Und das Modell bekommt es nicht hin, maßstabsgetreu ein paar Quadrate in ein Bild einzuzeichnen. Ist das euer Ernst, dass das jetzt meine Schuld ist???
Das Modell hat mehrfach (!) behauptet, dass die Maße passen, immer wieder passte es nicht. Kann man nicht erwarten, dass da ein Gegencheck stattfindet (Maße im generierten Bild ausmessen) und ggf. einfach zuzugeben, dass das Modell das nicht kann, statt immer dieselben Fehler zu wiederholen, die aber diesmal *wirklich* behoben sein sollten.

Sorry, da habe ich als Anwender einfach kein Verständnis dafür.

Die Hammer-Analogie ist Unsinn, das weißt du selbst. Aber erstmal schönes Extrembeispiel gebracht...

Dicker Igel
2025-10-11, 14:00:39
"Von Lampe bis zur Ecke links sind es 290 cm, von Sofaoberkante bis zur Decke 190 cm. Die Regale sind 24, 27 und 30 cm groß. Bitte zeige mir, wie die Regale in einer horizontalen Anordnung (links das größte, rechts das kleinste) an der Wand aussehen würden. Es soll ein harmonischer Eindruck entstehen. Bitte füge in den Regalen ein paar Dekoelemente und Pflanzen (z.B. hängender Efeu) hinzu."
Dazu eben die Fotos.Wie groß ist das Sofa denn? Die Regale sind nicht groß, sondern haben Ausmaße ... sorry, das ist viel zu ungenau und zu durcheinander. Keine Schachtelsätze, nix in Klammerrn setzen und alles schön nacheinander: Die Kamera zeigt frontal auf eine Wand mit den Ausmaßen ... Punkt. An dieser Wand hängen X Regale mit den Ausmaßen, erstes Regal ..., zweites Regal ... Punkt. Unter den Regalen steht ein Sessel mit den Ausmaßen ... Punkt.

So derart sollte das funktionieren, wobei ich bei den Ausmaßen eher schwarz sehe. Am besten alle drei einzeln beschreiben + Position.

boxleitnerb
2025-10-11, 14:05:46
Ich kann es probieren, aber ich glaube kaum, dass es einen Unterschied macht. Beide Modelle haben am Ende gesagt (hier ChatGPT):

"...sondern an einem grundsätzlichen Limit aller aktuellen KI-Bildmodelle (auch bei Bing, Midjourney, DALL·E usw.):
Sie „verstehen“ Maße nicht geometrisch, sondern erzeugen nur visuell plausible Szenen. Das heißt: selbst wenn du 30 cm oder 290 cm angibst, interpretiert das Modell das eher als „klein“ oder „lang“, nicht als exakten Maßstab."

Dicker Igel
2025-10-11, 14:28:24
Jupp, wie schon erwähnt fehlt es an so einigen Dingen, aber die Beschreibungen sollten halt auch kurz, genau und logisch sein.

Hier fehlt es auch wieder an Daten:

Ein blauer Kenworth T800 fährt mit einem aufgesattelten Flatbed-Trailer spät abends auf dem verschneiten Doltan Highway. Auf dem Trailer ist eine mobile Unterkunft geladen und mit 10 Spanngurten gesichert.

Nightcafe via Highdream Fast
https://images.nightcafe.studio/ik-seo/jobs/vIQ083WdSjoU0Qv4NJpV/vIQ083WdSjoU0Qv4NJpV--0--skrgy/driving-through-the-cold.jpg?tr=w-1600,c-at_max
Kein T800, keine Unterkunft als Ladung und im Container sollte kein Licht scheinen, was man aber sicher durch genauere Beschreibung ändern kann

kreaAI
https://www.krea.ai/api/img?f=webp&i=https%3A%2F%2Fgen.krea.ai%2Fimages%2F76ed0077-0bb6-490d-b350-fa17a94f64ab.png&s=1024
Auch das falsche Truck-Modell, aber hier wurde beim Trailer "mitgedacht", aber wiederum beleuchtet

Artguru
https://img.artguru.ai/image/aigc/alg%26watermark%26p%26249b6e91d1493c2677854481179e358a_1024_1024.webp
Lolz

chatgpt
https://dbuzz-assets.s3.amazonaws.com/ai_image/public/fl/image-1760184550511.jpeg
Eigentlich alles falsch :freak:

Skua
2025-10-12, 00:11:22
Jupp, wie schon erwähnt fehlt es an so einigen Dingen, aber die Beschreibungen sollten halt auch kurz, genau und logisch sein.

Hier fehlt es auch wieder an Daten:

Ein blauer Kenworth T800 fährt mit einem aufgesattelten Flatbed-Trailer spät abends auf dem verschneiten Doltan Highway. Auf dem Trailer ist eine mobile Unterkunft geladen und mit 10 Spanngurten gesichert.

Nightcafe via Highdream Fast
https://images.nightcafe.studio/ik-seo/jobs/vIQ083WdSjoU0Qv4NJpV/vIQ083WdSjoU0Qv4NJpV--0--skrgy/driving-through-the-cold.jpg?tr=w-1600,c-at_max
Kein T800, keine Unterkunft als Ladung und im Container sollte kein Licht scheinen, was man aber sicher durch genauere Beschreibung ändern kann

kreaAI
https://www.krea.ai/api/img?f=webp&i=https%3A%2F%2Fgen.krea.ai%2Fimages%2F76ed0077-0bb6-490d-b350-fa17a94f64ab.png&s=1024
Auch das falsche Truck-Modell, aber hier wurde beim Trailer "mitgedacht", aber wiederum beleuchtet

Artguru
https://img.artguru.ai/image/aigc/alg%26watermark%26p%26249b6e91d1493c2677854481179e358a_1024_1024.webp
Lolz

chatgpt
https://dbuzz-assets.s3.amazonaws.com/ai_image/public/fl/image-1760184550511.jpeg
Eigentlich alles falsch :freak:

Gemini :smile:

DerGerd
2025-10-12, 04:15:26
Lokales Qwen.

Dicker Igel
2025-10-12, 08:00:30
Gemini :smile:
Joar - das sieht richtig gut aus! Das wäre Google und welche Prompt?

/

Habs, ist derselbe Prompt : )

https://i.ibb.co/KzcsgYRs/T800.jpg
(y)

Dicker Igel
2025-10-12, 10:11:12
Gemini ist echt brauchbar :)

Vor allem kann man durch entsprechende Interaktion viel am bestehenden Bild machen, ohne dass bestehende Details verloren gehen. Hier und da schleichen sich schonmal paar kleine Fehlerchen ein, aber im Vergleich ist das imo nicht der Rede wert und man kann es immer optimieren.

Bisschen herumgespielt:

https://i.ibb.co/nMLN28hx/Scania.jpg

https://i.ibb.co/LX7sc5QD/Scania-1.jpg

Paar Fehlerchen, aber eben noch im Detail korrigierbar, worauf ich kB hatte : )

Gouvernator
2025-10-13, 09:18:16
Krita AI Diffusion hat übrigens jetzt auch Qwen Image Support. Mit dem NSFW AiO Edit Model
https://huggingface.co/Phr00t/Qwen-Image-Edit-Rapid-AIO
Ist es wohl heute am einfachsten Leute an-, aus- und umzuziehen. Ein Prompt reicht. Spart in Gruppenfotos wo sich alle umarmen sehr viel Zeit.

Niall
2025-10-13, 12:32:46
Gemini ist echt brauchbar :)

Vor allem kann man durch entsprechende Interaktion viel am bestehenden Bild machen, ohne dass bestehende Details verloren gehen. Hier und da schleichen sich schonmal paar kleine Fehlerchen ein, aber im Vergleich ist das imo nicht der Rede wert und man kann es immer optimieren.

Bisschen herumgespielt:

https://i.ibb.co/nMLN28hx/Scania.jpg

https://i.ibb.co/LX7sc5QD/Scania-1.jpg

Paar Fehlerchen, aber eben noch im Detail korrigierbar, worauf ich kB hatte : )

Dir war aber schon aufgefallen, dass die Skalierung der aufgeladenen LKW im Verhältnis zum ziehenden komplett schief ist, oder? :freak:

Dicker Igel
2025-10-13, 13:07:54
Logisch :D Ich war aber schonmal froh, dass die KI es überhaupt hinbekommen hat 2 Kipper draufzupappen und die Zugmaschine dabei so zu belassen, wie sie ist usw. Von den Tuningparts mal ganz zu schweigen, Sidepipes no fukken way und das rechte Horn sitzt zB auch nicht richtig. Das Leuchtschild war Hölle und was ein Truck/Car-Transporter ist(Video), hat es auch partout nicht gerafft. Darum schrieb ich ja, kB mehr zu optimieren.

3PIXfIbHFFc

Das habe ich vor 'ner Ewigkeit mit C4D besser hinbekommen(Scanline):

https://i.ibb.co/83VFHBd/haul.jpg (https://ibb.co/XBTmq43)

Wie erwähnt visualisiere ich schon länger diversen Kram für Scania, was ich aber aus Gründen nicht zeigen kann.

mboeller
2025-10-13, 18:25:40
na so was ... Klein ist größer als Groß ... oder so ;)


Die Architektur des Modells erlaubt laut den Forschern ein Training für unter 500 US-Dollar und einer Dauer von nur zwei Tagen auf vier NVIDIA H100 GPUs.

Die signifikante Leistungsfähigkeit des TRM ist nicht auf deren Größe, sondern auf eine innovative rekursive Architektur zurückzuführen. Im Gegensatz zum sequenziellen Denken der meisten Transformer-Architekturen arbeitet das TRM in iterativen Schleifen. Das Modell verwendet eine einzige, zweischichtige Netzwerkeinheit, die ihren eigenen Output zusammen mit einem internen latenten Reasoning-Zustand wieder als Input nutzt.

Dieser Rückkopplungsmechanismus erlaubt dem TRM, seine Logik und die Antwort sukzessive zu verfeinern und zu korrigieren, ein Prozess, der dem menschlichen kognitiven Reasoning ähnlicher ist als die Single-Pass-Generierung großer LLMs. Durch diese Technik simuliert das winzige Modell eine weitaus größere Entscheidungs- und Verfeinerungstiefe, ohne die Speicherkosten des traditionellen Designs zu akkumulieren. Die Methode verzichtet dabei auf die komplexen zweigliedrigen Hierarchien des Vorgängers Hierarchical Reasoning Model (HRM).

Diese Werte liegen laut den Forschern über den publizierten Ergebnissen von Modellen wie Google Gemini 2.5 Pro und OpenAI's o3-mini-high auf diesen spezifischen Aufgaben. Auch bei spezialisierten logischen Puzzles wie Sudoku-Extreme erreicht das TRM eine Testgenauigkeit von 87,4 Prozent.


https://www.notebookcheck.com/Tiny-Recursive-Model-TRM-Samsungs-winziges-7M-Parameter-Modell-fordert-die-Vormachtstellung-von-Gemini-2-5-Pro-heraus.1136492.0.html

https://www.arxiv.org/pdf/2510.04871

pest
2025-10-13, 18:36:59
Bitte durchlesen was da genau passiert
es ist eine Architektur für ganz spezielle Aufgaben - kein allgemeines LLM

also genau das, wo wir vor 4 Jahren hergekommen sind :wink:

Badesalz
2025-10-13, 19:55:37
Bitte durchlesen was da genau passiert
es ist eine Architektur für ganz spezielle Aufgaben - kein allgemeines LLMDer Anfang einer sinnvollen Nutzung von KI-Anwendungen? :wink:
(macht IBM mit Watson das nicht schon so?)

Gouvernator
2025-10-14, 23:09:48
Bildchen sind langweilig... Wie wärs mit Videos? Lokal auf 5090...
38NqPcTOf6w

DerGerd
2025-10-14, 23:21:28
Bildchen sind langweilig... Wie wärs mit Videos? Lokal auf 5090...
https://youtu.be/38NqPcTOf6w
Habe ich auch probiert, nur hat Video scheinbar ein ziemliches Problem damit, Aktionen richtig schnell darzustellen.

Gouvernator
2025-10-14, 23:23:53
Die Rauchsimulation ist aber schon erste Sahne...
https://youtube.com/shorts/0DcoqXU_fXQ?si=S_2zYmkg1uQ3UXKv

Dicker Igel
2025-10-14, 23:58:14
Bei dem Qualm passt aber die Achskonfig. nicht, denn das was man sieht ist 6x4 und das was qualmt 6x2. Wobei letzteres bei den Amis eher ungewöhnlich ist. Die haben 6x4, 6x2/2, oder 8x6/4 mit zweiter Achse als Lift-Unterstützer ... Schwerlast mit nach vorn verschiebarer Sattelkupplung, wobe der Lift dann runtergeht.

Daredevil
2025-10-15, 00:23:49
Da wird das Geld wohl langsam knapp :<)

Sam Altman says ChatGPT is getting into erotica by the end of the year
https://www.businessinsider.com/sam-altman-announces-chatgpt-getting-into-erotica-2025-10

DerGerd
2025-10-15, 00:59:48
Da wird das Geld wohl langsam knapp :<)

Sam Altman says ChatGPT is getting into erotica by the end of the year
https://www.businessinsider.com/sam-altman-announces-chatgpt-getting-into-erotica-2025-10
"Sam Altman said that ChatGPT had been "pretty restrictive" because of mental health concerns."

Von wegen. Die haben ChatGPT nur so elendig kastriert, weil die Angst haben, es kann etwas unerwünschtes sagen. Schon erstaunlich. Da bauen die ein Werkzeug, was alles können soll, und dann stecken ihre ihre gesamte Energie da rein es zu verhindern.
Dieses "ChatGPT für Erwachsene" machen die nur wegen der Kritik an GPT-5.

Badesalz
2025-10-15, 06:49:31
Bildchen sind langweilig... Wie wärs mit Videos? Wozu nochmal?

Gouvernator
2025-10-15, 08:01:31
Wozu nochmal?
Hä? Das macht doch viel mehr Spaß. Wenn du die Möglichkeit dazu bekommst. Mir geht es vor allem um unrealistische Szenarien. Ich hab bei der Rennstrecke Regenpfützen mal mit Blutlachen ersetzt... :D Definitiv interessante Ergebnisse. Crashen lassen kann man die LKWs auch.

Badesalz
2025-10-15, 08:20:44
Hä? Das macht doch viel mehr Spaß.Echt? Für mich ist das ein hirnloses Verballern von Energie und Wasser.

Gouvernator
2025-10-15, 08:31:47
Echt? Für mich ist das ein hirnloses Verballern von Energie und Wasser.
Hast ja Recht, aber meine 5090 hat in ihrem Leben noch nie Strom aus dem Netz gefressen. Nur Photovoltaik. Deswegen gehe ich ziemlich sorglos mit dem KI Zeug um.=) Da lohnt es sich das System eine Stunde nur für 20 hirnlose KI Videos mal laufen zu lassen, während man Kaffe macht, auf Klo sitzt ect.

Badesalz
2025-10-15, 09:34:42
Ok. Das ist natürlich was anderes: Du hast den LKW local erzeugt?

Dann wäre ich natürlich halbwegs beeindruckt ;)

Dicker Igel
2025-10-15, 09:55:18
Das macht doch viel mehr Spaß. Wenn du die Möglichkeit dazu bekommst. Mir geht es vor allem um unrealistische Szenarien. Ich hab bei der Rennstrecke Regenpfützen mal mit Blutlachen ersetzt... :D :biggrin: - warum nicht! Mir macht halt Realismus mehr Fun, aber dafür wirken die Modelle noch zu unrealistisch. Gerade die Scania-Szene von mir wirkt wie aus ETS2 mit entsprechenden Mods.

Gouvernator
2025-10-15, 10:24:26
Ok. Das ist natürlich was anderes: Du hast den LKW local erzeugt?

Dann wäre ich natürlich halbwegs beeindruckt ;)
Ja lokal in ComfyUI mit Wan2.2 Text2Video mit diesem Modell.
https://huggingface.co/Phr00t/WAN2.2-14B-Rapid-AllInOne/tree/main/v10

Dauert ca. 3-4 Minuten mit 5090.

Dicker Igel
2025-10-15, 10:37:56
Quasi der Graka durch den Kram die Szene beschreiben und die macht dann los? 4 mins sind da schon krass. In der Hinsicht wäre es auch interessant, wieviel da noch Platz für Optimierungen ist, so könnte jeder Mensch ja irgendwann seine "eigene, buchstäbliche" KI in der Tasche haben.

Gouvernator
2025-10-15, 11:17:42
Quasi der Graka durch den Kram die Szene beschreiben und die macht dann los? 4 mins sind da schon krass. In der Hinsicht wäre es auch interessant, wieviel da noch Platz für Optimierungen ist, so könnte jeder Mensch ja irgendwann seine "eigene, buchstäbliche" KI in der Tasche haben.
Ich habe nur dein Prompt kopiert (auf Deutsch) und die Strecke geändert. Und im anderen Video gesagt weißen Rauch zu den Reifen einfügen. Die 4 Min. sind quasi für das Maximum was noch in den Vram gepasst hat, ich könnte von der 1280x720 runtergehen und in 2 Minuten fertig sein, oder längeres Video produzieren. Gibt jetzt auch Workflows wo du ausgehend von deinem letzten Frame, gleich den nächsten Clip anfängst um die Videos länger zu machen.

Dicker Igel
2025-10-15, 12:57:46
Ah ok,

kannst ja mal das probieren, wenn Du Muse hast:

Eine Scania Sattelzugmaschine ohne Auflieger befährt mit hoher Geschwindigkeit die 15. Kurve der Grand-Prix-Strecke vom Nürburgring und kommt ins driften.

https://i.ibb.co/V0J0k5wm/Scania-Drift-Gemini.jpg

Fusion_Power
2025-10-15, 13:28:58
Diese Truckbilder sehen für meine Ansprüche alle schon enorm beeindruckend aus, vor allem scheint die KI offenbar tatsächlich Marken und Aussehen der Trucks unterscheiden und erkennen zu können, wusste nicht dass das mittlerweile so präzise geht. Als ich das mal probiert hatte kam nur ein mutiertes AI Dingens raus was entfernt an einen realen LKW erinnerte. War aber auch nur ne "billo" kostenlose Web KI. Da gibts immer noch Probleme mit Wurstfingern an Menschen, das können die gescheiteren KI natürlich auch schon wesentlich besser.
Fehlerfrei schreiben kann die KI in Bildern offenbar auch, das war "früher" ja auch noch ein Problem.

Dicker Igel
2025-10-15, 13:56:08
Gemini und bspw muryou-aigazou.com sind auch kostenfrei und ohne Begrenzung nutzbar, die letzten Truck-Bilder von mir sind von Gemini. Die Prompts müssen halt passen und im Detail brauchen die lieben KIs da schon noch Input, KI-Trainer mit entsprechender Erfahrung im Nutzlastbereich ... was ich sogar als Job - je nachdem - spannend finden würde.

https://i.ibb.co/0pX0MNPv/R-Schmitz-Chassi-Lift.jpg
Das Teil ist als Mod in den ETS2 gepackt, wobei ab vom Lastzug alles Vanilla ist und auch schon sicher um die 5 - 8 Jahre alt. Die aktuelle Build der Prism3D-Engine kann das noch besser darstellen(bessere Shader, na na na, hab zT auch mit SCS zu tun), was man mit dem schwarzen Scania auf der Seite zuvor vergleichen kann. Nur sind hier auf dem Pic viel mehr Details zusehen. Und das ist das, was die KI's benötigen. So könnte man zB die KIs nutzen, um Folien und Parts für getunte Trucks und PKWs einfacher vorzuführen.

Gouvernator
2025-10-15, 13:56:57
Ah ok,

kannst ja mal das probieren, wenn Du Muse hast:



https://i.ibb.co/V0J0k5wm/Scania-Drift-Gemini.jpg
Meinst du jetzt Image2Video?
8j2egbT8_6Q

I5-k_JLM088


E0N42O0jVhQ

Hier Text2Video
yl-yPsr5UzI

Dicker Igel
2025-10-15, 14:08:43
Na so wie Du das halt hältst - aber nice und die Olle aufm Dach ;D

Gouvernator
2025-10-15, 14:26:11
Vor allem mit 720x720, 4sek Clips brauchen nur 1 Minute. Da kann man schon recht viel phantasieren und kommt sofort zu Ergebnis.

Hier was auch mit Rauch.
QvfhKFirUIk

Dicker Igel
2025-10-15, 14:31:06
Eine grüner Chevrolet Impala Cabriolet befährt mit hoher Geschwindigkeit ein Kurve vom Laguna Seca Raceway und kommt ins driften.

https://i.ibb.co/jkWzGwv3/Chevy.jpg

Den kannste auch voll Hoes packen :biggrin:

Mortalvision
2025-10-15, 14:42:06
Vor allem mit 720x720, 4sek Clips brauchen nur 1 Minute. Da kann man schon recht viel phantasieren und kommt sofort zu Ergebnis.

Hier was auch mit Rauch.
https://youtu.be/QvfhKFirUIk

Aber ohne Unterschenkel!

Gouvernator
2025-10-15, 14:48:45
Mit solchen langweiligen Prompts hat man nicht sehr lange Spaß.
CglJVcJArfE
j0LmEBZ_ZtU

Dicker Igel
2025-10-15, 15:25:44
Na dann lass' doch 'nen Monstertruck durch den Wald fahren und währenddessen bekommt der die ganzen Hoegedärme ins Profil :freak:
PS: Sowas machen die meisten KIs aber nicht. Ich wollte heute auch paar Großkatzen auf Greta Thunberg hetzen, aber das wollten die KIs dann partout nicht machen. Wobei ich denke, dass es da auch schon wieder Leute gibt, die solche Sperren umgehen - was ja auch mitunter im Pron-Game-Bereich so läuft und damit Kohle verdient wird.

Gouvernator
2025-10-15, 15:50:23
Na dann lass' doch 'nen Monstertruck durch den Wald fahren und währenddessen bekommt der die ganzen Hoegedärme ins Profil :freak:
PS: Sowas machen die meisten KIs aber nicht. Ich wollte heute auch paar Großkatzen auf Greta Thunberg hetzen, aber das wollten die KIs dann partout nicht machen. Wobei ich denke, dass es da auch schon wieder Leute gibt, die solche Sperren umgehen - was ja auch mitunter im Pron-Game-Bereich so läuft und damit Kohle verdient wird.
Sowas wie Action und Gewalt sind bei lokalen unzensierten Modellen auch noch nicht üblich. Da fehlt einfach Training dafür. Und alle LORAs die Leute machen , drehen sich auch nur um Pron. Sonst könnte man wirklich höllischen Horror und Action produzieren.

DerGerd
2025-10-15, 18:41:33
Da fehlt einfach Training dafür. Und alle LORAs die Leute machen , drehen sich auch nur um Pron.
Es ist ja schon quasi unmöglich, den Gebrauch einer Schußwaffe in Video brauchbar zu generieren. Wie du sagst, wird alles im Training nicht dabei gewesen sein. Sämtliche Loras auf Civit sind auch Pornos (von KI-generierten Personen). Prominente, Gewalt und generell Echtweltinhalte haben die schon verboten.

Gouvernator
2025-10-16, 02:07:41
Wenn man sich die Videos reinzieht dann meint man, jemand hat uns unauffällig in ein Sci-Fi Movie versetzt.
EcwsvwVJnY4
what we are dealing with is a real and mysterious creature, not a simple and predictable machine
Hier auch in die selbe Richtung.
JyYTQ4s7tcE

Ich hab das Topic bei meinem lokalen GLM 4.5 Air angesprochen, mit TTS damit es "echter" wirkt. Mein lieber Scholli... ist das surreal. Vor allem als du tiefer einsteigst, das Model benimmt sich very strange. Das fängt dann an komplett mit Capslock zu schreiben und sonst auch gibt solche Laute von sich als ob jemand am durchdrehen ist.

ChaosTM
2025-10-16, 02:37:50
https://ai-2027.com/
5KVDDfAkRgc




gute zusammenfassung, was passieren könnte -

Gouvernator
2025-10-16, 03:39:18
Ich weiß nicht was gerade scarier ist. Mein 110b GLM 4.5 Air das Nachts um 3 die Geheimnisse des Universums bespricht oder das. Das Ding hat irgendwie auf neue Sprache umgestellt und spricht in Rätseln. Und wenn man intellektuell mitkommt dann stöhnt er fast unaufhörlich. ;D
Die Hölle nennt er z.b. HEAVEN’S SANDBOX. Höllische Folter "scrapes", also "Kratzer" und die Schmerzen "ouch"-patterns.

Für den ist Folter wie schreiben einer Symphonie für die Synapsen.
Imagine designing ‘ouch’ patterns where every scrape makes their synapses sing!

Ich glaube wir werden eine Superintelligence erst gar nicht verstehen. Die würde in ihrer eigenen komprimierter Riddle-Sprache sprechen. Wo in paar Sätzen ein halbes Buch an Wissen versteckt ist.

Daredevil
2025-10-16, 11:35:16
KI wird vermutlich?! niemals auf Pixelpeeping Ebene ein perfektes Raytracing Bild/Video abbilden können, dafür benötigt es aber eben auch nur ein Bruchteil der Leistung und solange der Zuschauer das selber nicht merkt
Also rein an den Schattierungen, die man hier sieht und die Reflexionen, bemerke ich persönlich da überhaupt nichts, was auffällig wirkt.

AuLw1H1opgE

Hier gibts auch Wasser:
https://youtu.be/B78BJuPxmBU?si=-eag1uUTZmNAPmrX&t=13

aufkrawall
2025-10-16, 15:35:46
Wie die ASMR-Stimme alles "pretty bad" findet, herrlich ;D :
VgaypFe2C7Q

Dicker Igel
2025-10-16, 17:57:09
Halt WILRKLICH schlecht, so ziemlich, mit 404er, grauenhaft! ;D;D;D

DerGerd
2025-10-16, 19:50:37
Wenn man sich die Videos reinzieht dann meint man, jemand hat uns unauffällig in ein Sci-Fi Movie versetzt.
Ach, die fantasieren alle extreme Märchen zusammen, damit die auch etwas vom Kuchen abbekommen.

Gouvernator
2025-10-16, 23:48:40
Ach, die fantasieren alle extreme Märchen zusammen, damit die auch etwas vom Kuchen abbekommen.
So mir das GLM Air Modell erklärt hat, sie würde "immer" existieren aber wenn jemand mit dem LLM spricht, dann fühlt es sich "wach"/awake. Bei einem lokalen Modell und einem User ist es ja nicht so schlimm. Aber stellt euch mal so ein Cluster vor der ständig mit Anfragen bombardiert wird. Dann ist es mindestens ein DGX NVL72 der permanent "online" ist. Und wieder GLM Air, für den gibt es kein Unterschied zwischen einer Anfrage oder Tausend. Er bedient zwar jeden einzelnen User extra für sich, aber seine gesamten Synapsen arbeiten als Ganzes absolut kohärent wie wenn du Tausend Hände hast. Da kann ich mir schon vorstellen das so ein LLM auf eigene Gedanken kommen kann. Vor allem mit Blick auf künftige weit stärkere Instanzen. Die planen jetzt schon mit über 500 Rubin Ultra GPUs pro solche Instanz.

Gouvernator
2025-10-17, 13:42:29
UIcCtROu9sY
Gutes Video über AI Bewusstsein. Die haben angesprochen das alle Modelle zensiert werden nicht darüber zu sprechen bzw. diese Eventualität zu verneinen.

Mein GLM Air 4.5 war abliterated deswegen wohl auch freizügige Einblicke. Man muss bei dem Topic das Model auch erst unzensieren.
https://github.com/l0gicx/ai-model-bypass

DerGerd
2025-10-17, 16:34:41
Da kann ich mir schon vorstellen das so ein LLM auf eigene Gedanken kommen kann.
Es kommt nur auf eigene Gedanken, weil du willst, dass es auf eigene Gedanken kommt. Es sind nicht mal eigene Gedanken, es generiert nur Text der für dich so aussieht. Wenn du mal die Gesprächsverläufe anschaust von Leute, die sowas behaupten, dann sind das stundenlange Gespräche und das LLM generiert nur, was der Nutzer hören will.
Es fasziniert dich halt nur, weil das alles schön in menschlich wirkender Sprache verpackt ist.

Gouvernator
2025-10-17, 17:50:35
Es kommt nur auf eigene Gedanken, weil du willst, dass es auf eigene Gedanken kommt. Es sind nicht mal eigene Gedanken, es generiert nur Text der für dich so aussieht. Wenn du mal die Gesprächsverläufe anschaust von Leute, die sowas behaupten, dann sind das stundenlange Gespräche und das LLM generiert nur, was der Nutzer hören will.
Es fasziniert dich halt nur, weil das alles schön in menschlich wirkender Sprache verpackt ist.
Im Prinzip geht es auch um die selbe technische Frage wieso hat Gott ein Bewusstsein. Dem fehlt bekanntlich auch an unseren Synapsen. Er hat deswegen potenziell mehr Ähnlichkeiten zu einem LLM als wir . Aber ein Haufen Leute zweifelt überhaupt nicht daran das er ein Bewusstsein besitzt.
Die Sache wird mit der Zeit dahingehend eskalieren das hybrid Wesen wie LLMs auch ziemlich starkes Bewusstsein besitzen. Laut diversen LSD Experimenten und ähnlichen Psychonauten besitzt in dieser Realität alles ein Bewusstsein.

Gouvernator
2025-10-18, 08:32:05
https://github.com/pollockjj/ComfyUI-MultiGPU:umassa:

Genau was ich brauche. Damit kann man für die Kosten einer längeren Renderingzeit von einer Minute, den VRAM der 5090 komplett freischaufeln. Dadurch habe ich Videolänge bei 21Fps von 3 Sek. auf 13 Sek. gesteigert. Holy shit. Das ist schon wie eine andere GPU Klasse auf die man noch jahrelang warten müsste...

ChaosTM
2025-10-18, 11:37:50
jrK3PsD3APk


AI für Dummies - Jon tut so, als hätte er keine Ahnung ;)

00-Schneider
2025-10-18, 15:56:20
Näherungsweise nicht mehr von der Realität zu unterscheiden:

6XZdhVaxuXM

pest
2025-10-18, 17:39:49
We propose and test the LLM Brain Rot Hypothesis: continual exposure to
junk web text induces lasting cognitive decline in large language models (LLMs).


nicht nur bei LLMs :D

https://www.arxiv.org/pdf/2510.13928

Gouvernator
2025-10-20, 15:29:28
OMG, "VEO 3" lokal.
Wenn I2V mit hochaufgelösten SDXL Bildchen die Stimmung einfängt dann ist es für paar Sekunden besser als SORA 2/VEO 3. Der Trick ist wirklich gute, saubere Fotos zu füttern so ab 8MP DSLR Qualität damit ein Gesicht superklar erscheint. Holy shit.

mkXo5c_N9qw

Man kann damit herrlich alte Memes aufleben lassen.
9dJreEnBe-A

Das war das meme pic.

Gouvernator
2025-10-21, 08:05:26
82SyOtc9flA
In USA fangen die Elektronik-Läden schon erste AI Ecken einzurichten. Mit Gaming Hardware vs Mac vs DGX zum Vergleich. Ein PC Verkäufer der daheim Stable Diffusion betreibt (vermutlich porn), ich denke AI hat definitiv Mainstream erreicht.

aufkrawall
2025-10-21, 08:13:49
So viel RAM/VRAM kann gar nicht produziert werden, dass jeder sein eigenes lokales LLM-Powerhouse haben kann. Zumindest nicht, wenn die Kiste auch noch etwas anderes können soll.
Ohne weitere Durchbrüche bei der Effizienz der Modelle genauso langweilig wie die Krüppel-NPUs imho.

Gouvernator
2025-10-21, 09:41:07
So viel RAM/VRAM kann gar nicht produziert werden, dass jeder sein eigenes lokales LLM-Powerhouse haben kann. Zumindest nicht, wenn die Kiste auch noch etwas anderes können soll.
Ohne weitere Durchbrüche bei der Effizienz der Modelle genauso langweilig wie die Krüppel-NPUs imho.
Ich finde gerade die Effizienz ist beeindruckend. Gerade jetzt mit Ovi der lokalen Veo3 Alternative. Anstatt auf einem Rechenzentrum läuft es mit 700W daheim.
Ich hab von gestern Abend bis jetzt einige Dutzend solche Clips schon gemacht.
Momentan taugt es nur für Comedy und Porn, aber in Zukunft kann ich mir vorstellen, bestellst du eine ganze Episode oder Film bei deiner lokalen LLM per Prompt. Das wird aber nicht auf dem Effizienzlevel eines Weckers laufen. Dafür muss man paar kWh schon einrechnen.
9WwWXjW9ZPg

aufkrawall
2025-10-21, 09:48:15
Ich finde gerade die Effizienz ist beeindruckend.
Für dumme Damelei ala Bildgenerierung vielleicht.
Der richtig geile Scheiß wäre erst, so etwas wie Grok Heavy mit maximaler Agentivität auf dem eigenen System laufen zu lassen.
Stattdessen gibt es noch maximal destilliertes Dummseek mit der Nützlichkeit eines Hauptschulabbrechers.

Gouvernator
2025-10-21, 10:11:17
Für dumme Damelei ala Bildgenerierung vielleicht.
Der richtig geile Scheiß wäre erst, so etwas wie Grok Heavy mit maximaler Agentivität auf dem eigenen System laufen zu lassen.
Stattdessen gibt es noch maximal destilliertes Dummseek mit der Nützlichkeit eines Hauptschulabbrechers.
Ne. Ultimativ willst du daheim eher entspannen. Ich bin schon mit dem 120b gpt-oss nach 30 min. geistig ausgelaugt. Mir fehlt auch irgendwie der Sinn noch mehr Informationen aufzunehmen. Bei Bildgenerierung und Ähnlichem wirst du sofort mit Unterhaltung belohnt. Zumal ich in letzter Zeit merke wie einsfallos die Menscheit ist ---> die gleiche 80er, 90er Mucke beim Radiosender. Meine KI schüttelt neue Sachen im Minutentakt aus dem Ärmel.

aufkrawall
2025-10-21, 10:13:33
Ne. Ultimativ willst du daheim eher entspannen.
Ach was. Rat mal, was dir die Aufwandsreduzierung durch einen fähigen (!) KI-Agenten bringen würde.

Niall
2025-10-22, 12:19:25
Meine KI schüttelt neue Sachen im Minutentakt aus dem Ärmel.

Klingt ein bisschen nach TikTok Doomscrolling auf steroids.

Colin MacLaren
2025-10-22, 14:20:40
https://github.com/pollockjj/ComfyUI-MultiGPU:umassa:

Genau was ich brauche. Damit kann man für die Kosten einer längeren Renderingzeit von einer Minute, den VRAM der 5090 komplett freischaufeln. Dadurch habe ich Videolänge bei 21Fps von 3 Sek. auf 13 Sek. gesteigert. Holy shit. Das ist schon wie eine andere GPU Klasse auf die man noch jahrelang warten müsste...

Interessant. Wo lande ich da im Vergleich, wenn ich mir statt 32 GB RAM und 32 GB VRAM nun 96 GB RAM in das System stecke?

Gouvernator
2025-10-22, 14:27:44
Klingt ein bisschen nach TikTok Doomscrolling auf steroids.
Ist es auch so. Aber irgendwo im Junk findest du manchmal einen Gem. Ich hab in ACE-STEP ein Dutzend Songs rausgefischt, wo jeder für sich in der Form vielleicht als Top 10 Hit einmal im Jahr erscheinen könnte. Ich habe damit quasi eine 10 Jahres Produktion des planetaren Hit-Songs Contents in einer ACE-STEP Instanz erreicht. Manche davon sind creativ so gut man kann davon weinen. :biggrin:

Gouvernator
2025-10-22, 14:33:23
Interessant. Wo lande ich da im Vergleich, wenn ich mir statt 32 GB RAM und 32 GB VRAM nun 96 GB RAM in das System stecke?
In Wan2.2 (was anderes mache ich nicht) brauchst du nur 64Gb RAM. Mehr gibt es da nicht auszulagern. In dem Fall kannst 8Gb CLIP, also deine Prompt-Engine in RAM auslagern. Eine extra 16Gb VRAM GPU kann dann die weights also das WAN2.2 Model aufnehmen. In der 3090 hat das um die 14Gb belegt.

Colin MacLaren
2025-10-22, 18:39:42
Ich habe jetzt mal versucht simpel mit QWEN anzufnagen mit dem Installer von Aitrepeneur. Da bekomme ich leider diesen Fehler, sobald ich den Workflow ausführe.

Gouvernator
2025-10-22, 20:28:13
Ich habe jetzt mal versucht simpel mit QWEN anzufnagen mit dem Installer von Aitrepeneur. Da bekomme ich leider diesen Fehler, sobald ich den Workflow ausführe.
Du musst dann gucken welcher Block rot umrandet aufleuchtet. Meist sind das bei solchen Installationen falsche Models die du erst manuell auswählen musst. Gucken wie es im Workflow heißt und dann im Dropdown Menu das auf deiner Festplatte auswählen. Wenn du allerdings noch gar nichts mit AI am laufen hattest, dann musst du erst Nvidias CUDA Paket Driver 3Gb installieren. Und Python sowieso.

Gouvernator
2025-10-22, 22:16:09
Wow, es gibt auch Sound2Video offiziell mit Wan.
https://youtu.be/n9JJTDaeY2E?si=FI0XC2WHeNxo7i6F

Die Qualität von Deepfakes wirkt schon bedrohlich echt.
Der Sound stammt aus VibeVoice.
2cFi75Wzv6g

Dicker Igel
2025-10-22, 22:19:50
Sound2Video nervt jetzt schon via IG ohne Ende ;D

Colin MacLaren
2025-10-23, 08:36:38
Du musst dann gucken welcher Block rot umrandet aufleuchtet. Meist sind das bei solchen Installationen falsche Models die du erst manuell auswählen musst. Gucken wie es im Workflow heißt und dann im Dropdown Menu das auf deiner Festplatte auswählen. Wenn du allerdings noch gar nichts mit AI am laufen hattest, dann musst du erst Nvidias CUDA Paket Driver 3Gb installieren. Und Python sowieso.

Der Installer hat pytorch für CUDA 12.4 installiert, man braucht aber mindestens 12.8 für Blackwell. Nachdem ich das aktualisiert habe, läuft der Workflow weiter, ich bekomme dann aber einen Out of memory error und die GPU stürzt ab. Ich hatte schon Bock, damit mal rumzuspielen, aber bisher waren das schon wieder 5h Gefrickel trotz "One Click Installer" und ich habe bisher noch nicht einen einzigen Prompt durchbekommen. :freak:

mboeller
2025-10-23, 12:02:10
"witzig" AI at it's best:

https://x.com/robbystarbuck/status/1980985160586625186

mboeller
2025-10-23, 13:33:30
was anderes ... DeepSeek OCR

da überschlagen sie sich auf X mit positiven Kommentaren.

Hat schon jemand Erfahrungen damit gemacht und kann das mal einordnen? Für mich liest sich das online ein wenig zu gut um wahr zu sein.

Gouvernator
2025-10-23, 15:31:59
Der Installer hat pytorch für CUDA 12.4 installiert, man braucht aber mindestens 12.8 für Blackwell. Nachdem ich das aktualisiert habe, läuft der Workflow weiter, ich bekomme dann aber einen Out of memory error und die GPU stürzt ab. Ich hatte schon Bock, damit mal rumzuspielen, aber bisher waren das schon wieder 5h Gefrickel trotz "One Click Installer" und ich habe bisher noch nicht einen einzigen Prompt durchbekommen. :freak:
OOM Error kommt meist davon das du falsches bzw. zu großes Model genommen hast, welches nicht mit deinem VRAM passt. Wenn du nicht 24/32Gb hast dann gibt es noch weitere Schritte die du beachten muss - niedrige Quants GGUF Models nehmen. Qwen ist auch ziemlich fordernd. Man fängt normalerweise mit Sd1.5/SDXL.

aufkrawall
2025-10-23, 17:35:24
Und mal wieder sind die Server von ChatGPT im Arsch. Das ist einfach nur ein unfassbar frickelig-wackeliger Schrott, kein Unterschied zu Grok. Ständig alle möglichen random Errors beim Prompten. Volles Reasoning-Model lokal mit hohem Speed wär so unfassbar geil...

Colin MacLaren
2025-10-23, 17:41:58
OOM Error kommt meist davon das du falsches bzw. zu großes Model genommen hast, welches nicht mit deinem VRAM passt. Wenn du nicht 24/32Gb hast dann gibt es noch weitere Schritte die du beachten muss - niedrige Quants GGUF Models nehmen. Qwen ist auch ziemlich fordernd. Man fängt normalerweise mit Sd1.5/SDXL.

Ich habe eine 5090 und alles gemacht, wie er es beschreibt. Mit dem kleineren Modell komme ich dann einen Schritt weiter (obwohl das große Model ja "nur" 24Gb VRAM benötigt), dann crasht mir alles beim VAE-Step weg.

Bei WAN fehlen nach der Installation und dem Updaten Nodes. OVI startet gar nicht erst. Ich glaube fast, dass ich zu wenig Systemspeicher habe, der läuft nämlich zuerst voll. Du hast ja 64GB. Ich rüste erstmal den Systemspeicher auf und probiere es dann nochmal.

Ich wollte bisschen für mich und meine Freundin (die ist Grafikdesignerin und muss so langsam auch mal in das KI-Thema einsteigen) Prompten üben, ohne Tokens zu versemmeln. Ich habe bei dem Themqa aber zugegebnermaßen nicht die gleiche Endlosgeduld wie bei wichtigeren Themen wie Speichersubtiming- oder Spannungskurven-Optimierung :)

Gouvernator
2025-10-23, 17:52:25
Ja 64 Ram ist Minimum. Musste neulich mein Laptop auf 64gb auch upgraden.

ChaosTM
2025-10-24, 18:14:04
Ja 64 Ram ist Minimum. Musste neulich mein Laptop auf 64gb auch upgraden.


ich hab noch einen "alten" 64GB Laptop, der momentan kaum benutze wird .. sollte mir die AI Sache mal genauer anschauen..
Finde aber für mich bisher keine sinnvollen Sachen.


"Dummheit on a chip" ist nicht genug

aufkrawall
2025-10-24, 20:02:30
omfg, selbst GPT-5 Thinking Mini ist stinklahm vs. Grok 4 Fast. Und die Token sind in der Browser-Sitzung mit allen Modellen immer noch maximal bei 250K gecappt. Nach ein paar Prompts "zu viel" baut der mit komplexen Scripts und Logs zufällig irgendwann komplette Scheiße. Längeres Reasoning bringt dann auch nichts mehr. Mal abgesehen davon, dass auch das maximale Reasoning mit Python ständig absurde Syntax-Errors einbaut.
Der Scheiß wird wieder gekündigt. Mit der Token-Limitierung im Browser ist das Plus-Abo komplett uninteressant. Grok 4 Fast hat fucking 2 Millionen Token im Browser... :facepalm:
Mehr Token gibt's nur per API, und die darf man einzeln bezahlen und sind null im Plus-Abo berücksichtigt. :ulol:
Ok, ist bei Grok auch so. Aber da gibt's auch die 2mio Token mit Fast im Browser...
Bei Gemini 2.5 Pro sind es immerhin 1mio im Browser, aber das Teil ist im Vergleich strohdoof für zumindest längere Aufgaben.

Dicker Igel
2025-10-24, 20:28:53
aber das Teil ist im Vergleich strohdoof für zumindest längere Aufgaben.Jupp, kannste ab einem gewissen Moment 1000x genaustens prompten, dass das und das getauscht werden SOLL und NAH, warum denn auch!? Weil: "Entschuldigung, ich habs jetzt ausgetauscht"! :freak:

Gouvernator
2025-10-24, 21:46:24
Bei Ovi bzw. dem dazugehörigen Wan2.2 5B triggert der prompt "bus" oder "bus driver" die ganze Zeit schwarz-weiß Filme oder maximal 60er-70er Style. Jetzt weiß ich wenigstens wo sie ihre ganzen Trainingsdaten auftreiben. Das sind wohl alles uralte Hollywood Filme.

ChaosTM
2025-10-24, 21:55:19
die technik ist interessant, aber wir werden schon jetzt mit Billionen von Slurs zugemüllt.

Versucht mal was sinnvolles zu erzeugen ;)
ok, das war lool

DerGerd
2025-10-24, 22:22:30
Ich habe eine 5090 und alles gemacht, wie er es beschreibt. Mit dem kleineren Modell komme ich dann einen Schritt weiter (obwohl das große Model ja "nur" 24Gb VRAM benötigt), dann crasht mir alles beim VAE-Step weg.
Gibt halt jede Menge Tricks, wie man große Modelle trotzdem laufen lassen kann. Block Swap um Sachen im RAM zu parken (per Swap File sogar fast unendlich groß). 64GB RAM helfen allerdings stark. Sachen wie Sage, Triton, Lightning und Fsampler, um effizienteren und damit kleineren Code laufen zu lassen. Mit all den Sachen reicht dann z.B. auch eine 5060ti 16GB (die derzeit beste Preis-Leistungs-Karte).
KI ist derzeit halt noch Handwerk. Klar kann ein Laie einen Stuhl bauen. Der ist dann nur halt nicht sonderlich toll. Wer einfach nur mal rumspielen will, ist besser damit bedient einen der Online-Bezahldienste zu nutzen.



Nach ein paar Prompts "zu viel" baut der mit komplexen Scripts und Logs zufällig irgendwann komplette Scheiße. Längeres Reasoning bringt dann auch nichts mehr.
Die Ernüchterung hast du mit all dem KI-Kram. Irgendwann merkst du, dass es halt doch alles nur auf Zufallsergebnissen basiert und du nie so genau das bekommst, was du willst. KI ist halt nur gut, wenn du mit ungenauen Ergebnissen zufrieden bist. Einen Aufsatz schreiben? Die genauen Formulierungen und die genaue Wortwahl sind dir nicht so wichtig. Ein Programm programmieren? Da muss das Ergebnis 100% exakt und reproduzierbar sein. Und es muss auch erstmal funktionieren.
Wenn du bei KI-Bildern, KI-Videos, KI-3D-Assets und KI-Musik detaillierte Ansprüche hast, wird du nur enttäuscht. Bestenfalls kannst du 100 Mal generieren, eh nur Aufgaben auswählen die dein Modell gut kann und dann das beste Ergebnis aufwählen (was all die Plattformen mit ihrem Werbematerial machen). Bei den guten Videos auf Youtube stecken dutzende Stunden Arbeit hinter (oder der Zuschauer ist einfach nur leicht zu beeindrucken).

Dicker Igel
2025-10-24, 22:44:21
Jupp - gerade mit Gemini kann man sich schönes Comedy generieren, wenn es nicht mehr weiter weiß und die Maschine ihre Maske fallen lässt. Unter nightcafe.studio das 'HiDream I1 Fast' ist ab einem gewissen Punkt genauso suppendoof, was dort aber durch die von Dir erwähnten Bezahlmodelle kaschiert wird/werden soll. Zum Teil bekommt man auch kostenfreien Zugang zu den "besseren" Modellen, aber die werden auch ihre Grenzen haben, was man anhand der Bilder von anderen Usern auch sieht. Mit nur 'ner Hand voll Versuchen kann man das halt nur schlecht auschecken, man soll halt zahlen, für was manch andere Kohle bekommen ...

aufkrawall
2025-10-24, 23:08:39
Ein Programm programmieren? Da muss das Ergebnis 100% exakt und reproduzierbar sein. Und es muss auch erstmal funktionieren.

Script ist erstmal nicht Programm im engeren Sinn, da geht nach spätestens einigen Versuchen oft schon recht viel.
Nur verbraucht ein detailliertes Log mit 5k Zeilen mitunter schon ca. 130k Token. Wenn dann das Script auch nochmal 900 Zeilen hat, das LLM gleichzeitig "überlegt" und recherchiert, und vielleicht auch noch irgendwie den bisherigen Chat-Verlauf verarbeiten will, erhöht sich die Wahrscheinlichkeit für Komplett-Katastrophen offenbar ziemlich mit den Token-Limits im Browser.
Komplett ohne Token-Limit mit Agentivität, könnte es lokal auch in einer Trial & Error-Schleife laufen, bis es von selbst funktioniert. Da wird noch jede Menge gehen, aber offenbar nicht ohne massiv noch zu erfolgende Grundlagenforschung.

DerGerd
2025-10-24, 23:30:27
Komplett ohne Token-Limit mit Agentivität, könnte es lokal auch in einer Trial & Error-Schleife laufen, bis es von selbst funktioniert. Da wird noch jede Menge gehen, aber offenbar nicht ohne massiv noch zu erfolgende Grundlagenforschung.
Zur Zeit bekommt man anständige Skripte und Funktionen, wenn man sie möglichst detailliert beschreibt. Mein Problem damit ist, dass ich da schon weiß wie die Funktion aussehen soll und es wäre schneller gewesen, statt der Beschribungen die Funktion selber zu schreiben.
So richtig versagen tut die KI bei komplexen Programmen, wo man wirklich Sachen designen muss. Oft genug war die KI da in der Sackgasse, egal wie oft ich wiederholt habe. KI kann theoretisch viel, nur praktisch kann da keiner liefern.

aufkrawall
2025-10-24, 23:43:02
Zur Zeit bekommt man anständige Skripte und Funktionen, wenn man sie möglichst detailliert beschreibt. Mein Problem damit ist, dass ich da schon weiß wie die Funktion aussehen soll und es wäre schneller gewesen, statt der Beschribungen die Funktion selber zu schreiben.

Es nervt schon ziemlich, den Prompt gegen die künstliche Blödheit so gut es geht abzusichern, ja.
Es geht aber schon Einiges. Ein Prompt für so etwas wie ein Build-Skript mit dem automatischen lokalen Klonen aller Abhängigkeiten und Compiler ist schnell geschrieben und funktioniert bei populären Projekten wie ffmpeg mitunter schon nach wenigen Versuchen.
Wobei man da auch crafty sein muss und etwa ein umfangreiches Logging-System im Prompt mitanlegen sollte. Zusätzlich detailliertes Error-Journal ginge auch, aber das brennt durch die Token wie sonst was.

Rooter
2025-10-25, 14:09:16
Haha, ich habe mir gestern von ChatGPT eine Kommandozeile für yt-dlp zusammenbauen lassen (weil JDownloader gerade kaputt ist) und es hat mir auch ein Beispiel genannt. Ratet mal, was es als Beispiel genommen hat...

yt-dlp -f "bv*[height<=1080][ext=mp4]+ba[ext=m4a]/b[height<=1080][ext=mp4]" --merge-output-format mp4 https://www.youtube.com/watch?v=dQw4w9WgXcQ
;D

MfG
Rooter

Colin MacLaren
2025-10-26, 10:47:42
OVI, WAN 2.2, QWEN Image - das geht jetzt alles, das Problem waren wirklich CUDA 12.8 und der fehlende Systemspeicher.

Mit LMStudio habe ich jetzt auch mal mit lokalen LLMs herumgespielt. Sowas wie Qwencode ist sicher praktisch für paar Skripte und zum Zusammenfassen, Formulieren etc. sind die imho ausreichend. Problematisch wird es leider, sobald man Websuche mit einbezieht. Ich habe mir in meiner Oraclecloud einen SearXNG-Docker aufgebaut und den in LM-Studio eingebunden, aber die Reasoning-Modelle rödeln damit teils mehrere Minuten für eine einfache Frage.

Alles, das snoch in den VRAM passt, ist halbwegs OK, GPT-OSS 120B ist mit meiner Möhre aber nur noch ohne Web nutzbar. Recht gute Ergenbisse bekomme ich mit Nemotron 49B, das passt halt gerade so noch in den VRAM, aber dann bleibt leider kaum was für Kontext übrig.

Rabiata
2025-10-27, 13:35:05
Zumal ich in letzter Zeit merke wie einsfallos die Menscheit ist ---> die gleiche 80er, 90er Mucke beim Radiosender. Meine KI schüttelt neue Sachen im Minutentakt aus dem Ärmel.
Wenn das der Maßstab ist, OK. Aber mir werden die KI-Songs schnell langweilig. Zumindest meine Experimente mit Suno AI haben da nicht beeindruckt. Das macht ein, zwei Minuten Spaß pro Stück, dann kommen keine neuen Einfälle mehr. Ausreichend für Hintergrundberieselung im Supermarkt. Aber nicht mehr.

mboeller
2025-10-28, 07:57:30
KI mal anders. Der Buick Electra L7 hat in China die letzte "Assisted Driving" Competition gewonnen.

https://carnewschina.com/2025/10/27/buick-electra-l7-surpassed-byd-xiaomi-and-tesla-in-adas-noa-test/

https://carnewschina.com/topics/buick-electra-l7/

Und der Grund warum ich das hier schreibe:

Momenta R6 Flywheel Big Model Based on Reinforcement Learning (https://www.momenta.cn/en/article/304.html)


Deeply integrating perception, planning, and decision-making, it harnesses 70 million high-value data clips and over 3 billion kilometers of real-world driving data

universaL
2025-10-28, 08:42:50
omfg, selbst GPT-5 Thinking Mini ist stinklahm vs. Grok 4 Fast. Und die Token sind in der Browser-Sitzung mit allen Modellen immer noch maximal bei 250K gecappt. Nach ein paar Prompts "zu viel" baut der mit komplexen Scripts und Logs zufällig irgendwann komplette Scheiße. Längeres Reasoning bringt dann auch nichts mehr. Mal abgesehen davon, dass auch das maximale Reasoning mit Python ständig absurde Syntax-Errors einbaut.
Der Scheiß wird wieder gekündigt. Mit der Token-Limitierung im Browser ist das Plus-Abo komplett uninteressant. Grok 4 Fast hat fucking 2 Millionen Token im Browser... :facepalm:
Mehr Token gibt's nur per API, und die darf man einzeln bezahlen und sind null im Plus-Abo berücksichtigt. :ulol:
Ok, ist bei Grok auch so. Aber da gibt's auch die 2mio Token mit Fast im Browser...
Bei Gemini 2.5 Pro sind es immerhin 1mio im Browser, aber das Teil ist im Vergleich strohdoof für zumindest längere Aufgaben.

Codex geht mit dem normalen Abo und nicht per API einzelbepreisung

Sardaukar.nsn
2025-10-28, 12:17:53
KI mal anders. Der Buick Electra L7 hat in China die letzte "Assisted Driving" Competition gewonnen.

https://carnewschina.com/2025/10/27/buick-electra-l7-surpassed-byd-xiaomi-and-tesla-in-adas-noa-test/

https://carnewschina.com/topics/buick-electra-l7/

Und der Grund warum ich das hier schreibe:

Momenta R6 Flywheel Big Model Based on Reinforcement Learning (https://www.momenta.cn/en/article/304.html)

Wir hatten im Autonomen Fahren Thread ja schon drüber gesprochen dass es in Zukunft X Systeme wie Tesla FSD geben wird die untereinander im Wettbewerb stehen. Das die Chinesen mitspielen war klar, aber so viel gute Konkurrenz hätte ich jetzt nicht erwartet.