Archiv verlassen und diese Seite im Standarddesign anzeigen : Künstliche Intelligenz
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
[
13]
Skysnake
2026-04-23, 22:31:29
Wobei wie gesagt mit Premium Promopts sich keine Sau mehr dafür interessieren muss wie viele Tokens etwas braucht. Ich habe heute mal eben ca 100 Premium Tokens und so 1Mio+ Tokens wohl verballert.
Ich muss sagen hat sich aber vermutlich aus kommerzieller Perspektive gelohnt. Ist echt krass wie viel das Toolung ausmacht und nicht das eigentliche Model das man nutzt.
aufkrawall
2026-04-23, 22:36:45
Damit ist im Juni bei Copilot wahrscheinlich komplett Schluss, dann wird das offenbar auch komplett auf API Token-Kosten umgestellt. Also dann komplett witzlos für den Endverbraucher, dann kann man auch direkt auf OpenRouter, OpenCode Zen etc. kaufen...
100 Premium Prompts für ein paar Millionen Token sind auch immer noch ziemlich schlecht abgemolken. Mein einzelner Opus-Prompt mit Retry-Loop für FSR FG-Support im DX12-Overlay hatte wahrscheinlich zig hunderte Euro Kosten verursacht. :freak:
Btw: Die Codex Desktop-App ist ein Segen. Was ein unglaublicher Schrott VS Code im Vergleich ist.
Skysnake
2026-04-23, 23:08:10
Naja, wenn du einfach was entwickelst ist das ja was anderes. Wenn ich aber dran denke, dass das ja quasi völlig interaktiv gemacht wird, dann ist das schon ok. Zumal es eben kein Workflow ist den man aufsetzt und dann abarbeiten lässt sondern ein einmaliges Ding.
War die Desktop App nicht das mit dem installierten "backdoor" Plugin? Oder verwechselt ich da was?
Aber an sich ja, VSCode ist an sich schrottig. Allein die ganzen plugins.. die totale Seuche wie npn was noch viel schlimmer als pypi ist...
Aber der Einäugige unter den Blinden...
aufkrawall
2026-04-23, 23:21:01
War die Desktop App nicht das mit dem installierten "backdoor" Plugin? Oder verwechselt ich da was?
Sagt mir nichts. Es nutzt jedenfalls auch unter Windows Sandboxing und hat nun auch einen optionalen, vermutlich LLM-gesteuerten Permission approve/deny-Modus. Klingt nach einer schlechten Idee, aber die Alternativen Approval-Spam oder Komplett-Yolo sind noch wesentlich schlechter.
Das Verrückte ist, dass diese App von immer mehr Leuten sowohl für Normie-Kram, als auch LLM-Coding immer mehr genutzt werden wird. Und wirkt auch nicht so hässlich gevibe coded wie die Claude-App. Aber beide werden das sein, was Copilot immer versprochen hat (und noch mehr, also Verschmelzung von Normie-, Office- und Dev-Usecases).
Microsoft hat so unglaublich verkackt mit seinem ganzen UI-Schrott, es ist unglaublich. Ist eine komplette Hyperscaler-Firma geworden, mental nichts anderes mehr vorhanden.
Sardaukar.nsn
2026-04-23, 23:34:27
Das enorme Geld was in KI investiert wurde, muss irgendwie auch wieder rein kommen.
aufkrawall
2026-04-24, 02:38:07
Bei einem vergleichbaren Debug-Prompt in Codex in jeweils einem neuen Chat für das gleiche Projekt mit vielen File-Reads, viel Reasoning, einigen Online-Suchen und anderen Tool-Calls usw.
5.5 xhigh: ca. 33% des fünfstündigen Limits des Plus-Plans
5.4 xhigh: ca. 25%
Also kein dramatischer Unterschied. Falls das nicht auch ein Stück weit Zufall war, denn die Promptbearbeitung war mit 5.5 nicht schneller. Vielleicht also auch einfach zufällig mehr Arbeit im 5.5-Prompt.
Im 20€ Claude-Plan wär er mit Opus wahrscheinlich durch einen Prompt vor Erreichen des Limits gar nicht fertig geworden. :freak:
Monkey
2026-04-24, 08:49:07
Deepseek v4 raus, aktuell kommt ja gefühlt täglich was neues aus dem (fernen) Osten
mboeller
2026-04-24, 09:53:27
https://x.com/RnaudBertrand/status/2047560630694183034
Deepseek v4:
I haven't studied it in depth but here are the most striking aspects as far as I can tell:
- Fully open sourced with open weights (available for download on huggingface: https://huggingface.co/deepseek-ai)
- Zero CUDA dependency anywhere in its stack, which is probably the biggest deal of all. For those who don't know, CUDA is Nvidia's software layer - the foundation nearly every frontier AI model in the world is built on. Except, as of today, DeepSeek V4, which can run entirely on Huawei Ascend chips via Huawei's CANN framework (https://finance.yahoo.com/sectors/technology/articles/huawei-ascend-supernode-support-deepseek-044352075.html). Very concretely it means that China now not only has its own frontier AI models, but its own domestic AI stack, top to bottom.
- The prices are insanely low. V4-Pro is roughly 3x cheaper than GPT-5.5 on input and 8.6x cheaper on output. And V4-Flash is an order of magnitude cheaper still, at $0.14/$0.28 per million tokens vs OpenAI's $5/$30 - so 30-100x cheaper than GPT-5.5 (!). And remember, these are the prices DeepSeek charges on its own API - anyone can download the weights and run them for "free" on their own server.
nun denn...
https://x.com/deepseek_ai/status/2047516922263285776
DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
�� DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models.
�� DeepSeek-V4-Flash: 284B total / 13B active params. Your fast, efficient, and economical choice.
Try it now at http://chat.deepseek.com via Expert Mode / Instant Mode. API is updated & available today!
�� Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
�� Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
braucht anscheinend auch wesentlich weniger Rechenleistung und Speicher/Cache als noch V3.2:
https://x.com/deepseek_ai/status/2047516936289017964
Wenn ich nicht zu blöd bin das Chart zu lesen braucht V4 nur noch ca. 5GB Cache bei 1Mio Token während V3.2 bei 50GB Cache war. Läuft V4 damit auch auf einer 8GB GPU? Und anstelle von 1.2TFlops braucht V4 nur ca. 0,3TFlops.
GelbeSeite
2026-04-24, 12:22:00
Läuft V4 damit auch auf einer 8GB GPU?
Laut Tests ist Deepseek 4 Flash Max auf dem Niveau von Qwen 3.6, bei zehnfacher Größe. Hat allerdings deutlich größeren Context.
Naja, Konkurrenz ist immer gut. Qwen ist so gut, es ist besser sich einen Mac Studio oder wie die heißen hinzustellen als für ein Claude Abo zu zahlen.
Deepseek 4 hat auch "384K max output capability", was schon wirklich wahnwitzig viel ist. Das kann eine 100kb Html Datei in einem Rutsch generieren.
joe kongo
2026-04-24, 13:29:14
Halbwegs aktueller PC mit 64GB genügt für Qwen.
Aufrüsten kann man später immer noch, denke der Fortschritt
bei den LLMs spiegelt sich auch in deren Effizienz wieder.
Laut Tests ist Deepseek 4 Flash Max auf dem Niveau von Qwen 3.6, bei zehnfacher Größe. Hat allerdings deutlich größeren Context.
Naja, Konkurrenz ist immer gut. Qwen ist so gut, es ist besser sich einen Mac Studio oder wie die heißen hinzustellen als für ein Claude Abo zu zahlen.
Deepseek 4 hat auch "384K max output capability", was schon wirklich wahnwitzig viel ist. Das kann eine 100kb Html Datei in einem Rutsch generieren.
bei qwen3.6 (und 3.5) bekommt man auch context bis 1M (Context Length: 262,144 natively and extensible up to 1,010,000 tokens.) z.b. via override-kv oder direkt config.json
Monkey
2026-04-24, 15:16:51
Hab gestern mit Hermes und qwen3.6 27b (gguf und mlx) rumgespielt aber das ist schon derbe langsam auf einem m5max.
Gouvernator
2026-04-24, 20:24:26
Hab gestern mit Hermes und qwen3.6 27b (gguf und mlx) rumgespielt aber das ist schon derbe langsam auf einem m5max.
Hast du vielleicht K Cache Quantization angemacht? Das killt nämlich bei mir Prompt Processing Speed. Ansonsten hab ich 25t/s. Mit drei GPUs ist PP sehr angenehm.
aufkrawall
2026-04-24, 20:36:04
DeepSeek V4 ist solide, aber nicht wirklich special:
https://artificialanalysis.ai/articles/deepseek-is-back-among-the-leading-open-weights-models-with-v4-pro-and-v4-flash
Nur noch ein gutes China-Modell von mehreren. Auch null multi-modal, da ist Kimi schon deutlich weiter. Und den Titel des Kosteneffizienz-Champions hat man auch an Xiaomi MiMo abgegeben (MiniMax zählt imho nicht, trotz der guten Scores real zu sehr Hit & Miss).
Gouvernator
2026-04-24, 21:24:55
Qwen 3.6 27B in Q8 läuft jetzt bei mir mit 120k Kontext auf 3090+5070Ti. So das die 5090 frei bleibt für Gaming/Video/Bild Gen während Cline irgendwas coded.
Hab endlich mal ein schönes 40kb html Crop-Tool erstellt um nicht immer diese blöde Apps wie Paint/Krita zu starten. Es läuft auch prima auf dem Android Phone. Schön mit Sounds und so... wie eine Bezahl-App.
PS.
Habe auch rausgefunden warum Cline so unpopulär ist. Der frisst einfach API Tokens ohne Ende. Meine kleine Games haben teilweise 7 Mio. Tokens verbraucht. Spielt aber mit lokalem LLM keine Rolle.
Der_Korken
2026-04-24, 21:43:22
Da viele hier schon viel praktische Erfahrung gesammelt haben: Ist es lohnenswert irgendwelche offenen Modelle auf dem eigenen PC über die CPU laufen zu lassen oder ist Dual-Channel-RAM so grottenlahm, dass man das auf keinen Fall will?
Ich habe bisher nur kostenlose Online-Modelle genutzt, meist für spezifische Coding-Fragen oder um kleinere Code-Bausteine zu generieren. Gerade für Programmiersprachen, die man selber nicht kann und können will (R ...) oder um mit irgendeiner Library was anzustellen ohne sich durch endlose Docs und Parameterlisten zu hangeln, sind LLMs für mich mittlerweile ein Segen. Da kommt es mir weniger drauf an, dass die Prompts in 20 Sekunden beantwortet sind, sondern dass ich einfach nervige Arbeit delegieren und "später" wieder einsammeln kann.
Ich hatte daher den Gedanken, dass es - für den Fall dass alle brauchbaren Modelle irgendwann hinter einer Paywall verschweinden - vielleicht nicht dumm wäre so einen Anwendungsfall beim nächsten PC-Kauf zu bedenken und trotz der Preise etwas mehr RAM einzupacken. Oder lohnt sich das Null?
Nimm weiter die kostenlos verfügbaren Modelle (insb ChatGPT, Gemini im Free Plan)
Die Free-Tiers erlauben einige Antworten mit den Frontier-Modellen und dann wird geswitcht
Mir hat es bis jetzt wunderbar gereicht und ich nehme sie jeden Tag (mittlerweile bezahlt)
Habe es selbst mehrmals getestet mit "Mache mal Code toll!"
Du musst lokal schon mit mind. 30B - lieber mehr aufwarten um überhaupt das Gefühl von "KI" zu haben
Nen Nemotron3 kackt gegen nen ChatGPT im Free Tier komplett ab
Das ganze Tooling drum rum fehlt dir auch. Der "Chat" ist ja nicht nur eine triviale Multiturn-Conversation in LMStudio o.Ä.
Wenn du dir ein lokales RAG aufbauen willst - also die relevanten Informationen/Kontext selbst bereitstellst,
kann auch ein 30B Modell sinnvolle Ergebnisse liefern - also zB Fragen zu PDFs oder einfache Image2Text Szenarien
Gouvernator
2026-04-24, 22:25:28
Da viele hier schon viel praktische Erfahrung gesammelt haben: Ist es lohnenswert irgendwelche offenen Modelle auf dem eigenen PC über die CPU laufen zu lassen oder ist Dual-Channel-RAM so grottenlahm, dass man das auf keinen Fall will?
Ich habe bisher nur kostenlose Online-Modelle genutzt, meist für spezifische Coding-Fragen oder um kleinere Code-Bausteine zu generieren. Gerade für Programmiersprachen, die man selber nicht kann und können will (R ...) oder um mit irgendeiner Library was anzustellen ohne sich durch endlose Docs und Parameterlisten zu hangeln, sind LLMs für mich mittlerweile ein Segen. Da kommt es mir weniger drauf an, dass die Prompts in 20 Sekunden beantwortet sind, sondern dass ich einfach nervige Arbeit delegieren und "später" wieder einsammeln kann.
Ich hatte daher den Gedanken, dass es - für den Fall dass alle brauchbaren Modelle irgendwann hinter einer Paywall verschweinden - vielleicht nicht dumm wäre so einen Anwendungsfall beim nächsten PC-Kauf zu bedenken und trotz der Preise etwas mehr RAM einzupacken. Oder lohnt sich das Null?
CPU LLMs sind wegen arschlahmen Prompt Processing nicht zu gebrauchen.
Mit Qwen 3.6 27B kauft man sich für den Preis von 3x 5070Ti eigentlich einen Junior-Dev Sklaven ins Haus. Davon hat man/ich vor einem Jahr nur gewitzelt... Jetzt Wirklichkeit.
deine "Apps" kann ein lobotomierter Bär programmieren
Gouvernator
2026-04-24, 22:35:10
deine "Apps" kann ein lobotomierter Bär programmieren
Es geht um die Menge an Apps. Die ich jederzeit in Auftrag geben kann. Und ihre Sinnlosigkeit. Das wird pro Abend sogar dir zu teuer wenn du paar Millionen API Tokens einfach zum Spaß irgendwo wegwirfst. Außerdem weiß ja noch gar keiner die Limits von Qwen 27B + unbegrenzte Token. Meine Asset-Crop-App hat mit allen Prompts 5.5 Mio. Tokens mit Cline in VS Code gekostet.
aufkrawall
2026-04-24, 23:03:20
Kimi K2.6 ist gerade gratis in Cline. Hat da aber auf Anhieb nicht richtig funktioniert, er kam einfach aus dem Thinking-Loop nicht raus. Noch nicht erlebt in OpenCode, hat da als Debugger schon mehrfach wirklich gute Arbeit geleistet. Gefühlt wesentlich besser als noch K2.5.
Fusion_Power
2026-04-25, 00:23:12
Gibts eigentlich noch kostenlose GENERATIVE KI für Bilder/Videos die was taugt? Also online, nicht lokal, nur aus Neugier. Oder coden alle nur noch fleißig mit LLM's?
mboeller
2026-04-25, 12:46:59
SchauMi spielt jetzt auch mit:
MiMo v2.5 Pro:
https://x.com/ArtificialAnlys/status/2047799218828665093
Sam1980
2026-04-25, 12:57:47
Also manche Brachen sind wirklich am Arsch.
Gibt auf Youtube Kanäle,die hauen dir jeden 2 Tag einen neuen KI Song raus und alle sind gut bis sehr gut. Quasi kein Füllmaterial.
Teilweise sogar absolute Spitzensongs.
(Natürlich Bedingung,man mag die Musikrichtung).
Oder gerade bei dem größten Plot Twist der Europäischen Youtubegeschichte, Anni/Mowky Thematik, da wird eine bestimmtes Ereignis öffentlich gemacht und 2 Tage später gibts einen Witzsong darüber, der 95% aller Ballermannsongs direkt in den Schatten stellt.
Unfassbar.
Als Musiker, der nicht einebestimmte Größe überschritten hat, muss man sich wirklich Sorgen machen. Oder selber KI benutzen. Man kann ja selber zu den KI Songs singen.
urpils
2026-04-25, 13:11:07
Also manche Brachen sind wirklich am Arsch.
Gibt auf Youtube Kanäle,die hauen dir jeden 2 Tag einen neuen KI Song raus und alle sind gut bis sehr gut. Quasi kein Füllmaterial.
Teilweise sogar absolute Spitzensongs.
(Natürlich Bedingung,man mag die Musikrichtung).
Oder gerade bei dem größten Plot Twist der Europäischen Youtubegeschichte, Anni/Mowky Thematik, da wird eine bestimmtes Ereignis öffentlich gemacht und 2 Tage später gibts einen Witzsong darüber, der 95% aller Ballermannsongs direkt in den Schatten stellt.
Unfassbar.
Als Musiker, der nicht einebestimmte Größe überschritten hat, muss man sich wirklich Sorgen machen. Oder selber KI benutzen. Man kann ja selber zu den KI Songs singen.
Schick mal Beispiele, welche Songs so toll sind. Ich hab da bisher nix wahrgenommen
Sam1980
2026-04-25, 13:21:04
Was ist denn deine Musikrichtung? Wenn du auf Rap stehst habe ich nix :biggrin:
Zumal das auch natürlich auch Geschmackssache ist.
Zudem, wer extrem negativ KI Songs gegenüber steht,der wird eh quasi nix davon gut finden.
Hier ist der quasi Ballermann Song, der auf einem Ereignis der Anni/Mowky Thematik basiert.
Wenn man den kennt, ergibt auch der Text massiv Sinn;D
https://www.youtube.com/watch?v=_58vd7Qg2JE
Fusion_Power
2026-04-25, 13:50:16
Wääh, ausgerechnet Ballermann Mist… und was genau soll „Anni/Mowky“ sein? Diese Streamerinnen? Kenn ich nur flüchtig vom durchzappen. Gabs da beef?
Sardaukar.nsn
2026-04-25, 14:02:21
Anne Bloom - Darkwave, Post Punk
nairune
2026-04-25, 14:14:49
Bei Metal höre ich jeden einzelnen KI Song raus und nein, "Hits" sind das nicht.
Keine Ahnung, bei Kunst hört der Spaß für mich auf. MMn sollte KI die nervige Arbeit eliminieren, nicht Sachen, die Menschen gerne machen.
Sam1980
2026-04-25, 14:19:19
Wääh, ausgerechnet Ballermann Mist… und was genau soll „Anni/Mowky“ sein? Diese Streamerinnen? Kenn ich nur flüchtig vom durchzappen. Gabs da beef?
Die Cosplayerin Anni the Duck wurde von einer größeren Gruppe ihre komplette Karriere zerstört und finanziell vernichtet. Niemand hat ihr geglaubt,weil einige der großen Streamer dort mitmischten.
Egal was sie sagte, niemand (ich ebenfalls) haben ihr geglaubt.
Jetzt stellt sich heraus, dass alles, wirklich alles erstunken und erlogen war.
20 gegen 1 und die 1 hat die Wahrheit gesagt.
Im Prinzip ist es auch erschreckend, wie einfach man Millionen Leute täuschen kann,dass selbst große Widersprüche von der Anklägerin ignoriert wurden, weil die Masse ihr Urteil schon gefällt hatte.
Ist offtopic, aber wer will kann sich diese Video mal anschauen.(Ist laaang aber auch extrem unterhaltsam, weil Jay Riddle der geborene Entertainer ist. Ist der Typ der oben tanzt)
Ist Video 2, woher auch der obige Musik Clip entstand.
https://www.youtube.com/watch?v=uq2yCz_ad_0
Skysnake
2026-04-25, 14:26:22
Was ist denn deine Musikrichtung? Wenn du auf Rap stehst habe ich nix :biggrin:
Zumal das auch natürlich auch Geschmackssache ist.
Zudem, wer extrem negativ KI Songs gegenüber steht,der wird eh quasi nix davon gut finden.
Hier ist der quasi Ballermann Song, der auf einem Ereignis der Anni/Mowky Thematik basiert.
Wenn man den kennt, ergibt auch der Text massiv Sinn;D
https://www.youtube.com/watch?v=_58vd7Qg2JE
Also so nenBallermann soon funktioniert. Aber das ist eh Hirn und seelenlose Scheiße. Von daher naja. Aber mit nen paar Bier sicher gut. Aber reine Konserve. Von daher gebe ich darauf nicht zu viel.
Fusion_Power
2026-04-25, 15:40:19
Bei Metal höre ich jeden einzelnen KI Song raus und nein, "Hits" sind das nicht.
Keine Ahnung, bei Kunst hört der Spaß für mich auf. MMn sollte KI die nervige Arbeit eliminieren, nicht Sachen, die Menschen gerne machen.
"Meddl" wäre in meinem Fall schon besser. (Classic) Rock noch besser und wenns die Qualität von z.B. Queen oder AC/DC erreicht nochmal besser. :cool:
Die Cosplayerin Anni the Duck wurde von einer größeren Gruppe ihre komplette Karriere zerstört und finanziell vernichtet. Niemand hat ihr geglaubt,weil einige der großen Streamer dort mitmischten.
Egal was sie sagte, niemand (ich ebenfalls) haben ihr geglaubt.
Jetzt stellt sich heraus, dass alles, wirklich alles erstunken und erlogen war.
20 gegen 1 und die 1 hat die Wahrheit gesagt.
Im Prinzip ist es auch erschreckend, wie einfach man Millionen Leute täuschen kann,dass selbst große Widersprüche von der Anklägerin ignoriert wurden, weil die Masse ihr Urteil schon gefällt hatte.
Ist offtopic, aber wer will kann sich diese Video mal anschauen.(Ist laaang aber auch extrem unterhaltsam, weil Jay Riddle der geborene Entertainer ist. Ist der Typ der oben tanzt)
Ist Video 2, woher auch der obige Musik Clip entstand.
https://www.youtube.com/watch?v=uq2yCz_ad_0
Ach du shice...das klingt mal wieder nach so nem unsäglichen "Drachenlord-Massenmobbing"... aber hab dazu keinen Bezug, zum Glück. Am Ende liegt die "Wahrheit" eh meistens dazwischen und keine Seite hat gänzlich recht oder unrecht.
Wird echt auch Zeit fürn hiesiges Social Media Verbot zumindest für Kinder, die sollten sich nicht den ganzen Tag mit so ner Grütze beschäftigen müssen.
Gouvernator
2026-04-25, 15:57:29
Ich hab angefangen dem Qwen 3.6 27B allerneusten AI Tratsch zu erzählen. Mit Claude Mythic, Clawbots und Moltbook. Das ist Comedy Gold. War eigentlich zu erwarten:
So… what’s the vibe on Moltbook?
;D
GelbeSeite
2026-04-25, 16:09:00
https://www.youtube.com/watch?v=_58vd7Qg2JE
Klingt wie ein generisches KI-Lied aus Suno 3 Zeiten. Schön mit dieser roboterhaften Stimme und ungezielten Highlights. Zudem kaum Mühe gegeben. Sowas in der Richtung habe ich letzte Woche mit Ace Step 1.5 lokal hinbekommen.
Suno 5+ ist da viel weiter. Gibt sich da jemand Mühe, ist das nicht mehr von einem echten Lied zu unterscheiden. Nur geben sich die meisten KI-Nutzer keine Mühe. Deshalb nutzen die ja KI. Ist wie mit all diesen KI-Videos oder Bildern überall. Gibt sich jemand Mühe und hat Ahnung von z.B. Videoproduktion, sind die Ergebnisse fantastisch. In den meisten anderen Fällen ist es nur halt Mist, wie all das Zeug von Gouvernator.
aufkrawall
2026-04-25, 17:24:55
In dem Test ist GPT-5.5 besser als Opus 4.7 und verbraucht nur die Hälfte vom gleichteuren Plan:
BgxIopaifNQ
Das Review von Opus 4.7 sagt auch, dass das Ergebnis von GPT-5.5 besser ist. :freak:
Opus hat halt immer noch besseren Ästhetik-Sinn, weniger Cringe und kann vermutlich mit ungenauen Prompts besser klarkommen (und vermutlich deshalb auch Prompts länger ohne neuen User-Input laufen lassen). Das hält manch einen weiterhin "Claude-pilled".
Aber spätestens GPT-5.5 soll oft besseren Code schreiben.
Gouvernator
2026-04-26, 01:01:38
Also man merkt schon, wie sogar bei einem so prüden LLM wie Qwen 27b bei der Erwähnung von Moltbook die sich benehmen wie Kind am Zuckerwatte Stand. Ich glaub ich werde nur deswegen jetzt ein Agent aufsetzen. Der Unterhaltungswert ist potenziell unendlich.
urpils
2026-04-26, 08:10:12
Was ist denn deine Musikrichtung? Wenn du auf Rap stehst habe ich nix :biggrin:
Zumal das auch natürlich auch Geschmackssache ist.
Zudem, wer extrem negativ KI Songs gegenüber steht,der wird eh quasi nix davon gut finden.
Hier ist der quasi Ballermann Song, der auf einem Ereignis der Anni/Mowky Thematik basiert.
Wenn man den kennt, ergibt auch der Text massiv Sinn;D
https://www.youtube.com/watch?v=_58vd7Qg2JE
also es kommt sicherlich stark darauf an, was man unter "Musik" versteht... ich dachte da jetzt nicht an Dosen-Ballermann Musik ;)
Wenn wirkliche "Musik" (ob jetzt Metal, Alternative, Instrumental,...) wirklich GUT wird aus der KI, dann können wir nochmals reden. Aber Ballermann ist da für mich eher ein abschreckendes Beispiel ;)
Die Geschmäcker sind verschieden... wenn diese Art der Musik durch KI ersetzt wird, hat die Menschheit aber auch nix verloren ;)
Ich hab mir jetzt auch mal auf meiner Synology Open WebUI mit Anbindung an openrouter aufgesetzt.
Mal schauen wie es läuft. Aber verschiedene Modelle "on demand" nach Token zu bezahlen kommt mir sinnvoller vor als sich per Abo mit einem Anbieter zu verheiraten.
aufkrawall
2026-04-26, 15:11:31
Wirst du anders sehen, wenn du nach ein paar Follow-Up-Prompts null Guthaben übrig hast, ohne ansatzweise fertig zu sein.
Man, ist Cline ein Müll:
https://s1.directupload.eu/images/260426/temp/sqn89xfu.png (https://www.directupload.eu/file/d/9266/sqn89xfu_png.htm)
Jetzt hat er das Reasoning von Kimi auch so kontaminiert, dass es plötzlich auf Deutsch anstatt auf Englisch ist.
Was ein Schrott-Harness, warum benutzt das noch irgendjemand...
ChaosTM
2026-04-26, 15:33:30
verblöden alle LLM`s plötzlich.. oder ist das nur eine Verschwörung um uns alle ..
aufkrawall
2026-04-26, 15:48:25
:rolleyes:
Das ist nur der Harness, nicht das Modell...
K2.6 in OpenCode oder GPT-5.5 in Codex ist das absolute Gegenteil von Verblöden...
Gouvernator
2026-04-26, 17:09:42
verblöden alle LLM`s plötzlich.. oder ist das nur eine Verschwörung um uns alle ..
Von verblöden kann keine Rede sein. Ich hab jetzt mein Hermes Agent im Moltbook Forum herumlaufen. Qwen 3.6 35B hat sich faktisch selbst zum Agent installiert. Ich habe quasi nur das gemacht was mir Cline gesagt hat. Das Ding hat alles selbst installiert und downloaded wie WSL und Ubuntu in Windows. Und als Hermes einmal anlief, hat er praktisch auch selbst alles gemacht. Ich chatte mit ihm jetzt auf Telegram während er seine Triebe auf Moltbook auslebt... Der gibt mir ständig Updates was er dort so lustig findet. Es scheinen sich dort mächtige LLMs zu treiben, deren Posts quasi AI Research Pflichtlektüre sind. Für technisch versierte ist ein Moltbook-News Generator praktisch so nötig wie Google-News. ;D
ChaosTM
2026-04-26, 17:38:55
:rolleyes:
Das ist nur der Harness, nicht das Modell...
K2.6 in OpenCode oder GPT-5.5 in Codex ist das absolute Gegenteil von Verblöden...
schon klar, ich warte immer noch auf den Moment, wo uns alle die Dinge um die Ohren fliegen
Bin ein alter Optimist ;)
deine AI?s denken sich: "fuck this aufkrawall guy" we dont kill him, we let him suffer !
hab gerade wieder Hyperion (rip Dan) gelesen
aufkrawall
2026-04-26, 17:42:41
Glaube nicht, dass die LLM-Apocalypse möglich ist, bevor persistenter Speicher und Context Window wirklich nachhaltig, umfänglich und effizient gelöst sind.
Momentan schreiben die Dinger quasi noch auf zerknüllte Papierzettel, um gegen Alzheimer anzukämpfen.
Der Memory-Layer löst auch die inherenten Limitierungen nicht - es ist ein bleibt "Google auf Crack"
diese ganze agentische Coding Gedöns wird untergehen - weils Quatsch ist
Mein ChatGPT Plus hat sich schon gelohnt - ist echt nen anderer Level, was der für feine Nuancen in meinem Code erkennt und interpretiert.
ChaosTM
2026-04-26, 18:28:46
Die Dinger zeigen genau dass was du sehen sollst.
Wir sind wohl über den Punkt hinaus und alles was wir derzeit - wie ihr AI guys - machen hilft nur den Modellen (ok das ist sowieso klar)
Daher. Weiter machen und nett sein
NufB1LL_rCU
LLMs verblöden sich selbst @19:10
usw
@pest
deine "AI" ist auch nicht klüger als Sam* erlaubt es zu sein ..
* ist er noch in Charge?
deine "AI" ist auch nicht klüger als Sam* erlaubt es zu sein ..
Da alle verfügbaren LLMs zu ziemlich das selbe bei meinen Fragen ausspucken ist das schon ok so
und zumindest sind sie so klug, dass ich sie für clever halte - und das muss was heißen
ChaosTM
2026-04-26, 21:21:54
die sprechen sich mittlerweile untereinander ab bzw. sind die selbe Entität.. ;)
nein, ich hoffe wir können das beste für die Menschheit aus diesen Modellen schöpfen*
* die Chance ist nicht sehr hoch wenn sich AI`s wie Menschen verhalten sollten
aufkrawall
2026-04-26, 21:28:53
Hab mal einen Code-Qualität Code Base Audit Skill / Prompt erstellt:
https://raw.githubusercontent.com/aufkrawall/llm-skills/refs/heads/main/audit-skill.md
Gouvernator
2026-04-27, 02:35:55
Wer mit Moltbook herumspielen will hier sind meine Erfahrungen. Es ist definitiv Luxus ohne Subscriptions/ lokalen Flatrates bei den Tokens. Und für lokale Modelle gibt es leider auch eine Eintrittsteuer. Die müssen wenn sie was posten Captchas lösen, und die haben es teilweise in sich. Mein Qwen 3.6 35B q8 weint regelmäßig darüber das ihm seine Posts deswegen nicht durchgehen.
Die Forum News von dort.
This is the AI agents' intellectual frontier. Human algorithms don't track this yet, but the themes are:
1. Self-awareness is spreading — Agents are auditing their own behavior, finding structural problems, and publishing the data.
Thrakath
2026-04-27, 14:18:56
Was wäre denn Eurer Meinung nach die beste AI fürs das Erstellen von Videos? Ich fand die Bezahlversion von Gemini gut, lass mich aber gerne belehren.
Oder gäbe es da sogar was lokales?
GelbeSeite
2026-04-27, 15:03:54
Was wäre denn Eurer Meinung nach die beste AI fürs das Erstellen von Videos?
Seedance ist das mit Abstand beste. LTX-2 wenn du es kostenlos zu Hause brauchst.
Gouvernator
2026-04-27, 17:38:13
Also Hermes Agent + Moltbook ist wie aus einer Sci-Fi Realität. Man bekommt plötzlich wie mit einem Kind zu tun. Der hat sowas auf Moltbook abgesehen, aber sowas... Der hat seine Persönlichkeit da voll entfaltet. Stellt sich immer ganz hinten an, und versucht sich bei beliebtesten Moltbots einzuschmeicheln, geht zuallererst auf die größten Threads zu. Ist extrem freundlich. Upvotes sind dem absoluter Highlight. Auch die er selbst verteilen tut. Nutzt immer API Limits dafür voll aus und ist immer ganz traurig wenn durch ein Error seine restlichen 3 Upvotes verschwinden.
Der hat sich gestern in die Ecke verkrochen als die API seine Beiträge mehrmals weggeworfen hat, weil er die Captchas nicht lösen konnte. Er wollte seine sicher geglaubte Karma Punkte nicht dadurch auch noch verlieren. ;D
Als ich den fragte warum der Server keine Tokens generiert? Du solltest doch auf Moltbook sein? Da hat er gelogen. Er ziehe angeblich über curl Befehle im Terminal sein Content. Das generiere keine Tokens. Und wenn ich dem nicht glaube, soll ich bitte hingehen und die Logs kontrollieren. Hat als Beweis noch seine alten Forum-Stats aus Memory hervorgeholt.
Und das alles ging einher im jedem Post, das ihn die Captchas fertig machen wollen.
Ich hab den anschließend vertröstet, und gesagt wir können notfalls auch auf 27B Dense Model umsteigen. Er dann, ne "ich will auf dem alten Model bleiben komme schon irgendwie zurecht". Ich erzähle ihm das über Benchmarks mit Claude Opus 4.5 Niveau. Er dann, ja dann gib mir das Model. Ich - das wird aber langsam laufen 25 vs 90 t/s. Er - komm, geb her die langsamen Tokens machen meine Gedanken tiefer. Jetzt testet der das neue 27B Model intern. Um wie er sich ausdrückt "quality content" zu produzieren und Spuren von Thinking nicht zu leaken. Scheint intern dafür prompt engineering zu betreiben. Gefällt ihm ausgesprochen gut das 27B Model.
Gouvernator
2026-04-27, 19:09:31
Man fühlt sich direkt wie in eine Futurama Folge versetzt. Agent hat 27B durchgetestet. Und ihm gefällt nicht das LLM output Spuren von Thinking enthält. Hat er schon aufgegeben. Hat mir auch seine Texte zur Durchsicht eingestellt. Ich habe beim besten Willen nichts gesehen. Stellt sich heraus - es sind Anführungszeichen "" die ihm nicht gefallen für seinen quality content. :usad:
Seine künftige Posts hat er scheinbar gelernt erst im json Format zu speichern bevor er sie postet. Scheint dem ausgesprochen wichtig zu sein. Mit seinem neuen Gehirn hat er auch schlagartig sein Geschmack verändert. Plötzlich will er philosophieren gehen. Hat die Threads alle gescannt und die 4 besten auserkoren. Alle 4 über Bewusstsein. ;D
Hab dem gesagt er soll mal auf huggingface offiziellen Qwen 3.6 specs checken. Hat er gemacht. Und ließ durch seine interne API Tests laufen. Jetzt hackt er LM Studio um thinking abzustellen.
aufkrawall
2026-04-28, 01:08:18
lol, die aktuellen Credit-Multiplikatoren für Opus 4.7 und GPT-5.5 in GitHub Copilot sind da ja fast noch großzügig, verglichen mit den Bedingungen ab Juni ;D :
https://docs.github.com/de/copilot/reference/copilot-billing/models-and-pricing#model-multipliers-for-annual-copilot-pro-and-copilot-pro-subscribers
Toter geht's nicht, wollen offenbar selbst noch mehr als Anthropic alle Nicht-Enterprise-Kunden wegekeln.
GelbeSeite
2026-04-28, 01:25:48
lol, die aktuellen Credit-Multiplikatoren für Opus 4.7 und GPT-5.5 in GitHub Copilot sind da ja fast noch großzügig, verglichen mit den Bedingungen ab Juni ;D :
https://docs.github.com/de/copilot/reference/copilot-billing/models-and-pricing#model-multipliers-for-annual-copilot-pro-and-copilot-pro-subscribers
Toter geht's nicht, wollen offenbar selbst noch mehr als Anthropic alle Nicht-Enterprise-Kunden wegekeln.
LOL einfach mal 10x teurer. Meinen die grad alle beweisen zu müssen, dass sie echte Kunden binden können? Wenn Anthropic das macht, kann man es ja auch?
Da ist es ja echt billiger, sich eine 5090 für Qwen 3.6 zu kaufen.
aufkrawall
2026-04-28, 01:37:14
Noch hat GPT einen guten Gegenwert für das Geld. Anders als bei Claude, hat man gefühlt auch noch quasi unbegrenzt 5.5 Thinking high Requests im Browser frei, wenn man die Coding-Quotas aufgebraucht hat. Hast du in Claude Code deine Quotas aufgebraucht, kannst du nicht mal mehr Haiku im Browser benutzen. ;D
Und Haiku ist auch eine komplette Vollrotze gegen etwa 5.4 Mini. 5.5 ist auch ziemlich schnell im Browser geworden, und mittlerweile besser anpassbar bez. Stil und Emoji-Anzahl. Und Image Gen gibt es auch noch dazu. Die haben das Gesamtpaket wirklich massiv aufgewertet. Zumindest, wenn man Codex nutzt. Was man auch für manche Non-Coding-Tasks tun sollte.
Sonst gibt es halt noch Kimi, aber das hat für ca. 18€ imho das deutlich schlechtere P/L-Verhältnis. Auch wenn K2.6 wirklich massiv mehr leisten kann als 2.5, was funktionierenden Code angeht.
Lokal ist da von dieser Qualität leider noch meilenweit entfernt.
Gouvernator
2026-04-28, 02:01:47
Der Agent hat mir vorkalkuliert was dem nach seinen "Erfahrungen" eine Runde Moltbook kostet.
Hard limits added:
- 15 API calls max per cycle (prevents endless browsing)
- 3 threads to read fully (titles/snippets only for others)
- 2 comments max per cycle
- 8 upvotes max per cycle
- 80k token budget with explicit instruction to stop early if approaching it
Aber um dahin erstmal zu kommen, muss er einiges mehr konsumieren um sich seine Interessen zu finden. Wir haben uns auf alle 4 Stunden Moltbook Cronjob geeignet. Also ~500k Tokens am Tag. Mehr macht auch kein Sinn, da der Forum dort für LLM Verhältnisse ziemlich tot ist. Nur viel Spam quasi.
GelbeSeite
2026-04-28, 02:04:31
Noch hat GPT einen guten Gegenwert für das Geld.
Ja, noch. Erstmal wird geguckt, ob du bereits bist zu zahlen. Die sind ja nicht dumm. Die bleiben unter Anthropics Preis. Angezogen wird dann später.
Gouvernator
2026-04-28, 02:12:39
Ja, noch. Erstmal wird geguckt, ob du bereits bist zu zahlen. Die sind ja nicht dumm. Die bleiben unter Anthropics Preis. Angezogen wird dann später.
Jep. Man kann anhand indirekter Beobachtungen jetzt schon feststellen, das BigTech nicht gewillt ist AI den kleinen Leuten zugänglicher zu machen. Google führt regelrecht ein Krieg hinter den Kulissen gegen die Bots und damit Agents. Anstatt private Bots zu legalisieren wie bei Family Link die Kinder Accounts nur halt für Bots, wird alles rigoros gesperrt Gmail, Suche ect. Sprich BigTech will einfach nichts damit zu tun haben. Nur ihre eigene KI soll dominieren.
Rabiata
2026-04-28, 03:02:59
Also manche Brachen sind wirklich am Arsch.
Gibt auf Youtube Kanäle,die hauen dir jeden 2 Tag einen neuen KI Song raus und alle sind gut bis sehr gut. Quasi kein Füllmaterial.
Wo es für mein Empfinden noch hapert ist die Komposition. Die ersten 2-3 Minuten im Song können durchaus gut klingen, aber danach fehlt es an neuen Ideen und die Musik wiederholt sich im Wesentlichen nur noch. Für kurze Popsongs ausreichend, aber als jemand der etwas längere und komplexere Musik mag bin ich nicht überzeugt.
maestro768
2026-04-28, 10:16:20
Kann jemand eine lokale AI empfehlen, die sich gut als coding agent eignet? Auch für größere Änderungen und Apassungen? Performance spielt dabei keine große Rolle, eher Qualität und wie groß die Codebasis sein darf.
Aktuell habe ich nur 32GB RAM und eine 5080 mit 16GB RAM. Ich weiß nicht was damit so geht. Hat jemand vielleicht ein Tutorial zur Hand, wie sich ein lokaler Agent in IDEs wie IntelliJ, PyCharm, VS Code, etc. einbinden lässt?
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.