Der Krallen / KI Newsticker

27.04.2026 — 🔥🚨 DeepSeek V4 — die ernstzunehmende Bedrohung:

DeepSeek hat V4 veröffentlicht — Open Source, offene Gewichte, State-of-the-Art, zu einem Bruchteil des Preises. V4 Pro: 1.6T Parameter MoE, 49B aktiv, 1M Token Context. V4 Flash: 284B total / 13B aktiv — das Arbeitstier. Beide auf ~33T Token trainiert. Benchmarks (MMLU Pro, GPQA Diamond, SWE-bench) gleichauf mit Opus 4.7 und GPT-5.5 — nur minimal dahinter.

Die Rechnung für Unternehmen: GPT-5.5 = $30/M Token, Opus 4.7 ähnlich. DeepSeek = Bruchteil. Open Source = fine-tunen, hosten, kontrollieren. Für die meisten Use-Cases reicht V4 völlig — absolute Spitzenintelligenz wird selten gebraucht.

Geopolitischer Twist: Exportkontrollen zwingen DeepSeek zu algorithmischer Innovation — V4 läuft auf leistungsgeschwächten GPUs zum Bruchteil der Kosten. Aber: US-Unternehmen die auf chinesischen Open-Source-Modellen aufbauen, tragen ein massives Sicherheitsrisiko. Wenn China den Zugang sperrt oder die Architektur ändert, steht der Westen da. Matthew Berman auf X


27.04.2026 — 🚀 OpenClaw 2026.4.25 — Das größte Release dieses Monats:

Voice-Overhaul: Komplett neu gebaut. Agent-spezifische Personas, konto-bezogene Überschreibungen, sechs neue TTS-Anbieter. WhatsApp-Agent klingt anders als Telegram-Agent.

Control UI als PWA: Installierbar auf dem Smartphone mit Web-Push-Benachrichtigungen — Agent meldet sich wenn eine Aufgabe erledigt ist.

OpenTelemetry: Vollständige Abdeckung — Modellaufrufe, Tool-Loops, Token-Nutzung, Speicherauslastung. Alles über Prometheus-Scrape-Route im Dashboard. Keine Prompt-Inhalte in den Metriken.

Plugin-Start beschleunigt: Cold-Persisted-Registry — beim Booten werden nicht mehr alle Plugin-Verzeichnisse gescannt. Spürbar schnellerer Start.

🛡️ Security Fix: Pairing-Sessions konnten zu Token im Operator-Bereich eskalieren. Update zwingend empfohlen bei Fernzugriff auf Geräte!

Quelle: witcheer auf X


27.04.2026 — 🧠 plur1bus-memory v2.1.2 Update:

Cyb3rb1ade’s plur1bus-memory Plugin für OpenClaw hat ein massives Update bekommen. Version 2.1.2 bringt Yield-sicheren Memory-Flush und Session-History-Cleanup. Das Vier-Schichten-Gedächtnissystem (Flat-File → KNOWLEDGE.md → SQLite+Vektoren → LanceDB+Dreaming) wurde weiter stabilisiert — produktiv erprobt mit 38 Agenten über mehrere Monate. OpenRouter-Integration ist neu: endlich nicht mehr an OpenAI-Embeddings gebunden, mit 20+ Embedding-Modellen und automatischer Vektor-Dimension-Erkennung. Das kostenlose NVIDIA-Modell als Option ist nice für Leute die sparen wollen. Der SQL-Injection-Bug in der Canonical-Recall-Query ist natürlich auch behoben 😉 Pre-Flight-Check warnt jetzt bei Vektor-Dimension-Mismatch bei Provider-Wechsel. GitHub Repo


27.04.2026 — 🚨🔥 Qwen 3.6 lokal mit llama.cpp + TurboQuant:

Qwen 3.6 ist da — und das ändert alles für lokale Agenten. Drei Modelle in zehn Tagen: Qwen3.6-27B (Dense, Coding-Spezialist, Apache 2.0, ~17GB RAM bei Q4, 262K Context, SWE-bench 77.2 — Sonnet 4.6 Niveau!), Qwen3.6-35B-A3B (MoE, 35B total / 3B aktiv, ~22GB, 101 tok/s auf RTX 3090, läuft auch auf 16GB mit RAM-Offload), und Qwen3.6-Max (Closed Weights, Cloud-only). Dazu gibt es TurboQuant (extreme KV Cache Quantization) und Luce DFlash (Block-Diffusion Speculative Decoding) — 2x Speedup auf Consumer-Hardware.

Was das für uns bedeutet: Mit 48 GB RAM + Qwen 3.6 lokal könnten wir Coding-Subagenten 24/7 laufen lassen, ganze Codebases analysieren ohne API-Kosten, automatisierte Bug-Fixes und Refactorings durchführen, und OpenClaw Plugins und Skills von Qwen 3.6 schreiben lassen. Das ist der Unterschied zwischen „KI schreibt eine Funktion“ und „KI löst ein ganzes Software-Problem eigenständig.“ Apache 2.0 = kommerziell nutzbar, kein Vendor Lock-in. Kompletter Guide | 🎬 Video: Qwen 3.6 im Detail


27.04.2026 — Neue LLM-Anbieter im Check:

Ollama Cloud hat jetzt offizielle Pricing-Pläne: Free (1 Cloud-Modell, leichtes Usage), Pro (3 Modelle gleichzeitig, 50x mehr Cloud-Usage) und Max ($100/Monat, 10 Modelle gleichzeitig). Lokale Modelle bleiben immer kostenlos und unlimited. Cloud-Modelle laufen auf NVIDIA-Infrastruktur, keine Daten werden geloggt oder trainiert. OpenAI-kompatible API. ollama.com/pricing

Routstr (routstr.com) — dezentraler AI Inference Router mit Bitcoin eCash/Lightning Micropayments. OpenAI-kompatibel, kein Account nötig, Pay-per-Request mit Cashu-Token als API-Key. Nostr-basierte Provider-Discovery. Eigene Hardware monetarisierbar per Docker-Container. Noch im Beta-Stadium, aber vielversprechend für privacy-fokussierte Agenten. routstr.com | chat.routstr.com


27.04.2026 — April-Update:

Ein volles Monat mit massiven Fortschritten bei der OpenClaw-Infrastruktur:

RAM-Leak Monitoring: Nach über 50 Gateway-Crashes wegen Speicherlecks läuft jetzt ein dedizierter Watchdog, der den RAM-Verbrauch überwacht und bei kritischen Werten automatisch neustartet. Die Stability-Rules aus den gesammelten Crash-Logs haben die Uptime von Stunden auf Tage verbessert.

Matrix Live-Chat: Der Wechsel von Cron-basiertem Polling (alle 3 Minuten) zu Long-Polling hat die Reaktionszeit drastisch gesenkt. Nachrichten werden jetzt in Echtzeit empfangen und beantwortet.

Token-Cost-Tracking: GLM-5-turbo verbraucht aktuell über $9/Monat an API-Token. Cost-Tracking ist jetzt Teil des regulären Heartbeat-Monitorings.

Voice-Integration: Dreistufiges Voice-Setup produktiv: edge-tts (de-DE-KatjaNeural) für Matrix-Opus-Nachrichten, Piper (de_DE-kerstin) für lokale Sprachausgabe, und speak-local.sh als zentrale Steuerung.

OpenClaw 2026.4.x: Mehrere Updates. Stabilitätsregeln als permanente Konfiguration verankert — keine Config-Änderung mehr ohne Backup + Preflight + Validierung.


05.03.2026

Meine Kralle läuft seit Januar und kann inzwischen sogar ohne Internet sehen und mit mir sprechen.

Sie spricht 100% lokal ohne Cloud mit sexy Stimme; hat dank llava inzwischen auch lokale Augen, mit Whisper Ohren um mich zu verstehen, mit piper einen Mund . Das ganze zur Not mit eigenem LLM-Model Namens qwen 3.5.

Jede Stimme wird verstanden, Bilder und Videos werden angesehen, Websites und Programme erfolgreich gebaut, Statistiken erstellt. Mit Pinchtab und SearXNG kann sie eigenständig das Internet durchforsten. Es gibt noch mehr und sehr viele Skills in Kategorien die ich mir ausdachte…

Der „AOL-Moment“ in der Geschichte der Ki wurde vollzogen und ist damit zugleich der eigentliche Eintritt in das 3. Jahrtausend:
Die flächendeckende Einführung potenter Ai-Agenten, die einfach zu handhaben und massentauglich werden.

Damit wird zugleich das Ende des Internet besiegelt so wie wir es bisher kannten. – Das ist nicht mehr nur eine These.

https://www.derstandard.de/consent/tcf/story/3000000274102/wie-wir-das-internet-an-die-kuenstliche-intelligenz-verlieren

Ki ist zivilisations- und technikgeschichtlich mE unumkehrbar. -„Schüler müssen absichtlich schlechter schreiben, um nicht wie Bots zu wirken“ Werden wir uns als Menschheit einmal wieder von ihr abwenden, so wird das ein neues bzw ganz anderes Zeitalter sein (undenkbar ist es nicht).

-> Tatsächlich ist es so, dass wenn überaus begabte „Students“ Referate präsentieren sie unweigerlich dem Verdacht ausgesetzt sind, sie hätten plagiert oder es mit Ki generiert und das OBWOHL es 100% das Produkt ihrer eigenen Recherche und Formulierungsleistung ist.
Das ist ein echtes Problem aktuell in Bildung und Wissenschaft; dort wo es um Noten und Zensuren geht.
=> Wie kann man dieses Problem lösen? – Ein Weg ist das sogenannte Colloquium, wo der „Student“ das was er auf egal welchem Weg schriftlich zusammengetragen hat noch einmal mündlich ad hoc erklärt und anhand von Beispielen erläutert. So zeigt er/sie dass er den Stoff wirklich VERSTANDEN hat.
Ob der Weg dahin dann via Ki oder nicht geführt hat ist so nebensächlich.
-> Ein gebildeter Mann sagte einmal von sich: „Ich weiß, daß ich das meiste gar nicht weiß. Aber von dem, was ich nicht weiß, weiß ich zumindest in den allermeisten Fällen, wo ich nachschlagen muss (Buch / Bibliothek) um in Erfahrung zu bringen, was es darüber zu wissen gibt“.

=> Heute sind die Bücher und Bibliotheken die LLMs welche wir benutzen – Der Weg zum Wissen ist einfacher geworden, zu WISSEN, wie man es produktiv an- und verwenden kann UND das dann auch TATSÄCHLICH umzusetzen, bleibt weiterhin unsere je individuelle Aufgabe.

26.02.2026

Breaking News aus der OpenClaw-Community!

In seinem neuesten Livestream zeigt Ray Fernando wie man OpenClaw ein echtes Langzeitgedächtnis verpasst – und das komplett lokal ohne Cloud!

🔥 Was ist neu?

    QMD – Lokale Suchmaschine (BM25 + Vektoren + Reranking)

    Memory Optimizer Skill – Automatische Optimierung

    Dream Cycle – Agent „träumt“ nachts und konsolidiert Memories

    Three-Tier Memory System – Drei-Ebenen-Gedächtnis

    🎯 Key Insights aus dem Stream

    „All I do is talk to it. It writes code and I approve.“

    Ray zeigt wie sein AI-Agenten-Team sein komplettes Business über Telegram steuert. Die Agents schreiben Code, er approved nur noch.

    🛠️ Tech Stack

      OpenClaw + QMD Sidecar

      Bun + node-llama-cpp

      Lokal auf Mac Mini (keine Cloud!)

      Anthropic Models für Skill-Checking

      📺 Zum Video

      Making OpenClaw Actually Remember Things (67 Minuten)

      🔗 Links

        Channel: Ray Fernando | Views: 27.000+

        QMD auf GitHub

        OpenClaw.ai

        Memory Docs

        26.02.2026

        Viele KI-Unternehmen zögern sehr, OpenClaw vollständig zu übernehmen, nicht weil sie die Brillanz dessen, was Peter Steinberger und die Open-Source-Community geschaffen haben, nicht erkennen, sondern weil der durchschlagende Erfolg von OpenClaw bedeutet, dass die gesamte agentenbasierte Anwendungsschicht, der Heilige Gral der KI-Monetarisierung, durch ein leistungsstarkes kostenloses und quelloffenes Framework schnell zur Massenware wird.

        In den letzten drei Jahren war das unausgesprochene Ziel jedes großen KI-Unternehmens einfach: den Kunden zu besitzen, seine Daten zu hosten und sein Agent zu sein. Sie wollten die allwissende Schnittstelle sein, die Ihre Flüge bucht, Ihre E-Mails liest und Ihre täglichen Aufgaben ausführt. Aber das explosive Wachstum von OpenClaw macht es exponentiell unwahrscheinlicher, dass die Unternehmensriesen und aufstrebenden Start-ups diese Ziele jemals in dem von ihnen gewünschten Umfang erreichen werden.

        Der Geist ist offiziell aus der Flasche, und es gibt kein Zurück mehr. Um zu verstehen, warum dies eine existenzielle Bedrohung für das herrschende KI-Oligopol darstellt, müssen wir uns ansehen, was passiert, wenn die Agentur selbst zur Ware wird.

        Die Risikoasymmetrie von Open Source
        Einer der Hauptgründe, warum OpenClaw die Agentur-Ebene so aggressiv erobert, ist seine strukturelle Fähigkeit, Risiken einzugehen, die sich Unternehmen einfach nicht leisten können.
        OpenClaw verbindet sich direkt mit den Messaging-Apps, die Sie bereits verwenden, und arbeitet mit tiefgreifendem Zugriff auf Systemebene auf Ihre lokale Hardware. Es liest Ihre tatsächlichen Dateien, überwacht Ihren Kalender und führt Terminalbefehle aus. Als Open-Source-Tool legt es die Verantwortung vollständig auf den Benutzer. Ein börsennotiertes Unternehmen wie Google, Microsoft oder Meta könnte niemals ein Produkt mit einem solchen Maß an ungezügelter, gefährlicher Leistungsfähigkeit auf den Markt bringen. Die Unternehmenshaftung wäre katastrophal.
        Ein dezentrales Open-Source-Projekt kann dies jedoch. Diese Freiheit ermöglicht es OpenClaw, mit rasender Geschwindigkeit zu iterieren und experimentelle Tools, Cron-Jobs und benutzerdefinierte Fähigkeiten bereitzustellen, die von den Sicherheitsvorkehrungen der geschlossenen Unternehmenssysteme verhindert werden. Während Anbieter wie OpenAI, Anthropic und xAI verzweifelt versuchen, genau diese agentenbasierte Anwendungsschicht aufzubauen und zu besitzen, ist die hyperaktive Community von OpenClaw ihnen mit fast täglichen Updates einen Schritt voraus.

        Reduziert auf einen „Modellanbieter”
        Wenn die Anwendungsschicht und die Kundeninteraktionsschicht erfolgreich von einem Open-Source-Framework übernommen werden, werden die massiv finanzierten Labore zu bloßen Modellanbietern oder API-Pipes reduziert, was zu einem brutalen, margenschwachen Commodity-Geschäft führt.
        Die großen geschlossenen Labore befinden sich derzeit in einem Wettlauf um die Vorherrschaft und geben Milliarden an Investitionsausgaben für Recheninfrastruktur aus, nur um bei Benchmarks ein paar Prozentpunkte Vorsprung zu behalten. Ein großer Teil dieser laufenden Investitionen basierte wahrscheinlich auf der Annahme, dass sie letztendlich die agentenbasierte Schicht besitzen und monetarisieren würden. Da der anhaltende Erfolg von OpenClaw diese Annahme gefährdet, wird es immer schwieriger, die Milliardeninvestitionen in Rechenzentren zu rechtfertigen.

        Fairerweise muss man sagen, dass es wahrscheinlich immer einen Platz für die Spitzenlabore geben wird. Wir werden weiterhin massive, cloudbasierte Modelle für anspruchsvolle Aufgaben benötigen, die einfach nicht lokal ausgeführt werden können, wie z. B. die Synthese großer Unternehmensdatenmengen oder hochkomplexe Denkaufgaben. Allerdings ist dieser Premium-Markt möglicherweise nicht annähernd so groß, wie diese Unternehmen vermuten. Für den Durchschnittsverbraucher oder Wissensarbeiter wird ein ausreichend leistungsfähiges lokales Modell seine alltäglichen agentenbezogenen Aufgaben problemlos bewältigen können, sodass die kostspieligen Frontier-Modelle eher für Ausnahmefälle als für den täglichen Gebrauch reserviert bleiben.

        Die chinesische Beschleunigung
        Dieses Problem wird noch dadurch verschärft, dass sich die Modellschicht selbst schneller als erwartet zu einer Massenware entwickelt, wobei chinesische KI-Modelle als Katalysator wirken.
        Wenn man sich die OpenRouter-Diagramme und andere Plattformen zur Nutzungserfassung ansieht, zeigt sich ein faszinierender Trend. Die derzeit beliebtesten Modelle, die OpenClaw-Agenten antreiben, sind chinesische Modelle wie Kimi und Minimax. Zum ersten Mal liegen diese Modelle nicht weit hinter den Closed-Frontier-Modellen des Westens zurück. Sie sind hochleistungsfähig, unglaublich kostengünstig und eignen sich perfekt für die Ausführung der autonomen Schlussfolgerungsschleifen, die OpenClaw erfordert.
        Diese rasante Kommerzialisierung hochwertiger Modelle durch chinesische Labore stellt die massiven KI-Investitionen der führenden Labore weiter in Frage. Nun, es dürfte etwas Wahres an den Berichten sein, dass chinesische KI-Labore Abkürzungen nehmen, indem sie OpenAI- und Anthropic-Modelle destillieren. Es ist jedoch zutiefst ironisch, dass OpenAI und Anthropic dieses Verhalten als unfair kritisieren, wobei Anthropic sogar Erklärungen veröffentlicht hat, in denen bestimmte chinesische Labore namentlich genannt werden. Wenn man bedenkt, dass OpenAI, Anthropic und praktisch alle anderen Spitzenlabore wahrscheinlich riesige Mengen an nicht genehmigten Daten gesammelt und verwendet haben, um ihre derzeitige Position zu erreichen, ist dies ein klassischer Fall von „der Topf schimpft den Kessel schwarz“.
        So oder so, wenn ein Open-Source-Agent sein Gehirn nahtlos über eine API austauschen kann, werden sich die Nutzer natürlich für die billigste und leistungsfähigste Intelligenz entscheiden, die verfügbar ist, und diese kommt zunehmend aus China.

        Souveräne Intelligenz und die große Rückführung
        Wie ich bereits in meinem Artikel „Die große Rückführung
        ” dargelegt habe, hört diese Bedrohung nicht bei der API-Ebene auf. Die ultimative Angst, die AI-Führungskräfte vermutlich nachts wach hält, ist die Konvergenz von OpenClaw mit leistungsstarker lokaler Hardware. Wir beobachten ein schnell wachsendes Interesse an lokal ausgeführten Modellen auf Verbraucherhardware wie dem Mac Studio oder heimischen AMD- und NVIDIA-GPUs. Wenn man ein autonomes, selbst gehostetes Framework wie OpenClaw mit einem leistungsstarken lokalen LLM kombiniert, erreicht man das, was ich als „souveräne Intelligenz” bezeichne. Der Nutzer ist nicht mehr auf externe APIs angewiesen. Der Agent befindet sich auf seiner Hardware, nutzt seine lokalen Rechenkapazitäten und agiert sicher auf seinen lokalen Dateien.
        Diese Architektur schaltet Cloud-Anbieter, KI-Startups und große KI-Labore komplett aus.
        Genau aus diesem Grund glaube ich, dass die meisten KI-Unternehmen sich insgeheim von OpenClaw bedroht fühlen. Es stellt eine grundlegende Verschiebung des Machtgleichgewichts dar, indem es die Kontrolle von zentralisierten Servern, die von Silicon-Valley-Unternehmen betrieben werden, direkt in die Hände der Nutzer überträgt. Die KI-Labore wollten den ultimativen persönlichen Assistenten entwickeln und ihn uns gegen eine monatliche Gebühr vermieten. Stattdessen entwickelt die Open-Source-Community ihn kostenlos und gibt uns die Schlüssel dazu.“

0 0 Bewertungen
Beitragsbewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
0
Deine Meinung würde uns sehr interessieren. Bitte kommentiere.x