kubitz.net

Was mit KI (KW38)

Von Eric Kubitz16.9.2025
Was mit KI
  • Dennis Ballwieser, Chefredakteur der Apotheken Umschau, formuliert hier die Bedrohung der freien Medien in Deutschland: https://www.spiegel.de/wirtschaft/google-gemini-ai-overviews-ki-bots-macht-kuenstliche-intelligenz-… Für alle, die diesen Longread trotz allem nicht bis zum Ende lesen, der letzte, sehr treffende Satz: „Was will ChatGPT eines Tages auf die Frage antworten, was in Walsrode so los war, wenn es die »Walsroder Zeitung« nicht mehr gibt?“

  • Dazu passt die Recherche im Atlantic zu Millionen von Videos, die von den Tech-Bros für das Training von KI gekapert wurden. Darunter viele „Anleitungsvideos“, in denen Dinge erklärt werden. Warum gerade diese? Weil KI dadurch ein Weltbild bekommt, das selbst Bob den Baumeister wie einen Praktikanten aussehen lässt.  (https://www.theatlantic.com/technology/archive/2025/09/youtube-ai-training-data-sets/684116/)

  • Und die ZEIT kommentiert den Anthropic-Deal, bei dem Verleger pro geklautem Buch 3.000 Dollar bekommen. Aber nur, weil die Bücher aus einer Piraten-Webseite geladen wären. Hätte das KI-Unternehmen die Bücher im Handel gekauft, wäre keine Strafe fällig. (https://www.zeit.de/digital/internet/2025-09/anthropic-kuenstliche-intelligenz-autoren-entschaedigu…)

  • Was #irgendwie auch dazu passt: Die US-Regierung kündigt den Kampf gegen Fake-News auf. (https://the-decoder.de/usa-beenden-internationalen-kampf-gegen-fake-news/)

  • Das ist euch alles zu negativ? Dann testet mal Apertus (https://publicai.co/) Die Eidgenössische Technische Hochschule (ETH) Zürich, die Eidgenössische Technische Hochschule (EPF) Lausanne und das Supercomputerzentrum CSCS haben ein großes Sprachmodell vorgestellt, das auf der Höhe der Zeit (etwa Llama 3) ist UND offen hinsichtlich Architektur, Trainingsdaten, Modellgewichte, sogar Zwischenstände

  • Mal was zur Praxis: In einem etwas umständlichen Artikel lest ihr, dass Halluzinationen nur dann ein Fehler sind, wenn man die Ergebnisse von KI nicht „iteriert“ – also genauer nachfragt. Gute Nachfragen sind: Woher stammt die Behauptung? Zeige einen Link zur Quelle. Gibt es dazu andere Meinungen? Erstelle eine Übersicht der Informationen darüber. (https://mikecaulfield.substack.com/p/is-the-llm-response-wrong-or-have) Ach, und ein Trick von mir: Bitte jede KI um eine Aufbereitung der Antwort in einer Tabelle. Offenbar werden sie dann konkreter und fokussierter.

  • Was fehlt? Eine gute KI-Strategie von Apple. Die superschlanken iPhones sollen 2026 (echt wirklich total sicher) ungefähr alles wissen. Womöglich dank Google. Oder doch Anthropic? Oder Mistral? Ach, ne, in die hat jetzt ja ASML investiert. Wo ist das Problem? Ich denke, dass Apple ernsthaft an Datenschutz und Antwort-Qualität interessiert ist. Und das die vorhandenen KI-Modelle noch zu schmuddelig für das Apple Ökosystem sind. (https://www.heise.de/news/KI-Leak-Apple-will-2026-angeblich-eine-Antwort-auf-alles-haben-10632700.h…