KI Lexikon: Model Collapse

Begriff
Model Collapse
Kurzdefinition
Ein Zustand, in dem KI-Modelle degenerieren, weil sie überwiegend mit KI-Inhalten statt mit echten menschlichen Daten trainiert werden.
Relevanz-Bewertung
Ja, real und zunehmend relevant. Erste Papers dazu seit 2023, im Tech-Diskurs ab 2024 breiter diskutiert.
Ausführliche Erklärung
Stell dir vor, du kopierst immer wieder eine Kopie einer Kopie. Irgendwann bleibt nur noch verschwommener Brei übrig.
Das ist Model Collapse:
KI-Modelle bekommen mehr KI-Outputs als menschliche Daten
dadurch verstärken sich Fehler, Stereotype, Floskeln
Qualität und Vielfalt der Sprache sinken
Modelle werden weniger „wissend“ und mehr… naja, matschig
Die Ironie: Je mehr KI erzeugt wird, desto größer die Gefahr, dass Modelle in ihrer eigenen Suppe schwimmen und verarmen.
Wie lässt sich das vermeiden?
menschliche Daten priorisieren
generierte Inhalte filtern, markieren, aussortieren
Trainingssets divers halten
Retrieval-Mechanismen nutzen, statt blind alles zu „lernen“
Herkunft
Wissenschaftlicher Begriff aus ML-Forschung, u. a. Papers von 2023. Populär ab 2024 in Tech-Blogs und Entwickler-Communities.
Synonyme / Varianten
Data Feedback Loop (technischer)
AI Cannibalism (sarkastisch)
Beispiel
Ein Text-Modell, das nach mehreren Trainingsrunden nur noch generische Satzbausteine ausspuckt wie
„In der heutigen schnelllebigen Welt ist es wichtiger denn je…“
Verwendungskontext
Diskussion über Trainingsdaten, Qualitätsverfall und KI-Ökosysteme.
Bezug zu anderen Begriffen
Verwandt mit AI Slop, Garbage-in-Garbage-out, Data Poisoning.