Wikipedia wird mehr AI einsetzen, menschliche Editoren bleiben am Drücker

Schreiben hier noch Menschen, oder schon die Chatbots? Bei Wikipedia gibt es darauf eine klare Antwort. Denn die Wikimedia Foundation hat heute ihre neue KI-Strategie veröffentlicht, die einen klaren Kurs für den Einsatz von künstlicher Intelligenz im Wikipedia-Ökosystem festlegt. Entgegen mancher Erwartungen wird die Community der Freiwilligen weiterhin das Herzstück des Projekts bleiben – Wikipedia wird nicht durch KI ersetzt.
Wofür Wikipedia KI einsetzen wird
Die neue Strategie konzentriert sich auf vier Hauptbereiche, in denen KI die Arbeit der Wikipedia-Editoren unterstützen soll:
- Unterstützung der Moderation: KI-gestützte Arbeitsabläufe sollen Aufgaben im Bereich der Qualitätssicherung automatisieren, insbesondere angesichts zunehmender Desinformation im Internet.
- Effizienzsteigerung für Editoren: Durch verbesserte Informationsauffindbarkeit sollen Freiwillige mehr Zeit für inhaltliche Diskussionen, Beurteilungen und Konsensfindung haben.
- Sprachübergreifende Zusammenarbeit: Automatisierte Übersetzung und Anpassung häufiger Themen sollen lokale Perspektiven fördern und die Inhalte in weniger verbreiteten Sprachen bereichern.
- Besseres Onboarding neuer Freiwilliger: KI soll die Einarbeitung und Betreuung neuer Wikipedia-Mitarbeiter durch automatisierte Hilfestellungen unterstützen.
Wofür Wikipedia KI nicht einsetzen wird
Die Wikimedia Foundation hat klare Grenzen gezogen:
- Keine Ersetzung menschlicher Editoren: Das menschliche Urteilsvermögen und die kollaborative Entscheidungsfindung bleiben zentral.
- Keine selbstständige KI-Inhaltsproduktion: Wikipedia wird nicht auf vollautomatisch generierte Inhalte setzen, wie es bei einigen kommerziellen Plattformen der Fall ist.
- Keine Kontrolle durch geschlossene KI-Systeme: Die Foundation priorisiert Open-Source-KI oder mindestens offene Gewichtungsmodelle.
Umsetzungsprinzipien
Die Umsetzung folgt klaren Grundsätzen:
- Ein menschenzentrierter Ansatz, der die Entscheidungshoheit der Editoren wahrt
- Priorisierung offener Technologien
- Fokussierung auf Arbeitserleichterungen, die Editoren von technischen Hürden befreien
- Transparenz in allen KI-bezogenen Entwicklungen
- Differenzierte Herangehensweise an verschiedene Sprachen
Priorisierungsentscheidungen
Angesichts begrenzter Ressourcen hat die Foundation bewusste Entscheidungen getroffen:
- Zunächst Fokus auf Unterstützung der Inhaltsintegrität vor Inhaltsgeneration
- Verwendung von Open-Weight-Modellen, wo eigene Open-Source-Modelle nicht praktikabel sind
- Konzentration auf die vier definierten Hauptanwendungsbereiche statt breiter Streuung
Diese Strategie gilt zunächst für den Zeitraum von Juli 2025 bis Juni 2028, wird jedoch jährlich überprüft und bei Bedarf angepasst, um auf Entwicklungen im dynamischen KI-Bereich zu reagieren.