Podcast
AI Talk 40: Open Source, oder warum AI-Riesen LLMs herschenken

Endlich wieder Zeit für einen Hintergrund-Deep-Dive nach all der Aufregung um GPT-5 und Co: Jakob Steinschaden (Trending Topics, newsrooms) und Clemens Wasner (enliteAI, AI Austria) widmen sich heute der großen Frage: Warum schenken Meta, OpenAI, Google und Co. teure AI-Modelle einfach so her? Der Fahrplan der Sendung:
Apple’s KI-Strategie
- Drittanbieter-Modelle: OpenAI, Anthropic, Google im Rennen
- Anpassung für Apple-Server und eigene M-Chips
- LLM-Siri für Frühjahr 2025 geplant
- Tiefe Integration vs. oberflächliche Verknüpfung
Meta’s Reorganisation
- Super-Intelligence-Lab mit vier Units
- Partnerschaft mit Midjourney für Bildgenerierung
- Parallelen zu Microsoft Research
Mysteriöses „Nano Banana“ Modell
- Neue Benchmark-Spitze in der Bildgenerierung
- Verbesserte Prompt-Genauigkeit
- Spekulationen über Hersteller (Google, OpenAI, andere)
Deep-Dive: Open Source Strategien bei LLMs
Grundlagen & Definitionen
- Open Source vs. Open Weights erklärt
- Code, Trainingsdaten und Gewichte
- Lizenz-Unterschiede (Apache 2.0, Meta-Lizenz, etc.)
- Nutzungsbeschränkungen und Marketing-Verpflichtungen
Strategische Gründe für Open Source
- Developer-Ökosystem aufbauen („Developers, developers, developers“)
- Kostensenkung durch Community-Beiträge
- Vendor Lock-in vermeiden
- Geopolitische Faktoren (China vs. USA)
- Vertrauensbildung und PR-Effekte
- Freemium-Modell im neuen Gewand
Erfolg und Misserfolg von Open Source
- Meta’s gemischte Bilanz mit Llama
- Performance muss stimmen („Paradox of Privacy“)
- Vergleich mit klassischer Software-Entwicklung
🎯 Fazit & Ausblick
- Open Source als moderne Freemium-Strategie
- Kommende Modell-Releases von GROK und Anthropic
- Verabschiedung