DeepSeek-V3: Eine neue Ära der KI-Effizienz

29.01.2025

Die Begeisterung um DeepSeek-V3 wächst weltweit – und das aus gutem Grund. Zwei entscheidende Faktoren treiben den Hype an:

1️⃣ Open-Source & Offline-Nutzung
Alle DeepSeek-Modelle wurden Open Source veröffentlicht und können auf eigenen Servern betrieben werden. Dank der geringen Hardware-Anforderungen laufen die kleineren Modelle sogar auf einem Smartphone – komplett offline!

2️⃣ Revolutionär niedrige Entwicklungskosten
DeepSeek-V3 basiert auf einer Mixture-of-Experts (MoE)-Architektur mit 671 Milliarden Parametern, von denen nur 37 Milliarden pro Token aktiviert werden. Das Training benötigte 2,788 Millionen GPU-Stunden auf H800-GPUs – für gerade einmal 5,576 Millionen Dollar. 💰

💡 Zum Vergleich: Westliche Spitzenmodelle wie GPT-4 (OpenAI) oder Gemini 1.5 (Google) werden auf 100 Millionen bis 1 Milliarde Dollar geschätzt!

Diese Zahlen zeigen: DeepSeek-V3 setzt neue Maßstäbe in puncto Rechenleistung und Kosten und könnte die KI-Landschaft nachhaltig verändern.