29.01.2025
Die Begeisterung um DeepSeek-V3 wächst weltweit – und das aus gutem Grund. Zwei entscheidende Faktoren treiben den Hype an:
1️⃣ Open-Source & Offline-Nutzung
Alle DeepSeek-Modelle wurden Open Source veröffentlicht und können auf eigenen Servern betrieben werden. Dank der geringen Hardware-Anforderungen laufen die kleineren Modelle sogar auf einem Smartphone – komplett offline!
2️⃣ Revolutionär niedrige Entwicklungskosten
DeepSeek-V3 basiert auf einer Mixture-of-Experts (MoE)-Architektur mit 671 Milliarden Parametern, von denen nur 37 Milliarden pro Token aktiviert werden. Das Training benötigte 2,788 Millionen GPU-Stunden auf H800-GPUs – für gerade einmal 5,576 Millionen Dollar. 💰
💡 Zum Vergleich: Westliche Spitzenmodelle wie GPT-4 (OpenAI) oder Gemini 1.5 (Google) werden auf 100 Millionen bis 1 Milliarde Dollar geschätzt!
Diese Zahlen zeigen: DeepSeek-V3 setzt neue Maßstäbe in puncto Rechenleistung und Kosten und könnte die KI-Landschaft nachhaltig verändern.