Definition Was ist DeepSeek?

Aktualisiert am 02.07.2025 Von Dipl.-Ing. (FH) Stefan Luber 4 min Lesedauer

DeepSeek ist ein KI-Start-up-Unternehmen aus China. Es erlangte im Januar 2025 durch die Veröffentlichung des KI-Sprachmodells DeepSeek-R1 weltweite Bekanntheit. DeepSeek-R1 kann in puncto Leistungsfähigkeit mit aktuellen Sprachmodellen großer KI-Player wie OpenAI mithalten, ist aber wesentlich ressourcenfreundlicher.

Was ist DeepSeek? Chinesisches Start-up setzt mit Open-Source-Modellen neue Maßstäbe(Bild:  KI-generiert)
Was ist DeepSeek? Chinesisches Start-up setzt mit Open-Source-Modellen neue Maßstäbe
(Bild: KI-generiert)

DeepSeek wurde 2023 gegründet und ist als privates Technologieunternehmen strukturiert. Das Start-up entwickelt und betreibt eigenständig KI-Modelle, die für verschiedene Aufgaben im Bereich der Künstlichen Intelligenz optimiert sind. Im Zentrum steht dabei die Vision, leistungsfähige, universelle KI-Modelle zu erschaffen, die auch für Anwender außerhalb Chinas zugänglich sind.

DeepSeek ist Teil eines Firmennetzwerks, das von dem Hedgefonds High-Flyer unterstützt wird. Der Hauptsitz des Unternehmens und des Fonds befindet sich in Hangzhou, Zhejiang (China). CEO Liang Wenfeng ist sowohl Mitgründer von DeepSeek als auch von High-Flyer.

Marktdurchbruch und Innovationsleistung

Im Januar 2025 gelang DeepSeek der internationale Durchbruch mit der Veröffentlichung des großen Sprachmodells DeepSeek-R1. Dieses Modell erzielte in einschlägigen KI-Benchmarks, darunter MMLU, GSM8K oder HellaSwag, vergleichbare Ergebnisse mit den führenden Modellen von OpenAI (GPT-4), Google (Gemini) und Anthropic (Claude 3). Gleichzeitig wurde DeepSeek-R1 mit Fokus auf Effizienz entwickelt: Es benötigt weniger Rechenressourcen für Training und Inferenz als viele Konkurrenzprodukte, was im Praxisbetrieb Kostenvorteile bringt.

Der Launch von DeepSeek-R1 sorgte an den internationalen Märkten für Unruhe. Medien berichteten, dass Aktien großer KI-Unternehmen und Hardwarehersteller – darunter Nvidia und AMD – kurzfristig unter Druck gerieten.

Modellvielfalt und Open-Source-Prinzip

DeepSeek hat von Beginn an eine Open-Source-Strategie verfolgt: Die meisten KI-Modelle werden unter MIT-Lizenz bereitgestellt. Die Modelle können frei heruntergeladen und auf eigenen Rechnern eingesetzt werden. Allerdings gibt es keine vollständige Transparenz über die Trainingsdaten, was von internationalen Beobachtern immer wieder kritisiert wird. In der Praxis gelten DeepSeek-Modelle als zugänglich, vielseitig und performant, sowohl für Forschung als auch für produktive Nutzung.

DeepSeek betreibt selbst gehostete Chatbot-Services auf Basis der eigenen Modelle, darunter DeepSeek-V3 und DeepSeek-R1. Die Dienste sind per Web-Oberfläche, App und API verfügbar. Daten, die im Rahmen der Nutzung entstehen, werden auf Servern in China gespeichert.

Wichtige Meilensteine und Modellentwicklung

Nach der Gründung 2023 veröffentlichte DeepSeek mehrere Modellreihen:

  • DeepSeek-Coder (Nov. 2023): Open-Source-Modelle speziell für das Coden, veröffentlicht unter MIT-Lizenz. Insgesamt acht Varianten (vier vortrainiert, vier feinabgestimmt).
  • DeepSeek-LLM (Nov. 2023): Generalistische Sprachmodelle mit sieben und 67 Milliarden Parametern. Architektur stark an Metas LLaMa-Modelle angelehnt.
  • DeepSeek-MoE (Jan. 2024): Mixture-of-Experts-Modelle mit jeweils 16 Milliarden Parametern. Das MoE-Prinzip erhöht Effizienz, indem jeweils nur ein Teil der Parameter aktiv ist.
  • DeepSeek-Math (Apr. 2024): Modelle, die auf die Lösung mathematischer Aufgaben spezialisiert sind.
  • DeepSeek-V2, V2.5, V3 (Mai–Dez. 2024): Sukzessive immer größere und leistungsfähigere MoE-Modelle. DeepSeek-V2 mit bis zu 236 Mrd. Parametern, V3 sogar 671 Mrd.

Diese Angaben zu Modellgrößen und -reihen stimmen mit den offiziellen Veröffentlichungen auf HuggingFace, GitHub und den DeepSeek-eigenen Seiten überein.

Es gab jedoch vereinzelt Diskussionen, ob Parameterangaben „echt“ vergleichbar mit denen westlicher Modelle sind. Das Prinzip „Mixture-of-Experts“ (MoE) erklärt den Unterschied bei den Modellgrößen, weil MoE-Modelle nicht immer alle Parameter gleichzeitig aktivieren.

Die tatsächliche Rechenlast ist viel kleiner, weil das Modell bei jedem Prompt nur einen Teil dieser Parameter verwendet. Dadurch sind MoE-Modelle besonders ressourcenschonend, effizient und skalierbar – trotz hoher nomineller „Größe“.

DeepSeek-R1 und DeepSeek-R1-Zero

Mit dem Launch von DeepSeek-R1 und DeepSeek-R1-Zero (Januar 2025) wurde erstmals ein Modell mit „State-of-the-Art“-Performance, Open-Source-Lizenz und ressourcensparender Architektur kombiniert. Die Benchmark-Ergebnisse sind öffentlich dokumentiert und von mehreren unabhängigen Forschern bestätigt (z. B. Stanford HELM, Papers with Code).

DeepSeek-R1 steht unter MIT-Lizenz. Die gehostete Version kann via App, Website und API genutzt werden. Auch die Installation auf eigenen Systemen ist möglich.

Janus-Pro

Im Januar 2025 wurde zusätzlich das Modell Janus-Pro veröffentlicht. Dieses Modell kombiniert Methoden aus Sprach-, Bild- und Multimodal-KI und gilt als direkter Wettbewerber zu DALL-E, Stable Diffusion oder Midjourney. Es wurde ebenfalls mit Effizienz im Blick entwickelt und steht unter MIT-Lizenz.

Nutzung und Reichweite

Die DeepSeek-Modelle stehen sowohl Entwicklern als auch Unternehmen und Endanwendern zur Verfügung. Insbesondere die DeepSeek-App, die sowohl für Android als auch iOS erhältlich ist, konnte im Frühjahr 2025 hohe Downloadzahlen und Top-Platzierungen in den Stores erreichen.

Kritikpunkte und Bedenken

Mit der globalen Reichweite der DeepSeek-Modelle wächst auch die Kritik. Zu den wichtigsten Punkten zählen:

  • Zensur sensibler Themen: Für China politisch sensible Begriffe und Diskussionen sind in gehosteten Modellen gefiltert oder blockiert (durch internationale Tests belegt).
  • Datenschutz: Nutzerdaten werden auf Servern in China gespeichert; es bestehen massive Bedenken aus Sicht der EU-Datenschutzverordnung, da keine belastbare Rechtsgrundlage für die Datenverarbeitung außerhalb Chinas existiert.
  • Transparenz: Die Trainingsdaten werden nicht vollständig offengelegt. Es gibt Hinweise, dass auch öffentlich nicht lizenzierte Daten eingeflossen sein könnten.
  • Missbrauchspotenzial: Die freie Verfügbarkeit leistungsfähiger KI-Modelle bietet Chancen, birgt aber auch Risiken. In der Vergangenheit wurden bereits Sicherheitslücken entdeckt, darunter ein Fall einer offen erreichbaren Datenbank mit sensiblen DeepSeek-Daten (vgl. Sicherheitsmeldungen 2024).
  • Missbrauch durch Dritte: Die offene Nutzung ermöglicht es auch Cyberkriminellen, DeepSeek-Modelle für Social Engineering, Deepfakes oder Spam zu nutzen – eine Herausforderung, die DeepSeek mit anderen Open-Source-Projekten teilt.

(ID:50312273)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung