Grundlegende KI-Technologien für alle Stability AI bringt Open-Source-Sprachmodell auf den Markt

Von Bernhard Lück 1 min Lesedauer

Anbieter zum Thema

Mit der Einführung des Open-Source-Sprachmodells StableLM möchte Stability AI grundlegende KI-Technologien für alle zugänglich machen. Die Alpha-Version sei mit drei und sieben Milliarden Parametern verfügbar, weitere Modelle mit 15 bis 65 Milliarden Parametern sollen folgen.

KI-Sprachmodelle werden oft als „stochastische Papageien“ bezeichnet, weil sie mit Wahrscheinlichkeiten für bestimmte Wortfolgen arbeiten (Bild erstellt mit Stable Diffusion XL).(Bild:  Stability AI)
KI-Sprachmodelle werden oft als „stochastische Papageien“ bezeichnet, weil sie mit Wahrscheinlichkeiten für bestimmte Wortfolgen arbeiten (Bild erstellt mit Stable Diffusion XL).
(Bild: Stability AI)

Stability AI erlangte im Jahr 2022 einen höheren Bekanntheitsgrad, als es die öffentliche Freigabe des KI-Bildgenerators Stable Diffusion vorantrieb – als transparente, offene und skalierbare Alternative zu proprietärer KI. Nun hat das Unternehmen sein erstes Sprachmodell veröffentlicht. Die StableLM-Modelle könnten Text und Code generieren und künftig eine Reihe von nachgelagerten Anwendungen unterstützen. Stability AI zufolge seien sie der Beweis, dass kleine und effiziente Modelle mit entsprechendem Training eine hohe Leistung erbringen können. Entwickler können die StableLM-Basismodelle für kommerzielle oder Forschungszwecke frei einsehen, nutzen und anpassen, vorbehaltlich der Bedingungen der Lizenz CC BY-SA 4.0.

StableLM werde auf einem neuen experimentellen Datensatz trainiert. Dieser baue auf dem Open-Source-Datensatz The Pile auf, sei aber mit 1,5 Billionen Token Inhalt dreimal so groß. Der Umfang dieses Datensatzes verleihe StableLM trotz seiner geringen Größe von drei und sieben Milliarden Parametern (zum Vergleich: GPT-3 hat 175 Mrd.) eine überraschend hohe Leistung bei Konversations- und Codierungsaufgaben.

Darüber hinaus hat Stability AI die Veröffentlichung einer Reihe von Forschungsmodellen angekündigt, die mit Anweisungen verfeinert werden. Zunächst, so Stability AI, werden diese fein abgestimmten Modelle eine Kombination aus fünf aktuellen Open-Source-Datensätzen für Konversationsagenten verwenden: Alpaca, GPT4All, Dolly, ShareGPT und HH. Die Modelle seien ausschließlich für Forschungszwecke gedacht und werden unter der nichtkommerziellen Lizenz CC BY-NC-SA 4.0 veröffentlicht. Diese entspreche der Alpaca-Lizenz der Stanford University.

Die Modelle sind im GitHub-Repository von Stability AI verfügbar. Die StableLM-Version mit sieben Milliarden Parametern kann auf Hugging Face Spaces getestet werden.

(ID:49418118)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung