watsonx IBM macht Generative KI für Unternehmen verfügbar
Anbieter zum Thema
Die IBM hat kürzlich ihre neue KI- und Datenplattform watsonx allgemein verfügbar gemacht. Das KI-Entwicklungsstudio watsonx.ai ist ebenso erhältlich wie die Datenplattform watsonx.data. Das dritte Modul, watsonx.governance, soll im November folgen. Watsonx sei auf die Anforderungen von Unternehmen ausgerichtet und liefere ihnen verschiedene vortrainierte Foundation-Modelle, erklärt IBMs KI-Experte Hardy Gröger im Gespräch.

„Generative KI ist inzwischen in den Vorstandsetagen angekommen“, berichtet Hardy Gröger von IBM. „Doch es gibt Bedenken hinsichtlich der möglichen Preisgabe von vertraulichem internem Wissen.“ Das beruhe nicht nur auf Vorgaben der DSGVO, sondern auch in der Bewahrung geistigen Eigentums, das derzeit meist im eigenen Rechenzentrum geschützt sei.
„Was passiert mit meinen Daten, wenn eine generative KI zum Einsatz kommt?“, berichtet Gröger von den Bedenken. Je nach Vorgehensweise der verschiedenen Anbieter können Benutzereingaben und auch Daten zur Verfeinerung der Modelle (Prompt Engineering oder Fine Tuning) von den Anbietern genutzt werden, um zukünftige Modelle zu trainieren. Damit könnten schutzbedürftige Daten preisgegeben werden. Die Folgen könnten gerade in personeller, rechtlicher und juristischer Hinsicht drastisch sein. „Deshalb geben wir unseren Kunden die Sicherheit, dass IBM keine Kundendaten nutzt, um Modelle zu trainieren oder anderwärtig zu verwenden. Ihre Daten bleiben ihre Daten.“
„Unternehmen, die KI einsetzen wollen, benötigen Zugang zu einem vollständigen Technologiepaket, das es ihnen ermöglicht, KI-Modelle zu trainieren, zu optimieren, vortrainierte Foundation-Modelle und Machine Learning einzusetzen, und das alles mit vertrauenswürdigen Daten, Geschwindigkeit und Governance – alles an einem Ort und in jeder Cloud-Umgebung“, so Hardy Gröger. Dieses Paket sei watsonx.
watsonx.data
Die erste Komponente ist watsonx.data. „Mit dieser Lakehouse-Architektur sind die Kunden in der Lage, Daten in günstigem Object Storage zu speichern, mit Metadaten zu katalogisieren, und performant in Abfragen und Analysen zu verarbeiten. Im Zusammenspiel mit einer Data-Fabric-Architektur erlaube das Anwendungen, Daten über Kataloge und Marketplaces zu nutzen und die Einhaltung von Richtlinien und Regulatorien sicherzustellen.
„Wir unterstützen verschiedene Engines, sodass Entwickler sowohl über Queries auf große Mengen von Daten zugreifen (Presto), also auch Daten effizient prozessieren können (Spark).“, erläutert Gröger. Die Speicherung der Daten in offenen Formaten wie Apache Iceberg, Parquet etc. erlaubt auch Werkzeugen anderer Hersteller den Zugriff auf die gespeicherten Daten. „Durch die konsequente Nutzung der Hybrid-Cloud-Container-Plattform Red Hat OpenShift können Kunden die Plattform als SaaS in der IBM Cloud und AWS nutzen sowie auf eigener Infrastruktur deployen.“
watsonx.ai
Mit watsonx.ai bietet IBM ein KI-Entwicklungsstudio für Unternehmen, um klassische Machine-Learning-Modelle und sogenannte Foundation-Modelle zu trainieren, validieren, optimieren und zu deployen. Anstatt auf ein einziges, großes Foundation Model zu setzen, bietet IBM seinen Kunden eine Bibliothek verschiedener Foundation-Modelle (IBM-Modelle, Open Source) an, sodass der ideale Ausgangspunkt für Use Cases im Unternehmen gewählt werden kann.
Gröger sieht einen großen Bedarf an Foundation-Modellen mit passender Skalierung und inhaltlicher Auslegung. Anstatt beliebige Use Cases mit einem riesengroßen Modell von mehreren 100 Milliarden Parametern zu unterstützen, macht es, Sinn kleinere und mittlere Modelle für Anwendungsszenarien oder Industrien zu trainieren, die mit bis zu 30 Milliarden Parametern auskommen können und dennoch eine Vielzahl von Use Cases unterstützen. Die Anzahl der Parameter eines Foundation Models korreliert unmittelbar mit dem Energie- und Ressourcenbedarf bei Training, bei der Verfeinerung und der Ausführung. Somit stellen sehr große Modelle unter Umständen die lokale Infrastruktur in einer Private oder Hybrid Cloud auf eine harte Belastungsprobe.
„Deshalb sind die Foundation-Modelle, die wir bereitstellen, in Bezug auf Datenqualität, Größe und Einsatzmöglichkeit optimiert.“, sagt Gröger. Außerdem stellt IBM in seiner Cloud Angebote bereit, die insbesondere auf die Anforderungen von KI-Workloads optimiert sind. Neben neuen GPU Services mit Chips von Nvidia hat IBM einen nagelneuen KI-Supercluster namens Vela in der IBM-Cloud aufgebaut. Dieser nur in der IBM-Cloud bereitgestellte Rechner ist auf KI-Workloads spezialisiert. Damit hat IBM Research bereits große Mengen von Daten von NASA-Satelliten in entsprechende Foundation-Modelle umgewandelt.
„Die nun initial bereitgestellten Foundation-Modelle in watsonx.ai fokussieren auf Natural-Language-Processing-Funktionen. Des Weiteren wird IBM in den kommenden Monaten Large Language Models für Code Assistance und IT-Operationen sowie Foundation-Modelle für die Automatisierung von Prozessen im Unternehmen bereitstellen. An der Spitze der kommenden Weiterentwicklung von watsonx kämen branchenspezifische Modelle, die einen „industriespezifischen body of content“ besäßen, beispielsweise für das Finanzwesen.
Tatsächlich sind der Finanzsektor und die Manufacturing-Industrie die beiden ersten Branchen, die von Foundation-Modellen profitieren können. Das beschreibt Rohit Badlaney, General Manager, IBM Cloud Industry Platforms, in seinem IBM-Blog. Vela und watsonx könnten in diesen Branchen viele Vorteile bieten.
Das Nutzungsprinzip sieht laut Gröger vor, dass der Kunde neben der direkten Nutzung von IBM- und Open-Source-Modellen diese mit eigenen Daten nachtrainieren oder eigene Foundation-Modelle erstellen kann. Dafür wird watsonx.ai ebenfalls die entsprechenden Funktionen zur Verfügung stellen. Im ersten Schritt stehen aber mit dem Prompt Lab Werkzeuge zum Prompt Engineering und Prompt Tuning zur Verfügung, mithilfe derer Modelle auf den Kontext von Use Cases im Unternehmen ausgelegt werden können, ohne die Modelle neu trainieren zu müssen. Hierzu könnten auch entsprechende APIs und Werkzeuge wie LangChain oder andere zum programmatischen Umgang mit Foundation-Modellen genutzt werden.
„IBM stellt watsonx.ai zunächst auf der IBM Cloud als Software as a Service zur Verfügung. Damit ist die Möglichkeit gegeben, den Service kontinuierlich um weitere Funktionen und Inhalte zu erweitern“, so Gröger. „Das Deployment im eigenen Rechenzentrum sowie SaaS-Angebote auf anderen Public Clouds werden in der näheren Zukunft folgen.“
watsonx.governance
Die dritte Komponente kommt im vierten Quartal 2023. Mit watsonx.governance lassen sich wichtige Aspekte wie Ethik, Transparenz und Erklärbarkeit von KI-Workflows und Machine-Learning-Modellen realisieren. Zudem soll watsonx.governance eine Konsole werden, um alle KI-Aktivitäten einer Organisation zu steuern, zu verwalten und zu überwachen. „Das heißt, jedes KI-Modell wird nicht nur nachvollziehbar gemacht, sondern in seinem Lebenszyklus überwacht, sodass Abweichungen von gewünschtem Verhalten vermieden werden können“, erläutert Gröger, „von der Quelle bis zur Außerdienststellung.“
Wie schon mehrfach berichtet, kann IBM mehrere Tools anbieten, um ein KI- oder Machine-Learning-Modell erklärbar und transparent zu machen, sodass seine Ergebnisse nachvollziehbar sind und auch die Datenherkunft transparent ist. „Dies gilt sowohl für Machine-Learning-Modelle, die mit der IBM-Plattform trainiert wurden, als auch für Modelle anderer Anbieter. Mit watsonx.governance werden wir auch die Governance von Foundation-Modellen unterstützen.“ Damit wären Kunden in der Lage, sich auf die Anforderungen des eigenen Unternehmens und der Regulatorik entsprechend einzustellen.
„Sehr wichtig sind in diesem Zusammenhang die Risikoklassen, die der EU AI Act kürzlich eingeführt hat“, weist Gröger hin. „Diese Risikoklassen werden im Gesetz festgelegt und müssen zu jedem erzeugten KI-Modell angegeben werden. Dabei spielt dann nicht nur der Hersteller eines vortrainierten Foundation-Modells eine wichtige Rolle, sondern auch die Veränderungen durch Anwender, die mit KI-Modellen und Unternehmensrisiken befasst sind.“ So stellt sich daher die Frage, welche Stelle im Unternehmen letzten Endes mit dem Risikomanagement von KI-Modellen befasst ist: die IT-Abteilung, die Fachbereiche oder der (Finanz-)Vorstand.
Support für KI-Entwickler
KI-Entwickler können in watsonx.ai initial auf optimierte Encoder-Modelle der IBM sowie fünf einsatzbereite Open-Source-Modelle verschiedener Architekturen (Encoder/Decoder, Decoder only) zurückgreifen, die bereits ab Werk für eine Reihe von NLP-Aufgaben trainiert wurden. Dazu gehören die Beantwortung von Fragen, die Erstellung von Inhalten und Zusammenfassungen sowie die Klassifizierung und Extraktion von Texten. Künftige Releases von watsonx.ai sollen dann weitere, IBM-eigene Foundation-Modelle ergänzen, die speziell auf bestimmte Industrien oder Aufgabenbereiche abgestimmt wurden.
Zusätzlich zu diesen NLP-Modellen will IBM auch einsatzbereite, businessorientierte Lösungen auf Basis von watsonx bereitstellen. Zunächst wird der Fokus auf Code-Entwicklung, Automatisierung von repetitiven Tätigkeiten (Digital Labor) und Cybersecurity liegen. Den Anfang macht RedHat Ansible LightSpeed. In Verbindung mit dem IBM Watson Code Assistant stelle dies einen generativen KI-Service bereit, der Entwicklern das Erstellen von Ansible-Inhalten erleichtert. Sie können hier ihre Anweisungen in natürlicher Sprache angeben, und der Code Assistant generiert dann auf dieser Grundlage mithilfe von Foundation-Modellen passende Codebeispiele. Diese können dann für Automatisierungsaufgaben und zum Erstellen von Ansible Playbooks genutzt werden.
Pricing
IBM hat bereits die Preisgestaltung veröffentlicht. Die Trial-Version ist ebenso kostenlos wie die Essentials-Version von watsonx.ai, die beide fürs Ausprobieren gedacht sind. Bei letzterer und allen weiteren Editionen fällt eine sog. „Tier Fee“ an, also eine Grundgebühr. In der Standard-Edition beträgt diese immerhin 1.050 US-Dollar pro Monat, aber dafür ist diese Version für Unternehmen gedacht und mit entsprechendem Funktionsumfang ausgestattet. Die Verrechnungseinheiten in Form von „Tokens“ und „Capacity Unit Hours“ (CUH/Monat) sind Dinge, die man am besten das IBM Consulting fragt.
(ID:49616494)