Kommentar von Andreas Baresel, Datagroup Wie können Unternehmen KI sinnvoll implementieren?

Von Andreas Baresel 6 min Lesedauer

Anbieter zum Thema

Im Zeitalter der Informationstechnologie erwecken Large Language Models wie ChatGPT großes Interesse. In vielen Unternehmen gibt es jedoch noch Bedenken diese Form der Künstlichen Intelligenz (KI) einzusetzen, beispielsweise aufgrund von Datenschutzrisiken, fehlenden Ressourcen oder fehlerhaften Ergebnissen – und das zu Recht. Die Frage, die sich stellt: In welcher Form können Unternehmen KI sinnvoll implementieren?

Der Autor: Andreas Baresel ist Vorstandsvorsitzender von Datagroup(Bild:  Klaus Mellenthin)
Der Autor: Andreas Baresel ist Vorstandsvorsitzender von Datagroup
(Bild: Klaus Mellenthin)

Künstliche Intelligenz ist das Thema des digitalen Zeitalters. Auch der Einfluss auf die Betriebswelt wird in den kommenden Jahren zweifelsfrei noch deutlich wachsen. 68 Prozent der Unternehmen in Deutschland halten KI bereits jetzt für die wichtigste Zukunftstechnologie, das ergibt sich aus einer Bitkom-Studie von 2023. Dennoch nutzen erst 15 Prozent der Unternehmen KI. Als größte Hemmnisse für den Einsatz werden z. B. Datenschutzanforderungen, fehlendes technisches Know-how, fehlende personelle Ressourcen und fehlende Daten genannt. Wie eine KI-Lösung im Unternehmenseinsatz aussehen kann und wieso viele dieser Probleme dabei hinfällig werden, zeigt ein Praxisbeispiel von Datagroup.

Vor allem für die Automatisierung ist KI ein entscheidender Hebel. Mit KI-Technologien lassen sich auch unstrukturierte Aufgaben in bisher nicht-standardisierten Bereichen automatisieren, wodurch Betriebe ihre Arbeit effizienter gestalten und ihr volles Potenzial ausschöpfen können. Narrow AIs sind dafür bereits in vielen Betrieben verbreitet und werden genutzt, um die Logistik zu optimieren, Wartungen von Maschinen vorherzusagen oder die Produktqualität am Fließband zu verbessern. Das Thema KI ist also keineswegs neu.

Die Aufmerksamkeit der Gesellschaft wurde jedoch erst mit Large Language Models (LLM) wie ChatGPT auf das Thema gelenkt – unter anderem, weil es damit für jeden einfach zugänglich wurde. LLMs wirken oft wie General AIs, sind jedoch eine neue, zusätzliche Kategorie im KI-Kontext. Durch die fehlende Wissensrepräsentation sind sie nicht als eigenständige KI zu betrachten, sondern eher als Schnittstelle zwischen Mensch und Maschine.

Echte KIs zeichnen sich durch Entscheidungen aus, auf die sie vorher nicht explizit trainiert wurden. Programme wie LLMs, die deterministisch sind und nur vorhersehbare Ergebnisse liefern, indem sie zugeführte strukturierte Daten schön lesbar für den Mensch aufbereiten, sind deshalb in diesem Sinne keine Künstlichen Intelligenzen. Sie besitzen nicht die Fähigkeit zwischen Wahrheit und Unwahrheit zu unterscheiden. Stattdessen liefern sie die wahrscheinlichsten Antworten, basierend auf Korrelationen ihrer Trainingsdaten, ohne dass die verwendeten Informationen geprüft oder bewertet werden.

Die Schattenseite der Large Language Models

Dieser wesentliche Unterschied bringt einige Nachteile mit sich, die sich auch in der betrieblichen Nutzung der Systeme abzeichnen. So ist ein bekanntes Problem, dass die Qualität der Ausgabe des LLMs stark abhängig vom eingegebenen Prompt ist. Damit das Sprachmodell die semantischen Informationen richtig einordnet und damit das Ziel der Frage versteht, ist es unerlässlich, die Aufgabenstellung möglichst präzise und eindeutig zu formulieren. Es muss ausreichend Kontext geliefert werden, vor allem, wenn die Frage auf spezielles Fachwissen oder spezifische Sachverhalte abzielt.

Um zufriedenstellende Ergebnisse zu erhalten, ist deshalb Wissen im Bereich Prompt Engineering eine Grundvoraussetzung und im Unternehmenseinsatz lediglich durch geschulte Fachkräfte möglich. Auch das „Halluzinieren“, wenn keine Daten zur Fragestellung vorliegen oder die Informationen plausibler klingen als die Wahrheit, kann eingesetzt im IT-Kontext fatale Folgen mit sich bringen.

Aber auch wenn Informationen faktisch richtig sind, kann es sein, dass diese nicht in der Ausgabe genutzt werden sollten. LLMs können unbeabsichtigt sensible Informationen preisgeben, die in den Trainingsdaten enthalten sind. Das wirft Bedenken hinsichtlich des Datenschutzes auf, insbesondere wenn vertrauliche Daten ohne ausreichende Anonymisierung in die Trainingsdaten gelangen. Auch dieses Problem entsteht aus der Tatsache heraus, dass LLMs die Inhalte, die sie produzieren, nicht verstehen und deshalb auch nicht entscheiden können, welche Informationen sie verwenden dürfen. Menschen nutzen ihre kognitiven Fähigkeiten und die im Laufe ihres Lebens gesammelten Erfahrungen, um Situationen zu bewerten, Mitgefühl zu äußern und Entscheidungen zu treffen. Sprachmodelle können unterstützendes Wissen bereitstellen. Doch zu den Feinheiten und ethischen Dimensionen, die menschliches Entscheiden charakterisieren, sind sie aktuell nicht fähig.

Die Künstliche Intelligenz der Zukunft

Aus diesem Grund liegt in LLMs und Prompt Engineering allein nicht die Zukunft. Es wird zusätzlich ein System benötigt, das auch logische Schlussfolgerungen ziehen und Entscheidungen treffen kann – eine Reasoning Engine. Ein solches System wägt Konsequenzen ab und trifft darauf basierend „bewusst“ Entscheidungen. Durch diese Technologie, kombiniert mit einem Large Language Model, entsteht eine General AI, die tiefgründige Interaktion und die Problemlösungskompetenz erreicht, die für wirkliche Fortschritte in der IT-Automation nötig sind.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ansätze wie diese sind bereits in der Diskussion. Auch Satya Nadella, CEO von Microsoft, hat bereits mehrfach die Relevanz einer Reasoning Engine für den Fortschritt Künstlicher Intelligenz betont. Allerdings gibt es bisher kaum Lösungen, die sich in der Umsetzung befinden. Einige Fallbeispiele zeigen jedoch, dass eine Umsetzung bereits möglich ist. Datagroup beispielsweise nutzt mit ihrer KI-Plattform einen generalisierten Ansatz, der LLM, Deep Learning und Reasoning Engine zu einer General AI verbindet. Wenn man dem System eine Aufgabe oder eine Fragestellung gibt, entscheidet es, welche vorhandenen Wissensbausteine (Knowledge Items) dafür relevant sind und baut diese zu einer individuellen Lösung zusammen. So nähert sich das System schrittweise der Lösung, bis das Ziel erreicht oder das relevante Wissen vollständig ausgeschöpft ist. Die Fähigkeit, komplexe Probleme durch die Kombination verschiedener Wissenselemente zu lösen, hebt diese Art der Technologie von traditionellen Automatisierungsmethoden ab, die meist auf die Repetition standardisierter Aufgaben beschränkt sind.

Herkömmliche Automation stößt an Grenzen

Die herkömmliche Automation, die auf Skripten oder Robotic Process Automation (RPA) basiert, stößt an ihre Grenzen, da sie eine hohe Standardisierung der Aufgaben voraussetzt. Im IT-Service sind jedoch nur etwa 30 Prozent der Aufgaben standardisierbar – so bleibt ein Großteil des Potenzials ungenutzt. Eine Reasoning Engine kann eine weitaus größere Bandbreite an Aufgaben abdecken, ohne auf die Standardisierung angewiesen zu sein. Diese Flexibilität, gepaart mit der Fähigkeit, menschliches Problemlösungsverhalten zu simulieren, ermöglicht es, nahezu jede Aufgabe zu automatisieren.

Das bedeutet jedoch nicht, dass Fachkräfte damit ersetzt werden. Denn eine weitere zentrale Komponente der generalisierbaren KI-Technologie ist der Mensch. Die Datagroup KI-Plattform beispielsweise lernt hauptsächlich direkt von Menschen statt nur aus Daten. Das erlernte Wissen wird möglichst kleinteilig eingefangen, so dass die Maschine es anschließend beliebig kombinieren kann. Die KI glänzt somit nicht nur durch technische Innovation, sondern auch durch das individuelle Wissen der Fachexperten, durch die sie trainiert wird. So können einzelne Prozessschritte, die heute noch manuell bearbeitet werden, zukünftig automatisiert erfolgen. IT-Fachleute können sich dann auf die komplexeren Aufgabenstellungen und das Endergebnis konzentrieren. Die Qualität und Effizienz der Dienstleistung wird somit erhöht und wirkt zusätzlich dem Problem des Fachkräftemangels entgegen.

Die Konsequenz dieser Entwicklung ist weitreichend und bietet einen Nährboden für innovative Ideen. KI-Plattformen wie diese können nicht nur in Echtzeit Aufgaben lösen und die Effizienz steigern, sondern auch vorausschauend agieren. Predictive Problem Solving ist dabei nur ein Beispiel für das weitere Potenzial, das in dieser Symbiose steckt. Um diesen Punkt zu erreichen, muss jedoch erst die Grundlage dafür entstehen. Menschliches Wissen muss eingefangen und Schnittstellen zu Drittsystemen geschaffen werden. Diese Schnittstellen sind der Schlüssel, um Künstliche Intelligenz in die Systemlandschaft zu integrieren und so dauerhaft nutzen zu können.

Fazit

Die Kombination aus Reasoning Engine, LLM und menschlichem Wissen ist nicht nur ein Beweis für den Fortschritt der KI-Technologie, sondern auch ein Leuchtfeuer für die Zukunft, in der intelligente Systeme neben menschlichem Wissen und Kreativität stehen, um gemeinsam komplexe Herausforderungen zu bewältigen. Unternehmen, die diese Balance zwischen KI-Anwendung und menschlicher Expertise meistern, werden sich dabei zukünftig von der Konkurrenz abheben und eine deutlich höhere Effizienz erzielen können.

Artikelfiles und Artikellinks

(ID:50009070)