gesponsertKI-Risiken minimieren, KI-Chancen nutzen So lässt sich generative KI zuverlässig und sicher einsetzen

5 min Lesedauer

Gesponsert von

Viele Unternehmen sehen große Vorteile in der Nutzung generativer KI (Künstlicher Intelligenz), zögern aber noch wegen ihrer Bedenken, die Compliance-Vorgaben nicht einhalten zu können. Doch LLMs (Large Language Models) lassen sich absichern und in vertrauenswürdigen Umgebungen betreiben. Das zeigen Lösungen wie Prediction Guard und die Intel Developer Cloud.

Die in der Intel Developer Cloud bereitgestellten Intel Gaudi 2 Prozessoren helfen dabei, Anforderungen zu erfüllen, die mit den Kundenerwartungen nach schnellen, zuverlässigen Ergebnissen generativer KI einhergehen. (Bild:  Intel Corporation)
Die in der Intel Developer Cloud bereitgestellten Intel Gaudi 2 Prozessoren helfen dabei, Anforderungen zu erfüllen, die mit den Kundenerwartungen nach schnellen, zuverlässigen Ergebnissen generativer KI einhergehen.
(Bild: Intel Corporation)

KI ist entscheidend für die Wettbewerbsfähigkeit

Geht es nach der deutschen Industrie, wird Künstliche Intelligenz (KI) die Branche nicht nur prägen, sondern maßgeblich über ihre Zukunft entscheiden, wie eine Umfrage des Digitalverbands Bitkom zeigt. 78 Prozent der deutschen Industrieunternehmen sind überzeugt, dass der Einsatz von KI künftig entscheidend für die Wettbewerbsfähigkeit der deutschen Industrie sein wird. Für 70 Prozent ist KI sogar die wichtigste Technologie für die Zukunftsfähigkeit der deutschen Industrie überhaupt.

Obwohl KI als Innovationsmotor gesehen wird, zögern viele Unternehmen in Deutschland noch. So gibt die Hälfte (53 Prozent) der Industrieunternehmen an, erst einmal abzuwarten, welche Erfahrungen andere beim Einsatz von KI machen. „Das enorme Potenzial von KI für die Industrie wird in der Branche zwar erkannt, aber noch längst nicht ausgeschöpft. Wer abwartet, kann keine Vorreiterrolle einnehmen“, betont Bitkom-Präsident Dr. Ralf Wintergerst.

Doch Bedenken bremsen den KI-Einsatz

Auch die Chancen für eine höhere Effizienz im Unternehmen durch KI sind enorm. Mit den LLMs (Large Language Models) wie ChatGPT zum Beispiel könnten bereits heute 15 Prozent aller Arbeitsaufgaben schneller und bei gleicher Qualität erledigt werden, der Anteil ließe sich zukünftig auf 56 Prozent steigern, so der aktuelle eco Branchenmonitor.

In den nächsten fünf Jahren wollen laut Bitkom trotzdem nur 13 Prozent der Unternehmen generative KI verwenden, 19 Prozent planen dies, erst später zu tun. Für mehr als die Hälfte (54 Prozent) der Unternehmen ist der Einsatz generativer KI erst einmal kein Thema. Offensichtlich vergibt sich die Mehrzahl der Unternehmen in Deutschland dadurch Chancen für Innovationen und Effizienzsteigerungen, die zwar gesehen, aber nicht genutzt werden.

Grund dafür ist insbesondere eine große Unsicherheit bei den Unternehmen, wie sich die Anforderungen an Compliance, Datenschutz und Sicherheit erfüllen lassen, wenn man seine Daten einer „Blackbox“ KI überlässt. Die Sorgen sind sogar so groß, dass zwei Drittel der Deutschen (66,3 Prozent) ihre Daten nicht einmal in anonymisierter Form für das Training künstlicher Intelligenzen zur Verfügung stellen wollen, wie eine eco-Umfrage ergeben hat.

Compliance-Forderungen versus öffentliche KI-Dienste

Viele öffentliche und private Stellen fragen sich derzeit, unter welchen Voraussetzungen sie KI-Anwendungen datenschutzkonform einsetzen können, berichtet auch die Datenschutzkonferenz (DSK) als Gremium der Datenschutzaufsichtsbehörden in Deutschland. „Allerdings sind in einem hochdynamischen Umfeld tragfähige Bewertungen schwierig. Zudem werden wesentliche Fragen zur Nutzung personenbezogener Daten für das Training von KI-Anwendungen von vielen Anbietern nicht transparent beantwortet. Andererseits sollten innovative Lösungen auch mittels KI möglich sein“, erklärt Prof. Kugelmann, Leiter der Taskforce KI in der DSK, die schwierige Situation bei den Unternehmen.

Bei Nutzung einer „öffentlichen“ KI-Lösung, bei der das KI-Modell und die Trainingsdaten der KI nicht unter Kontrolle des eigenen Unternehmens sind, ist die Umsetzung von Forderungen wie Transparenz, Erklärbarkeit der Entscheidungen oder Fairness mehr als schwierig. Vielen Unternehmen fehlen auch Know-how und Ressourcen, um ihren KI-Einsatz der Compliance entsprechend zu gestalten und zu kontrollieren. So sagen laut Bitkom-Umfrage 48 Prozent der deutschen Industrieunternehmen, ihnen fehle die Expertise, KI einzubinden.

KI-Risiken beherrschbar machen, um KI-Chancen zu nutzen

„Heutzutage sind leistungsstarke KI-Tools auch für Menschen ohne formale KI-Kenntnisse zugänglich“, erklärt Lama Nachman, Intel Fellow und Director, Intelligent Systems Research Lab at Intel Labs. „Dies hat zwar enorme Chancen für Innovationen geschaffen, es besteht jedoch auch eine zunehmende Besorgnis über Missbrauch, Sicherheit, Voreingenommenheit und Fehlinformationen“, so Lama Nachman weiter.

Eine zentrale Herausforderung besteht laut Daniel Whitenack, KI-Experte und Gründer von Prediction Guard, darin, dass die Leistung von LLMs variieren kann, was sie unzuverlässig macht. Sie neigen manchmal zu „Halluzinationen“, deren Ergebnisse sachlich ungenau oder falsch sind. Außerdem sind sie anfällig für eine neue Art von Sicherheitsbedrohung, die sogenannten Prompt-Injections, bei denen ein Angreifer eine böswillige Eingabe verwendet, um eine unbeabsichtigte Reaktion oder einen Datenverstoß aus dem Modell hervorzurufen.

„All diese Herausforderungen können es für Unternehmen schwierig machen, mit LLMs Fuß zu fassen. Sie möchten Haftungsansprüche vermeiden und den Verlust sensibler Daten wie personenbezogener Daten nicht riskieren. Vielen von ihnen mangelt es auch an Datentalent und anderen Ressourcen, die zur Bewältigung dieser Probleme erforderlich sind“, sagte Whitenack. „Unsere Lösung trägt dazu bei, diese Hürden bei der Einführung zu beseitigen, erfordert jedoch eine erhebliche und zuverlässige Rechenleistung – etwas, auf das wir über die Intel Developer Cloud zugreifen konnten.“

Die Plattform von Prediction Guard bietet seinen Kunden Zugriff auf mehrere LLMs und integriert gleichzeitig zusätzliche Funktionen und Technologien, die mit schädlichen Eingaben (wie Prompt-Injections) und schädlichen Ausgaben (wie Ungenauigkeiten oder Toxizität) umgehen, alles gehostet in einer sicheren, privaten Umgebung in der Intel Developer Cloud, mit Intel Gaudi 2 Deep-Learning-Prozessoren. Das Unternehmen nutzt außerdem die Hugging Face Optimum Habana-Bibliothek (eine Zusammenarbeit zwischen Intel und Hugging Face) in der Intel Developer Cloud, um die Modelle zu optimieren, die es auf den Prozessoren ausführt.

Für Prediction Guard-Kunden mit besonders sensiblen Daten ermöglicht die Intel Developer Cloud laut Whitenack dem Unternehmen, kundenspezifische Bereitstellungen zu erstellen, die Kundendaten speziell schützen.

Innovation bei gleichzeitiger Risikominimierung

Die in der Intel Developer Cloud bereitgestellten Intel Gaudi 2 Prozessoren helfen Prediction Guard und seinen Kunden dabei, einige der großen Anforderungen zu erfüllen, die mit einem wachsenden Unternehmen und den Kundenerwartungen nach schnellen, zuverlässigen Ergebnissen generativer KI einhergehen.

So lassen sich die Chancen, die generative KI für Unternehmen bietet, nutzen und die möglichen Risiken vermindern. Die Bedenken wegen Compliance können einem Vertrauen in KI weichen, so dass der Weg zu Innovationen und neuen Geschäftsmodellen dank KI offensteht.

Weitere Informationen:

Sie wollen noch mehr erfahren, wie sich die Chancen von KI nutzen und Compliance-Vorgaben einhalten lassen? Dann lesen Sie hier, wie der Weg von Intel hin zu vertrauenswürdiger KI aussieht, wie sich vertrauenswürdige LLMs erstellen lassen und welche Vorteile die Intel Developer Cloud bietet.

(ID:50047877)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung