Künstliche Intelligenz GPT-4 – OpenAI-Chef warnt vor eigenem Produkt

Von Michael Eckstein Lesedauer: 4 min |

Anbieter zum Thema

Die hinter ChatGPT stehende KI-Engine GPT-4 leistet Erstaunliches – und das muss nicht unbedingt nur Gutes sein. Nun hat der Chef des GPT-Entwicklers OpenAI davor gewarnt, der KI freien Lauf zu lassen. Man müsse sich vor möglichen negativen Folgen einer solchen Technologie schützen. Die Einsicht kommt spät.

Die KI-Modelle werden immer besser – und diese Entwicklung ist noch lange nicht am Ende. Höchste Zeit sicherzustellen, dass die Technik nur zum Wohle der Menschen eingesetzt werden kann – doch das ist gar nicht einfach.
Die KI-Modelle werden immer besser – und diese Entwicklung ist noch lange nicht am Ende. Höchste Zeit sicherzustellen, dass die Technik nur zum Wohle der Menschen eingesetzt werden kann – doch das ist gar nicht einfach.
(Bild: frei lizenziert / Unsplash)

„Dies wird die größte Technologie sein, die die Menschheit je entwickelt hat“, sagte Sam Altman, CEO des GPT-Entwicklers OpenAI, in einem Interview mit dem US-Nachrichtensender ABC News. „Wir sind ein bisschen ängstlich.“ Der Grund: Die Technologie berge echte Gefahren, da sie beispielsweise die Macht habe, Gesellschaften umzugestalten. Daher müssten Behörden und die Gesellschaft in die Technologie einbezogen werden, um sich vor möglichen negativen Folgen für die Menschheit zu schützen. „Wir müssen hier vorsichtig sein“, betont Altman im Gespräch. Die Menschen sollten froh darüber sein, dass sein Team „ein wenig Angst vor der Sache“ hätte.

Was Altman dann im weiteren Verlauf des Interviews zum Besten gibt, spielt KI-Kritikern in die Karten: So würden sich die Modelle für groß angelegte Desinformationskampagnen eignen. Auch sei er darüber besorgt, dass die KI immer besser darin werde, Computercode zu schreiben: „Damit könnten sie für offensive Cyberangriffe verwendet werden.“

Rasant wachsende Anwenderschaft

Die Warnung kam zu dem Zeitpunkt, an dem OpenAI gerade die neueste Version seines KI-Modells, GPT-4, veröffentlicht hat – nicht einmal vier Monate nachdem die ursprüngliche Version veröffentlicht wurde und zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte wurde.

Gegenüber ABC News sagte Altman, der Ingenieur für Künstliche Intelligenz ist, dass die neue GPT-Version (Generative Pre-trained Transformer) „nicht perfekt“ sei. Doch bereits mit ihrem jetzigen Können habe sie bei in den USA bei Anwalts-Examensprüfungen 90 Prozent und beim SAT-Mathetiktest der High School ein nahezu perfektes Ergebnis erzielt. GPT-4 könne auch Computercode in den meisten Programmiersprachen schreiben, sagte er.

Chancen durch KI – aber auch absehbare Gefahren

Während viele Menschen – in der Bundesrepublik nach einer aktuellen Umfrage rund drei Viertel der Bürger – Künstliche Intelligenz als Chance sehen, haben etliche auch erhebliche Bedenken, ob sich die KI langfristig beherrschen lässt und ob möglicherweise Menschen durch Maschinen ersetzt werden könnten. Laut Altman funktioniert KI nur unter der Anleitung oder dem Input von Menschen. „Sie wartet darauf, dass jemand ihr einen Input gibt“, sagte er.

Das Werkzeug werde in hohem Maße von Menschen kontrolliert. Hier gebe es jedoch ein Problem – nämlich, welche Menschen die Kontrolle über die Eingaben haben. Zwar habe man Sicherheitsgrenzen gesetzt, „doch es wird Menschen geben, die diese nicht einhalten“, sagte Altman. Die Gesellschaft hat seiner Ansicht nach „nur eine begrenzte Zeit, um herauszufinden, wie man darauf reagiert, wie man es reguliert und wie man damit umgeht.“

„Gefährlicher als Atomwaffe“ – selbst Elon Musk fordert KI-Kontrollen

Mit seinen Warnungen steht Altman nicht alleine da: Auch Tesla-CEO Elon Musk, Trouble Kid der Tech-Branche und einer der ersten Investoren von OpenAI, hat wiederholt davor gewarnt, dass KI beziehungsweise AGI, also „allgemeine künstliche Intelligenz“ (artificial general intelligence) – gefährlicher sei als eine Atomwaffe.

So äußerte sich Musk zuletzt besorgt darüber, dass Microsoft seine Abteilung für ethische Aufsicht aufgelöst hat. Dazu muss man wissen, dass Microsoft rund eine Milliarde US-Dollar in OpenAI investiert und ChatGPT in seiner Suchmaschine Bing einsetzt. ChatGPT ist ein KI-Sprachmodell, GPT steht für Generative Pre-trained Transformer.

Musk sieht es nach eigenen Worten als ein großes Problem an, dass es keine regulatorische Aufsicht über KI gebe: „Ich fordere seit über einem Jahrzehnt eine Regulierung der KI-Sicherheit!“ teilte er etwa im Dezember auf seinem Messenger-Dienst Twitter mit: „Was bleibt uns Menschen dann noch zu tun?“ Nicht umsonst beschäftigt sich auch der Deutsche Ethikrat intensiv mit dem Thema – und hat sich nun für strikte Begrenzungen bei der Verwendung von künstlicher Intelligenz ausgesprochen.

Gleichzeitig spricht er sich gegen eine pauschale Verteufelung der Technologie aus: „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern“, sagte Alena Buyx, die Vorsitzende des Deutschen Ethikrates, in Berlin. KI dürfe den Menschen nicht ersetzen. Generell zeigt KI nach Auffassung des Ethikrats in vielen Fällen aber „eindeutig positive Folgen im Sinne der Erweiterung der Möglichkeiten menschlicher Autorschaft“.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Deduktives Denken statt stumpfes Auswendiglernen

Altman sagte im Interview, dass die neueste Version von GPT deduktives Denken anstelle von Auswendiglernen verwendet. Dedikutives Denken ist ein Prozess, der zwingend logische Schlussfolgerungen zieht. Der Prozess könne zu ungewöhnlichen bis bizarren Antworten führen. „Die Sache, vor der ich die Leute am meisten zu warnen versuche, ist das, was wir das ,Halluzinationsproblem' nennen“, sagte Altman: „Das Modell wird selbstbewusst Dinge behaupten, als wären sie Tatsachen, die völlig erfunden sind.

Aus diesem Grund solle man die von OpenAI erstellten Modelle als Denkmaschine und nicht als Faktendatenbank betrachten. Die Technologie könne zwar als Faktendatenbank fungieren, doch das sei nicht das Besondere an den Modellen: „Was wir wollen, dass sie eher in der Lage sind, zu schlussfolgern, als sich etwas zu merken“.

Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

(ID:49266146)