Angemerkt Müssen wir Angst vor ChatGPT haben?
Anbieter zum Thema
Große Sprachmodelle wie ChatGPT zeigen uns bereits heute, was mit einer KI möglich ist. In wenigen Sekunden bereitet das Tool Informationen zu ganz unterschiedlichen Themen verständlich auf. Doch stimmen diese Texte auch? Mögliche Fehlerquellen lauern bei dem verwendeten Sprachmodell und der Basis seiner Informationen. Ist Angst also berechtigt?

Da rollte etwas Großes auf uns zu. Vorboten haben bereits eingeschlagen. Seit November 2022 in Form des großen Sprachmodells ChatGPT. So ist ChatGPT mit extrem großen Mengen an Texten von Webseiten oder online verfügbaren Büchern trainiert worden. Obwohl es nur auf Daten bis 2021 zurückgreifen kann, sorgt es doch schon für große Unruhe.
Microsoft hat es bereits in seine Suche Bing integriert. Konkurrent Google und dessen Mutter Alphabet wollen in den nächsten Wochen ihre eigene KI Bard auf den Markt bringen. Für die großen Tech-Konzerne ist ein Chatbot Gefahr und Goldgrube zugleich. Es hilft nicht nur bei der Suche, sondern liefert gleich die gesuchten Informationen in einem Text. Das wird die Suche, und wie wir das Internet nutzen, völlig verändern.
Weg zu einer echten Künstlichen Intelligenz
„Auch wenn die Systeme gelegentlich noch fehlerhafte Antworten geben oder Fragen nicht richtig verstehen – die technischen Erfolge, die hier erreicht wurden, sind phänomenal. Mit ihnen hat die KI-Forschung einen wesentlichen Meilenstein auf dem Weg zu einer echten Künstlichen Intelligenz erreicht“, sagt Volker Tresp, Professor für Maschinelles Lernen an der Ludwig-Maximilians-Universität München.
Doch müssen wir Angst vor einer KI wie ChatGPT haben? Die Frage ist meiner Meinung nach berechtigt. Große Sprachmodelle werden in den nächsten Jahren den Umgang mit Information und Wissen in Gesellschaft, Wissenschaft und Wirtschaft wesentlich verändern. Suchen wir Antworten und geben dabei die Frage an, dann antwortet ChatGPT sehr ausführlich. Hausarbeiten, Seminarfacharbeiten oder gleich komplette Bücher? Das ist alles möglich.
Die Ergebnisse eines Sprachmodells können etwa Vorurteile in den zugrunde liegenden Daten übernehmen und sogar verstärken. „Sprachmodelle werden der Gesellschaft den Spiegel vorhalten und – wie auch schon bei Social Media – verzerrend, aber eben doch entlarvend, gesellschaftliche Brüche und Spaltungen aufdecken und verstärken können“, sagt Peter Dabrock, Ethikprofessor der Friedrich-Alexander-Universität Erlangen-Nürnberg.
ChatGPT als eine Bedrohung?
Auch im Journalismus wird eine KI wie ChatGPT zur Bedrohung: Sie erstellen eigenständig Meldungen, die Bilder kommen von einer anderen KI oder gleich ein Video. Künftige KI-Systeme sind dann sogar in der Lage, binnen weniger Sekunden große Datenmengen zu durchforsten und die relevanten Informationen zu finden. Diese werden dann in einen schönen Text gegossen und der Beitrag ist fertig. Bei Wetter-, Sport- und Verkehrsnachrichten ist das heute schon möglich. Die Arbeit eines Journalisten wird erleichtert, da jetzt mehr Zeit für die Recherche bleibt. Und es bleibt eine große Gefahr: Sind die künftigen Inhalte vertrauenswürdig – wer prüft sie?
Diese Gefahr sehen auch die Experten der Plattform Lernende Systeme und raten deshalb „zu einem verantwortungsvollen Umgang mit KI-basierten Medieninhalten und KI-Werkzeugen sowohl in den Redaktionen als auch beim Medienpublikum“. Redaktionen sollten und müssen offen mit einem Sprachmodell umgehen. Es als eine Hilfe für die tägliche Arbeit ansehen. Denn noch stehen die KIs am Anfang und wir können sie lenken.
Der Wert der gefundenen Informationen
Wir produzieren täglich unzählige Informationen, die von den künftigen KIs aufgegriffen und ausgewertet werden. Aber auch in naher Zukunft werden die Sprachbots unzählige Texte produzieren und auf die Welt loslassen. Denkbar ist eine regelrechte Flut an Texten und Bildern. Sprachmodelle wie ChatGPT durchforsten das Internet und stellen uns Informationen zu allen möglichen Themen bereit. Aber wenn die Informationen ohne Quelle kommen, welchen Wert haben die gefundenen Informationen? Mit anderen Worten: Wie valide sind sie?
Das ist die große Gefahr, die durch eine KI wie ChatGPT ausgeht. Wer hat die Informationen erstellt, auf die dann die KI zurückgreift? Sicher ist nur, dass wir künftig Texte sehr genau hinterfragen müssen, so wie wir es bereits tun sollten. Wir dürfen uns nie allein auf eine Quelle beschränken. Denn schließlich soll die KI und damit die Technik uns im Alltag helfen und unterstützen. Auch wenn wir nie einen völligen Missbrauch verhindern können. Angst vor der KI und den Sprachmodellen sollten und brauchen wir nicht zu haben. Es ist wie immer bei Technik: Wir entscheiden, wofür wir sie einsetzen wollen.
:quality(80):fill(efefef,0)/p7i.vogel.de/wcms/62/5e/625e826db2aed/ebook-bdi-cover-ki.png)
Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.
(ID:49193935)