Highlights des World AI Cannes Festivals 2024 KI im Spannungsfeld zwischen Innovation und Regulation

Von Carsten Kraus 6 min Lesedauer

Anbieter zum Thema

Vom 8. bis 10. Februar 2024 traf sich die KI-Szene in Cannes – denn das World Artificial Intelligence Cannes Festival fand wieder statt. Mehr als 300 internationale Speaker und führende Köpfe der Szene diskutierten Chancen, Herausforderungen und Strategien. Der deutsche KI-Experte Carsten Kraus war als Speaker im Panel und als Besucher vor Ort – hier sind seine Einblicke.

Sowohl für den interessierten KI-Enthusiasten als auch für Experten gibt es in Cannes jedes Jahr eine Flut spannender Einblicke und Technologien zum Anfassen. Carsten Kraus berichtet für BigData-Insider von seinen Eindrücken.(Bild:  Carsten Kraus)
Sowohl für den interessierten KI-Enthusiasten als auch für Experten gibt es in Cannes jedes Jahr eine Flut spannender Einblicke und Technologien zum Anfassen. Carsten Kraus berichtet für BigData-Insider von seinen Eindrücken.
(Bild: Carsten Kraus)

Für alle, die schon immer wissen wollten, wie unterschiedlich Roboter aussehen und eingesetzt werden können, war das World AI Cannes Festivals (WAICF) ein Paradies. Denn drei Tage lang patrouillieren die verschiedensten Roboter das Messegelände in Frankreich, während sich Besucher in der nächsten Ecke um ein Hologramm versammeln oder ein bewegtes Gemälde der Mona Lisa betrachten.

Klar ist: Sowohl für den interessierten KI-Enthusiasten als auch für die Riege der Vordenker und Experten gibt es in Cannes jedes Jahr eine Flut spannender Einblicke und Technologien zum Anfassen – und das Wichtigste: Man trifft andere Experten. Das WAICF ist sicher eines der größten KI-Events des Jahres. Auf den insgesamt zehn Bühnen sprechen Vordenker über die neuesten Entwicklungen, in den Panels werden Herausforderungen und Chancen diskutiert, Start-ups pitchen gegeneinander. Auf der begleitenden Ausstellung zeigten 230 Anbieter von AMD und Nvidia bis zu ganz jungen Start-ups ihre neuesten Technologien. Viele waren mit relevanten Experten vor Ort, ich hatte beispielsweise zwei Termine mit den Heads of AI von Weltkonzernen.

„The Future of AI is not Generative“

Mit dieser Aussage stellt sich Yann LeCun, der Chief AI Scientist von Meta, gegen die allgemeinen Annahmen. Insbesondere hält er die auf der Transformer-Technologie basierenden großen Sprachmodelle (Large Language Models, LLM) für nicht zukunftsfähig, weil sie nicht gut skalieren und damit nach seiner Meinung nun ihre Leistungsmöglichkeiten ausgereizt haben. Er schlägt als neuen Ansatz sein JEPA-Modell vor, das jedoch für Text noch nicht ausgereift ist. Mit i-JEPA konnten jedoch in der Bildverarbeitung bereits neue Rekorde für das Training mit ziemlich wenig Rechenpower und extrem wenig Trainingsdaten erzielt werden. In anderen Worten: JEPA lernt viel schneller als andere Modelle. Nun muss das nur noch für LLMs gelingen. Dieses Jahr konnte ich Yann LeCun leider nicht persönlich sprechen, aber vor zwei Jahren hatte ich die Gelegenheit: ein extrem heller Kopf. Man sollte Meta also besser beim Thema KI nicht unterschätzen

Wie lassen sich verantwortungsvolle KI und Innovation verknüpfen?

Bereits 2023 wurde stark diskutiert, wie eine europäische KI-Landschaft aussehen kann, die Entwicklung und Einsatz der Technologie verantwortungsvoll reguliert und gleichzeitig die Innovation in der EU nicht ausbremst. Ein Jahr später hat sich diese Diskussion weiterentwickelt – verschiedene Nationen, Organisationen und Unternehmen hatten in den vergangenen zwölf Monaten ihre Meinungen zum Thema Regulation kundgetan und beim Artificial Intelligence Act der Europäischen Union folgten auf viele Diskussionen endlich Einigungen.

Wie präsent dieses Thema noch immer ist, wurde auf dem WAICF sehr deutlich. Nicht nur im Rahmen verschiedener Keynotes und im Panel, sondern auch im Austausch unter den Experten war dieses Spannungsfeld eines der größten Themen. Die größten Fragen, die die Szene 2024 beschäftigen: Wie müssen ethische KIs designt sein? Sollte man die Forschung und Weiterentwicklung bei Künstlicher Intelligenz verlangsamen, um mehr Sicherheit zu schaffen? Kann eine solche Entwicklung überhaupt gebremst werden und wenn ja: in welchem Umfang? Im Grunde genommen lässt sich alles auf eine zentrale Frage herunterbrechen: Wie lassen sich verantwortungsvolle KI und Innovation im Jahr 2024 und darüber hinaus verknüpfen?

In diesem Zuge war auch der AI Act der EU Thema – mit einem eigenen Panel und Stimmen aus erster Hand. Hier sprachen Dragoș Tudorache MPE, mit dem ich bei meinem Besuch in Brüssel selbst ausführlich diskutiert hatte, Mitglied im Europäischen Parlament; und Yonah Welker, Board Member bei EU Commission Project mit einer Tech-Investorin und einem Anwalt, wie der AI Act überhaupt innerhalb der EU umgesetzt werden kann – während gleichzeitig auch weiterhin die Innovation vorangetrieben wird.

Für die Zukunft offen bleibt aber auch 2024 die Frage, wie sich eine Welt entwickeln wird, in der Regulierungsansätze lokal geprägt bleiben – und ob es künftig nicht doch eine globale Strategie braucht, damit die Ziele hinter der Regulierung auch wirklich erreicht werden können. Ich hatte mich letztes Jahr zu diesem Thema stark eingebracht und mich auch mit fünf EU-Parlamentariern dazu getroffen. Inzwischen ist der AI-Act beschlossen, und es geht jetzt darum, wie wir Europa trotz Regulierung technologisch im Spiel halten. Dieses Thema wurde auch auf dem AI-VC Gipfel in Cannes diskutiert, bei dem ich selbst mit auf der Bühne war. Unsere Panelteilnehmer sahen das Risiko vor allem darin, dass neue Bürokratie die Start-ups massiv ausbremsen kann. Ich persönlich sehe für Europa ein noch größeres Risiko darin, dass der Mittelstand in allen anderen Branchen deshalb die Finger von KI lässt – obwohl das meiste weiterhin erlaubt ist. Wir haben Ähnliches bereits bei der DSGVO erlebt. Aber keine KI einzusetzen, kostet mittelfristig mindestens 20 Prozent Produktivität, quer durch die Branchen. Ich fordere daher die Politik auf, den Mittelstand stark zum KI-Einsatz zu ermutigen!

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Open Source – die Zukunft der KI?

ChatGPT und andere große Sprachmodelle (LLM) sind inzwischen ein zentraler Teil der KI-Welt geworden. Kein Wunder, denn ihre Einsatzgebiete sind vielfältig und sie lassen sich leicht in bestehende Software integrieren. Jedoch: Wenn man ein fremdes LLM verwendet, können deren Entwickler die Weltanschauung und das Verhalten des LLMs beeinflussen. Eine Studie von Anthropic hat kürzlich gezeigt, dass man solche gezielten Beeinflussungen als Anwenderunternehmen kaum entdecken und im Nachhinein nicht zuverlässig verhindern kann. Nicht nur öffentliche Vertreter, sondern auch Yann LeCun, der oben erwähnte Chief AI Scientist bei Meta, setzten sich daher in Cannes dafür ein, dass LLMs als Open Source zur Verfügung stehen: Also Programmcode und sinnvollerweise auch trainierte Modelle sowie Trainingsdaten offengelegt werden. Sowohl Länder als auch Unternehmen werden immer dringender eigene LLMs benötigen, die neutral und ohne Bias arbeiten. Open-Source-Modelle könnten neutral überprüft und für eigene Einsatzmöglichkeiten umtrainiert und genutzt werden. Durch den verringerten Aufwand wird Technologie so auch für kleinere Unternehmen und weniger wohlhabende Staaten verfügbar.

Ist KI ein Umweltsünder oder Weltretter?

„Wachstum, Souveränität, ökologischer Wandel – was wäre, wenn KI der Schlüssel wäre?”, fragte sich Patrick Martin, Präsident bei Medef, einem französischen Netzwerk von Entrepreneuren, im Rahmen seiner Keynote. Und er trifft einen Nerv, denn diese Frage stellen sich viele Besucher und Experten auf dem WAICF. Wie kann KI für eine bessere Gesellschaft eingesetzt werden? Mit welchen Lösungen können die ökologischen Probleme von heute und die der Zukunft bewältigt werden? Und ist KI mit seiner Ressourcenintensivität eventuell sogar selbst ein ökologisches Problem? Wie können wir den Einfluss der Technologie und vor allem deren ökologischen Fußabdruck reduzieren?

Ein vielversprechender Lösungsansatz liegt hier in spezieller Hardware. Bisher wird KI meist auf GPUs ausgeführt, die eigentlich für Grafik entwickelt wurden. Dabei ist spezielle Hardware viel effizienter. IBM arbeitet mit Northpole aktuell an einer Architektur, die den Speicher so verteilt, dass er jeweils nah um die Rechenkerne angeordnet ist und erwartet sich dabei eine mindestens fünfmal höhere Effizienz. Parallel forscht man mit einem neuen Material an besseren Chips. Diese sollen Wärme besser ableiten, wodurch mehrere Layer übereinander angeordnet werden können – und mit mehr Layern steigt auch die Leistung. Für dieses Jahr sind solche Chips nicht mehr zu erwarten, in der Zukunft könnten sie jedoch einiges verändern.

Über Carsten Kraus

Carsten Kraus ist KI-Experte, Investor, Multi-Unternehmer und Mitglied des Forbes Technology Council. Als KI-Experte setzt er sich vor allem dafür ein, dass Europa in Sachen Künstlicher Intelligenz nicht abgehängt wird. Zudem ist er davon überzeugt, dass neue Technologien Wert für Unternehmen und Menschen zugleich stiften.

Artikelfiles und Artikellinks

(ID:49920379)