Künstliche Intelligenz ist für viele Menschen im digitalen Alltag bereits spürbar – zum Beispiel wenn sie die Autofill-Funktion einer Webseite nutzen, mit einem Chatbot schreiben oder durch intelligente Empfehlungen ein Video anklicken auf Plattformen wie YouTube und Netflix. An groß angelegten KI-Systemen mangelt es in Deutschland und Europa allerdings noch, sagt Jörg Bienert, Präsident und Gründer des KI Bundesverbands. Im Interview sprechen wir ihm über intelligente Sprachsysteme wie GPT3, große KI-Modelle und die LEAM-Initiative, die gemeinsame europäische Projekte fordert.
Herr Bienert, welches Potenzial haben Machine Learning Systeme für die Internetwirtschaft in Deutschland und Europa?
Bienert: Wir sehen Anwendungen auf Basis künstlicher Intelligenz in allen Branchen und allen Ebenen der Wertschöpfungsketten – in der Regel zur Optimierung von Prozessen aber immer mehr auch als Basis für komplett neue Produkte und Services. Ein gutes Beispiel des direkten Nutzens für den Menschen sehe ich bei der Entwicklung von Medikamenten und neuen Behandlungsmethoden mithilfe von Daten. Es gibt bereits erste große Modelle, die das menschliche Proteom analysieren können und aus den Daten Erkenntnisse für unsere Gesundheit ziehen. Darüber hinaus bietet Machine Learning große Potenziale auf der technischen Ebene. Zum Beispiel bei der Optimierung von Verkehrsflüssen oder bei der Erkennung von Cyber-Security Attacken. Aktuell nutzen bereits viele Unternehmen Chatbots bei verschiedenen Online-Services. Auch für das Online-Marketing gibt es bereits einige Anwendungen, wie beispielsweise die Sentiment-Analyse. Da gibt es aktuell natürlich positive Seiten sowie auch Herausforderungen zum Beispiel bei dem Umgang mit antrainierten Verzerrungen (Bias).
In welchen Bereichen können uns groß angelegte intelligente Sprachsysteme unterstützen?
Bienert: Die Veröffentlichung des Sprachsystems GPT3 hat eine große Welle losgetreten. Mehr als 300 Anwendungen, KI-Produkte, Geschäftsmodelle und Start-ups sind um die Technologie herum entstanden. Das geht von intelligenten Chat-Bots über Sprachverständnis-Analysesystemen bis hin zu Übersetzungssystemen. Es gibt schon erste Anwendungen, die eigenständig Programmcode aus natürlich sprachlichen Beschreibungen erzeugen. Große KI-Modelle beschränken sich allerdings nicht nur auf das Thema Sprache. Sie können auch multimodale Inhalte mit einbeziehen, in denen Bild und Video berücksichtigt werden.
Anfang des Jahres haben Sie gemeinsam mit weiteren Unternehmen die LEAM-Initiative gestartet – Was steckt dahinter?
Bienert: In Deutschland brauchen wir die Möglichkeit große KI-Modelle zu berechnen. Ansonsten gelangen wir nach und nach in eine Abhängigkeit von den Systemen aus Nordamerika oder China und kommen in eine Situation der digitalen „Insouveränität“. Wir wollen vermeiden, dass wir hierzulande nur noch die Front-Ends und Workflows für die KI bauen, auf die wir über Schnittstellen in den USA zugreifen. LEAM – Large European AI Models – fordert eine Infrastruktur, die im Kern aus einem Hochleistungsrechenzentrum bestehen wird. Dazu braucht es einen Super-Computer, der für KI-Aufgaben optimiert ist. Wir wollen die Technologie selbstständig und in Kooperation mit weiteren deutschen und europäischen Unternehmen entwickeln, damit unsere Systeme europäischen Werten, Normen und Qualitätsstandards unterliegen.
Welche Werte und Qualitätsstandards sollen die groß angelegten KI-Modelle erfüllen?
Bienert: Im Bereich der Algorithmik gibt es viel Potenzial für die Forschung – gerade bei diskriminierungsfreien und Sprachmodellen ohne Verzerrung (bias) gibt es noch viel Verbesserungs- und Forschungsbedarf. Weitere wichtige Dimensionen, in denen wir einen hohen Standard etablieren wollen, sind die Erhöhung der Qualität und die Reduktion des Energieverbrauches. Um diesen Kern herum sollen die Modelle dann auch allen LEAM-Partnern zur Individualisierung bereitstehen. Daraus soll sich ein komplettes Ökosystem aus Industrie, Start-ups, Forschungsinstituten und Universitäten ergeben.
Im Sommer haben Sie Ihr erstes Positionspapier veröffentlicht. Was fordern Sie konkret in der LEAM-Initiative?
Bienert: In der LEAM-Initiative fordern wir vor allem die Verfügbarkeit der erforderlichen Rechenkapazitäten. Die Berechnung großer Modelle nimmt enorme Ressourcen in Anspruch. GPT3 wurde auf dem fünft-schnellsten Supercomputer berechnet. Wenn man solche Rechenkapazitäten kontinuierlich zur Verfügung stehen hätte, dann ergäben sich daraus auch sehr viele Anwendungsfälle und neue Geschäftsmodelle. Außerdem benötigen wir einen entsprechenden Datenhaushalt, in dem wir die Daten sammeln, speichern, bearbeiten und vorverarbeiten können. Zusätzlich brauchen wir Algorithmen, um solche Modelle zu berechnen, die kontinuierlich erweitert und optimiert werden müssen. Für die Forschung und auch für Unternehmen schlummert in diesem Bereich sehr viel Potenzial. Dieses Potenzial gilt es mit der LEAM-Initiative zu heben.
Vielen Dank für das Gespräch, Herr Bienert!
Mehr Informationen finden Sie in unserem Webinar: „Einsatzmöglichkeiten und Potenziale großer KI-Sprachmodelle“. Das Webinar können Sie hier anschauen.