Die jüngsten Innovationen und Entwicklungen rund um KI haben die Debatte um den Datenschutz verschärft. Prof Dr. Anne Riechert, Vorstandsmitglied im Netzwerk AI Frankfurt Rhein-Main e.V. und Professorin an der Frankfurt University of Applied Sciences, ist Expertin in diesem Fachgebiet und wird am 15. Juni bei dem Data Center Expert Summit in Frankfurt am Main einen Vortrag zum Spannungsverhältnis KI und Datenschutz halten. Im eco Interview gibt sie einen ersten Einblick in das Themengebiet und stellt die Arbeit des Netzwerkes AI Frankfurt Rhein-Main e.V. vor.
Was sind die derzeitigen Spannungsfelder, wenn es um Datenschutz und KI geht?
Um KI-Modelle zu trainieren und zu optimieren, werden oft große Mengen an Daten benötigt. Diese Daten können persönliche Informationen, auch biometrische Daten, enthalten. Hier stellt sich die Frage, wie aus datenschutzrechtlicher Sicht die Rechtmäßigkeit der Verarbeitung sichergestellt werden kann. Für anonyme Daten ist das Datenschutzrecht zwar nicht anwendbar. Die dauerhafte Anonymisierung ist in der Praxis jedoch mit Schwierigkeiten behaftet – insbesondere aufgrund der vielfältigen Verknüpfungsmöglichkeiten. Eine weitere Herausforderung stellt die Transparenz von KI-Modellen dar. KI-Modelle sind regelmäßig komplex, was es schwierig macht, nachzuvollziehen, wie sie Entscheidungen oder Vorhersagen treffen. Mit dem Einsatz von KI können daher auch (ungewollte) Diskriminierungen einhergehen.
Welche regulatorischen und gesellschaftlichen Herausforderungen ergeben sich aus den skizzierten Spannungsfeldern?
Werden Systeme mit verzerrten Daten trainiert, können falsche Ergebnisse und teils Verstöße gegen ethische Werte und Normen die Folge sein. Dies kann unter Umständen zu Diskriminierungen bestimmter Personengruppen führen und Biases, also systematische Verzerrungen, hervorrufen. Der Entwurf der KI-Verordnung bietet Ansätze, die Gefahren, die sich durch die Verwendung von KI-Systemen ergeben, einzudämmen. So sollen etwa qualitativ hochwertige bzw. repräsentative, fehlerfreie und vollständige KI-Trainingsdatensätze verwendet werden, um dem entgegenzuwirken. Zudem werden Anbieter von KI-Systemen mit hohem Risiko grundsätzlich in die Pflicht genommen, z.B. durch das Anbringen einer CE-Kennzeichnung. Es wird aber ebenso darauf verwiesen, dass solche Maßnahmen nicht ausreichend sind und eine fortwährende Folgenabschätzung eines KI-Systems mit Blick auf die Grundrechtsauswirkung vorgenommen werden müsste. Regulatorisch ist außerdem zu beachten, dass die geplante KI-Verordnung keine Regelungen zum Datenschutz beinhaltet und nicht darauf referenziert. Die Regelungen der Datenschutzgrundverordnung sind daher gesondert zu prüfen.
Welchen Beitrag leistet der AI Frankfurt Rhein-Main e.V. um das ‚Ökosystem KI‘ in der Rhein-Main Region weiter auszubauen?
AI Frankfurt Rhein-Main ist ein Netzwerk, welches die verschiedenen Akteure und Initiativen in der Region Rhein-Main zusammenbringt. Ziel ist, ihr Wissen, ihre Expertise und ihre Erfahrungen zu bündeln und transparent zu machen. Gerade die Bündelung des Know-hows der verschiedenen Akteure, die sich mit Künstlicher Intelligenz befassen, soll den Anwendern und Nutzern von Künstlicher Intelligenz einen Nutzen bringen. Besonders wichtig ist uns auch, der Öffentlichkeit das Wissen über Künstliche Intelligenz zu vermitteln und dabei vor allem Jugendliche für dieses wichtige Zukunftsthema zu sensibilisieren. Mein Vorstandskollege Rinku Sharma hat die Techeroes (Bad Vilbel) gegründet, die verschiedene Projekte betreuen, um Kindern digitale Bildung zu vermitteln und spielerisch näherzubringen. Die Fachöffentlichkeit binden wir durch Veranstaltungen ein. Im Juni findet bei unserem Mitglied Clifford Chance eine Veranstaltung über Datenräume und Datenteilen statt. Hier werden wir auch die neuen rechtlichen Rahmenbedingungen auf EU-Ebene diskutieren.
Vielen Dank für das Interview, Frau Prof. Dr. Riechert!