KI - Schlüsseltechnologie für unseren Wohlstand

Europa aktuell nur im Mittelfeld der Entwicklung - Mangelnde Datenbasis, Datenschutz und geringe Kenntnis der Mitarbeiter sind wesentliche Hemmnisse

KI - Schlüsseltechnologie für unseren Wohlstand

“Jeder Aspekt des Lernens und jede andere Form von Intelligenz kann grundsätzlich so präzise beschrieben werden, dass eine Maschine sie simulieren kann”, war das Thema der Dartmouth Conference im Jahr 1956, die als Geburtsstunde der künstlichen Intelligenz (KI) gilt. Seitdem ist viel Zeit vergangen. Doch jetzt, weit über 60 Jahre später, scheint KI bedingt durch Big Data, geeignete Algorithmen und entsprechende Hardware ihre Wirkung umfassend zu entfalten. KI wird berechtigterweise als Schlüsseltechnologie der Zukunft angesehen. Es ist nicht erstaunlich, dass aktuell fast jedes Industrieland diverse KI-Initiativen vorantreibt. Die Entwicklung dieser Technologie entscheidet mit über die Frage, welche Position ein Industrieland in Zukunft einnehmen wird. Schon jetzt zeigt sich, dass die Implementierung international sehr unterschiedlich verläuft.Später als viele andere Länder veröffentlichte die Bundesregierung am 15. November 2018 ihr Strategiepapier zum Thema KI. Danach soll sich Deutschland in allen Bereichen der KI in der Weltspitze positionieren. Es folgte am 15. November 2019 der erste Zwischenbericht zur KI-Strategie, der eine Vielzahl von Maßnahmen und neuen Initiativen auflistet. USA mischen ganz vorne mitDerzeit wird die KI-Entwicklung von den USA angeführt. So beträgt die Anzahl von Start-ups mit KI-Schwerpunkt in den USA aktuell 1 393, gefolgt von Europa mit 769 und China mit 383 Start-ups. Angesichts der staatlichen Investitionen in den KI-Sektor in China ist allerdings absehbar, dass es die USA in Kürze bei den KI-Start-ups überholen wird. Auf dem europäischen Kontinent nimmt derzeit Großbritannien mit 245 KI-Start-ups den Spitzenplatz ein, gefolgt von Frankreich mit 109 und Deutschland mit 106 KI-Start-ups. Nach der “Initiative AI der UnternehmerTUM” stieg die Anzahl neuer KI-basierter Unternehmen im vergangenen Jahr in Deutschland um 15 %.Der Schwerpunkt der KI-Entwicklung liegt immer noch im B2B-Sektor und dort in den Bereichen Fertigung, Transport, Mobilität und Gesundheitswesen. Europäische Schlüsselindustrien wie Energie und Automobil als auch bestimmte Technikbereiche wie das “Internet of Things” (IoT) oder die Robotik sind bei europäischen Start-ups nur gering vertreten. Auch der Finanzsektor findet sich in Europa lediglich im Mittelfeld wieder. Dennoch nimmt der KI-Einsatz gerade im Finanzmarkt massiv zu und hat mittlerweile bereits viele Bereiche durchdrungen. Das hat bereits zu erheblichen Veränderungen auf der Produkt- und der Dienstleistungsseite geführt.Derzeit findet man KI-basierte Anwendungen am häufigsten im Risk Management sowie im Compliance-Bereich. Angesichts der komplexen Regulierung und verbunden mit einem hohen Datenanfall aus den Reportingsystemen liegt es nahe, KI zur Identifikation von Risiken einzusetzen. Typische Anwendungsfelder sind hier die Geldwäsche- und Betrugsidentifikation. Jedoch beschränkt sich KI nicht nur auf das Backoffice, sondern wird auch im Frontoffice immer häufiger eingesetzt. Intelligente Scoringmodelle bei der Kreditvergabe sind dabei fast schon Standard. Ein weiterer stark wachsender Anwendungsbereich betrifft den Wertpapiervertrieb. Mit Blick auf die enormen Kosten, die bei den Finanzmarktteilnehmern aufgrund der komplexen Anforderungen der Mifid II (Markets in Financial Instruments Directive) bereits angefallen sind, ist es verständlich, KI-basierte Systeme zwecks Kostenreduktion einzusetzen.Ein wesentliches Hemmnis bei der weiteren Implementierung von KI besteht in den oft wenig zentralisierten Datenhaushalten vieler Unternehmen, die es nicht erlauben, den Datenbestand umfänglich zu nutzen. Hinzu kommen zwei weitere Aspekte: mangelnde Kenntnis der Mitarbeiter und der Datenschutz, die beide die Entwicklung hemmen. Weiteres AnwendungsfeldIm Investmentrecht zeigt sich ein weiteres Anwendungsfeld von KI. Innerhalb kürzester Zeit übernahmen KI-basierte Hedgefondsmanager wie Citadel und Millennium große Marktbereiche. Mit ihren algorithmisch basierten, selbstlernenden Modellen konnten sie nicht nur im normalen Investmentprozess punkten, sondern ersetzten mit ihren sich optimierenden Modellen in Teilen sogar den rein auf Geschwindigkeit ausgerichteten hochfrequenten Handel.Auch ein Teil des Erfolgs von Exchange Traded Funds (ETFs) lässt sich auf die umfassenden KI-Fortschritte zurückführen. Nur durch sich selbst adjustierende Modelle lassen sich komplexe indexbasierte Produkte derart kostengünstig anbieten, dass sie signifikante Teile des menschlich subjektiven Handels ersetzt haben. Das zeigt sich auch in der weiter steigenden Zahl von Robo Advisors, die sich mittlerweile im Angebot fast jeder Bank finden lassen. Viele dieser Anwendungen – auch wenn oftmals noch viel Marketing dahintersteckt – basieren auf KI-Modellen.Mit dieser weitreichenden Entwicklung geht zwangsläufig auch eine Veränderung des Risikos ein-her. Problematisch ist insbesondere die Haftung bei Fehlern. Der wohl spannendste Fall in diesem Zusammenhang lief bis zu einem Vergleich der Parteien im Frühjahr dieses Jahres vor den englischen Gerichten. Gegenstand war der Verlust von 20 Mill. Dollar an einem Tag, den ein Investor aus Hongkong erlitten hatte. Dieser hatte in einen Investmentfonds investiert, dem eine KI-basierte Strategie zugrunde lag, welche diverse Quellen auswertet und daraus Investmentvorschläge ableitet. Die Software dafür stammte wiederum von einem Dritten. Dieser Fall warf eine für diesen Bereich zentrale Frage auf: Wie kann künftig die Kausalität bei selbstlernenden Systemen zwischen Ursache und Schaden nachgewiesen werden? Bekanntlich tritt dieses typische KI-Thema nicht nur im Bereich des Investmentrechts auf. Am prominentesten sind aktuell sicherlich die Fälle im Bereich des autonomen Fahrens.Bei den eingesetzten Lösungen handelt es sich regelmäßig um “Black Boxes”. Bei ihnen ist der Grund für eine bestimmte Entscheidung oft nur schwer oder gar nicht nachvollziehbar. Ein Umstand, der mit Blick auf die Haftung zwangsläufig die Frage aufwirft, wie man derartigen Sachverhalten künftig begegnen kann. Es muss auch bei KI-basierten Entscheidungen möglich sein, die Gründe dafür zu hinterfragen und offenzulegen. Mögliche LösungsansätzeEin klassisches Beispiel wäre die Zurückweisung von Krediten aufgrund einer negativen Entscheidung eines KI-Computermodells. Diesen Systemen ist es grundsätzlich nicht inhärent, ihre jeweilige Entscheidung zu begründen. Ein möglicher Lösungsansatz wäre es, die Entscheidung systemseitig zurückzuverfolgen und damit die Entscheidungsgrundlage transparent zu machen. Dieser Weg scheint sich aber angesichts der weiter wachsenden Komplexität der Systeme und deren umfassender Datenbasis immer schwieriger zu gestalten. Ein anderer Ansatz wäre die Begrenzung der Komplexität der Algorithmen von vornherein. Letzteres käme einer Selbstbeschränkung hinsichtlich der Innovation KI-basierter Systeme gleich, was nicht wünschenswert sein kann.In ihrem Aufsatz mit dem Titel “Opening the black box of machine learning” schlug Karen Croxson, Head of Research der FCA, vor, “ausreichende Erklärbarkeit” (Sufficient Interpretability) als Maßstab zu wählen. Was in diesem Fall “ausreichend” sein soll, soll von der Relevanz der Entscheidung abhängen. Im Falle von hochgradig wichtigen Entscheidungen, zum Beispiel bei einer Kreditvergabe oder eines Algorithmus, der Anstellungsprofile beurteilt, bedarf es einer umfassenden Erklärung, wie das Modell zur Entscheidung gelangt ist. Noch höher sollte der Maßstab zwangsläufig im Falle des autonomen Fahrens liegen, weil dort direkt Leben gefährdet sein können. In vielen Fällen werden derart wichtige Bereiche aber auch bereits gesetzlich geregelt, wie zum Beispiel durch die DSGVO, welche unter bestimmten Bedingungen ein Recht auf Erklärung vorsieht. Auch im Aufsichtsrecht wird generell ein Black-Box-Modell nicht akzeptiert. Worten müssen Taten folgenDass wir uns in dieser Hinsicht eher noch am Anfang der Entwicklung befinden, zeigt sich unter anderem in den diversen EU-Initiativen. Hintergrund ist dabei, dass sich die EU-Kommission unter ihrer Präsidentin Ursula von der Leyen als ein Ziel die Entwicklung eines rechtlichen Rahmens für den humanen und ethischen Einsatz künstlicher Intelligenz gesetzt hat. Seit Anfang des Jahres liegt das Weißbuch zur künstlichen Intelligenz vor, mit dem ebenfalls ein Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik im Hinblick auf Sicherheit und Haftung veröffentlicht wurde.Nach einer coronabedingt verlängerten Konsultationsfrist liegt nunmehr eine Stellungnahme der Bundesregierung vor, in der sie das Ziel einer verantwortungsvollen, gemeinwohlorientierten und menschenzentrierten Entwicklung und Nutzung von künstlicher Intelligenz sowie die Förderung von Wettbewerbsfähigkeit und Innovation in der Europäischen Union herausstellt. Es bleibt zu hoffen, dass den Worten nun auch Taten folgen, denn der Abstand zu den beiden führenden Wirtschaftsräumen ist schon jetzt sehr groß. Jochen Kindermann, Partner im Frankfurter Büro von Simmons & Simmons