Einheitliche Spielregeln für KI – was sie bringen, wovor sie schützen
Veröffentlicht am 07.07.2022
Von Anwendungen mit Künstlicher Intelligenz (KI) profitieren Wirtschaft, Gesellschaft und Wissenschaft. Gleichzeitig können KI-Systeme negative Auswirkungen auf das Leben und die elementaren Grundrechte haben. Wie lässt sich dieser schwierige Balanceakt bewältigen? Marc Fliehe, KI-Experte des TÜV-Verbands, erklärt, warum einheitliche Spielregeln wichtig sind, wie aus einer „Blackbox“ eine „Greybox“ wird und wie eine KI-Prüfung in der Praxis zukünftig aussehen kann.
Was für die KI-Regulierung EU-weit spricht
Auf EU-Ebene laufen derzeit intensive Anstrengungen, KI-Systeme strenger zu regulieren. Warum ist dieser Schritt so bedeutsam?
Künstliche Intelligenz besitzt große Nutzenpotenziale etwa in der Krebsfrüherkennung, in der Entlastung von Routinetätigkeiten im Arbeitsalltag oder im Kampf gegen den Klimawandel. Gleichzeitig birgt sie aber auch Risiken. Aktuelles Beispiel ist die sogenannte Kindergeldaffäre aus den Niederlanden. Dort überprüfte die Steuerbehörde seit den 2010er Jahren mithilfe von Algorithmen die antragstellenden Personen sowie Bezieherinnen und Bezieher von Kindergeld, ob diese zu Unrecht die Sozialleistung bekommen hatten. Als per se verdächtig galt, wer eine nicht niederländische Nationalität oder die doppelte Staatsangehörigkeit hatte. Und in Österreich ist ein heftiger Streit über ein KI-basiertes System entbrannt, das die Chancen von Arbeitssuchenden auf dem Jobmarkt automatisiert vorhersagen soll. Die öffentlich gemachten Daten zeigen, dass der Algorithmus systematisch Frauen und alte Menschen benachteiligt. Beide Beispiele verdeutlichen, dass wir klare Spielregeln für den KI-Gebrauch benötigen.
Genügt für das Etablieren dieser Spielregeln nicht eine Selbstverpflichtung der Anbieter von KI-basierten Produkten?
Nein. Die entscheidende Frage ist: Wie fördern wir den breiten Einsatz von Künstlicher Intelligenz und verringern gleichzeitig die damit einhergehenden Gefahren? Die Antwort lautet: indem wir Vertrauen schaffen. Sowohl Vertrauen in die produzierten Ergebnisse der KI als auch Vertrauen in die Art und Weise, wie diese Ergebnisse zustande kommen. Erst ein solcher Vertrauensraum wird zu einer hohen gesellschaftlichen Akzeptanz führen. Und genau dafür benötigen wir eine europaweite Regulierung und unabhängige Prüfungen. Das sieht nicht nur der TÜV-Verband so, sondern laut unserer aktuellen KI-Studie aus dem Jahr 2021 auch eine große Mehrheit in der Bevölkerung. "Vier von fünf Bundesbürgerinnen und Bürger (80 Prozent) fordern daher ein von unabhängigen Stellen vergebenes Prüfzeichen für Künstliche Intelligenz, um das Vertrauen in die Technologie zu stärken."
Im April 2022 hat die EU-Kommission einen Regulierungsentwurf vorgestellt. Wie beurteilen Sie den Artificial Intelligence Act (AI Act)?
Die EU-Kommission hat mit dem Regulierungsvorschlag (AI Act) Pionierarbeit geleistet. Hinter ihrem eigenen Anspruch, ein „Ökosystem für Vertrauen“ zu schaffen, bleibt sie jedoch zurück. Grundsätzlich unterstützen wir den risikobasierten Ansatz des Entwurfs, das heißt, Anwendungen und Produkte mit Künstlicher Intelligenz in Abhängigkeit vom Risiko zu regulieren, das von ihnen ausgeht. Von Empfehlungsalgorithmen für Consumer-Produkte oder intelligenten Spamfiltern geht ein anderes Sicherheitsrisiko aus als von einer KI, die Autos, Medizinprodukte oder Industrieanlagen steuert. In drei Punkten sehen wir aber noch Verbesserungsbedarf: erstens in der Zuordnung von KI-Lösungen zu den vier vorgesehenen Risikoklassen, zweitens im veränderten Risikocharakter von Produkten mit KI und drittens in den Anforderungen an Prüfungen durch Dritte.
Können Sie Ihre Kritikpunkte etwas genauer beschreiben?
Der Regulierungsentwurf definiert die Risikoklassen vor allem anhand von Beispielen wie Gesichtserkennung oder Sozialkreditsystemen wie in China. Was uns fehlt, ist eine klare Definition und Herleitung der Risikoklassen. Insbesondere fehlt es an nachvollziehbaren Kriterien, von welchen Systemen ein besonders hohes Risiko ausgeht. Der Risikocharakter eines Produkts kann sich zudem durch den KI-Einsatz verändern. Was passiert zum Beispiel, wenn ein Spielzeug durch eine KI erweitert wird? Kann dies zu Gefahren für Kinder führen? Nicht berücksichtigt werden zudem die Wechselwirkungen von IT-Systemen und der physischen Welt. Welche Konsequenzen hat es, wenn KI-Systeme für die IT-Steuerung kritischer Infrastrukturen wie der Wasser- und Stromversorgung eingesetzt werden? Antworten auf diese Fragen gibt der AI Act nicht. Entsprechend sieht der Regulierungsentwurf unabhängige Prüfungen hochriskanter KI-Systeme fast ausschließlich nur für Produkte vor, für die heute schon eine Drittprüfung vorgesehen ist, zum Beispiel Medizinprodukte oder Aufzüge. Dieser Prüfungsansatz geht uns nicht weit genug.
Welche konkreten inhaltlichen Ergänzungen schlagen Sie vor?
Für das Einteilen der KI-Lösungen in Risikoklassen müssen eindeutige, nachvollziehbare Kriterien definiert werden. Aus Sicht des TÜV-Verbands geht von KI-Systemen immer dann ein hohes Risiko aus, wenn sie Leib und Leben der Menschen oder deren elementare Grundrechte wie Privatsphäre und Gleichbehandlung gefährden. Das Gleiche gilt für bestimmte Umweltrisiken. Für diese sogenannten High-Risk-Systeme schlagen wir eine verpflichtende Prüfung durch eine unabhängige Instanz vor. Für die Drittprüfungspflicht ist es zentral, dass auch die bereits regulierten Produktbereiche bei einem KI-Einsatz neu bewertet werden. Denn Risiken können sich erhöhen, wenn in Produkten und Anwendungen KI-Komponenten integriert werden. Für die Schutzziele „Leib und Leben“ sowie „Umwelt“ liegt bereits ein umfangreiches technisches Regelwerk vor. Dieses muss jedoch an die KI-spezifischen Herausforderungen angepasst werden, um das Risiko angemessen beurteilen zu können.
Wie ist eine Prüfung KI-basierter Produkte und Anwendungen in der Praxis vorstellbar?
Zum Beispiel müssen wir genau schauen, ob der Datensatz, mit dem eine KI angelernt ist, verzerrungsfrei ist. Bedeutet: Minderheiten oder Mindermeinungen dürfen nicht diskriminiert werden. Zu diesem Zweck gibt es anerkannte statistische Verfahren, die eine Aussage darüber erlauben, ob Daten einer bestimmten Kategorie ausreichend repräsentiert sind. Noch herausfordernder ist die Prüfung des Outputs von KI-Systemen. In vielen Fällen sind automatisierte KI-Entscheidungen nicht nachvollziehbar, sie sind für die Forschenden und damit auch für die Prüferinnen und Prüfer eine „Blackbox“. Unser Ziel ist daher, aus der „Blackbox“ eine „Greybox“ zu machen. Wie erreichen wir das? Indem wir nicht nur das Produkt an sich prüfen, sondern den gesamten Entwicklungsprozess – vom Anfang bis zum Ende, von der Formulierung des Problems über die Auswahl und Qualität der Daten bis hin zur Kategorisierung und Aufbereitung. Die Prüferinnen und Prüfer sind dann an diesem gesamten Prozedere aktiv beteiligt. Sie üben Einfluss aus, können Trainingsdaten anfordern und nehmen all die notwendigen Schritte am Ende noch ab.
Das klingt sehr komplex. Können Normen und Standards bei dieser Aufgabe unterstützen?
Absolut: Normen und Standards sind eine wesentliche Grundlage für den Aufbau eines Vertrauensraums für KI-Lösungen. Transparenz, Robustheit und Genauigkeit lassen sich durch harmonisierte europäische Normen technisch konkretisieren. Anknüpfungspunkte gibt es bereits. Beispielsweise existiert bereits eine ISO-Norm zur Datenqualität. Begonnen wurde zudem die Arbeit an der Norm ISO/IEC 22989. Dabei sollen KI-Konzepte und die KI-Terminologie einheitlich definiert werden, sodass in der Praxis, bei Regulierungsvorgängen und bei technischen Beurteilungen dasselbe Vokabular benutzt wird. Und auch der organisatorische Rahmen steht mit der ersten Ausgabe der Deutschen Normungsroadmap KI. Im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) erarbeiten Wirtschaft, öffentliche Hand, Wissenschaft und Zivilgesellschaft Handlungsempfehlungen für die Normung und Standardisierung. Der TÜV-Verband ist aktives Mitglied.
Wenn der TÜV-Verband sich aktiv am Prüfprozess beteiligt, ist dann auch ein TÜV-KI-Siegel geplant?
Das ist sicher der nächste konsequente Schritt. Aber so weit sind wir noch nicht. Erst müssen wir die Grundlagen für solch ein TÜV-KI-Siegel schaffen. Daran arbeiten wir auf nationaler und europäischer Ebene mit Hochdruck. Die Herausforderung, risikobehaftete KI mit der notwendigen Geschwindigkeit und Praxisnähe zu prüfen und sie danach zu zertifizieren, können wir am besten gemeinsam meistern. Es gibt mit dem Konzept der AI Quality & Testing Hubs bereits ein konkretes Konzept, wie die Zusammenarbeit zwischen Wirtschaft, Wissenschaft, Politik und Prüforganisationen intensiviert werden kann.
Marc Fliehe ist Bereichsleiter Digitalisierung und Cybersecurity beim TÜV-Verband. Er ist einer der führenden Experten im TÜV AI Lab. Die neu gegründete TÜV-Organisation will die technischen und organisatorischen Anforderungen definieren, die Künstliche Intelligenz mit sich bringt. Und sie hat es sich zur Aufgabe gemacht, Standards für die Prüfung sicherheitskritischer KI-Anwendungen zu entwickeln. Weitere Informationen