Müssen Entwickler ihre Künstliche Intelligenz bald beim TÜV prüfen lassen? Vorerst nicht. Doch zumindest hat der TÜV nun ein Labor aufgebaut, in dem Verfahren entwickelt werden sollen, um das Gefährdungspotenzial von Künstlicher Intelligenz zu beurteilen und ihre Sicherheit zu bewerten.
Von Michael Förtsch
Es ist noch immer noch nicht klar, was Künstliche Intelligenz irgendwann alles können und leisten wird. Allerdings sind lernende Programme schon jetzt fähig, unheimlich komplexe Aufgaben zu lösen und Herausforderungen zu bewältigen, die für klassische Software und auch für den Menschen nicht oder nur schwer zu meistern sind. Bei der Entwicklung und dem Einsatz von Künstlicher Intelligenz kann aber auch viel schiefgehen. Beim Training von neuronalen Netzen können sich beispielsweise durch unausgewogene Datenpakete, aus denen statistische Zusammenhänge und Muster abgeleitet werden, ungewollt digitale Vorurteile oder Fehlurteile ausbilden, durch die die KI letztlich schlechte Entscheidungen trifft oder konkrete Fehler macht.
Dadurch kann es dazu kommen, dass eine Künstliche Intelligenz, die Bewerbungen vorsortiert, Frauen diskriminiert, eine Gesichtserkennungssoftware Menschen fälschlich als jemand anderen erkennt oder eine Künstliche Intelligenz in einem selbstfahrenden Fahrzeug einen Radfahrer nicht als solchen identifiziert. Die deutschen TÜV-Unternehmen starten daher mit dem TÜV AI Lab nun ein Entwicklungslabor für die Erforschung und Beurteilung von Künstlicher Intelligenz. Das soll helfen, die Entwicklung von Standards zur Prüfung von vor allem sicherheitskritischen KI-Anwendungen zu begleiten.
Konkret soll das TÜV-Labor die Software von automatisierten Fahrzeugen, mobilen Robotern, Assistenz- und Diagnosesystemen in der Medizin unter die Lupe nehmen und mit KI-Entwicklerinnen und KI-Forschern verschiedene Prüfszenarien entwerfen. Die sollen helfen, Prüfverfahren und entsprechende Standards zu entwickeln, die solche Programme letztlich erfüllen müssten, um als sicher zu gelten. Dabei könnte es etwa darum gehen, „wie sicher automatisierte Fahrzeuge mit KI-Systemen Personen, Verkehrszeichen oder bestimmte Hindernisse erkennen und darauf reagieren“, heißt in einer Pressemitteilung des TÜV-Verbands.
So bald wird es keinen KI-TÜV geben
Laut Dirk Schlesinger vom TÜV AI Lab sei das für den Verband durchaus eine Herausforderung. „Künstliche Intelligenz ist komplex und kann sich dynamisch verhalten“, sagt Schlesinger. „Also können wir bestehende Prüfansätze nicht einfach übertragen, sondern müssen neue Testmethoden entwickeln.“ Dabei soll es auch darum gehen, ob beispielsweise Trainingsdaten für die Konstruktion einer Künstlichen Intelligenz geeignet sind – also dahingehend, ob sie etwa zum Aufbau von Vorurteilen oder Diskriminierungsmustern führen könnten. Ebenso soll untersucht werden, ob KI-Programme einfache Datenschutzprinzipien und Grundrechte wie das auf Privatsphäre respektieren.
Werde jetzt Mitglied von 1E9!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!
Jetzt Mitglied werden!Das TÜV AI Lab will aber auch eine grundsätzliche Klassifizierung von Künstlicher Intelligenz entwickeln – nämlich danach, wie risikobehaftet und gefährlich sie sein kann, wenn sie fehlschlägt. „Nicht alle KI-Systeme müssen die gleichen Anforderungen erfüllen“, sagt Schlesinger. Eine Künstliche Intelligenz, die einen autonomen Bus steuert, muss sicherer und nachvollziehbarer handeln als beispielsweise eine Künstliche Intelligenz, die einen Handtrockner oder einen Seifenspender steuert. Laut dem TÜV könnten aus solchen Risikoklassen beispielsweise Zulassungsverfahren für bestimmte KI-Programme, aber auch konkrete Verbote von „besonders gefährlichen oder ethisch fragwürdigen“ KI-Anwendungen abgeleitet werden.
Die Arbeit des TÜV AI Lab, die in den nächsten Wochen beginnen soll, wird also zunächst eher theoretischer Natur sein. Noch muss kein Entwickler seine Künstliche Intelligenz beim TÜV abnehmen lassen. Jedoch könnte die Arbeit des KI-Labor irgendwann Teil einer landes- aber möglicherweise auch europaweiten Regulierungs- und Prüfstruktur werden. Der TÜV ist mit seinen Bemühungen nicht alleine. Auch Unternehmen wie das Berliner Start-up Neurocat arbeiten an Verfahren** , mit denen sich Künstliche Intelligenz bewerten und auf Gefahren absuchen lassen kann. Ebenso wie Weights & Biases und Arthur, die Software entwickeln, um Künstliche Intelligenz während des Trainings zu überwachen und zu warnen, wenn sich algorithmische Vorurteile einschleichen oder Artefakte im digitalen Denkapparat bilden.**