Künstliche Intelligenz: Plattform Lernende Systeme nennt Prüfkriterien für Zertifizierung

Wissenschaftler des KIT federführend an Whitepaper beteiligt. Vertrauen in KI-Systeme Voraussetzung für deren erfolgreiche Verbreitung.
Hochmobile Roboter GAMMABOT
Ein Beispiel selbstlernender KI: Der universelle, hochmobile Roboter GAMMABOT zur multisensoriellen Umwelterfassung. (Foto: Amadeus Bramsiepe, KIT)

Künstliche Intelligenz (KI) verändert die Welt und gehört immer mehr zum Alltag, ob bei der automatischen Übersetzung oder beim Saugroboter. Die Arbeitsgruppe 3 „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme (PLS) hat nun unter federführender Mitwirkung von Professor Jörn Müller-Quade vom Karlsruher Institut für Technologie (KIT) ein Whitepaper zur „Zertifizierung von KI-Systemen“ veröffentlicht.

Um das Potenzial von KI auszuschöpfen, sei es wichtig, dass Menschen KI-Systemen vertrauen, so ein Resümee des Whitepapers. Während ein Großteil der KI-Systeme unproblematisch sei, gebe es auch Anwendungen, die einer genaueren Prüfung unterzogen werden sollten, heißt es dort weiter. Dies gilt etwa dann, wenn ein System Menschenleben oder Umwelt gefährdet, oder bei der Frage, wieviel Handlungsspielraum dem Menschen bei Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten.

Vor allem lernende KI-Systeme entwickeln sich im Betrieb weiter, was Re-Zertifizierungen notwendig macht. „Ein gutes Zertifikat für KI muss diese Dynamik berücksichtigen und seine Gültigkeit unabhängig vom technologischen Fortschritt bewahren“, so Müller-Quade, Leiter der Arbeitsgruppe Kryptographie und Sicherheit am Institut für Theoretische Informatik des KIT und Co-Leiter der Arbeitsgruppe 3 der PLS.

Bezüglich der Prüfkriterien nennen die Autorinnen und Autoren des Whitepapers Mindeststandards, die stets erfüllt werden müssen. Dazu zählen Transparenz, Sicherheit oder Schutz der Privatheit.

jwa, 30.11.2020