Künstliche Intelligenz: EU-Kommission empfiehlt Ethik-Regeln

Die Europäische Kommission hat am 08.04.2019 Empfehlungen für Ethik-Regeln zur Entwicklung und Anwendung künstlicher Intelligenz (KI) in Europa vorgelegt.

Robotergesetze

Schon im Jahr 1942 formulierte der visionäre Science-Fiction-Autor Isaac Asimov - mit einem Blick in die damals unerreichbare Zukunft – drei Gesetze, die die Entscheidungen und Handlungen eines Roboters regeln sollen:

  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Ethische Leitlinien für KI

75 Jahre später ist die technische Entwicklung so weit, dass Gesellschaft und Gesetzgeber tatsächlich entscheiden müssen, welche Regeln für die Entwicklung und den Einsatz künstlicher Intelligenz gelten sollen. Im Auftrag der EU-Kommission erarbeitete eine 52-köpfige Expertengruppe „Ethics Guidelines for Trustworthy AI“. Nach diesen Leitlinien soll eine vertrauenswürdige KI neben allen geltenden Gesetzen auch besondere Anforderungen erfüllen, um einen positiven Wandel der Gesellschaft zu fördern: KI soll die menschliche Entscheidungsfreiheit und Autonomie unterstützen, nicht beeinträchtigen und einschränken. Die ihr zugrundeliegenden Algorithmen müssen konsistent, fehlerfrei und robust arbeiten. Entscheidungen der KI müssen nachvollziehbar und es muss eindeutig sein, wer für sie verantwortlich ist. Menschen sollen die Kontrolle über ihre Daten behalten und dürfen durch die Datenverarbeitung der KI nicht geschädigt oder diskriminiert werden. Auch ohne vertiefte Normanalyse fällt auf, dass die Leitlinien der EU in dieselbe Richtung gehen wie schon die Asimov’schen Robotergesetze.

Wie geht es weiter?

Die Erstellung der ethischen Leitlinien ist der erste Schritt einer europäischen KI-Strategie für Innovationen, Investitionen und Vertrauen in der Bevölkerung. Ihr folgt eine groß angelegte Pilotphase, in der Wirtschaft, Wissenschaft und Verbände Rückmeldungen geben können. Danach soll ein internationaler Konsens über den Aufbau einer menschenzentrierten künstlichen Intelligenz erzielt werden. Dabei werden sich vielschichtige rechtliche, sogar philosophische Fragen stellen:

  • Wie kann eine KI handeln und Verträge schließen?
  • Ist der Hersteller einer KI oder ihr Benutzer für Willenserklärungen und Fehlfunktionen der KI verantwortlich?
  • Was sind die rechtlichen Konsequenzen, wenn die Funktionen einer KI so komplex sind, dass ihre Handlungen weder vorhersehbar noch nachvollziehbar sind?
  • Und vielleicht ganz fantastisch: Kann eine künstliche Intelligenz eine juristische Person mit eigenen Rechten und Pflichten sein?

Die Antworten und die weitere Rechtsentwicklung werden spannend.

Ein Beitrag von