Verantwortungsvoller

Umgang mit KI

Sonja Musil 
Pädagogische Hochschule Wien

(Dieser Text wurde im Rahmen eines Seminars der Pädagogischen Hochschule Wien erstellt.)

Es braucht einen verantwortungsvollen Umgang mit KI und Robotik, um Risiken zu minimieren, schließlich soll die Technik dem Menschen dienen, anstatt ihm die Freiheit zu nehmen und ihn abhängig zu machen. Wie könnte das aussehen – und an welchen Lösungen wird derzeit gearbeitet?

Es geht bei der künstlichen Intelligenz darum, ethische, soziale und technische Regeln festzulegen1. Wir müssen uns fragen, inwieweit wir Verantwortung an Maschinen abgeben wollen. Der Mensch sollte immer noch verantwortliches Subjekt bleiben – oder wollen wir eine Zukunft, in der wir gar nicht mehr wissen, wie Entscheidungen zustande gekommen sind, obwohl wir diese dann zu verantworten haben? Wichtig ist zum Beispiel die Frage, wer bei Schäden haftet, die autonome Roboter verursachen; mindestens genauso bedeutend ist der Datenschutz.

Bereits jetzt werden auch vielen Robotern ethische Werte „eingepflanzt“. Selbst ein Staubsauger-Roboter stehe vor moralischen Entscheidungen, so Janina Loh, Roboter­ethikerin an der Universität Wien2 – soll er eine Spinne einsaugen oder umfahren? Was ist mit einem Marien­käfer oder anderen Kleinlebewesen? Entscheidungen, die KI trifft, sollten nicht abseits von Moral, ethischen Grundhaltungen und gesetzlichen Regeln erfolgen. Seit Mai 2018 ist die Datenschutz-Grundverordnung der Sockel des allgemeinen Datenschutzrechts in der EU und in Österreich. Diesen Standard gilt es stetig auf neu hinzukommende Bereiche auszuweiten.

Die Europäische Kommission veröffentlichte 2019 Ethikleitlinien für vertrauenswürdige KI 3. Dabei geht es u. a. um die Verwendung ausbalancierter Datensätze, die gesellschaftliche Diversität berücksichtigen. Bezüglich Transparenz wird gefordert, dass Ergebnisse, auf die KI gekommen ist, im Rahmen einer sogenannten „Explainable AI“ für Menschen nachvollziehbar aufbereitet werden. Neben einer Festlegung a priori, wer die Verantwortung für KI-Systeme innehat, soll der Mensch immer die Möglichkeit haben, zu intervenieren, also auch ein System unterbrechen können. Letztlich muss sich der Einsatz von KI an Grundwerten wie Freiheit, Gerechtigkeit, Solidarität, Toleranz und Pluralismus orientieren und diese fördern. Punkto Datenschutz sollen Bürger*innen volle Kontrolle über ihre Daten behalten, welche nicht dazu verwendet werden dürfen, sie zu schädigen oder zu diskriminieren4.

Bestehende Gesetze müssten überprüft und an die Spezifika künstlicher Intelligenz angepasst werden, meint der Jurist Axel Walz vom Max-Planck-Institut für Innovation und Wettbewerb5. Seiner Meinung nach wäre eine Debatte über rote Linien sinnvoll – also inwieweit bestimmte Produkte überhaupt mit KI ausgestattet werden dürfen. Auch Walz spricht vom Ziel eines Transparenzstandards, der garantieren soll, dass die Programmierung der Algorithmen so erfolgt, dass Menschen jederzeit nachvollziehen können, welche Daten verwendet wurden und wie ein bestimmtes Ergebnis zustande gekommen ist.

Die französische nationale Datenschutzbehörde CNIL empfahl u. a. die Einrichtung einer nationalen Plattform für das Auditieren von Software und eine Verstärkung der Anreize für das Erforschen von ethischer KI6. Außerdem sollen sich Unternehmen und Organisationen des Themas Ethik stärker annehmen, beispielsweise durch Ethik­kommissionen oder Ethikkodizes. Bezüglich der Menge an Informationen und deren Korrektheit sollte man Softwareergebnissen gegenüber eine kritische Haltung bewahren und kein übermäßiges Vertrauen in Entscheidungen von KI-Systemen entwickeln.

Im Mittelpunkt der „Strategien für Daten und künstliche Intelligenz“ der EU-Kommission steht das Whitepaper zur künstlichen Intelligenz7. Damit soll ein allgemeiner Rechtsrahmen für die Entwicklung und Umsetzung von KI-Anwendungen geschaffen werden. Hier wird beispielsweise die menschliche Aufsicht hervorgehoben: Von KI-Systemen erarbeitete Ergebnisse sollen erst dann wirksam werden, wenn sie von einem Menschen überprüft wurden – oder wenn menschliche Intervention später sichergestellt wird. Außerdem soll berücksichtigt werden, dass sich KI-Systeme weiterentwickeln und lernfähig sind, weshalb erneute Überprüfungen notwendig werden können.

Im Programm der österreichischen Regierung ist von Rahmenbedingungen für die Entwicklung und den Einsatz von KI bei gleichzeitigem Schutz der Menschen­würde die Rede8. So sollen etwa Verwaltungsentscheidungen maschinell unterstützt, aber nicht allein durch Maschinen getroffen werden dürfen. Die Datenschutzbehörde soll mit den erforderlichen personellen und finanziellen Mitteln ausgestattet werden; auch eine Prüf- und Beratungsstelle für IT- und Cybersicherheit soll eingeführt werden. Des Weiteren ist von der Förderung eines KI- und Ethikrats sowie von der Unterbindung der Herstellung KI-gesteuerter Waffen weltweit die Rede.

Die erwähnten Strategien sind derzeit nur Empfehlungen, keine Gesetze, und sind oft noch schwammig formuliert. Was jede/r Einzelne auf jeden Fall tun kann, ist, sich eine kritische Haltung anzutrainieren und Daten nicht leichtfertig preiszugeben. Da sehr viele Menschen noch zu blauäugig im Umgang mit KI sind, wird auch mehr Aufklärung und Information darüber nötig sein.


Weitere Artikel zum Thema:

Artikel
KI in der Veterinärmedizin
Chance oder Risiko?
Artikel
Bildanalyse online
Wenn es unter der Lupe unklar ist
Artikel
Zettelwirtschaft ade
Argumente für die digitale Tierarztpraxis