KI: Die Beziehung von Mensch und Maschine braucht mehr Aufmerksamkeit

Heute hat der Deutsche Ethikrat seine Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ veröffentlicht. Der Deutsche Ethikrat beleuchtet dabei Fragen, die bei aller Begeisterung über neue KI-Anwendungen wie ChatGPT und GPT4 in den Hintergrund geraten sind: Welche Auswirkungen sind eigentlich damit verbunden, wenn wir Tätigkeiten, die bisher Menschen vorbehalten waren, dauerhaft Maschinen überlassen? Die Perspektiven des Rats auf einzelne Anwendungsbereiche und auch auf Querschnittsthemen verdeutlichen sehr anschaulich, dass sich die genannten Herausforderungen wiederholen und ernst genommen werden müssen, ihnen aber auch je nach Einsatzfeld anders begegnet werden muss.

Der bisherige Fokus auf technische Machbarkeit, Finanzierung und Wirtschafts-Wettrennen um Innovations-Standorte lässt nämlich völlig außen vor, dass die Beziehung von Mensch und Maschine eine gegenseitige ist: Nicht nur beeinflussen Menschen Maschinen, sondern auch Maschinen beeinflussen Menschen. Insbesondere in den in der Stellungnahme betrachteten Bereiche Medizin, Bildung, Medien und Verwaltung sind daher Leitlinien und Ethik-Kodizes nicht ausreichend. Leider bleiben die KI-Verordnung, die aktuell noch in Brüssel verhandelt wird, derzeit hinter den nötigen Regelungsbedarfen zurück, was sicherlich auch auf die intensive Lobbyarbeit der Technologiekonzerne zurückzuführen ist.

Insbesondere der Gedanke des Rats zu einer Infrastruktur in öffentlich-rechtlicher Verantwortung ist es wert, weiter verfolgt zu werden, allein schon, um Abhängigkeiten zu verringern. Außerdem erscheint eine Begründungspflicht für das Befolgen einer maschinellen Entscheidungsempfehlung vor allem bei der Nutzung von KI in der Verwaltung auf den ersten Blick plausibel. Der Beziehung von Mensch und Maschine muss in jedem Fall mehr Aufmerksamkeit auch in der öffentlichen Debatte zu Automatisierung geschenkt werden.

KI simuliert das Menschsein nur und braucht daher Regulierung und Kontrolle

Mit ChatGPT erscheint KI einmal mehr zunehmend menschlich, aber das Menschsein wird doch immer noch nur simuliert. Denn eine Maschine kann – im Gegensatz zu Menschen – weder verstehen noch fühlen, noch auf individuelle Umstände der Umgebung reagieren.

Menschen sind mehr als ihre Funktionen: Kulturen und Moral sind von Land zu Land unterschiedlich, werden aber von Entwicklern in KI-Systeme durch Daten-Auswahl und Training eingepflanzt, daher bedeutet die Nutzung beispielsweise eines US-amerikanischen Systems auch eine Übernahme dortiger Moralvorstellungen, zum Beispiel in Bezug auf Nacktheit oder Reproduktionsmedizin, oder auch bei der Toleranz für Diskriminierungen.

Die Welt der sozialen Medien beispielsweise wird aktuell nur von wenigen US-amerikanischen Konzernen gestaltet, deren Geschäftsmodell darauf basiert, dass Menschen insbesondere emotional intensive Inhalte konsumieren. Dieser Zusammenhang befördert Hass, Hetze und Gewaltdarstellungen. Eine automatische Filterung dieser Inhalte ist nicht vollständig möglich, menschliche Arbeitskräfte, die solche Filterungen vornehmen müssen, leiden unter den psychischen Belastungen ihrer Tätigkeit, die sie oft mit Gewaltdarstellungen konfrontiert.

Neben nationalen Einflüssen wirkt sich auch Machtausübung aus: Überwachung kann zu einem Rückzugs-Verhalten führen, sowohl in Online- als auch in öffentlichen Räumen, das ist insbesondere bei staatlicher Überwachung ein nicht unerheblicher Aspekt.

Die Folgen der Automatisierung können derzeit nur abgeschätzt werden, in der Bildung beispielsweise ist der Nutzen der „Datafizierung von Lernverhalten“ noch völlig unklar.

Chancen von KI verantwortungsbewusst nutzen

KI kann Möglichkeiten von Menschen positiv erweitern, zum Beispiel in Medizin, Stadtplanung, Bildung, Forschung, Gaming. Damit sich die gewünschten Entlastungseffekte von Automatisierung entfalten und positiv wirken können, braucht es jedoch einen verantwortungsbewussten Umgang mit der Technologie. Dazu gehören unter anderem eine Prüfung, ob KI im geplanten Einsatzbereich überhaupt wirkungsvoll sein kann und dann eine genaue Beobachtung der Wirkung. Im Hochrisiko-Bereich ist eine unabhängige Aufsicht wünschenswert. Die Beobachtung sollte auch die vom Ethikrat erwähnten Erweiterungen und Verminderungen durch Automatisierungsprozesse umfassen, insbesondere mit Blick auf soziale Gerechtigkeit.

Die Menschen, die mit KI arbeiten, müssen die Freiheit haben, mit Maschinen verantwortungsbewusst umgehen zu können, dazu gehört die sowohl die Fähigkeit, maschinelle Entscheidungen einschätzen zu können, die technische Möglichkeit, anders zu entscheiden oder die Maschine zu korrigieren und auch das Recht, im Rahmen des Beschäftigungsverhältnisse anders als die Maschine zu handeln. Mit meiner Fraktions-Kollegin Anke Domscheit-Berg und anderen Kolleg*innen aus der Bundestagsfraktion haben wir uns schon 2021 im Anschluss an die Enquete-Kommission „Künstliche Intelligenz“ ausführlich Gedanken zur Rolle der Menschen im Umgang mit KI gemacht.

Selbstverständlich brauchen Forschende Zugriff auf die Datensätze und Trainingsbedingungen von Hochrisiko-KI-Systemen, es darf kein Verstecken der Anbieter hinter Betriebs- und Geschäftsgeheimnissen geben.

Vor allem aber braucht es eine sorgfältige Prüfung, welche Verfahren in sensiblen Sektoren wie Verwaltung, Sicherheit oder Bildung überhaupt sinnvoll und gesellschaftlich förderlich automatisierbar sind. Hier muss die Nachvollziehbarkeit von Entscheidungsprozessen gewährleistet sein ebenso wie der Anspruch auf eine menschliche Entscheidung auch bei teil-automatisierten Verfahren. Im Zuge der Aushandlung der KI-Verordnung sollte hierzu auch der Artikel 22 der DGSVO überarbeitet werden, der bislang nur vollautomatisierte Prozesse berücksichtigt, die es in der Praxis jedoch oft gar nicht gibt.

Demokratie braucht Vertrauen

Menschen neigen dazu, Maschinen zu vertrauen, die dann schleichend zu Entscheidungsträgern werden können. Kompetenzen können verloren gehen, Alternativen und Vielfalt aus den Blickfeldern verschwinden, mit gezielter Werbung in intransparenten Verfahren können Meinungen gesteuert werden.

Im Bereich der öffentlichen Verwaltung sind die Auswirkungen von Fehlentscheidungen oder Diskriminierungen besonders weitreichend und können die Beziehung zwischen Staat und Zivilgesellschaft belasten, denn Diskriminierungen betreffen meist eh schon benachteiligte Personen oder Gruppen. Eine Umkehrung des Subjekt-Objekt-Verhältnis, bei der Menschen zum Objekt einer subjektifizierten, nicht-erklärbarer Maschine werden, kann in Zeiten von Krisen, Unsicherheiten und einem allgemeinen Vertrauensverlust demokratiegefährdend sein.