„Wir brauchen die Ethik als Partnerin der Technik“ - Kolping-Interview mit Prof. Regina Ammicht Quinn

25. Apr 2022

„Wir brauchen die Ethik als Partnerin der Technik“ - Kolping-Interview mit Prof. Regina Ammicht Quinn

Technische Entwicklungen waren schon immer Segen und Fluch. Sie haben Menschen das Leben leichter gemacht und die Produktivität von Unternehmen erhöht. Gleichzeitig wurden sie, wenn wirtschaftliche Interessen dahinter standen, dazu genutzt, einigen Menschen Vorteile zu verschaffen und andere auszubeuten. Bei der Digitalisierung ist das nicht anders. Während der Corona-Pandemie sind uns viele Vorteile bewusst geworden. Aber sind digitale Systeme inzwischen so komplex, dass wir sie nicht mehr verstehen und kontrollieren können? Und wessen Aufgabe ist das in unserer Gesellschaft? Das haben wir Prof. Dr. Regina Ammicht Quinn gefragt. Sie ist Sprecherin des Internationalen Zentrum für Ethik in den Wissenschaften und Leiterin des Arbeitsbereiches Gesellschaft, Kultur und technischer Wandel an der Universität Tübingen.

Wie hat sich die Corona-Pandemie auf die Digitalisierung ausgewirkt?

Die Entwicklung ist ambivalent. Sehr viel hat sich beschleunigt. Aber es wurden auch eklatante Lücken deutlich. Nehmen wir Videokonferenzen. Die gab es schon vorher, aber die technischen Features haben sich entwickelt. Gleichzeitig haben die Nutzer*innen viel gelernt. Auch ältere Techniken sind inzwischen einfacher zu handhaben und billiger. Dabei wird aber die Ambivalenz ganz deutlich. Für mich sind Deepfakes das schlagende Beispiel: Wir haben sehr schnell, sehr billig, sehr einfach die Möglichkeit, täuschend echte Videos von Personen herzustellen, ohne deren Wissen und mit erfundenen Inhalten. Das hat ein hohes Täuschungspotenzial. Stellen wir uns die Politik in einer Krise vor und ein Interview, von dem wir nicht sagen können, ob diese Person das jetzt wirklich sagt. Deepfakes wurden zunächst für die Pornoindustrie entwickelt. Man braucht nur ein beliebiges Foto eines Menschen, um daraus ein pornografisches Video zu machen. Die Opfer sind fast ausschließlich Frauen. Der Algorithmus ist auf Frauenbilder trainiert. Das macht deutlich, wie sehr wir als Nutzer*innen in unserem Potenzial, damit umzugehen, nachhinken.

Haben wir diese Chance überhaupt?

Das ist ein echtes Problem. Ulrich Beck hat schon vor längerer Zeit gesagt: Ethik – damit meint er die gesamte Reflexion der Technik – ist nichts anderes als eine Fahrradbremse an einem Interkontinentalflugzeug. Ich glaube, dass das so nicht stimmt, aber er deutet hier das Problem an. In frühen Phasen einer Entwicklung sind die Wirkungen schwer abschätzbar. Wir wussten vor 30 Jahren nicht, dass wir dieses Interview per Videokonferenz führen. Die Ethik aber ist immer Partnerin der Technikgestaltung, denn Technikgestaltung ist immer Gesellschaftsgestaltung. Konflikte über Technologien, über digitale, auch über Kernkraft, sind immer Gesellschaftskonflikte und Konflikte über Zukunftsgestaltung.

Sie sagen, die Ethik ist immer Partnerin in der Technikgestaltung. Ist das so oder sollte es so sein?

Es ist eine Forderung. Es ist extrem schwierig, weil unterschiedliche Wissenschaften unterschiedliche Sprachen sprechen. Gerade in der Informatik fehlt eine Ausbildung in Geistes- und Sozialwissenschaften. Die ist komplett weggebrochen, weil das Thema Künstliche Intelligenz so neu, so dringend, so faszinierend ist. Die Doktorand*innen haben kaum Zeit, die Diskussionen in anderen Fächern zu verfolgen. Das ist ein großes Problem, denn sie sind diejenigen, die Technologien entwickeln, die unsere ganze Gesellschaft und unseren Alltag durchziehen werden.

Einblick in die Ausstellung "Künstliche Intelligenz" bei der DASA in Dortmund.

Kann eine ethische Reflexion mit der Geschwindigkeit der technischen Entwicklung überhaupt Schritt halten?

Sie hat die Aufgabe, Schritt zu halten, genauso wie andere Wissenschaften, die soziale und politische Strukturen analysieren. Wenn wir Künstliche Intelligenz nutzen, um unsere staatlichen Wohlfahrtssysteme zu entlasten oder um die Organvergabe an Kliniken zu regeln, müssen diese Systeme mehr wissen als sie momentan wissen. 

Ein Beispiel ist das Arbeitsmarktmodell in Österreich. Es soll die Menschen, die in den Jobcentern arbeiten, entlasten. Das System teilt die Arbeitsuchenden in drei Gruppen ein: In gut vermittelbare, in mittelmäßig vermittelbare und in schlecht vermittelbare Personen. Dabei fasst es die Unterlagen der vergangenen Jahre zusammen. Für die mittlere Gruppe wird gezielt Förderung angeboten. Nach dem Motto: „Die Guten finden sowieso etwas und die Schlechten, die sind halt schlecht“. Dahinter steht ein Punktesystem mit einem noch recht einfachen Algorithmus. Frauen bekommen einen Abzug, weil sie Frauen sind, Frauen mit Pflegeaufgaben einen erheblichen Abzug. Das wird bei Männern gar nicht abgefragt. Menschen über 30 und dann noch mal über 50 bekommen Abzüge. Menschen aus dem europäischen und nicht-europäischen Ausland bekommen einen gewaltigen Abzug. Hier werden die Vorurteile einer Gesellschaft in ein objektiv erscheinendes Paket verpackt.

Im Moment steuern wir hinterher. Das Jobcenter sagt: „Dann muss die Sachbearbeiterin das entscheiden“. Aber wie kann sich eine Sachbearbeiterin anders entscheiden, ohne zu wissen, wie der Algorithmus funktioniert, und ohne Entscheidungsmacht in einer Behörde. Momentan sind wir dabei, Sachen zu korrigieren, wenn wir sehen, dass etwas extrem falsch läuft. Aber das werden wir auf Dauer nicht können. Wir müssen vorab überlegen, wofür das technische System genutzt wird, um blinde Flecken auszuschließend. Das ist die Aufgabe der Ethik – und eines demokratischen Gemeinwesens.

"Wir müssen vorab überlegen, wofür das technische System genutzt wird, um blinde Flecken auszuschließend. Das ist die Aufgabe der Ethik – und eines demokratischen Gemeinwesens."

Prof. Regina Ammicht Quinn

Ein technisches System kommt nicht allein auf die Idee, Vorurteile zu manifestieren. Die Ethik muss bei den Menschen ansetzen, die es füttern.

Nicht nur bei den Menschen, sondern bei der Gesellschaft, deren Vorurteile sich in solchen Systemen spiegeln. Ein anderes Beispiel sind Systeme zur Organvergabe. Wir wissen, dass da viel Korruption passiert. Die KI-Systeme werden entwickelt, um dem vorzubeugen. Sie sollen neutral feststellen, wer am meisten von einer Transplantation profitiert. Sie rechnen ältere Leute heraus. Aber gleichzeitig auch arme Menschen, weil deren bisherige Ergebnisse schlechter sind als bei Menschen mit einem höheren sozialen Status. Das sind aber Kriterien, die nicht medizinisch sind. Wenn Menschen es sich nicht leisten können, zu den Nachuntersuchungen zu kommen, werden sie ans Ende der Liste gesetzt. Hier werden soziale Probleme objektiviert. Zum Nachteil von Menschen, die sich nicht dagegen wehren können.

Wird Technik im Alltag akzeptiert, wenn sie den Menschen das Leben einfacher macht? Wenn sie Spaß macht? Das Smartphone zum Beispiel sieht kaum jemand noch kritisch.

Wir wissen, dass unsere Daten abgegriffen, Profile gebildet und teuer verkauft werden, damit Unternehmen die richtigen Werbungen schalten können. Gleichzeitig ist es schwierig, das Smartphone nicht zu nutzen. Die einzelnen Bürger*innen können dieses Problem nicht lösen. Die großen Tech-Anbieter haben andere Interessen als wir – klare ökonomische Interessen. Wir brauchen ganz dringend gemeinwohlorientierte Anbieter, die es vereinzelt, aber noch nicht in der Breite gibt, damit wir wirklich wählen können.

Haben die eine realistische Chance, sich durchzusetzen?

Das ist schwierig, denn der Markt wird von fünf großen Unternehmen beherrscht. Aber wir brauchen andere und neue Anbieter, und wir brauchen den politischen Willen dazu. Schauen wir die Gruppe der Kinder und Jugendlichen an. Ein Drittel der Nutzer*innen des Internets sind unter 18. Das sind Menschen, die viele digitale Interaktionen haben, in Chats, in Spielen, in Social Media, oft ohne die Folgen abschätzen zu können. Wir schützen Kinder im Straßenverkehr. In den digitalen Medien ist das Bewusstsein noch nicht so deutlich. Es ist natürlich wesentlich schwieriger, weil wir nicht einfach einen Zebrastreifen und eine Ampel einbauen können. Gleichzeitig begeben sich Kinder in reale Gefahren.

Einblick in die Ausstellung "Künstliche Intelligenz" bei der DASA in Dortmund.

Aber wie kommen wir im Alltag von den großen Anbietern weg?

Das Leben ist schwierig und kompliziert, und es wurde in den vergangenen zwei Jahren noch schwieriger und komplizierter. Jetzt zu sagen: „Du brauchst einen anderen Chat, um ein guter Mensch zu sein, und kannst Dich nicht auf Deine Bequemlichkeit zurückziehen“, ist schwierig. Es braucht Zeit und Menschen, die anfangen, mit anderen Anbietern zu arbeiten. Ich sehe in meinem Umfeld, dass es zunehmend funktioniert. Man sagt immer, die Bürger*innen müssten ihre Privatheit schützen. Sie müssen auf ihre Daten achten. Privatheit aber ist kein privates Problem. Privatheit ist ein öffentliches Problem, und das muss nicht nur, aber auch öffentlich gelöst werden.

Hat die Digitalisierung dem Thema Nachhaltigkeit Schwung gegeben?

Das hoffen wir. Es sind nicht nur die Kilometer, die durchs Homeoffice eingespart werden. Es gibt auch Unternehmen, die mit Hilfe künstlicher Intelligenz Rohstoffe und Energie sparen, und viele weitere Beispiele. Künstliche Intelligenz erweitert die Wissensbasis, die wir für das nötige Umdenken brauchen. Gleichzeitig – und das ist mein Appell – können wir in der ökologischen Krise nicht allein auf Technologie setzen. Künstliche Intelligenz ist selbst eine ausbeutende Technologie. Wir stellen uns vor, sie sei extrem sauber. Wir reden von der Cloud, von der Wolke. Die schwebt aber nirgends, sondern das sind große Serverhallen mit einem enormen Energieverbrauch. In unserem Smartphone sind nicht nur Kupfer, Eisen und Aluminium, sondern das, was man kritische Rohstoffe nennt, die nur an wenigen Orten zu haben und schwer recycelbar sind, und seltene Erden, die auch in Krisen- und Kriegsgebieten abgebaut werden. Wir brauchen Forschung, um die Digitalisierung umweltverträglicher zu machen. Wir müssen wissen, dass sie das derzeit nicht ist. Wir brauchen aber auch ein radikales Umdenken. Nicht nur die Hoffnung darauf, dass jemand etwas erfindet, das die Klimakrise stoppen wird.

Vielen Dank für das Gespräch!

Datenschutzhinweis

Unsere Webseite nutzt externe Komponenten (Schriften von Fonts.com, Google Fonts, Youtube- und Vimeo-Videos, Google Maps, OpenStreetMaps, Google Tag Manager, Google Analytics, eTracker). Diese helfen uns unser Angebot stetig zu verbessern und Ihnen einen komfortablen Besuch zu ermöglichen. Durch das Laden externer Komponenten können Daten über Ihr Verhalten von Dritten gesammelt werden, weshalb wir Ihre Zustimmung benötigen. Ohne Ihre Erlaubnis kann es zu Einschränkungen bei Inhalt und Bedienung kommen. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.