Recherche – Detailansicht

Ausgabe:

Juli/August/2022

Spalte:

635–650

Kategorie:

Systematische Theologie: Ethik

Autor/Hrsg.:

Peter Dabrock

Titel/Untertitel:

»Prüft aber alles und das Gute behaltet!«

Theologisches und Ethisches zu Künstlicher Intelligenz1

1 Einleitung

I Das KI-Zeitalter


Künstliche Intelligenz (KI) wird bleiben. In einem Anfang 2022 veröffentlichten Band nennen Henry A. Kissinger, Eric Schmidt und Daniel Huttenlocher unsere Gegenwart »The Age of AI«.2 Ein solcher Buchtitel soll offenkundig Leser und Leserinnen attrahieren. Aber richtig ist die dahinterliegende Botschaft: Wie Schrift, Buchdruck, elektronische und erste digitale Medien wird dieses Kommunikations-, Speicher- und Medien-Format den Menschen nicht äußerlich bleiben, sondern – bildlich gesprochen – in die kulturelle DNA einsickern. Reflexionen protestantischer Religionskultur dürfte bei nur kurzem Nachdenken die Bedeutung von Technik und technischen Medien für Fragen und Antwortversuche nicht nur im Bereich des Vorletzten, sondern auch der Kommunikation des Letzten evident sein, wenn man realisiert, dass die Reformation wohl ohne die Gutenbergsche Medienrevolution nicht die Schlagkraft hätte gewinnen können, die ihr weltgeschichtlich schließlich zu­kam.

Man wird – ohne Technik-Determinist zu sein – die quasi an­thropologische Transformation, die Techniken ausüben, denen wir heute das Schlagwort »Künstliche Intelligenz« zuweisen, das ähnlich schon vor wenigen Jahren unter dem Stichwort »Big Data« firmierte, auch dann nicht leugnen, wenn man keine präzise Definition vorlegen kann. Gerade Theologinnen und Theologen sollten eine gewisse Sensibilität dafür haben, dass oft das Wichtigste kaum zu definieren, aber von ihm her alles anders und neu zu sehen und zu bedenken ist. Der Umstand, dass auch die technische Entwicklung, die gegenwärtig mit dem Label der Künstlichen Intelligenz (KI) verbunden wird, sich kaum definieren lässt, zeigt, welche – erst recht nicht fix auf den Begriff zu bringende – Dynamik in dieser Entwicklung steckt. Dieses moving target verändert nicht nur im­mer wieder neu sein technisches Level, hier konkret: auf der Ebene der Speicherung und Verarbeitung von Daten, sondern genau da­mit wiederum die Eingriffstiefe auf individuelles und gesellschaftliches Leben.

Mit dem epistemischen und sachlichen – beides hängt miteinander zusammen – Vorbehalt, die Sache nicht klar fixieren zu können, sei für diesen Beitrag zumindest eine funktionale Arbeitsdefinition in Form einer Umschreibung der wesentlichen Komponenten der KI und ihrer Einsatzbereiche vorgelegt, die einerseits nah genug ist an dem gegenwärtigen Stand dieser oft als disruptiv bezeichneten Technik und andererseits die Linien so auszieht, dass die Zugriffsstärke dieser umschreibenden Definition nicht schneller versiegt, als dieser Beitrag veröffentlicht ist. Ich selbst bevorzuge den Begriff »Lernende Systeme«, weil er nicht so wie der der KI starke anthropomorphe Konnotationen freisetzt. Aber der Begriff KI ist derzeit als Schlagwort gehypt und kann daher im Folgenden berechtigterweise als Leitbegriff fungieren. Daher: Lernende Sys-teme und KI zeichnen sich beide dadurch aus, dass mit ihnen »abstrakt beschriebene Aufgaben auf Basis von Daten, die ihnen als Lerngrundlage dienen, selbstständig erledig[t werden], ohne dass jeder Schritt spezifisch programmiert wird.«3 Diese von der »Plattform Lernende Systeme« verwendete Definition ist – im oben angekündigten Sinne – so weit und doch so spezifisch, dass sie auch vermutlich dann noch Bestand haben kann, wenn Hard- und Software sich quantitativ deutlich weiterentwickelt haben. Das wäre beispielsweise der Fall, wenn Quantencomputer noch ganz andere Rechen- und Prädiktionsmöglichkeiten bieten, als dies jetzt auf der Ebene der Digitalcomputer der Fall ist. Aber schon jetzt sind die Versprechungen wie die befürchteten Risiken groß.

In Ansätzen, aber offensichtlich erst in Ansätzen sehen wir das Potential der KI: Wenn denn die erwarteten Sicherheitsstandards erfüllt werden, gibt es kaum einen Bereich, in dem KI mit einer solchen Offenheit und hohen Erwartung verbunden wird wie in medizinischen und gesundheitsbezogenen Kontexten.4 Allseits be­kannt dürften durch KI verbesserte Diagnose-Tools im Bereich der Onkologie sein. Sie übertreffen inzwischen die Diagnose-Fä­higkeit von erfahrenen Fachärzten bzw. -ärztinnen bei der Detektion bspw. von Melanomen in der Dermatologie. In anderen Sphären wird der Einsatz von KI ohne großen Argwohn begrüßt (so im Bereich der Verkehrsplanung oder Steigerung nicht nur von Effizienz, sondern sogar ökologischer Nachhaltigkeit wie im Bereich der Landwirtschaft). Schließlich werden aber bestimmte Anwendungen mit großer Sorge betrachtet, weil sich der Eindruck kaum leugnen lässt, dass der Einsatz KI hier eine Art Zauberlehrlingseffekt mit sich führt: so im Bereich des Militärs, wo sogenannte LAWS, d. h. letale autonome Waffensysteme eingesetzt werden, die technisch so programmiert werden können, dass ein einmal eingegebenes Ziel »selbständig« – was immer das heißt – von der Maschine gefunden und zerstört werden kann. Dabei werden aber sehr wohl Kollateralschäden, bspw. die Tötung von Nicht-Kombattanten, in Kauf genommen; im Polizei- und Justizwesen, wo u. a. in den USA Prädiktionsalgorithmen eingesetzt werden, die – wie be­reits 2002 im Science-Fiction-Film »Minority Report« imaginiert – vorhersagen, wo demnächst vermutlich eine Straftat begangen wird oder wie die Bewährungsaussicht eines Strafgefangenen einzuschätzen ist; oder in Social Media, die oft die Störung öffentlichen Friedens und die Unterminierung der Demokratie billigend in Kauf nehmen, wenn nicht sogar beabsichtigen, weil sie vor allem emotionalisierende Botschaften – und das sind häufig das Zusam menleben zersetzende Hassbotschaften – in der Timeline eines Users nach oben spülen, um Kunden langfristig an die jeweilige Plattform zu binden.

Technisch basieren diese so unterschiedlichen Systeme auf dem Prinzip, aus Trainingsdaten (unterschiedliche Systeme benötigen selbstverständlich unterschiedliche Mengen unterschiedlicher Qualität an Trainingsdaten) analytisch Muster zu erkennen, um aus diesen mittels Rechenregeln, den sogenannten Algorithmen, synthetisch Vorhersagen für die Zukunft zu treffen. Anders formuliert: Der Zukunftsraum wird durch das Vergangene (prä-)determiniert – wobei man nicht dem möglicherweise als Beruhigung gedachten Vorurteil verfallen sollte, dass damit der Zukunftsraum notorisch kleiner wird. Auch mit den 26 Buchstaben des uns überlieferten Alphabets werden immer neue Welten geschaffen – und für das technische Level der Digitalität reichen sogar zwei Zeichen: 0 und 1. Sachlich entscheidender und auch von ethischer Brisanz ist, dass die Muster nicht wie kausalanalytische Modelle gebildet werden.5 Sie ruhen vielmehr auf rein äußerlicher Mustererkennung auf. Das kann zu den schon vor der KI-Zeit bekannten korrelationsbedingten Fehlurteilen führen.6 Andererseits sind KI-induzierte Mustererkennungen eine schier unendliche Hypothesengenerierungsmaschine, die, wenn sie mit wissenschaftstheoretisch falsifizierbaren Hypothesen zusammengebracht werden, Informationen und Erkenntnisse vorbereiten können, die mittels rein menschlicher Hypothesenbildungsfähigkeit bisher kaum denkbar erschienen. Gerade im Bereich der Biowissenschaften, z. B. im Be­reich der sogenannten Omics-Wissenschaften (in denen das re­konstruktive und konstruktivistische Erkenntnisinteresse am Zu­sammenspiel zwischen Genen, Proteinen und Umwelt kaum analy-sierbar erschien) tun sich so faszinierend neu zu entdeckende und auch biomedizinwissenschaftlich nutzbare Welten auf.7 Um­gekehrt droht ohne hypothesengebildete, nach vorne selbstverständlich immer revisionsoffene, sprich: falsifizierbare Überprüfung der gefundenen Muster eine Scheinevidenz, die besorgniserregend zu gravierenden Fehlschlüssen Anlass bietet.

II (Onto-)Theologisches Framing: Möglichkeiten hermeneutischer und sachlicher Art


1 Hermeneutik


Angesichts der bis ins Phantastische reichenden Visionen8 tauchen immer wieder quasi-religiöse Heilsversprechen im Umkreis der unterschiedlichen Anwendungen von KI auf: im Zusammenspiel mit Bio(medizin)-Wissenschaft die Erwartungen an Gesundheitsverbesserung, Lebensverlängerung, möglicherweise gar auf eine digital- oder gar analogweltliche Quasiunsterblichkeit. In ihren Anfängen wollten Google (»don’t be evil!«) oder Facebook/Meta (»give people the power to share and make the world more open and connected!«) quasi euphorische Handlungs- und pneumatologisch-ekklesiologisch wirkende Gemeinschaftskonzepte verbreiten – was ihnen heutzutage nun wirklich niemand mehr glaubt. Eine theologische Metabeobachtung lässt dieser religioide Erwartungshaltungen bedienende Anspruch aufhorchen und danach fragen, welche religionskulturellen Stories und Konzepte in Entsprechung und Differenz in dem offensichtlich soteriologisch aufgeladenen Feld aufgegriffen werden, aber auch selbst durch diese rasante Technologie-Entwicklung transformiert werden. Mit einem selbst hoch aufgeladenen Begriff könnte man formulieren: Theologische Dekonstruktionsarbeit ist gerade dort angesagt, wo Erwartungen an KI auf das Gebiet des Letzten (um mit Bonhoeffer zu sprechen) ausgedehnt werden.

Aber Vorsicht vor jedem naiv anmutenden Wächteramtsethos theologischer Provenienz! Die Vermischung zwischen theologischen Denkfiguren und jeweiligen kulturellen Standards ist oft intensiver als manche Theologien sich das eingestehen. Streitereien über die kritische Erschließungskraft religiöser Inhalte oder Sphären für weltliche Phänomene wie umgekehrt religiöser Phänomene durch weltliches Geschehen – theologiehistorisch reduziert auf die vermeintliche kontradiktorische Alternative: analogia entis vs. analogia fidei – können nicht mit einem apodiktischen Handstreich »Nein!«, wie von Karl Barth gegenüber Erich Przywara und Emil Brunner über positive oder negative Analogiefähigkeit weltlicher Phänomene vorgenommen werden. Abgesehen davon, dass man die auf Hans Reichenbach zurückgehende Unterscheidung von Entdeckungs- und Begründungszusammenhang – und ich möchte ergänzen: von Bewährungszusammenhang9 – eines zu deutenden Phänomens nicht berücksichtigt, beraubt man sich wertvoller Anregungen durch »weltliche« Phänomene angesichts solch apodiktischer Aussagen.

2 Providenz


Diese denkbar doppelt asymmetrische Dekonstruktionsarbeit der Erschließung von technischen Phänomenen für Religion und um­gekehrt sei an einem ontotheologischen Beispiel illustriert, das mir 2014 unter dem damaligen Buzz-Word »Big Data«, welches sehr ähnliche Phänomene wie KI erfasst, in den Sinn gekommen war:10 Big Data und eben auch KI – das entspräche dem Entdeckungszusammenhang einer analogia entis – können helfen, die sperrige Lehre von Gottes Vorsehung neu zu begreifen. Schließlich ist es insbesondere für ein modernes Verständnis von Freiheit schwer verdaulich, alles bei Gott vorherbestimmt oder zumindest vorhergesehen zu »wissen«. Mit einer an KI orientierten Deutung könnte diese Spannung zunächst so rekonstruiert werden, dass menschliche Handlungsfreiheit, wenn sie nicht nur verstanden wird, rechtfertigende Gründe für ein Verhalten geben, sondern auch – wo vorhanden – zwischen Alternativen gehaltvoll wählen zu können, mit Gottes Providenz kompatibel ist. Gottes Providenz wäre – in analogia entis gesprochen – wie eine, genauer: die bestdenkbare Prädiktions»maschinerie«, deren Datensätze und -analytik sowie Trainingskapazität so umfassend wie präzise wäre, dass sie tatsächlich zu 100 % aus sich das Verhalten aller Entitäten in der Welt, auch der im obigen Sinne als frei bezeichneten, vorhersagen könnte. Umgekehrt könnte in dekonstruierender analogia fidei, wie sie schon von christlichen Theologien gegenüber der vor allem aus der Stoa entlehnten metaphysischen Figur angebracht wurde, Folgendes eingeklagt werden: Die Providenzlehre gewinnt erst dann eine christliche Bedeutung, wenn ihre allgemein-ontologische Funktion, eine kosmologische Ordnung abzusichern, soteriologisch dem Sinne nach wie folgt neuformatiert wird: Die Lehre von der Providenz verleiht der Schöpfungslehre, der sie traditionell zugeordnet wird, einen heilsgeschichtlichen Grundton: Der Gott, der im Anfang die Welt gut, ja, sehr gut, auf den Weg gebracht hat, bleibt ihr in allem, was dort geschieht, treu und führt sie zum guten Ende – alles besiegelt in seinem menschlichen Antlitz des Jesus Christus. Im Sinne der Dialektik von fides quae und fides qua wird man dann in einer dekonstruierenden analogia fidei-Perspektive gegenüber Allmachtsphantasien, die bisweilen euphorische KI-Enthusiasten be­flügelt haben, in Anschlag bringen können: Theologie hat ihren Grund in der Kultivierung der fundamentalen Gott-Mensch-Differenz, die – nach christlichem Glauben – bestenfalls von Gott her heilsam durchbrochen wird. Letztes und Vorletztes – so die wich-tige Unterscheidung von Dietrich Bonhoeffer – sind entsprechend sorgsam zu differenzieren. Wenn algorithmische Logiken von KI Verhalten, Entscheidungen und Präferenzen so intensiv und extensiv auf Muster durchsuchen, dass alles, was den Korrelationsanalysen nicht entspricht, entweder unsichtbar gemacht wird, für pathologisch, verdächtig oder beweislastig erklärt wird, dann stehen sie in Gefahr, nicht unbedingt konzeptionell (das nur noch bei den offensiv derzeit eher schweigsam auftretenden Silicon Valley-Gurus) Letztes und Vorletztes zu vermengen.

Dieser an sich schon mit der Sündenentlarvungsfigur »wie Gott sein zu wollen« hinterfragbare Gestus erweist sich bereits dadurch mehrheitlich als verdächtig, weil es in KI-Anwendungen selten um das Wohl des Nächsten geht, sondern meistens um innerweltlich legitime, aber eben nicht als letzten Lebenssinn zu stilisierende Ziele, konkret: Es geht um Steigerung eigener Effizienz- oder Renditeerwartungen eines plattformbasierten Überwachungskapitalismus. Demgegenüber erinnert der Glaube an den am Ende um das Heil der Menschen besorgten »Gott als Geheimnis der Welt« (E. Jüngel) daran, auch den Menschen als Gottes Ebenbild in der Spur dieser Geheimnishaftigkeit anzuerkennen. Das rechtliche und ethische Axiom der Menschenwürde bezeugt in der ihm eigenen Sprache diese Geheimnishaftigkeit gegen den totalisierenden Berechenbarkeitswahn eines umfassenden Plattformkapitalismus.

3 Singularität


Mit der theologischen Entlarvungsfigur der Unterscheidung von Letztem und Vorletztem scheint man auch bereits die Trumpfkarte gegen die vor allem am Anfang des aktuellen KI-Hypes debattierte Vorstellung einer durch KI induzierten Superintelligenz mit quasi göttlichen Eigenschaften, kurz und werbewirksam von Ray Kurzweil, Nick Bostrom, Elon Musk, Stephen Hawking u. a. »Singularität« getauft,11 in der Hand zu haben. Allein von technischer Seite wurde ja häufig darauf verwiesen, dass KI zwar einzelne – in der Kantischen Unterscheidung – bestenfalls dem Verstand zuzuordnende Fähigkeiten besitze, die die analogen Fähigkeiten des Menschen in den jeweiligen Segmenten bei Weitem übertreffen können. Man denke nicht nur an die Schachcomputer oder die erste KI, die den Weltmeister in Go (ein Spiel, das angeblich noch kompliziertere Strategien kenne als Schach – was ich persönlich nicht beurteilen kann) schlug, sondern an die Weiterentwicklung einer KI-betriebenen Software AlphaGo Zero, die allein aus den Regeln und einem einfachen Belohnungssystem sich in Windeseile auf ein Niveau hochschwingen konnte,12 auf dem kein Mensch mehr standhalten kann. Was hier 2017 geradezu gespenstisch anmutende Realität wurde, mag sich durch technisch gar vorstellbare Intensivierung und Beschleunigung nochmals steigern. Die ernste Frage, die hinter der doch von wilder Science Fiction inspiriert scheinenden phantasmatisch anmutenden Singularitätsthese steht, lautet: Ist ein Übergang von einer schwachen (sprich: auf ein einzelnes Segment beschränkten) hin zu einer starken KI (die das Leben der Menschen umfassend steuert, ja sogar in ihren Freiheits- und Gesellschaftsfigurationen determiniert) denkbar? Die in dem kleinen, aber sich durch die berühmten Teilnehmer große Aufmerksamkeit geschaffen habenden Feld der Vertreter einer solchen starken KI- oder Singularitätsthese debattierten Fragen spielen alle mit göttlichen oder demiurgischen Attributen: Allmacht, Versklavung des Menschen zum Guten, zur Vernichtung.

Alle, die Freude haben an den von Patristik über Scholastik und altprotestantische Orthodoxie bis hin zur Neoscholastik intensiv und extensiv entfalteten Verästelungen der Gotteslehre, finden ein Spielfeld an im obigen Sinne möglichen Analogie-Bildungen in beide Richtungen (analogia entis und analogia fidei) auf der Schwelle von Letztem und Vorletztem.

Der theologische Ethiker in mir ist dankbar für die religionskulturellen und metaphysisch-ontologischen Kategorien und Denk-schemata, um die Deutungsangebote der Singularitätscommunity zu analysieren, zu deuten und auch, wenn schon nicht im Sinne eines exzeptionell verstandenen theologischen Wächteramtes, sondern einer nur spezifischen Deutungskompetenz, zu de­konstruieren. Der Sozialethiker in mir nimmt diese Deutungsoptionen zwar neugierig und interessiert zur Kenntnis, erachtet die Debatten aber für begrenzt fruchtbar. Denn sie setzen zur Um­setzung einer die »Weltherrschaft« an sich reißenden, starken KI ein doch schlichtes Gesellschaftsbild voraus. Bevor dieses finale Stadium erreicht werden könnte, müssten ja so unfassbar viele getrennte politische, technische, zivilgesellschaftliche und auch militärische Kommu nikationen auf den unterschiedlichsten Ebenen zusammengeführt und koordiniert ausgeschaltet werden, dass darüber derzeit zu spekulieren genauso viel Sinn ergibt wie die Debatten, ob wir irgendwann mit durch Genome Editing manipulierten Übermenschen rechnen müssen. Auch das ist nicht ausgeschlossen, aber würde aufgrund der menschlichen Reproduktionszyklen noch lange dauern. Derzeit haben wir schlicht andere drängende Probleme.

All diese – sei es im Bereich KI, sei es beim Genome Editing, sei es in der Kombination aus beidem – sehr ins Phantasmatische hineinreichenden post- und transhumanistischen Debatten – auch das kann theologische Sozialethik im Verbund mit anderen Sozialethiken deuten und entlarven – dienen oft dem Zweck, intellektuelle und zivilgesellschaftliche Ressourcen zu binden und abzulenken von gegenwärtigen Herausforderungen ähnlicher, aber – wie gesagt – dringlicherer Art.13 Nur wenn man diese Rückbindung zu den aktuellen Herausforderungen einschließlich des oftmals beabsichtigten Ablenkungspotentials in den Blick bekommt, gewinnen die jeweiligen Debatten an Aussagekraft.

Auf die obige Grundfrage angewandt mag man dann fragen, wo gegenwärtig KI-getriebene Dynamiken in Gang gesetzt sind, die hochgradig gefährdend sind für Menschenwürde, Freiheit (was immer das im Einzelnen meint), plurale Zivilgesellschaft und Demokratie – für eine modernitätssensible theologische Ethik an sich (es kommt natürlich immer auf die jeweilige Konkretisierung an) intrinsische Güter:14 Ohne an dieser Stelle in die Details einzelner Anwendungskontexte zu gehen, sei doch zumindest darauf verwiesen, dass der von Zuboff so bezeichnete Ansatz des umfassenden »Überwachungskapitalismus«15, der wiederum nach Geert Lovink »im Bann der Plattformen«16 stattfindet, der problematischen Tendenz Vorschub leistet, die gerade nur indizierten Güter modernen Lebens zu gefährden. Im Beispiel formuliert: Noch im­mer zeigt der Roman »The Circle«17 von Dave Eggers aus dem Jahre 2013 (!) das kumulative Risiko an, das m. E. diesseits pseudospe-kulativer Imaginationen einer starken KI noch immer im Raum schwebt und nicht gebannt ist: Man stelle sich in einem bleibend hoch kompetitiven Wettbewerb (und man verinnerliche das Le­bensmotto eines der einflussreichsten Tech-Investoren, des durchaus zwielichtigen Peter Thiel18: »Wettbewerb ist etwas für Verlierer«, anzustreben seien ergo Monopole) vor, dass die sogenannten GAFAM (Google [heute Alphabet]), Apple, Facebook [heute Meta], Amazon und Microsoft) de facto zu einer Firma verschmölzen. Das scheint nach den Politikskandalen gerade um Facebook und Google eher unwahrscheinlich, weil beide so erbittert verfeindeten politischen Lager in den USA derzeit zumindest darin übereinstimmen, die Macht der Tech-Giganten im äußersten Fall durch Zerschlagung zu beschränken. Auch zeigt das chinesische Beispiel, dass zumindest unter der gegenwärtigen Führung die noch vor einem Jahrzehnt zugelassene, sogar staatskapitalistische Monopolbildung unter viel stärkere politische Kontrolle gerät und nicht mehr dem Motto des politikfreien Turbokapitalismus, der das Silicon-Valley-Modell zu überholen schien, folgt. Dennoch ist nicht ausgeschlossen, dass der politische Wind abermals dreht. Dann sind die technischen Voraussetzungen weiterhin gegeben, dass zwei oder drei Giga-Plattformen (möglicherweise verteilt nach geopolitischen Einflusssphären – heißt: in jeder dieser Sphären quasi als Monopolist agierend) entstehen.

Jede dieser Plattformen würde vereinen, was Scott Galloway in seinem zwar im Marketingsprech verfassten, aber in der Sache durchaus aufrüttelnden Buch noch differenziert nach den GAFA als vier »Reiter« – »Reiter« in Anspielung an die apokalyptischen Reiter– bezeichnet hatte.19 Gemäß diesem Werk beansprucht Google göttliche Attribute wie Allwissenheit, Facebook steuert unsere Emotionen, Apple bestimmt unsere Attraktivitätsökonomie, Amazon lenkt unseren Konsum – und (in Ergänzung zu Galloway) Microsoft formatiert unsere Schreib-, Präsentations-, Berechnungs-, aber auch Spielfeatures (man denke an die mit Rekordsumme realisierte Übernahme des Videoherstellers Activision Blizzard). Würden all diese Services durch eine monopolartige Plattform angeboten, wären Dienste für breitestes wie intimstes Wissen, für persönliche Attraktivitätsgenerierungen, für Spielleidenschaft und Konsumfrönen in einer Hand.20 Die Dystopie, die »The Circle« dann präsentiert, besteht darin, dass von einer solchen, so zahlreiche an­thropologische Konstanten erfolgreich integrierenen und ihre An­wendung formatierenden, nudgenden und durch gesteigerte Emotionalisierung an die Plattform bindenden Firma auch das gesellschaftliche Leben zunehmend vollumfänglich bestimmt wird. In »The Circle« werden erst öffentlich administrative Aufgaben und bald sogar die Wahl, die nach dem bedeutenden Politologen Adam Przeworski das Urmoment der Demokratie darstellt,21 dem so effektiv arbeitenden Konzern übergeben: eine Selbstentmachtung demokratischer Institutionen, die nach den Wahlbetrugsvorwürfen bei der US-amerikanischen Präsidentschaftswahl 2020 nicht als völlig absurd erscheint, wie immer sie im Einzelnen umgesetzt werden könnte.

Diese Form der Rehybridisierung, insbesondere in der Moderne einer sich entwickelt habenden funktionalen Ausdifferenzierung gesellschaftlicher Sphären und eines einigermaßen erträglichen Pluralismus, erscheint mir viel gefährlicher für ein auch religionskompatibles22 gesellschaftliches Leben wie auch für das Verständnis von Selbstbewusstsein und Freiheit als Phantasien über Singularität. Besonders problematisch erachte ich – und man kann diese Sensibilität aus der genannten religionskulturellen Unterscheidung oder beispielsweise auch mit Hilfe von Impulsen der kritischen Theorie (Benjamins oder der »Dialektik der Aufklärung«) zu formulieren suchen –, wenn die aus meiner Sicht im Bereich des Möglichen erscheinende entmündigende Entgrenzung katalytisch verstärkt wird durch ein seit Jahrzehnten immer kritisiertes, inzwischen via KI »personalisiertes« und so an die jeweilige Plattform binden sollendes Medienangebot (wie es bspw. bei Amazon und Apple nahezu »gratis« der Fall ist), das den schon engen Freiheitsraum nochmals einzuengen droht. Die so kurz skizzierten Entwicklungen laufen nicht quasideterministisch auf einer slippery slope, sondern unterliegen individuellen und gesellschaftlichen Gestaltungschancen. Diese sind aber unter den beschriebenen Bedingungen oft geringer, als viele es sich wünschen oder propagieren.

4 KI-Systeme als Aktanten


Diese Bedingungen des black-box-Effektes von KI kann man jenseits von Singularitätsphantasien – wie andere Maschinen, hier aber in besonders verdichteter Form – als zwar nicht mit menschlicher Selbstbestimmungsfähigkeit ausgestattete, aber gegenüber Menschen doch wie quasi-autonome Akteure agierend begreifen. Der französische Gesellschaftstheoretiker Bruno Latour hat solche (nicht wirklich im Sinne menschlicher Autonomie zu verstehende) Entitäten, die dennoch einen massiven eigenständig wirkenden Effekt auf Menschen (oder die Welt) haben, »Aktanten« genannt.23 Bei Lernenden Systemen – und diesmal ist der Begriff gegenüber dem von KI nicht austauschbar gedacht, sondern es kommt der systemischen Komplexität eine besondere Bedeutung zu – handelt es sich ja nicht einfach um Mensch-Maschine-Interaktion, sondern in unterschiedlichen horizontalen Netzen und auf vertikalen Ebenen (oft seriell über verschiedene Maschinen verschaltete) um komplexe Interaktionen. Dabei bilden die sichtbar miteinander kommunizierenden Menschen und Maschinen nur Endpunkte einer womöglich langen Kette. Zwischen diese können je nach Design und Funktion in unterschiedlicher Reihung diverse andere Maschinen (als Aktanten) und/oder wiederum Menschen (mal intervenierend, mal kontrollierend, mal nur beobachtend) da­zwischengeschaltet werden. Gravierender Effekt solch hochkomplexer Netzwerke ist dann oft eine Verantwortungsdiffusion, die nicht nur straf- und haftungsrechtlich, sondern auch ethisch (und [bspw. militär-]politisch) hochproblematisch ist. Kein Bereich hat dabei berechtigterweise ein derartiges Maß an besorgter Aufmerksamkeit auf sich gezogen wie die bereits erwähnten LAWS. Wer übernimmt die Verantwortung, wenn einmal programmierte Waffen(-systeme) losgelassen werden, eigenständig Zielobjekte, ehrlicher formuliert: Menschen suchen und vernichten und dabei auch als Kollateralschäden die Tötung von Nicht-Kombattanten in Kauf nehmen? Darf man solche Systeme überhaupt als Kriegswaffen zulassen? Müssten sie nicht international wie B- und C-Waffen geächtet werden? Was aber tun, wenn sich bestimmte geopolitische Mächte dieser Forderung verweigern? Muss man dann nicht die Entwicklung ähnlicher Waffensysteme auf Augenhöhe weitertreiben?

Diesseits dieser ethisch – z. B. durch Adjustierung des EKD-Konzeptes des Gerechten Friedens24 und mögliche Anwendung aller Vorschläge, die dort zu Nuklearwaffen hinsichtlich rechtserhaltender Gewalt, Prävention und Abrüstung gemacht werden, auf den Bereich der LAWS – zu begleitenden hochpolitischen Fragen bleibt die Verantwortungsdiffusion zwischen anwendenden Soldaten, Befehlseinheiten, Politik, Herstellern (einschließlich Programmierern) die zentrale Herausforderung. Wenn hier, und in anderen Bereichen wie z. B. im Bereich medizinischer Assistenzsysteme, nicht entsprechende Zurechnungsregime etabliert werden, drohen die Betroffenen ohne entsprechende juristische, finanzielle oder auch anerkennungspraktische Kompensationen leer auszugehen. Geschieht dies, droht die in zahlreichen Ländern beobachtbare Erosion des Vertrauens in zahlreiche die moderne Gesellschaft tragende Institutionen wie Demokratie oder Wissenschaft weiter um sich zu greifen – Erfahrungen, die Deutschland in der späteren Phase der Corona-Krise mit den sogenannten Querdenkern gemacht hat (Gruppen, die möglicherweise nach Abebben der Pan-demie »weiterziehen« und ihren fundamentalen Protest auf anderen Feldern, bspw. der Bekämpfung der Klimakrise, austragen könnten).

All diese Überlegungen, die von der Dekonstruktion von göttlichen Attributen, die teils per analogia entis, teils per analogia fidei der KI zugerechnet werden, ausgegangen sind, zeigen, wie wichtig und hilfreich, keineswegs aber exzeptionell religionskulturelle Deutungen dieser Spitzentechnik sind. Um dabei nicht in eine sich überschätzende Wächteramtsfunktion, aber auch nicht in underperformende Legitimierungsstrategie oder auch Resignationsattitüde abzugleiten, sollten solche religionskulturellen Deutungen im­mer auch Differenzsensibilität und Ambiguitätstoleranz kritisch auf sich selbst beziehen – eine interdisziplinär agierende theologische Ethik ist ein Übungsraum für solch intellektuelle Tugend.25 Gerade die lutherische Zwei-Reiche-und-Regimenten-Lehre hilft, nicht auf die Pfade abzugleiten, welche die Spannung zwischen Entsprechung und Differenz nicht aushalten wollen oder können.26

III Konkrete theologische Ethikzur Künstlichen Intelligenz


1 Standards der KI-Ethik


Vor dem Hintergrund des so skizzierten Framings kann nun der normative Bereich der konkreten KI-Ethik in evangelischer Perspektive in den Blick genommen werden. Als Leitfrage erweist sich dabei die auch von einer modernitätssensiblen Theologie unter Beachtung der unsere Gesellschaft prägenden, als vornehmer Ausdruck der Menschenwürde verstandenen, rechtlichen und moralischen Konzeptionalisierung von Selbstbestimmung und Freiheit – auf KI-Systeme angewandt und bereits im Kontext der Entgrenzung des Überwachungskapitalismus angesprochen: Bleiben »Wir« (wer immer das im Einzelnen ist) als Einzelne, als Gemeinschaf-ten, als Gesellschaften, ja als Menschheit Machthabende über die Daten, die wir de facto herausgeben, oder werden wir mittel- bis langfristig zu Sklaven unseres KI-Gebrauchs, der unsere Lebensqualität kurz- bis mittelfristig verbessern soll? In dieser Klammer, die man in die sich unmittelbar aus Menschenwürde und dem allgemeinen Persönlichkeitsrecht ergebende rechtliche und ethische F orderung nach »informationeller Selbstbestimmung« kleiden kann, wird man weitere Herausforderungen identifizieren können: Wie wendet man – gerade in Bezug auf extrem verwickelte Datennutzungswege – möglichst effektiv Datenmissbrauch, insbesondere der im Rechtsrahmen der EU als besonders sensibel eingestuften Gesundheitsdaten, ab? Wenn man kaum verhindern kann, dass Vorurteile, sogenannte Biases, in das Training Lernender Systeme einfließen (das lässt sich deshalb nicht verhindern, weil Menschen nicht vorurteilsfrei agieren und somit auch programmieren können), wie können dann solche Stigmatisierungen zu­mindest minimiert, entdeckt und auch geändert werden?27 Vor diesem Hintergrund drängt sich die Anschlussfrage auf, wie nicht nur am Beginn, sondern durch den gesamten Datenverarbeitungsprozess Datenqualität, informierte Einwilligung und hinreichende Transparenz gesichert werden können. Wie kann die so vieles bestimmende überwachungskapitalistische Plattformökonomie freiheitsfunktional und – was immer das im Einzelnen bedeutet – am Gemeinwohl orientiert eingehegt werden?

Bei der Bearbeitung all dieser Fragen muss man nicht am Punkte Null anfangen. In den letzten Jahren haben sich überall auf der Welt, insbesondere in Europa und auch in Deutschland, zahllose Einzelforscher und -forscherinnen, interdisziplinäre Forschungsgruppen und öffentliche Expertengremien damit beschäftigt, welche ethischen Prinzipien leitend sein sollen, um diese Herausforderungen zu gestalten. Inzwischen liegen schon zahlreiche Re­views zu einer fast unübersichtlichen Fülle an Beiträgen vor.28 Ohne hier ins Detail gehen zu können, kann man doch einige sich durchhaltende Standards identifizieren: Herauskristallisiert hat sich neben den grundlegenden Anforderungen an die technische Robustheit der jeweiligen Systeme die Berücksichtigung der aus konkreter, insbesondere biomedizinischer Ethik seit Langem be­kannten Kriterienliste: Autonomierespekt, Nicht-Schädigung, Wohltun und Gerechtigkeit. Darüber hinaus wird als Besonderheit der Ethik datenintensiver KI-Systeme die Forderung nach ihrer Erklärbarkeit ( explicability, explainability, interpretability) markiert.29 Darunter werden die Nachvollziehbarkeit der Schlussfolgerungen, die ein KI-System zieht, oder sogar explizite Erläuterungen, wie man eine nicht-erreichte Prognose doch erreichen könnte, verstanden.30 Vor diesem Hintergrund wird intensiv debattiert, ob man KI-Systeme bereits ex ante in bestimmte, im Detail nach Kriteriologie-Mix und Kontext hoch umstrittene Kritikalitätsstufen wird einteilen können. Zu klären ist auch, ob sich solche gesinnungsethisch sicher gut gemeinten Ansätze auch konsequentia-listisch bewähren oder vielmehr eine falsche Sicherheit vorgaukeln und man nicht stärker, präferentiell oder gar einseitig ex post, auf Verbraucherschutz und Haftungsrecht setzen müsste, um den Einfluss von KI-Systemen und der sie vorhaltenden (in der Regel privatwirtschaftlichen) Organisationen verantwortlich zu begrenzen.31 Angesichts der Dominanz US-amerikanischer Firmen und deren in Europa oft kritisch gesehenen Umgangs mit Privatheit wird politisch, rechtlich und ethisch die Forderung nach Stärkung von Datensouveränität erhoben, wobei diese teils als individuelle, teils als politische begriffen wird.32

Alle diese technischen, ethischen, politischen und rechtlichen Benchmarks sind inzwischen zur Bearbeitung der oben genannten Entwicklungen und Herausforderungen identifiziert und haben – was in einer weltanschaulich pluralen und ausdifferenzierten, sprich: modernen und sich ihrer Komplexität (in Grenzen) bewussten Gesellschaft überraschungsfrei ist – zu anhaltenden, kontroversen Debatten geführt, die immer mit der schwierigen Kopplung zwischen Wissenschaft, Wirtschaft, Recht, Politik und Zivilgesellschaft für die Gestaltung Lernender Systeme konfrontiert sind. Die nun anstehende Aufgabe besteht darin, diese Prinzipien in eine realisierbare Governance-Struktur zu gießen.33

2 Kriterien konkreter KI-Ethik in

fundamentaltheologischer Perspektive


Eine Öffentliche Theologie oder eine konkrete evangelische Ethik in fundamentaltheologischer Perspektive, wie ich den Ansatz zu nennen gewillt bin,34 die die Diskurs- und Argumentationsstandards auf dem Level einer funktional ausdifferenzierten und weltanschaulich pluralen Gesellschaft nicht unterschreiten und für ihre Entscheidungskriterienberatung einsetzen will, wird nicht umhin kommen können, der komplexen Interdependenz von Recht, Gerechtem und in Lebensformen eingebetteten Vorstellungen guten Lebens Rechnung zu tragen: Zwischen Gerechtem/Rechtem und Gutem bestehen jenseits der doppelt asymmetrischen, normativen, motivationalen und deutenden Kopplungen auch explizite Brücken wie z. B. Solidaritätskonzepte und -praktiken, die eigentümlich zwischen Gerechtigkeit und Liebe changieren.

Wenn evangelische Theologie sich daran beteiligen will, modernitätssensibel Spielräume der Semantik der bereits oben erwähnten großen Begriffe zu identifizieren und zur Gestaltung der komplexen Gesellschaft zu nutzen, sind materiale Standards festzu-halten: Zunächst natürlich das Konzept von Freiheit, das bspw. Wolfgang Huber als Kommunikative Freiheit entfaltet hat:35 Kommunikative Freiheit meint s. E., dass das andere nicht schädigende Recht, ein eigenes Leben führen zu wollen, auf andere angewiesen ist und deshalb auch andere in den Blick nehmen muss. Freiheit schließt deshalb moraltheoretisch Gleichheit und Gerechtigkeit, ethisch Solidarität und Beziehungshaftigkeit ein. Evangelische Anthropologie hat zudem eine hohe Sensibilität für die Grenzen der Freiheit nicht nur in der Endlichkeit menschlichen Lebens und Strebens, sondern auch in der notorischen Selbstverfehlung, die ständig zu Konflikten mit sich, mit anderen, mit Mitgeschöpfen – und theologisch fundiert: vor Gott – führt. Zugleich lenkt christliche Theologie immer motivational und deutend auch den Blick darauf, dass alle Endlichkeit, Vulnerabilität, alles Scheitern und Vergehen sich von einer noch größeren Hoffnung getragen weiß, so dass sie über die Differenz- und Ambiguitätssensibilität in öffentlichen Debatten hinaus auch immer Momente des Neu-anfangen-Dürfens, von Versöhnung und Dankbarkeit beinhaltet.

Mit dem so nur skizzierten inhaltlichen Framing kann Öffentliche Theologie sich an der Gestaltung des öffentlichen Vernunftgebrauchs beteiligen, ohne einerseits die eigenen Prägungen und Motivlagen zu missachten und andererseits nicht an den Herausforderungen einer komplexen, weltanschaulich pluralen Gesellschaft in der gesellschaftlichen Formation des freiheitlich-demokratischen Rechts- und Sozialstaates, eingebettet in europäische und globale Kontexte, vorbei zu argumentieren.

Aus dem Arbeitskontext mehrerer Stellungnahmen und Forschungsprojekte36 hat sich für mich die These stabilisiert, dass die Chancen von KI-Systemen nur dann verantwortlich zum Wohle von Individuen, der Gesellschaft einschließlich des Gewinninteresses von Unternehmen gehoben und sachliche wie soziale Risiken minimiert werden können, wenn gemäß dem erwähnten Ansatz bei der Kommunikativen Freiheit die Daten zur Verfügung stellenden Datensubjekte über den gesamten Verarbeitungsprozess als souveräne Co-Manager ihrer Daten ernstgenommen werden ( Datensouveränität), wenn sie befähigt werden, in Solidarität mit an-deren Individuen und zu deren Wohl eigene Daten spenden, aber auch verwalten zu können, und wenn sie dabei den beteiligten Organisationen und Infrastrukturen vertrauen können.37 Datensouveränität, Solidarität und Vertrauen stehen dabei in einem personal-gesellschaftsethischen und organisationsethischen Wechselverhältnis zueinander.38 Im Einzelnen: Datensouveränität meint vor allem, die verfassungsrechtlich installierte, informationelle Selbstbestimmung im gesamten Datenverarbeitungsprozess um­zusetzen und nicht nur, wie im gegenwärtigen Datenschutzregime, sich über Zweckbindung, Datensparsamkeit und vor allem informierte Einwilligung auf den Input des Prozesses zu fokussieren und danach wenig Eingriffs- und Kontrollmöglichkeiten für das Datensubjekt bereitzustellen. Nur eine Output-Orientierung bietet dem sich gegenüber den großen Tech-Firmen, aber auch gegenüber dem medizinischen Versorgungsbetrieb immer in einer inferioren Rolle befindlichen, also vulnerablen Datensubjekt einen Weg, Freiheitsgestaltung unter Realbedingungen von Abhängigkeit und Verletzlichkeit wenigstens ansatzweise zu realisieren. Dazu benötigt es technischen, rechtlichen und administrativen Support. Auf der Grundlage der Dynamisierung der Digitalisierung durch datenintensive Verfahren wie eben Big Data hat der Deutsche Ethikrat schon vor einigen Jahren konkrete Vorschläge in die Richtung vorgelegt, informationelle Selbstbestimmung in eine als informationelle Freiheitsgestaltung zu begreifende Datensouveränität zu transformieren.39 Ich halte dieses Modell dem Ansatz nach noch immer für zielführender als die Vorschläge, die in Richtung einer a-priori-identifizierbaren Kritikalität von Lernenden Systemen zum vermeintlichen Schutz der Freiheit des Datensubjektes gehen.40 Diese erwecken nicht nur den Eindruck, als ob man schon vor Beginn des Datenverarbeitungsprozesses und ohne po­tentielle Rekontextualisierung des Systems in möglicherweise völlig neuen Kontexten das Risikopotential von Lernenden Systemen festlegen könne; nein, durch das Vorspielen falscher Sicherheit wird abgelenkt von ständig zu re-evaluierenden technischen, rechtlichen und administrativen Verfahren zur Sicherung der informationellen Freiheitsgestaltung im ganzen digitalen Datenaustausch. Diese Sicherung ist die große Freiheitsgestaltungsaufgabe der kommenden Jahrzehnte. Mit Christoph Möllers gesprochen: Hier wird die Probe aufs Exempel gemacht, dass individuelle und kollektive Freiheit nur gemeinsam werden realisiert werden können.41

Diese Abhängigkeit der Freiheitsermöglichung jeden Individuums von der Solidarität anderer zeigt sich im Kontext von KI-Sys-temen mindestens doppelt: Zum einen wird man Präzision zur Detektion auch kleiner, aber gefährlicher Mutationen bspw. einem Lernenden System mit hoher Qualität vor allem dann antrainieren können, wenn dazu möglichst breite Datenmengen zur feingranularen Mustererkennung vorhanden sind. Dies gelingt wiederum nur, wenn – um im Beispiel der besonders sensiblen Gesundheitsdaten zu sprechen – möglichst viele Menschen bereit sind, jenseits ihrer eigenen zu schützenden Patientenakte Daten für Forschung (und die findet angesichts der oftmals extrem kostenintensiven Hardwareanschaffung und -pflege auch und vor allem in großen Tech-Unternehmen statt) zur Verfügung zu stellen. Solche intensivst debattierte Datenspende42 stellt nicht nur vor das Problem, wem die Daten gehören und ob das Konzept des Dateneigentums überhaupt Sinn ergibt – das sinnvollere Konzept dürfte eher das der Kontrollhoheit denn das des Eigentums sein43 –, sondern wie Datensubjekte hinreichende Sicherheit erhalten, dass ihre solidarische Bereitschaft, auch anderen etwas Gutes zu tun, nicht wie ein Bumerang auf sie und ihre Privacy-Bedürfnisse zurückschlagen kann, indem bspw. Arbeitgeber oder Versicherungen gesundheits- oder krankheitsrelevante Daten zum Nachteil des Datenspenders nutzen können. Dies zu verhindern, also Solidarität freiheitsförderlich zu implementieren und zu sichern, ist die notwendige Rückseite der Medaille datensouveräner Freiheitsgestaltung – und liegt bspw. ganz auf der Linie des von Wolfgang Hubers Öffent-licher Theologie geprägten Verständnisses Kommunikativer Freiheit.44 Zum anderen können zumindest zwei Verfahren der För-derung dieses individuellen und kollektiven Gutes kommunika-tiver Freiheit dienen. Einerseits ist es nicht nur eine technische, sondern auch Vertrauen gegen Datenmissbrauch generierende und somit ethisch höchst relevante Aufgabe, robuste Systeme zu schaffen und zu pflegen. Ein Systemhack in Finnland, wo 2020 höchstsensible psychiatrische Datensätze gestohlen und im Darknet zu erpresserischen Zwecken feilgeboten wurden, zeigt, was passieren kann, wenn geteilte höchst sensible Daten in falsche Hände geraten.

Andererseits gewinnt die solidarische, gesetzliche Krankenversicherung, die dem Prinzip nach die Refinanzierung gesundheitlicher und krankheitsverhindernder Maßnahmen am medizinisch notwendigen Bedarf und nicht an Beiträgen oder Krankenstatus festmacht, unter den Bedingungen einer datenintensiven, von Lernenden Systemen getriebenen Medizin eine neue Bedeutung. Gilt das grundlegende Bedarfsprinzip, muss eine Person, die zum Wohle anderer Daten spendet, sich keine Sorgen machen, dass ein potentiell identifizierter Krankheitszustand ihr zum Nachteil bei der Krankenversicherung gereicht. Diese Sicherheit wiederum ermöglicht eine recht stabile Vertrauensgrundlage, Daten zu spenden.

Schon beim Zusammenhang von Freiheit und Solidarität, der nach Wolfgang Huber »personalethische, professionsethische und institutionsethische Aspekte«45 verknüpft, hat sich gezeigt, wie fundamental die Vertrauensbildung bei der Aufsetzung, aber auch der organisationellen, administrativen wie gesellschaftspolitischen Einbettung gesundheitsbezogener Lernender Systeme ist. Vertrauensbildung darf in Abhängigkeitsbeziehungen für das Da­tensubjekt nicht bedeuten, entweder – wie gegenwärtig bei der effizienten Nutzung von Websites oder Nutzeraccounts – alle Vorgaben akzeptieren zu müssen, sich durch nutzerunfreundliche Cookie-Banner zu schlagen oder vor einer nahezu nutzlosen Schmalversion eines digitalen Services zu stehen. Vielmehr muss es alternativ robuste und effektive Möglichkeiten der Verwendung eines Lernenden Systems geben. Zur Vertrauensbildung trägt auch ein institutionalisiertes Fehlermanagement bei, das auf organisationeller Ebene dem Umstand Rechnung trägt, dass Vertrauen die Einheit der Differenz von Vertrauen und berechtigtem Misstrauen angesichts mangelnder Kenntnis eines Systems darstellt: ein Misstrauen, das – weil es im Vorletzten verbleibt – völlig legitimerweise operationalisiert werden darf.46 Im Sinne der Governance von Fehlerkultur dürften Anstrengungen, die im internationalen Diskurs breit und intensiv diskutiert werden, nämlich wie Explicability in eine gute Governance-Strategie integriert und implementiert werden kann, zwingend notwendig sein, um Vertrauensbildung in Lernende Systeme zu intensivieren. Wie immer im Einzelnen ein so genanntes »Right to Reasonable Inferences«47 zu interpretieren und umzusetzen ist – sei es als positives, sei es als negatives –, es würde helfen, der Übermacht der Datennutzer gegenüber dem Datensubjekt ein gewisses Gegengewicht entgegenzusetzen. Noch schwerer könnte dieses vertrauensbildende Gegengewicht wiegen, wenn es via Verbraucherschutz, Haftungsrecht und ggf. Beweis-lastumkehr (bspw. nach einer bestimmten Frist bei Nicht-Beachtung einer Beschwerde) rechtlich umgesetzt würde, wobei zur von Ethik inspirierten Governance-Klugheit gehören kann, über An­reizstrukturen solche Vertrauensbildungsprozesse bei den Datennutzern zu initiieren.

Mit der Trias von Datensouveränität, Solidarität und Vertrauensbildung kann das Konzept Öffentlicher Theologie aufgegriffen und auf Anwendungen der KI bezogen werden. Eine exzeptionelle Deutung für die verantwortliche Gestaltung reklamiert die hier vertretene Öffentliche Theologie nicht, sprich: Sowohl innerhalb der theologischen Ethik kann es andersgelagerte Positionen geben wie außerhalb dieses Diskurses Positionen, die mit völlig unterschiedlichen Begründungsmustern zu ähnlichen Ergebnissen kommen. Im Austausch der Argumente sind die jeweiligen Positionen auf ihre interne und externe Kohärenz zu befragen. Solche Querungen sind für (theologische) Ethik an sich kein Manko, sondern Ausdruck dessen, dass im Sinne von Jer 29,7 eben immer auch 1Thess 5,21 zum Tragen kommen muss.

Abstract


With Artificial Intelligence (AI), the world is entering a new age. Like with other technical (media) revolutions, it also changes the self-image of human beings. Insofar as AI is attributed properties that in theology are considered to fall into the sphere of the Divine, it is worthwhile to take a decidedly theological look at deconstruct-ing the given claims of AI. In doing so, theology must ensure not to overstretch its critical potential in the sense of an overly self-conscious guardianship’s apologetics (»Wächteramt«). Against the background of the theological deconstruction work, making sense to a limited extent, theological ethics can identify the undoubtedly existing opportunities of AI and make a limited as well as con structive contribution to a responsible shaping of this cutting-edge technology, by not exceptionally but specifically introducing an understanding of communicative freedom into the public debates and pointing to its implementation conditions in the AI age, namely: data sovereignty, solidarity and trustworthiness of the given infrastructures.

Fussnoten:

1) Dieser Beitrag wurde (teilweise) ermöglicht durch die Deutsche Forschungsgemeinschaft (DFG) unter dem Förderkennzeichen SFB 1483– Projekt-Nr. 442419336.
2) Henry A. Kissinger/Eric Schmidt/Daniel Huttenlocher, The Age of AI: And Our Human Future, London 2022. Die technischen Details von KI können hier nicht entfaltet werden; zur Übersicht seien empfohlen a) sehr elementar: Ulrich Eberl, Künstliche Intelligenz: 33 Fragen → Antworten, München 2020; b) komplexer: Manuela Lenzen, Künstliche Intelligenz: Fakten. Chancen. Risiken, München 2020; bis hin c) zu der für ein Einführungswerk recht detaillierten Darstellung bei Gerhard Paaß/Dirk Hecker, Künstliche Intelligenz: Was steckt hinter der Technologie der Zukunft?, Wiesbaden 2020; um den Anmerkungsapparat schlank zu halten, werden illustrierende Anspielungen auf leicht auffindbare theologie- oder geistesgeschichtliche Klassiker nicht extra ausgewiesen.
3) https://www.plattform-lernende-systeme.de/selbstverstaendnis.html; letzter Aufruf am 15.02.2022.
4) Vgl. Erwin Böttinger/Jasper zu Putlitz (Hgg.), Die Zukunft der Medizin: Disruptive Innovationen revolutionieren Medizin und Gesundheit, Berlin 2019.
5) Dabei sollten sich Theologinnen und Theologen nicht der ontologischen Illusion hingeben, als ob das Ursache-Wirkungsmodell so präzise sei, wie die bei vielen vielleicht noch verinnerlichte Vier-Ursachen-Lehre von Thomas von Aquin vermuten lassen könnte; vgl. Christopher Hitchcock, Art. ›Causal Models‹, in: Edward N. Zalta (Hg.), The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), URL: https://plato.stanford.edu/archives/sum2020/entries/causal-models; letzter Aufruf: 15.02.2022.
6) Bekanntlich hat die (höhere) Zahl der Störche (in ländlichen Regionen) nichts mit der (höheren) Zahl von Kindern in diesen Regionen und erst recht nichts mit kindlichen Reproduktionsimaginationen zu tun, um das wohl bekannteste Beispiel der Verwechslung von Kausalität und Korrelation herbeizuzitieren.
7) Vgl. https://gmgc.embl.de; letzter Aufruf: 15.02.2022.
8) Deshalb fordert der Technikphilosoph Armin Grunwald zu Recht immer ein vision assessment, in dem geprüft wird, ob aus der jetzigen Perspektive eine Zukunftsvision einigermaßen realistisch erscheint oder eben doch nur – schon technisch unmögliche – Hirngespinste verbreitet und welche Interessen dahinter stehen mögen; vgl. bspw. Armin Grunwald, What Does the Debate on (Post)Human Futures Tell Us? Methodology of Hermeneutical Analysis and Vision Assessment, in: J. Benjamin Hurlbut/Hava Tirosh-Samuelson (Hgg.), Perfecting Human Futures: Transhuman Visions and Technological Imaginations, Wiesbaden 2016, 35–50.
9) Vgl. zum Zusammenhang dieser drei Kontexte und weiterer Literatur Peter Dabrock, Antwortender Glaube und Vernunft. Zum Ansatz evangelischer Fundamentaltheologie (FSys 5), Stuttgart u. a. 2000, 157 f.
10) Vgl. Peter Dabrock, Geheimnis, Freiheit, Verzeihen: Warum Big Data an die Lehre von der Vorsehung erinnert, in: Zeitzeichen 15 (11/2014), 20–23.
11) Vgl. beispielhaft Ray Kurzweil, The Singularity Is Near, New York 2005; für 2023 kündigt ders. an: The Singularity Is Nearer.
12) https://www.welt.de/wissenschaft/article169782047/Diese-Super-Software-bringt-sich-uebermenschliche-Leistungen-bei.html; zuletzt abgerufen 15.02.2022.
13) Vgl. meine kritischen Aussagen zu solch einem ernsthaften Vision Assessment (vgl. Anm. 7) nicht standhaltenden theologischen und kirchlichen Aussagen am Beispiel des Enhancements: Peter Dabrock, Contextualising enhance- ment: Religious and ethical aspects from a European Perspective, in: Richard Fischer/Theo de Boer (Hgg.), Human Enhancement: Moral, Religious and Ethical Aspects from a European Perspective, Brüssel 2013, 156–170.
14) Hier kann nur vorausgesetzt werden, dass der christliche Glaube evangelischer Provenienz zu Demokratie und Zivilgesellschaft ein intrinsisch konstruktiv-kritisches Verhältnis besitzt; vgl. dazu aktuell Evangelische Kirche in Deutschland (Hg.), Konsens und Konflikt: Politik braucht Auseinandersetzung. Zehn Impulse der Kammer für Öffentliche Verantwortung der EKD zu aktuellen Herausforderungen der Demokratie in Deutschland, Hannover 2017; dies. (Hg.), Vielfalt und Gemeinsinn: Der Beitrag der evangelischen Kirche zu Freiheit und gesellschaftlichem Zusammenhalt. Ein Grundlagentext der Kammer für Öffentliche Verantwortung der EKD, Leipzig 2021.
15) Vgl. Shoshana Zuboff, Das Zeitalter des Überwachungskapitalismus, Frankfurt/New York 2018.
16) Vgl. Geert Lovink, Im Bann der Plattformen: Die nächste Runde der Netzkritik, Bielefeld 2017.
17) Vgl. Dave Eggers, The Circle: A novel, New York 2013.
18) Vgl. Max Chafkin, The Contrarian: Peter Thiel and Silicon Valley’s Pursuit of Power, New York 2021.
19) Scott Galloway, The Four: The Hidden DNA of Amazon, Apple, Facebook, and Google, New York 2017.
20) Anders als in einer Anthropologie, die evaluativ und normativ die Menschenwürde des Ebenbildes Gottes an dessen geglaubter Geheimnishaftigkeit partizipieren lässt, entlarvt das Motto des Plattformmonopolisten »The Circle« den Totalzugriff auf das menschliche Dasein: »Secrets are lies, sharing is caring, privacy is theft«, wobei man unter bestimmten Bedingungen, die an anderer Stelle debattiert werden, dem »sharing is caring« – im Sinne einer solidarisch basierten, damit aber auch die Grundrechte des Individuums auf eine Gesundheitsversorgung wahrenden Präzisionsmedizin, welche wiederum die Teilnahme an gesellschaftlichem Leben ermöglicht – durchaus etwas abgewinnen kann; vgl. Patrik Hummel/Matthias Braun/Peter Dabrock, Data Donations as Exercises of Sovereignty, in: Jenny Krutzinna/Luciano Floridi (Hgg.), The Ethics of Medical Data Donation, Cham 2019, 23–54.
21) Vgl. Adam Przeworski, Krisen der Demokratie, Berlin 2021, 15.
22) Darunter sei hier die in sich plurale Lebensform verstanden, die um die Differenz von Letztem und Vorletztem »weiß« und sie bezeugt – und in christ-licher Perspektive ergänzt: bezeugend glaubt an den bleibend schöpferischen, heilsamen, immer wieder inspirierenden und am Ende alles versöhnend voll-endenden Gott.
23) Vgl. bspw. Bruno Latour, Eine neue Soziologie für eine neue Gesellschaft: Einführung in die Akteur-Netzwerk-Theorie, Frankfurt a. M. 2007, 76–108.
24) Vgl. Evangelische Kirche in Deutschland (Hg.), Aus Gottes Frieden leben– für gerechten Frieden sorgen: Eine Denkschrift des Rates der Evangelischen Kirche in Deutschland, Gütersloh 2007.
25) Weitere Framing-Möglichkeiten lassen sich quasi in allen Topoi der Dogmatik entdecken.
26) Vgl. in aller Kürze vorbildlich Hans-Richard Reuter, Grundlagen und Methoden der Ethik, in: Wolfgang Huber/Torsten Meireis/ders. (Hgg.), Handbuch der Evangelischen Ethik, München 2015, 49–53; Reiner Anselm, Politische Ethik, in: a. a. O., 231–245.
27) So haben diverse Untersuchungen gezeigt, wie bei Prognosetools, die in den Bereichen der Rechtspflege, der Medizin oder des Personalmanagements eingesetzt wurden, ethnische, geschlechts- oder klassenbezogene Vorurteile in die Entscheidungsfindung eingeflossen sind; zum Überblick vgl. Marc Coeckelbergh, AI Ethics. Cambridge (Mass.)/London 2020; Vincent Müller, Art. ›Ethics of Artificial Intelligence and Robotics‹, in: Edward N. Zalta (Hg.), The Stanford En­cyclopedia of Philosophy (Summer 2020 Edition), URL: https://plato.stanford. edu/archives/sum2021/entries/ethics-ai; letzter Aufruf 15.02.2022.
28) Aus der Fülle der Überblicksarbeiten seien herausgehoben Anna Jobin/ Marcello Ienca/Effy Vayena, The global landscape of AI ethics guidelines, in: Nature Machine Intelligence 1 (2019), 389–399; Jessica Morley/Luciano Floridi/ Libby Kinsey/Anat Elhalal, From What to How: An Initial Review of Publicly Available AI Ethics Tools, Methods and Research to Translate Principles into Practices, in: Science and Engineering Ethics 26 (2020), 2141–2168; Coeckelbergh, AI Ethics (s. Anm. 27); Müller, Ethics of Artificial Intelligence (s. Anm. 27).
29) Vgl. Morley/Floridi/Kinsey/Elhalal, Initial Review (s. Anm. 28).
30) Vgl. Sandra Wachter/Brent Mittelstadt, A Right to Reasonable Inferences: Re-thinking Data Protection Law in the Age of Big Data and AI, in: Columbia Business Law Review 2 (2019), 494–620.
31) Vgl. Jessica Heesen/Jörn Müller-Quade/Stefan Wrobel u. a., Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten: Ein notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit (Whitepaper der Plattform Lernende Systeme), Berlin 2021, besonders 28 f.
32) Vgl. Patrik Hummel/Matthias Braun/Max Tretter/Peter Dabrock, Data Sovereignty: A Review, in: Big Data & Society 8 (2021), 1–17.
33) Morley/Floridi/Kinsey/Elhalal, Initial Review (s. Anm. 28).
34) Vgl. Peter Dabrock, Konkrete Ethik in fundamentaltheologischer Perspektive, in: Michael Roth/Marcus Held (Hgg.), Was ist eine Theologische Ethik? Grundbestimmungen und Grundvorstellungen, Berlin/New York 2018, 19–40.
35) Vgl. Wolfgang Huber, Von der Freiheit: Perspektiven für eine solidarische Welt, München 2012.
36) Viele der in diesem Beitrag erwähnten Artikel sind im Teamwork inter- und transdisziplinärer Forschungsprojekte entstanden und somit Ausdruck dessen, wie sich Öffentliche Theologie oder konkrete Ethik in evangelisch-theologischer Perspektive in die gesellschaftliche Beobachtung und verantwortliche Gestaltung von Technikentwicklungen einbringen kann und durch diese Zusammenarbeit selbst bereichert wird.
37) Vgl. Patrik Hummel/Matthias Braun/Steffen Augsberg/Ulrich v. Ulmenstein/Peter Dabrock, Datensouveränität: Governance-Ansätze für den Gesundheitsbereich, Wiesbaden 2021.
38) Wie sehr das Konzept der Solidarität, verstanden als Gabe, eine Entsprechung in theologischer Sozialethik findet, die sich an biblisch-theologische Traditionen gebunden weiß, ohne deshalb ihre Modernitätssensibilität zu verlieren, habe ich versucht zu entfalten in: Peter Dabrock, Befähigungsgerechtigkeit: Ein Grundkonzept konkreter Ethik in fundamentaltheologischer Perspektive. Unter Mitarbeit von R. Denkhaus, Gütersloh 2012, 287–338.
39) Deutscher Ethikrat, Stellungnahme »Big Data und Gesundheit. Datensouveränität als informationelle Freiheitsgestaltung«, Berlin 2017.
40) DEK (Datenethikkommission), Gutachten der Datenethikkommission der Bundesregierung, Berlin 2019.
41) Christoph Möllers, Freiheitsgrade: Elemente einer liberalen politischen Mechanik, Berlin 2020.
42) Vgl. Hummel/Braun/Dabrock, Data Donations (s. Anm. 20).
43) Vgl. Patrik Hummel/Matthias Braun/Peter Dabrock, Own Data? Ethical Reflections on Data Ownership, in: Philosophy & Technology 34 (2021), 545–572.
44) Vgl. Wolfgang Huber, Freiheit (s. Anm. 35).
45) Wolfgang Huber, Ethik: Die Grundfragen unseres Lebens. Von der Geburt bis zum Tod, München 2013, 22.
46) Matthias Braun/Hannah Bleher/Patrik Hummel, A Leap of Faith: Is There a Formula for »Trustworthy« AI?, in: Hastings Center Report 51 (2021), 17–22.
47) Vgl. Wachter/Mittelstadt, Right to Reasonable Inferences (s. Anm. 30).