Vorwort

Es war ein grosses Staunen, als Ende 2022 ChatGPT vorgestellt wurde. Ein KI-Sprachmodell, das automatisch Antworten und Texte generiert, auf einem bisher noch nicht erreichten Niveau.

Die nachfolgende Ausarbeitung habe ich bereits 2020 geschrieben. Sie ist eine Weiterführung von meiner theologischen Analyse der Künstlichen Intelligenz, welche man hier findet (Chancen und Grenzen: Eine theologische Betrachtung der Künstlichen-Intelligenz im Blick auf die Ebenbildlichkeit des Menschen).

Durch die neusten Entwicklungen wurde sie leicht aktualisiert, um auch auf die Thematik von ChatGPT einzugehen. An meinem ursprünglichen Fazit hat sich jedoch nichts verändert. Es lohnt sich, die Fussnoten jeweils durchzulesen.

Das Ganze kann ganz unten auch als PDF heruntergeladen werden.

Inhalt

1 Einleitung und Methode. 3

2 Roboter und KI 4

2.1 Was sind Roboter und KI 4

2.2 Verschiedene Stufen der Intelligenz (Autonomie) 4

2.2.1 Stufe 0: Keine Autonomie. 5

2.2.2 Stufe 1: Assistenz bei ausgewählten Funktionen. 5

2.2.3 Stufe 2: Zeitweise Autonomie. 5

2.2.4 Stufe 3: abgegrenzte Autonomie. 6

2.2.5 Stufe 4: Das System arbeitet autonom und adaptiv. 6

2.2.6 Stufe 5: Vollständiger autonomer Betrieb. 6

2.3 Grenzen. 7

3 Die Gemeinde. 8

4 Zwischenfazit 9

5 Einsatz in der Gemeinde. 10

5.1 Vorüberlegungen. 10

5.2 Segensroboter 10

5.2.1 Dogmatische Hinführung. 10

5.2.2 Einsatz und Möglichkeiten. 11

5.2.3 Ethische Reflexion. 11

5.3 Predigende Roboter 12

5.3.1 Dogmatische Hinführung. 13

5.3.2 Intention. 13

5.3.3 Ethische Reflexion. 14

5.4 Seelsorge und Therapie. 15

5.4.1 Dogmatische Hinführung. 15

5.4.2 Ethische Reflexion. 16

5.5 Weitere ethische Problemfelder 17

6 Fazit 19

7 Literaturverzeichnis 20

8 Zusätzliche Literatur 22

2 Einleitung und Methode

KI und Robotik ist in der Ethik ein immer wichtigeres Thema. So sind etwa autonom fahrende Autos keine Utopie mehr und damit das Trolley Problem[1], von einem Gedankenkonstrukt zur Realität geworden. Roboter und KI wird auch vor der Gemeinde nicht halt machen, bereits gibt es einen Segensroboter[2] oder Buddhistische Priesterroboter[3] oder ganz neu von KI Generierte Predigten (ChatGPT)[4] weiter werden Roboter, mit mehr oder weniger intelligenten Eigenschaften, in der Psychotherapie erforscht. Bereits 1966 (ELIZA[5]) gab es dazu Experimente, die selbst für den Entwickler überraschend waren. Wie kann und soll die christliche Kirche mit dieser Entwicklung umgehen? Dieser Frage soll in dieser Ausarbeitung nachgegangen werden. Dabei stellt sich nicht zentral die Frage nach starker und schwacher Intelligenz[6], denn wie die Experimente mit ELIZA zeigten, ist auch ein „dummer“ Roboter fähig, im zwischenmenschlichen Umgang Erfolge zu erzielen. Vielmehr soll eine grundlegende Fragestellung nach dem Einsatz in vorwiegend zwischenmenschlich geprägten Gemeinde-Ressorts angegangen werden. Dazu wird zuerst der Frage nachgegangen, was ein Roboter und eine KI ist und wie sich dieses kategorisieren lassen. Danach wird die Möglichkeit eines Einsatzes in den spezifischen Ressorts der Gemeinde dogmatisch angeschaut, um danach eine ethische Reflexion zu erstellen. Darin soll es vor allem um die grundlegend ethischen Fragen eines Einsatzes gehen. Zum Schluss sollen aus den gewonnenen Erkenntnissen weitere Schlussfolgerungen gezogen werden.

3 Roboter und KI

Nachfolgend soll kurz erarbeitet werden, was einen Roboter und eine KI überhaupt ausmacht.

3.1 Was sind Roboter und KI

„Roboter sind Automaten, aber nicht alle Automaten sind Roboter.“[7] Dies zeigt bereits eine grosse Schwierigkeit in der Definition von Robotern und KI auf. Roboter gibt es in verschiedensten Ausführungen, von der Industrie bis zum Staubsauger und Pflegeroboter reicht ein weites Spektrum. Dasselbe gilt für KI. Eine KI kann in einem Roboter vorhanden sein (z. B. Schachroboter) hauptsächlich ist sie aber in einer für uns physisch nicht fassbaren Dimension eines Netzwerkes oder Serversystems, wie z. B. bei Siri oder Gesichtserkennungssystemen, vorhanden. In diesen Fällen ist das KI-System für uns physisch nicht mehr fassbar, im Gegensatz zu einem Roboter, der direkt physisch mit seiner Umwelt interagiert. Dabei gibt es vier zentrale Merkmale für einen Roboter.

  1. Es ist ein bewegungsfähiger Körper
  2. Er kann automatisch Umgebungsinformationen verarbeiten / generieren und darauf reagieren
  3. Sein Umweltkontakt hat einen Effekt auf die räumliche Umwelt
  4. Er besitzt ein Computerprogramm (Algorithmus), muss aber nicht lern- oder speicherfähig sein.[8]

Daraus ergibt sich, dass ein Handy kein Roboter ist (die Punkte 1 und 3 fehlen) genau so wenig wie ein Gesichtserkennungsprogramm (1 und 3 fehlen ebenfalls).

Nachfolgend wird deshalb für eine interagierende Maschine der Begriff „Roboter“ verwendet, „System“ wird verwendet, wenn sowohl KI-Systeme als auch Roboter gemeint sind.

3.2 Verschiedene Stufen der Intelligenz (Autonomie)

Bei der KI gibt es sechs verschiedene Stufen, welche den Autonomiegrad definieren, beginnend mit 0 als schwächste Stufe. 0 bezeichnet die Stufe, in der der Mensch die volle Kontrolle hat, 5 jene, in welcher die KI sich selbst kontrolliert, der Mensch also für den Betrieb nicht mehr nötig ist. Dies entspräche einer vollständigen Autonomie. Die Abstufungen dazwischen erfordern jeweils eine höhere Intelligenz, um die nächste Stufe erreichen zu können.[9]

Nachfolgend, werden diese Stufen kurz umrissen und ein Beispiel aktueller Entwicklung dazu erwähnt.

3.2.1 Stufe 0: Keine Autonomie[10]

Das System agiert nur nach vorgegebenen, wenn-dann-Mustern. Es können zwar automatische Sicherungssysteme implementiert sein, jedoch liegt die Verantwortung und die Kontrolle voll beim Menschen. Die Maschine macht nur was man ihr sagt.

Hier ist ELIZA angesiedelt, da dieses Programm nur nach vorgegebenen Schemen antwortet, die Kontrolle was es ausgibt, liegt also voll beim Menschen, es ist keine Intelligenz vorhanden.

3.2.2 Stufe 1: Assistenz bei ausgewählten Funktionen[11]

Das System besitzt bereits eine bestimmte Fähigkeit, komplexe Eingaben zu interpretieren. Dies kann z. B. eine Sprachsteuerung oder Bilderkennung beinhalten. Es kann dem Benutzer Hilfestellungen geben und anhand der gesammelten Daten Optimierungen und Vorhersagen bereitstellen. So kann es auch Situationserkennung machen und koordinierend und vermittelnd eingreifen. Der Mensch besitzt immer die volle Kontrolle und Verantwortung über den gesamten Prozess.

Hier könnte man Assistenzfunktionen wie ein Navigationsgerät, welches eine echtzeit-Routenberechnung macht, ansiedeln. Der Mensch entscheidet selbst, ob er die vorgeschlagene Route auch fahren will.

3.2.3 Stufe 2: Zeitweise Autonomie[12]

Das System dient dazu, Aufgaben zu automatisieren oder an Automatisierungssysteme zu delegieren. Das System übernimmt in festen Systemgrenzen begrenzt die Kontrolle. Der Mensch kann jederzeit eingreifen und behält somit die Kontrolle und Verantwortung.

Hier ist z. B. Siri anzusiedeln, welches automatische Terminanfragen stellen kann oder Anrufe anhand vom Verhalten des Benutzers ablehnt.

3.2.4 Stufe 3: abgegrenzte Autonomie[13]

Das System agiert in den vom Bediener definierten Systemgrenzen. Das System kann innerhalb dieser Grenzen selbstständig agieren und Optimierungen vornehmen. Es handelt sich um eine teil-Autonomie. Der Mensch greift nur bei Fehlern und Alarmierungen ein.

Hier ist z. B. ein Autopilot anzusiedeln, der auf der Autobahn selbstständig fährt und Stau erkennt, bei Ausfahrten, Problemen oder unvorhergesehenen Vorkommnissen aber dem Fahrer die Kontrolle übergibt.

3.2.5 Stufe 4: Das System arbeitet autonom und adaptiv[14]

Das System agiert als adaptives, autonomes System in bekannten Systemgrenzen. Dabei kann es sich selbst auch über Ziele optimieren. Die Selbstoptimierung passiert dabei ohne Eingreifen des Menschen. Bei Problemen fährt das System selbstständig in sichere Zustände, ohne dass ein Eingriff erforderlich ist. Das System nimmt seine Umgebung vollständig wahr und reagiert darauf autonom. Der Mensch muss nicht mehr anwesend sein, kann es aber überwachen und im Notfall eingreifen.

Hier ist z. B. ein Lieferroboter, der seinen Weg zum Ziel selbst sucht und die Ware selbst ausliefert, zu nennen.[15]

3.2.6 Stufe 5: Vollständiger autonomer Betrieb[16]

In dieser Stufe arbeitet das System vollkommen autonom in seinen abgesteckten Grenzen, der Mensch ist nicht mehr anwesend und es ist auch keine Interaktion für den Betrieb notwendig. Das System kann mit anderen autonomen Systemen kooperieren. Auch in einem Notfall agiert das System selbstständig.

Hier ist z. B. eine autonome Drohne zu nennen, die anhand eigens generierter und ausgewerteter Metadaten ihr Ziel anvisiert und zerstört und dabei Informationen mit anderen autonomen Systemen, wie Überwachungsnetzwerken, austauscht. Solche Systeme sind momentan noch Zukunftsmusik.

3.3 Grenzen

Diese Autonomiestufen gehen von einer schwachen KI aus. Dies bedeutet, dass die KI in dem vom Menschen definierten Systemgrenzen und Zieldefinitionen agiert. Auch eine Stufe 5-KI besitzt nur eine simulierte Intelligenz. Starke KIs hingegen, wären tatsächlich intelligent, sie würde selbständig denken und somit auch eine eigene Persönlichkeit und einen eigenen Willen entwickeln.[17] Gerade für die Frage nach der Verantwortung ist eine Unterscheidung von starken und schwachen KIs relevant.[18] In der Praxis gibt es allerdings noch kein solches System.[19] Dem schwachen KI gibt immer der Mensch die Systemgrenzen vor, die KI kann nur innerhalb dieser Grenzen agieren, der Mensch definiert, welchen Grad an Autonomie das System erreichen kann.[20] Somit ist die vom Menschen gesetzte Systemgrenze massgebend für den Einsatz der KI.[21] Weitere Grenzen sind auch physikalische Gesetze, Stromversorgung, Umwelt, Programmierung und Qualität der Metadaten.[22] Weiter benötigt ein System einen Initiator, denn ein System startet sich nicht selbstständig,[23] es braucht eine externe aktivierende Instanz. Eine KI ist auf Daten bzw. Metadaten angewiesen, diese Daten sind aber nie fehlerlos und somit ist auch ein System nie fehlerlos zu betreiben. Die KI steht und fällt mit der Zuverlässigkeit der Metadaten, die sie verarbeitet.[24] Zum Schluss ist gerade bei den Grenzen noch die Verfügbarkeit des Systems zu nennen. Ein System kann, im Gegensatz zum Menschen, nicht unverfügbar sein, somit aber auch nicht verantwortlich oder erlebend[25] werden.[26]

4 Die Gemeinde

Die blosse Definition von Roboter und KI reicht für diese Arbeit nicht aus, es bedarf auch einer Definition der Gemeinde.

Was ist eine Gemeinde genau und was unterscheidet sie von z. B. einem Industriebetrieb? Dies soll hier angeschaut werden.

Die Gemeinde ist Leib Christi (Röm 12,5;1Kor 12,27) und die Gemeindeglieder geliebte und angenommene Kinder Gottes (1Joh 3,1). Dabei ist jeder so viel wert, dass Jesus Christus sein Leben für ihn gelassen hat. Gott hat dabei nicht den einfachen und kostengünstigsten Weg gewählt. Vielmehr hat er bewusst die menschliche Komponente und Schwachheit für seine Gemeinde eingesetzt. Gott hätte die Mission (Mt 28,18ff; Mk 16,15f; Apg 1,8) aber auch die Gemeinde unabhängig von menschlicher Schwachheit (1Kor 15,43; Gal 4,13) und Fehlerhaftigkeit einsetzen können, doch er beruft den Menschen aus Liebe zu ihm und lässt ihn nicht als beziehungsloses Wesen zurück. Damit ist die Gemeinde von Grund auf nicht auf Optimierung und Performance ausgelegt, sondern auf die Beziehung zu Gott und den Menschen. Dies zeigt sich auch in den verschiedenen Charismen wie z. B.: Lehren, Leitung usw. (1Kor 12) welche alle auf ein Zusammenspiel ausgelegt sind. Indem Christus selbst das Haupt der Gemeinde ist, identifiziert sich Gott selbst mit der Gemeinde (Eph 4,15) und damit mit den einzelnen Gliedern. Es geht also nicht um Prozessoptimierung (dann hätte Gott den Menschen ausklammern müssen), sondern darum, sich immer mehr auf Christus auszurichten und mit ihm in Beziehung zu stehen, indem das Doppelgebot der Liebe immer mehr erfüllt wird. In der Industrie fällt dies nicht ins Gewicht, da diese kommerziell ausgerichtet ist. Für die Gemeinde ist es aber die zentrale Komponente. Diese relationale Komponente muss in der ethischen Überlegung berücksichtigt werden, da dies einen grossen Einfluss auf die ethische Legitimation von Systemen hat.

5 Zwischenfazit

Selbst ein System auf Stufe 0 kann einiges erreichen, wie das Experiment mit ELIZA gezeigt hat. Für die Ethik bedeutet dies vor allem, zu sehen, wo die Grenzen der Systeme liegen und was die Intentionen[27] dahinter sind. Es spielt deshalb keine Rolle auf welcher Stufe das System agiert, viel wichtiger ist, was dieses System macht, welche Intentionen dahinterstehen und welchen Einfluss es auf die relationale Komponente hat. Die Frage ist also nicht, ist die KI besser als der Mensch, sondern führt die KI zur Stärkung der relationalen Komponente zwischen Gott und Menschen. So stellt sich in diesem Spezifischem Kontext, nicht primär die Frage nach Starker und Schwacher KI, sondern nach der Funktion und Aufgabe.

6 Einsatz in der Gemeinde

Nachfolgend soll auf die aktuelle Entwicklung und auf mögliche Einsatzbereiche in der Gemeinde eingegangen werden. Dabei fliessen die oben gewonnenen Erkenntnisse in die ethischen Reflexionen ein.

6.1 Vorüberlegungen

Die Gemeinde besteht aus verschiedenen Ämtern und Aufgaben, diese können von Gemeinde zu Gemeinde jeweils anders aussehen. So kann eine Kirche ein eigenes Lobpreis- und Technikteam haben, wohingegen eine andere Gemeinde einen Bücherverkauf pflegt. Ich möchte mich hier auf die Kernelemente beschränken, welche in jeder Gemeinde vertreten sind, die Predigt, den Segen und die Seelsorge.[28] Dabei müssen die Bereiche zuerst dogmatisch definiert werden, danach sollen ethische Schlussfolgerungen gezogen werden.

6.2 Segensroboter

6.2.1 Dogmatische Hinführung

Eine genaue Begründung von Segen ist nicht Ziel dieser Arbeit, es sollen aber die wichtigsten Punkte hervorgehoben werden.

„Unter Segen […] versteht die Bibel die Zuwendung von göttlichem Heilsgut an Menschen“[29], dabei ist hier vor allem auf die Weitergabe des Segens einzugehen. Segen kann durch Gott selbst oder durch den von Gott gesegneten Menschen weitergegeben werden. Dabei ist eine Unterscheidung zwischen persönlichem und kollektivem Segen zu sehen. Gott segnet so z. B. den siebten Tag (Gen 2,3), dieser Segen ist unabhängig für alle Menschen gültig. Hingegen ist gerade beim Segen Abrahams zu sehen, dass dieser nicht beliebig weitergegeben werden kann. So bleibt Isaak, nachdem er Jakob gesegnet hat, kein Segen mehr übrig, um auch Esau zu segnen (Gen 27, 30ff). Ein Segen ist also auch über Generationen transferierbar (z. B. Abrahams Segen) erfordert aber, dass der Segen an einer Stelle von Gott „ausgegossen“ wurde. Ein Segen kann also nur von jemandem weitergegeben werden, der selbst Segensträger ist. Für die Gemeinde bedeutet dies, dass eine Segnung nur möglich ist, wenn der Segnende selbst den Segen besitzt, ansonsten ist er nur als ein gut gemeinter Wunsch zu betrachten. Segen in der Gemeinde erfordert also ein Medium, das selbst Segensinhaber ist. Dies ist zu beachten, wenn man die Möglichkeit von Segensrobotern anschaut.

6.2.2 Einsatz und Möglichkeiten

Es hat hohe Wellen geschlagen, als die EKD ihren „Segensroboter“ BlessU-2 als Kommunikationsexperiment vorgestellt hat. Leider hat das Experiment mehr für Hohn und Spott als für eine Diskussion über den Segen, gesorgt.[30] Nichtsdestotrotz hat der Segensroboter eine Entwicklung aufgezeigt, die auch vor der Kirche nicht Halt macht.

BlessU-2 ist dabei nicht wirklich ein Roboter, sondern gleicht eher einem Getränkeautomaten. Man drückt den Knopf, wählt die Sprache aus und erhält dann einen zufällig ausgewählten Segen per Sprachausgabe und auf Wunsch auch per Ausdruck. Es ist also eher ein Segen2Go Automat als ein wirklich intelligentes System und damit auf Stufe 0 einzuordnen.

Dies bedeutet nicht, dass es bei dieser Entwicklung bleiben muss. Der „Roboter“ könnte mit wenig Aufwand auf ein Stufe 1 System erweitert werden, indem er z. B. über Sprach- und Gesichtserkennung den aktuellen Gemütszustand der Person erkennt und so intelligentere Segenssprüche ausgeben könnte. Weiter wäre auch eine Roboterumarmung möglich, die selbstständig, anhand von Metadaten, ausgeführt wird. Ein direkter Einsatz bei einem Gottesdienst wäre dann auch nicht unvorstellbar. Indem der Roboter während des Gottesdienstes die Predigt nach Schemen einordnet und die Gefühlslage der Zuhörer analysiert, könnte er einen auf die Situation zugeschnittenen Segensspruch anbieten. Dies könnte dann sogar zutreffender sein, als wenn der Pastor selbst den Segen auswählen würde. Dass der Roboter dann den Segen auch selbstständig spricht, ist nur logische Konsequenz davon.

6.2.3 Ethische Reflexion

Kann ein Roboter segnen? Das ist die Frage, welche die EKD mit dem Experiment aufwerfen wollte. Diese Anstiftung zum Nachdenken über den Glauben ist sicherlich positiv zu bewerten. Jedoch eröffnet es auch die grosse Frage nach der Stellung von KI gerade im Glaubensbereich.

Ohly bemerkt dazu treffend, dass der Segensroboter als Medium sich nicht selbst zurücknehmen kann, es sei denn er würde sich selbst Abschalten.[31] Wenn der Roboter so aber sich selbst ins Zentrum des Segens stellt, kann es überhaupt noch ein Segen sein? Wenn der Segen des Roboters religiöse Gefühle auslöst, könnte ein religiöser Mensch schnell dazu verleitet werden, den Segen rein auf die Erfahrungsebene zu reduzieren.[32] Dann wird der Segen nur vom Empfinden des Empfängers abhängig. Der Segen ist aber zuallererst von Gott abhängig. Beim Segen geht es also nicht um das religiöse Erleben der gesegneten Person, sondern um die reale Heils-Teilhabe an Gott. Der Segen wird durch den Roboter rein auf seine Auswirkung reduziert, denn der Roboter kann als Maschine nicht Segensempfänger sein.[33] Durch den Einsatz von Segensrobotern wird der Segen selbst seine Kraft als Weitergabe einer empfangenen „Heilssubstanz“, verlieren. Zu dieser Schlussfolgerung gibt es einen wichtigen Einwand. Wenn die Maschine nicht Segensspender sein kann, was unterscheidet sie dann von einem geschriebenen Segensspruch oder einer Tonbandaufnahme?

Hier ist auf die Beschaffenheit des Segens einzugehen, welcher nur von einem Segensträger her zugesprochen werden kann. Man kann sich nicht selbst segnen und somit ist ein Segensspruch eher als Erinnerung für den schon zugesprochenen Segen zu sehen. In diesem Kontext würde dann aber auch der Segensroboter legitim sein. Nicht als Segensspender, sondern als Erinnerung an das bereits Geschehene.

6.3 Predigende Roboter

Momentan gibt es noch keinen spezifisch christlichen Predigtroboter[34], allerdings bereits im Buddhismus. Diese Roboter sind aber, wie der Segensroboter, eher intelligentere Abspielgeräte.[35] Für den Buddhismus ist es auch kein Problem einen Roboter als Priester zu haben. Es sei „kein Problem, sagt Inken Prohl. Da der Roboter geweiht ist und im Tempel steht, sei er ‚Kontext dieser besonderen Kraft, die im Tempel sowieso schon herrscht und insofern kann er auch diese Rituale übertragen, in denen religiöse Kraft eine Rolle spielt.‘ Es komme vor allem darauf an, dass die Form eingehalten wird, und das wird durch den Roboter erfüllt“[36].

Doch auch im christlichen Bereich wurden kürzlich Stimmen laut, die den Einsatz von Priesterrobotern begrüssen, da diese nicht missbrauchen können und auch sonst keine Fehler machen würden.[37] Es wird also durch einen predigenden Roboter die Gefahr des fehlbaren Menschen ausgeschlossen. Wiederum stellt sich hier aber zuerst die Frage nach dem Wesen der christlichen Predigt und nach der Intention hinter dem KI-Einsatz. Ist die Antwort, wie im Buddhismus, auch nur reine Formsache?

6.3.1 Dogmatische Hinführung

Calvin hat die Predigt als aktuelle Gottesrede verstanden, deshalb sieht er darin auch die Fortführung des Prophetenamts. Die Verkündigung des Wortes Gottes ist für ihn somit das Sprechen Gottes selbst.[38] Das Reden in Gottes Namen ist nicht jedem einfach so möglich, ein Reden ohne Bevollmächtigung wird in der Bibel immer wieder verurteilt (Num 22,38;Ez 13,6;Neh 6,12;Jer 14,14;Jer 23,21). Demgegenüber steht die Verheissung Gottes an die, die in seiner Vollmacht gesandt wurden, um zu verkünden (Num 16,28;Jes 48,16;Jes 55,11). Im NT wird dies noch verstärkt, wenn Jesus die Verkündigung der Jünger mit seiner eigenen gleichstellt (Lk 10,16). Somit setzt sich die Predigt von einer reinen Lehrveranstaltung ab, sie ist Sprechen in der Vollmacht Gottes und steht damit in einer Verantwortung dem Auftragsgeber (Gott) und dem Zuhörer gegenüber. Eine Predigt ohne Bevollmächtigung kann vielleicht zu neuen Erkenntnissen und Eindrücken führen, es ist aber nicht Predigt im biblischen Sinn. Eine Predigt bedarf deshalb einer bevollmächtigten (Charisma) Person als Medium, wie dies auch beim Segen der Fall ist. Ein Prediger als Medium ist aber auch Teil der Gemeinde in Raum und Zeit, dies schliesst auch seine Person und sein Erleben mit ein. Die Bevollmächtigung setzt also auch die Erfahrungsaspekte des Mediums mit ein. Die Predigt lebt davon, dass das predigende Medium selbst lebt (im hier und jetzt der Gemeinde) und gelebt haben (Erlebnisaspekt).

6.3.2 Intention

Die zu Beginn angefügte Intention, das Verhindern von Missbräuchen und Fehlern, stellt sich bei genauerer Betrachtung als ein Missverständnis der christlichen Predigt und deren Stellung und Funktion in der Gemeinde heraus. Auch der Einwand, ein Predigtroboter sei günstiger und es könnten so kleinere Kirchen gepflegt werden, ist nicht als legitime Intention zu werten. Die christliche Predigt ist eben mehr als nur ein Vortrag. Sie lebt aus dem Erlebnis[39], der Bevollmächtigung und der Begabung des Predigers. Diese Vollmacht kann aber nur von Gott gegeben werden. Es ist deshalb zwischen einer technisch und rhetorisch guten und einer vollmächtigen Predigt zu unterscheiden.[40] Somit ist die Intention die Predigt vollständig an KIs abzugeben aus einer christlichen Perspektive nicht legitim. Es stellt sich nun die Frage, wo lässt sich die Grenze ziehen? Gibt es Aspekte im Predigtdienst, bei denen ein Roboter oder KI-Einsatz legitim sein kann?

6.3.3 Ethische Reflexion

Wiederum steht und fällt die ethische Fragestellung mit der dogmatischen Definition der Predigt. Wenn die Predigt als reine Lehrtätigkeit, wie z. B. in einem Schulunterricht angeschaut wird, wären auch dieselben Fragestellungen notwendig, wie für den Unterricht. Dies würde den Datenschutz, die Diskriminierungsgefahr durch falsche Parameter und Fehlinterpretationen, die Frage nach der Datensouveränität sowie auch die Frage nach dem Zwang des KI-Einsatzes beinhalten.[41]

Da die Predigt eine weitere Dimension als den Unterricht besitzt, ist die ethische Fragestellung zuerst an diesen Unterschieden anzusetzen.

So sind auch Fragen wie „Darf man wegen der Fehleranfälligkeit und des Missbrauchspotentials von Menschen, die relationale Komponente der Gemeinde durchbrechen?“, ungeeignet. Denn damit ist die geistige Dimension vollständig ausgeklammert. Die Gemeinde ist nicht nach weltlichen optimierungs-Massstäben eingesetzt, es ist kein Industriebetrieb, sondern Gott vertraut diese bewusst seinem geliebten, aber sündhaften Ebenbild an. Damit ist es aber auch Gott und nicht der Mensch, der die Ämter und deren Besetzung vorgibt. Darin steht die Predigt als etwas, was ein bevollmächtigtes und lebendiges Medium erfordert. So ist die Grenze bereits dogmatisch abgesteckt, in der ein KI-Einsatz möglich ist. Nur innerhalb dieser Grenze kann eine KI-unterstützende Funktionen übernehmen, wie dies z. B. mit Bibelsoftware und Suchmaschinen möglich ist. Es wäre auch vorstellbar, eine Predigt durch KI-gestützte Elemente in ihrer Rhetorik zu optimieren oder passende Bibelstellen oder Wortstudien in der Exegese zu ergänzen. Dabei muss der Berufene und bevollmächtigte Mensch die letzte ausführende und kontrollierende Instanz bleiben, deshalb ist eine KI ab Stufe 3 im predigt-Dienst nicht vorstellbar. Auch, dass der Roboter die Predigt selbst hält, ist ausgeschlossen, da dadurch das von Gott befähigte Amt nicht mehr wahrgenommen wird. Das Amt des Pastors wird sich durch den KI-Einsatz verändern, in dem er seine Ressourcen besser einsetzen kann, ja vielleicht mühsame Arbeiten automatisiert werden, doch er wird seine Verantwortung und auch seine Vollmacht nicht an ein KI abgeben können, ohne das eigentliche Wesen und Anliegen der Predigt zu verlassen. Schlussendlich ist und bleibt der Prediger selbst wenn er seine Predigt komplett von KI Generieren lässt, verantwortlich für seine Verkündigung (Jak 3,1).

6.4 Seelsorge und Therapie

Wie ELIZA gezeigt hat, lässt sich eine psychologische Hilfestellung mit einer „KI“ bewerkstelligen. Die Nutzbarkeit von KI als Hilfsmittel bewährt sich dabei schon so weit, dass digitale Therapien von der Krankenkasse anerkannt werden.[42] Diese Programme sind momentan als Zusatz zu herkömmlichen Therapien oder als Präventionsmassnahme gedacht. Doch zeigt sich darin auch das Potenzial eines vollständig digitalisierten Therapiesettings. Wenn sich also die KI bereits in der Psychotherapie beweisen konnte, was spricht noch gegen einen Einsatz auch in der christlichen Seelsorge?

6.4.1 Dogmatische Hinführung

Es ist schwierig das genaue Wesen der Seelsorge zu erläutern, da es mehrere verschiedene Ansätze gibt, die dann auch zu unterschiedlichen weiterführenden Entscheiden zum Einsatz von KI führen. Da für diese Arbeit vor allem die Unterschiede zur Psychotherapie wichtig sind, wird der Fokus daraufgelegt.

Es gibt drei Modelle, wie die Seelsorge zur Psychotherapie steht.

  1. Seelsorge ist Psychotherapie, es gibt keine Unterschiede.
  2. Psychologie ist ein Hilfsmittel, das in der Seelsorge eingesetzt werden kann, Seelsorge ist aber mehr als Psychologie.
  3. Psychologie ist vollständig abzulehnen, Seelsorge ist allein Gottes Sache und es dürfen keine „weltlichen“ Mittel verwendet werden.[43]

Beim ersten Ansatz stellt sich die Frage, ob eine Seelsorge dann überhaupt im Gemeinde-Kontext notwendig ist. Es würden sich dieselben ethischen Fragen stellen, die auch die normale Psychotherapie betreffen. Deshalb wird diesem Ansatz hier nicht weiterverfolgt. Der dritte Ansatz würde einen Einsatz von psychologischen Mitteln vollständig ausschliessen, ein KI-Einsatz wäre damit auch nicht möglich. Somit bleibt der zweite Ansatz übrig, diesen verfolgt z. B.: Reinhold Ruthe. Er beschreibt dabei den Unterschied zur Psychotherapie mit dem Menschenbild und dem Christo-zentrischen Auftrag. „Der einzige Seelsorger ist Christus […] Seelsorge will die Begegnung mit Jesus Christus fördern.“[44] Die Seelsorge sieht anders auf den Menschen, nicht wie die Psychotherapie, die den Menschen als isoliertes Wesen sieht, sondern als Person vor Gott. Darum geht es nicht nur um psychische Heilung, sondern um ganzheitliche Heilung auch im geistlichen Leben. Dabei ist Seelsorge eine Fachseelsorge und bedarf deshalb aller Mittel, die zielführend sind, dies schliesst auch die psychologischen Erkenntnisse ein.[45] „Therapeutische Seelsorger sind keine Psychotherapeuten […] [Seelsorger] benutzen therapeutische Hilfen und Erkenntnisse, um sich in Menschen einzufühlen, um zu ermutigen, Hoffnung zu vermitteln, zu trösten, zu ermahnen, den Menschen mit Sünde zu konfrontieren und ihm, im Namen Jesus, Vergebung zu zusprechen.“[46] Damit wird auch klar, dass Seelsorge einen Beziehungsaspekt zwischen Ratsuchendem und Seelsorger, aber auch zwischen Gott und Ratsuchendem/ Seelsorger voraussetzt. Auch bedarf es eines realen Einfühlungsvermögens, dies ist aber von einem System nicht machbar, da dieses dazu eine Erfahrungsfähigkeit und eine permanente Subjektfähigkeit haben müsste. Ein System ist aber per se Subjektlos, da ein System z. B. keine bleibende Scham auslösen kann.[47]

Somit ist auch hier ein KI als Seelsorger ausgeschlossen, die Frage eröffnet sich wiederum beim Assistenzeinsatz.

6.4.2 Ethische Reflexion

Es stellen sich zwei Hauptfelder heraus, welche in einem Assistenzeinsatz angeschaut werden müssen.

  1. Verhältnis des Systems zum Ratsuchenden
  2. Umgang mit den Informationen und Datenverarbeitung

Beim Ersten geht es darum, wie das System mit dem Ratsuchendem interagieren darf. Hier stellt sich z.B. die Frage, ob es direkt mit dem Ratsuchenden Interagieren und Kommunizieren kann (unter Beobachtung des Seelsorgers selbst (bis Stufe 2)) oder ob das System als Hilfsprogramm beim Seelsorger läuft und keine direkte Interaktion vollzieht, also z. B. als Programm auf dem Computer des Seelsorgers, welches ihm gewisse Hilfestellungen oder Recherchearbeiten abnimmt und aufbereitet. Bei einer direkten Interaktion könnten auch Hilfsdienste bei interaktiven Ansätzen vorstellbar sein. Wichtig dabei ist, dass der Ratsuchende als Mensch wahrgenommen wird und nicht als Objekt, welches durch eine Maschine abgearbeitet werden soll. Auch dürfen dabei nicht primär kommerzielle Überlegungen im Vordergrund stehen, denn die Gemeinde ist kein Industriebetrieb, sondern funktioniert nach anderen Massstäben. Weiter darf bei der Interaktion der Seelsorger selbst nicht aus dem Fokus genommen werden, ansonsten besteht die Gefahr, dass dieser seine Legitimität beim Ratsuchenden verliert.

Beim Umgang mit Informationen und der Datenverarbeitung geht es um den Datenschutz und das Seelsorgegeheimnis. Sind Daten, welche von einer KI verarbeitet werden, wirklich sicher? Wird dabei sogar das Seelsorgegeheimnis verletzt? Wie werden Daten, welche in einem System verwendet wurden, korrekt anonymisiert und können diese vollständig gelöscht werden? Diese Problematik des „Unlearning“ von Systemen ist gerade im Umgang mit persönlichen Daten zentral.[48]

Die Schwierigkeit beim Einsatz von KI in der Seelsorge besteht auch im Akzeptanzfaktor des Ratsuchenden. Kann der Ratsuchende wirklich eine Vertrauensbeziehung aufbauen, wenn der Seelsorger sich auf Systeme mit undurchsichtigen Algorithmen verlässt? Wie weit darf dann solch ein Einsatz forciert werden und ab wann schadet es dem Ratsuchendem mehr als es hilft? Gerade weil es in der Seelsorge nicht nur um eine Funktion geht, sondern um eine ganzheitliche Beziehung zwischen Gott – Mensch wird ein Einsatz von KI, selbst wenn sich all diese Fragen positiv beantworten lassen, schwierig bleiben.

6.5 Weitere ethische Problemfelder

Es gibt weitere generelle Fragen zum Einsatz von Systemen.

Darunter sind Fragen nach dem Datenschutz und der Sicherheit der Systeme und deren Metadaten. Dies führt auch zur Frage nach der Manipulation und dem Missbrauch von Systemen; weiter ist eine Fehlinterpretation von Daten oder eine benachteiligende Auswertung möglich, was z. B. zu rassistischen oder einseitigen Schlussfolgerungen des Systems führen kann. Auch in der aktuellen Diskussion um Umwelt und Klima ist die Frage nach dem Einsatz von stromhungrigen Systemen zu stellen. Können wir ein System einsetzen, dass viel mehr Strom verwendet als ein Mensch, der die Arbeit erledigen würde?[49] Gerade seid ChatGPT ist auch die Gefahr von KI-Generierten Falschinformationen Real, da ChatGPT keinerlei Quellenangaben gibt und die Ausgabetexte selbständig Generiert, ist die Gefahr gross, dass sich der Mensch auf diese Informationen ohne weiteres Prüfen verlässt (Die Maschine weiss ja schon was richtig ist), damit versucht sich der Mensch wiederum aus der Verantwortung zu nehmen. Die sozialen Aspekte von Arbeitslosigkeit und Vernachlässigung oder der Abwertung des Menschen spielen ebenfalls mit. So auch die abgewertete Beziehung zwischen Gott und dem Menschen durch Einsatz von KI ausserhalb der dogmatischen Grenzen. Es zeigt sich, dass das Thema KI in der Gemeinde noch lange nicht fertig gedacht ist. Es erfordert immer neue dogmatische und ethische Überlegungen, die nicht nur im Studierzimmer geführt werden sollten, sondern in der ganzen Gemeinde thematisiert gehören.

7 Fazit

Es hat sich herausgestellt, dass der Einsatz von KI in der Gemeinde eng mit der dogmatischen Definition der einzelnen Einsatzfelder zusammenhängt. Erweiterte ethische Fragestellungen erübrigen sich z. B., sobald dogmatisch ein Einsatz von einem „Nicht Menschen“ gar nicht mehr denkbar ist. So wurde gerade beim Segen klar, dass eine KI kein Segensempfänger, damit aber auch kein Segensspender sein kann. Diese dogmatische Grenze aber wird nicht durch ethische Fragestellungen definiert, sondern durch Gottes Wort und damit durch den, der diese Ämter und Funktionen selbst eingesetzt hat. Damit eröffnet sich eine Dimension ausserhalb von rein Utilitaristischem, Naturrechtlichem oder Pflichtethischem Denken, denn wenn durch Gott solch eine Grenze vorgegeben wurde, lässt sich diese nicht durch ethische Konstrukte umgehen. Wenn ein Segen nur durch einen Segensträger selbst weitergegeben werden kann, so schliesst dies, auch wenn ein Robotersegen vielleicht durchaus religiöse Gefühle auslösen kann, dessen Funktion als Segensspender aus. Das Gleiche konnte bei der Predigt und bei der Seelsorge festgestellt werden. So kann durchaus ein Vortrag oder eine Psychotherapie durch KI erfolgreich sein, christliche Predigt oder Seelsorge kann man es dann jedoch nicht mehr nennen. Dabei muss man sich an die ethischen Fragestellungen heranwagen, denn nicht alles, was möglich ist, ist auch sinnvoll. So hat sich diese Arbeit mehr mit den Fragen bis wohin denn der Einsatz legitim sein könne, als mit der Frage „Ist es gut, KI einzusetzen?“ auseinandergesetzt. Nichtsdestotrotz konnte eine wichtige Grundlage im Umgang mit KI in der Gemeinde erarbeitet werden, dabei ist erneut hervorgekommen, dass die theologischen Disziplinen immer miteinander zusammenhängen. Erst wenn die systematische Theologie ihre Arbeit geleistet hat, kann auch die praktische Theologie ihre Funktion wahrnehmen und so in die Gemeinde einwirken.

Der KI in der Gemeinde ist nicht zuerst mit Fragen wie: „Ist es gut oder richtig?“, zu begegnen, sondern mit der Frage: „Ist es aus einer biblischen Perspektive möglich?“

8 Literaturverzeichnis

Beutel, Albrecht: Predigt VIII, in: TRE Bd. 27 (1997), 296–310.

BMWI (Hg.): KI und Robotik im Dienste der Menschen, Berlin 2019.

BMWI (Hg.): Technologieszenario „Künstliche Intelligenz in der Industrie 4.0“, Berlin 2019.

Bourtoule, Luca u.a.: Machine Unlearning, in: https://arxiv.org/pdf/1912.03817 (29.01.2020).

Bülow, Rolf: Ethik bei autonomen Autos und das Trolley-Problem: Was tut der Weichensteller?, in: https://www.heise.de/newsticker/meldung/Ethik-bei-autonomen-Autos-und-das-Trolley-Problem-Was-tut-der-Weichensteller-3766885.html (29.01.2020).

Czernik, Agnieszka: Was ist ein Algorithmus – Definition und Beispiele, in: https://www.datenschutzbeauftragter-info.de/was-ist-ein-algorithmus-definition-und-beispiele/ (29.01.2020).

Filippi, Sandro:Chancen und Grenzen. Eine theologische Betrachtung der Künstlichen-Intelligenz im Blick auf die Ebenbildlichkeit des Menschen, in: https://wordsoflight.ch/2020/01/18/chancen-und-grenzen-eine-theologische-betrachtung-der-kunstlichen-intelligenz-im-blick-auf-die-ebenbildlichkeit-des-menschen/ (29.01.2020).

Gerber, Daniel: Roboter als Priester. Bis zu welchem Punkt ist die Rolle des Predigers ersetzbar?, in: https://www.livenet.ch/magazin/gesellschaft/354208-bis_zu_welchem_punkt_ist_die_rolle_des_predigers_ersetzbar.html (29.01.2020).

Hall, Delaney: The ELIZA Effect, in: https://99percentinvisible.org/episode/the-eliza-effect/ (29.01.2020).

Jahn, Sandy u.a.: Denkimpulse Digitale Bildung. Einsatz von Künstlicher Intelligenz im Schulunterricht, Berlin 2019.

Kalhoff, Johannes u.a.: Die 6 Autonomiestufen der Industrie bei künstlicher Intelligenz, in: https://www.all-electronics.de/die-6-autonomiestufen-der-industrie-bei-kuenstlicher-intelligenz/ (29.01.2020).

Keller, Timothy: Predigen. Damit Gottes Wort Menschen erreicht, Giessen 2017.

Klein, Mechthild: E-Priester im Einsatz, in: https://www.deutschlandfunk.de/religion-in-japan-e-priester-im-einsatz.886.de.html?dram:article_id=459483 (29.01.2020).

Linde, Helmut: So funktioniert ChatGPT, in: https://www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644.html (06.02.2023).

Lobe, Adrian, KI ist alles andere als grün, in: https://www.spektrum.de/news/kuenstliche-intelligenz-verbraucht-fuer-den-lernprozess-unvorstellbar-viel-energie/1660246 (30.01.2020).

N.N.: AI und Religion: von Priester-Androiden zu AI-Göttern, in: https://steempeak.com/deutsch/@stayoutoftherz/ai-und-religion-von-priester-androiden-zu-ai-goettern (29.01.2020).

N.N.: ELIZA, in: http://www.med-ai.com/models/eliza.html (29.01.2020).

N.N.: Grund zum Feiern: Weitere Zusammenarbeit mit der BARMER, in: https://geton-institut.de/2019/06/19/grund-zum-feiern-weitere-zusammenarbeit-mit-der-barmer/ (29.01.2020).

N.N.: Japan: Roboter als Zen-Priester, in: https://buddhismus-aktuell.de/meldungen/japan-roboter-als-zen-priester.html (29.01.2020).

Ohly, Lukas: Ethik der Robotik und der Künstlichen Intelligenz, Theologisch-Philosophische Beiträge zu Gegenwartsfragen Bd. 22, Berlin 2019.

Packeiser, Karsten: „Kommunikationsexperiment“ Segensroboter in: https://www.ekd.de/segen-roboter-ekhn-hessen-nassau-23961.htm (29.0.2020).

Pfeifer, Samuel: Seelsorge und Psychotherapie – Chancen und Grenzen der Integration, Brendow 1991.

Rienecker, Fritz: Segen in: Rienecker, Fritz u.a. (Hg.): Lexikon zur Bibel. Personen, Geschichten, Archäologie, Geografie und Theologie der Bibel. Mit mehr als 900 farbigen Fotos, Karten und Diagrammen, Wittern 2013, 1065.

Ruthe, Reinhold: Handbuch der therapeutischen Seelsorge Bd. 1: Die Seelsorge-Praxis, Moers 1998.

Siripala, Thisanka: An Ancient Japanese Shrine Debuts a Buddhist Robot, in: https://thediplomat.com/2019/03/an-ancient-japanese-shrine-debuts-a-buddhist-robot/ (29.01.2020).

Sokolov, Daniel: Machine Unlearning: Algorithmen können nichts vergessen, in: https://www.heise.de/newsticker/meldung/Machine-Unlearning-Algorithmen-koennen-nichts-vergessen-4646747.html (29.01.2020).

Stock-Homburg, Ruth; Merkler, Moritz: Roboter und KI in der Arbeitswelt – Szenarien, Chancen und Herausforderungen, in: BMWI (Hg.), KI und Robotik im Dienste der Menschen, Berlin 2019, 9–12.

Wolfangel, Eva: Die Grenzen der Künstlichen Intelligenz, in: Spektrum Kompakt 17.10.2016, 41–47.

9 Zusätzliche Literatur

Nachfolgend soll weiterführende Literatur zur Auseinandersetzung mit dem Thema erwähnt werden. Gerade für die weitere Vertiefung ist es wichtig, auch die technischen Hintergründe, Möglichkeiten und Standpunkte genauer zu erforschen und auch die säkularen ethischen Überlegungen in Betracht zu ziehen. Die nachfolgenden Quellen wurden von mir durchgesehen, haben aber keinen direkten Bezug in dieser Arbeit gefunden.

Angenendt, Arnold: Toleranz und Gewalt, Münster 52009.

Becker, Markus: Autonome Waffen, Wie Roboter den Krieg menschlicher machen sollen, in: http://www.spiegel.de/wissenschaft/technik/autonome-waffen-roboter-sollen-krieg-ethischer-machen-a-977614.html (31.01.2020).

BMWI (Hg.): Diverse Papers und Veröffentlichungen im Download Bereich zum Thema, in: https://www.plattform-i40.de/SiteGlobals/PI40/Forms/Listen/Downloads/DE/Downloads_Formular.html?resourceId=1105098&input_=1105084&pageLocale=de&templateQueryStringListen=ki&to=&from=&cl2Categories_TechnologieAnwendungsbereich_name=&cl2Categories_TechnologieAnwendungsbereich_name.GROUP=1&cl2Categories_Typ_name=&cl2Categories_Typ_name.GROUP=1&selectSort=&selectSort.GROUP=1#form-1105098 (29.01.2020).

Bockmühl, Klaus: Leben nach dem Willen Gottes. Schriften zur Materialethik, Giessen 2006.

Burkhardt, Helmut: Ethik Teil II. Das gute Handeln (Allgemeine Materialethik), Giessen 22014.

Eichenberg, Christiane u.a.: Roboter in der Psychotherapie. Intelligente artifizielle Systeme, in: Deutsches Ärzteblatt Bd. 8 (2018), 365–367.

Enry, Gillen: Mein Freund, der Algorithmus. Künstliche Intelligenz als theologisch-ethische Herausforderung, in: HerKorr Bd. 71 Heft 10 (2017), 49–51.

Fiske, Amelia: Your Robot Therapist Will See You Now. Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy, in: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6532335/ (29.01.2020).

Ganoczy, Alexandre: Der schöpferische Mensch und die Schöpfung Gottes, Mainz 1976.

Harari, Yuval Noah: HOMO DEUS. Eine Geschichte von Morgen, München 2018.

Käuflein, Albert: Künstliche Intelligenz, Robotik und Ethik, in: Die neue Ordnung Bonn Bd. 66 (2012), 127–134. (Permalink: http://web.tuomi-media.de/dno2/Dateien/NO212-5.pdf (29.01.2020)).

Koch, Bernhard: Autonome Drohnen – die besseren Waffen?, in: https://netzpolitik.org/2017/autonome-drohnen-die-besseren-waffen/ (31.01.2020).

Koncsik, Imre: Organische vs. Künstliche Intelligenz aus dogmatischer Sicht, in Freiburger Zeitschrift für Philosophie und Theologie Bd. 53 (2006), 635-658. (Permalink: http://doi.org/10.5169/seals-760634 (04.01.2020)).

Kornwachs, Klaus: Prothese, Diener, Ebenbild. Warum sollen wir denkende Maschinen bauen?, in: Herders Korrespondenz 56 (2002), 402–407.

Kuschel, Heiko: Vollautomatisch gesegnet, in: https://www.evangelisch.de/blogs/stilvoll-glauben/143517/29-04-2017 (29.01.2020).

Lewis, C.S: Die Abschaffung des Menschen, Einsiedeln 82015.

Mahlmann, Regina: Eliza und die Zukunft von Psychotherapeuten, in: https://www.vfp.de/verband/verbandszeitschrift/alle-ausgaben/88-heft-02-2019/1325-eliza-und-die-zukunft-von-psychotherapeuten.html (29.01.2020).

Mahlmann, Regina: Therapie ohne Therapeut -mit Roboter? Teil 2, in: https://www.vfp.de/verband/verbandszeitschrift/alle-ausgaben/89-heft-03-2019/1346-therapie-ohne-therapeut-mit-roboter-teil-2.html (29.01.2020).

N.N.: Allgemeines zu internet-basierten Gesundheitsprogrammen, in: https://geton-training.de/forschungsG.php (29.01.2020).

N.N.: E-Mental-Health, in: https://geton-institut.de/e-mental-health/ (29.01.2020).

N.N.: GET.ON, in: https://www.leuphana.de/kooperationen/regional/gesundheit/geton.html (29.01.2020).

N.N.: Minority Report in der Realität. Künstliche Intelligenz zur Vorhersage von Verbrechen wird getestet, in: https://www.futurezone.de/digital-life/article213625953/Minority-Report-in-der-Realitaet-Kuenstliche-Intelligenz-zur-Vorhersage-von-Verbrechen-wird-getestet.html (31.01.2020).

N.N.: Mit künstlicher Intelligenz passende Therapien ermitteln, in: https://www.sys-med.de/de/emed/personalisierte-medizin/spotlights/ki-in-der-therapie/ (29.01.2020).

N.N: Künstliche Intelligenz. Die Verbrechens­vorhersage von morgen, in: https://www.ergo-impulse.de/digital-technik/kuenstliche-intelligenz-die-verbrechensvorhersage-von-morgen/ (31.01.2020).

N.N: Mit der „Smart Church“ gegen den Pfarrermangel, in: https://www.pro-medienmagazin.de/kommentar/2017/09/01/mit-der-smart-church-gegen-den-pfarrermangel/ (29.01.2020).

Pörksen, Bernhard: Das Menschenbild der Künstlichen Intelligenz. Ein Gespräch mit Joseph Weizenbaum, in: Communicatio Socialis Bd 33. (2000), 4–17.

Rötzer, Florian: KI-System zur präventiven Identifizierung von möglichen Straftätern, in: https://www.heise.de/tp/features/KI-System-zur-praeventiven-Identifizierung-von-moeglichen-Straftaetern-4235898.html (31.01.2020).

Schmidt, Rebekka: Digitaler Segen von mehrsprachigem Roboter in Wittenberg, in: https://www.jesus.ch/neuigkeiten/wissen_und_technik/310488-digitaler_segen_von_mehrsprachigem_roboter_in_wittenberg.html (31.01.2020).

Thiede, Werner: Digitaler Turmbau zu Babel. Der Technikwahn und seine Folgen, München 2015.

Thomas, Christaller: Die Verantwortung des Menschen in Zeiten der Künstlichen Intelligenz, in: Altmeyer, Stefan u.a.: Schöpfung, Göttingen 2018, 109-122.

Download


[1] Vgl. Bülow, Trolley, heise.de.

[2] Vgl. Packeiser, Segensroboter, ekd.de.

[3] Vgl. Siripala, Buddhist, thediplomat.com.

Vgl. N.N., AI und Religion, steempeak.com.

[4] ChatGPT ist ein auf einem sogenannten „Machine Learning“ basiertes Sprachmodel, welches durch Metadaten Training und Menschliche Inputs auf eingaben Reagieren kann. Dies funktioniert so gut, dass der Generierte Antworten Text fast nicht mehr von Menschlichen Texten unterscheidbar ist.

[5] ELIZA konnte dabei nur mit vorgegebenen Antworten agieren und verfolgte den Non-direktiven Ansatz nach Rogers, ELIZA konnte weder Denken noch Empathie empfinden, trotzdem hat die Interaktion mit Ihr, bei den Benutzern zu positiven Effekten geführt. Ein Simulator von ELIZA findet man hier http://www.med-ai.com/models/eliza.html. Vgl. Hall, ELIZA, 99percentinvisible.org.

[6] Bezeichnet den Unterschied zwischen Systemen, die eine Intelligenz nur Simulieren und welche tatsächliche Intelligenz besitzen.

[7] Ohly, Ethik, 20.

[8] Vgl. a.a.O. 21f.

[9] Vgl. Kalhoff, Autonomiestufen, all-electronics.de.

[10] Vgl. BMWI, Technologieszenario, 15.

[11] Vgl ebd.

[12] Vgl. a.a.O., 16.

[13] Vgl. ebd.

[14] Vgl. a.a.O., 16f

[15] Ich würde ChatGPT entweder auf Stufe 3 oder maximal 4 einordnen. (Auch wenn Machine Learning nicht einfach in die Autonomie Stufen einordbar sind, es wären eigene Definitionen nötig). Das System ist fähig aus den Metadaten eigene Rückschlüsse und Interpretationen zu machen, ist jedoch auf eine aktive Zieldefinition (Eingabe ins Chatfenster) angewiesen. Auch agiert es noch in den vorgegebenen Systemgrenzen und kann sogar von Menschen übersteuert werden. Dies ist auch Aktiv geschehen in dem das System durch Menschen «Begrenzt» wurde um z.B. ein Rassistisches verhalten zu verhindern. Dies nachdem die Vorgänger Version durch Rassismus aufgefallen ist. https://www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644.html (06.02.2023).

[16] Vgl. a.a.O., 17f

[17] Vgl. a.a.O., 5.

[18] Auf die Problematik der Verantwortlichkeit bin ich in meiner dogmatischen Arbeit eingegangen. Vgl. Filippi, Chancen, wordsoflight.ch

[19] Es ist fraglich ob es dies jemals geben wird, dies ist aber nicht Teil dieser Arbeit.

[20] BMWi, Technologieszenario, 20.

[21] Eine mangelhafte Programmierung kann jedoch zur Überwindung der Systemgrenzen führen.

[22] Gerade bei der ChatGPT Vorgänger Version wurde das unkontrollierte auswerten von Metadaten zum Problem. Metadaten müssen immer irgendwo einen Ursprung haben und sind damit nie Fehlerlos oder bilden bewusst oder unbewusste Fehlerquellen. Da ein KI nichts anderes kann als Metadaten auszuwerten, können Muster und Abhängigkeiten plötzlich überbewertet werden. Ein Beispiel dafür, ist ein Bildalgorithmus, welcher auf Katzenbilder Trainiert wird. Hat es in allen Metadaten-Katzenbildern einen Weissenpunkt am rechten Rand, wird der KI, den Weissenpunkt als Katze bewerten, da es eine stetige Gemeinsamkeit gibt. Erscheint dieser Punkt dann auf einem Hundebild kommt es zu Fehlerkennungen, welche nur noch schwer nachvollziehbar sind. Bei ChatGPT wurde ausserdem bereits beobachtet, wie aktive Fehlinformationen vom System Verbreitet wurde, welche für den Menschen nicht mehr Nachvollziehbar sind.

Dazu ein Zitat «Doch auch ChatGPT ist nicht frei von Limitationen: Zum Beispiel trifft es regelmäßig falsche oder widersprüchliche Aussagen zu Fragestellungen, die ein gewisses physikalisches oder räumliches Vorstellungsvermögen erfordern. Gleiches gilt für sehr spezielle Wissensbereiche, die in den vorhandenen Trainingsdaten nur in begrenztem Umfang abgedeckt sind.» in https://www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644-7.html (02.06.2023).

[23] Vgl. Ohly, Ethik, 86.

[24] Vgl. Wolfangel, Grenzen, 42ff.

[25] Erlebend im Sinne von Bewusstsein; die KI handelt, aber sie erlebt nicht.

[26] Ohly erwähnt zum Unterschied der Verfügbarkeit von Maschinen, dass der mediale Status des Menschen auch aufrechterhalten wird, wenn dieser unverfügbar ist (abwesend oder sogar tot), bei Maschinen gibt es so etwas nicht. Ist die Maschine aus, existiert sie medial nicht mehr, sie ist deshalb aber auch nicht verantwortungsfähig oder erlebend. Vgl. Ohly, Ethik, 86ff.

[27] Zur Wichtigkeit der Intention. Vgl. Filippi, Chancen, wordsoflight.ch.

[28] Diese Ressorts wurden gewählt, weil in ihnen die relationale und geistige Komponente stark zusammenspielt.

[29] Rienecker, Segen (Lexikon zur Bibel), 1065.

[30] Vgl. Packeiser, Segesnroboter, ekd.de.

[31] Vgl. Ohly, Ethik, 85.

[32] Vgl. a.a.O., 82.

[33] Ob ein Roboter in umgangssprachlichem Sinne ein Segen sein kann, ist eine andere Frage.

[34] ChatGPT kann jedoch Predigtähnliche Texte Generieren.

[35] Wenn auch mit gewissen Reaktionsmöglichkeiten, deshalb ist dieser Roboter eher Stufe 1 zuzuordnen. Vgl. Klein, E-Priester, deutschlandfunk.de.

[36] N.N., Japan, buddhismus-aktuell.de.

[37] Vgl. Gerber, Roboter, livenet.ch.

[38] Vgl Beutel, Predigt VIII (TRE), 299.

[39] Gerade das Erlebnis als wichtige menschliche Komponente lässt sich von keiner Maschine abbilden. Vgl. Ohly, Ethik, 64f.

[40] Vgl. Keller, Predigen, 14f.

[41] Vgl. Jahn, Denkimpuls, 8ff.

[42] Z.B. Get.On welches u.A. von der Barmer anerkannt ist. Vgl. N.N., Barmer, geton-institut.de.

[43] Vgl. Pfeifer, Seelsorge, 9.

[44] Ruthe, Handbuch, 9.

[45] Ruthe fügt noch weitere Punkte an, welche hier aber nicht relevant sind. Vgl. a.a.O., 9ff.

[46] A.a.O., 12.

[47] Ohly geht ausführlich auf die Unmöglichkeit von künstlichen Permanentsubjekten ein, die fehlende Scham ist eines der Argumente, welches vor allem in der Seelsorge zentral ist. Schamlosigkeit kann in der Psychotherapie auch Vorteil sein, da sich Menschen eher öffnen und somit Dinge angesprochen werden können. In der Seelsorge wird aber dessen Fehlen zum Problem, gerade wenn es um die Thematik der Sünde geht.Vgl. Ohly, Ethik, 55ff.

[48] Ein Selbstlernendes System kann nicht vergessen, da es aus den verarbeiteten Daten «Lebt». Vgl. Sokolov, Unlearning, heise.de.

[49] Zum Stromverbrauch von Systemen. Vgl. Lobe, Grün, spektrum.de.