Künstliche Intelligenz in der Kirche

Ein Arbeitspapier und eine Hilfestellung für christliche Gemeinden, Gemeindewerke, Mitarbeiter und Mitarbeiterinnen im deutschsprachigen Raum – ein Projekt mit Unterstützung der Schweizerischen Evangelischen Allianz SEA.

Auf dieser Webseite wird stets die aktuellste Version des Dokuments angezeigt und das PDF kann hier heruntergeladen werden.

Fragen und Feedbacks an die Autoren können via E-Mail oder Kontaktformular eingereicht werden.

In den letzten Jahren haben sich bekannte Persönlichkeiten zu Wort gemeldet, die vor dem Einsatz von Künstlicher Intelligenz (KI) warnen[1]. Die Befürchtung, dass Künstliche Intelligenz eines Tages die Menschheit überflügeln, die Macht übernehmen oder uns auslöschen könnte, wird offen diskutiert. Dieses Szenario hat Hollywood bereits im Jahr 1927[2] aufgegriffen. Es setzt allerdings die Existenz einer superintelligenten KI voraus. Eine «Superintelligenz» geht über die menschliche Intelligenz hinaus. Sie beschreibt eine KI, die in weiten Bereichen der menschlichen Wissenschaft, Kunst, sozialer Interaktion oder strategischer Planung. Wir sind heute weit davon entfernt, eine «Superintelligenz» zu besitzen oder zu bauen. Aber letztlich kann niemand dieses Zukunftsrisiko komplett verneinen oder bejahen. Es hängt stark davon ab, wie sich die Computertechnologie entwickelt und was wir Menschen damit machen.

Würde es etwas bringen, wenn Christen sich dieser neuen Technologie (KI) verschliessen, weil es ein fatales Restrisiko gibt? Diese Frage kann klar mit «Nein» beantwortet werden. Auch wenn sich Teile der Menschheit einer Technologie verschliessen (vgl. Amish People[3]), so wird sich KI dennoch weltweit ausbreiten und jeden direkt oder indirekt betreffen. Sprichwörtlich lässt sich die geöffnete «Büchse der Pandora» nicht mehr schliessen.

Viele führende KI-Forscher sind sich der potenziellen Risiken bewusst und arbeiten aktiv daran, Systeme zu entwickeln, die sicher und ethisch sind. Es gibt zahlreiche Organisationen und Forschungsinitiativen, die sich mit der sogenannten «sicheren KI» beschäftigen, um sicherzustellen, dass KI-Systeme kontrollierbar bleiben und den menschlichen Interessen dienen. Auch arbeiten Regierungen in der ganzen Welt an Regulierungen und ethischen Standards für KI. Doch auch diese Anstrengungen werden nicht verhindert können, dass KI auch destruktiv eingesetzt wird.

Christen können sehr wohl dazu beitragen, den Missbrauch von KI zu reduzieren und die Risiken zu mindern, indem sie ethische Prinzipien und ihren Glauben als Leitlinien für den verantwortungsvollen Einsatz von Technologie einsetzen:

  1. Ethische Grundsätze fördern: Christliche Werte wie Ehrlichkeit, Integrität und Nächstenliebe können als Massstab dienen, um sicherzustellen, dass KI auf verantwortungsvolle und gerechte Weise entwickelt und genutzt wird.
  2. Aufklärung und Bildung: Eine Möglichkeit, Missbrauch von KI zu verhindern, ist die Aufklärung in Gemeinden und kirchlichen Netzwerken über die Chancen und Risiken der KI. Christen können dabei helfen, ein Bewusstsein für ethische Fragestellungen zu schaffen und Diskussionen über die moralischen Implikationen von KI zu führen.
  3. Vorbild im verantwortungsvollen Umgang mit Technologie sein:
    Christen können ein Vorbild im Umgang mit KI sein, indem sie zeigen, wie Technologie verantwortungsvoll und zum Wohl aller eingesetzt werden kann. Dies umfasst auch die kritische Auseinandersetzung mit den Grenzen und Gefahren von KI.
  4. Technologischer Dienst am Menschen:
    Christen könnten KI als Werkzeug verstehen, das dazu dient, das Leben von Menschen zu verbessern. Die Förderung von Gesundheitswesen, Umweltschutz und Bildung zur Armutsbekämpfung, unterstützt durch einen bewussten Einsatz von KI, spiegelt christliche Tugenden wider.
  5. Politisches und gesellschaftliches Engagement: Christen können sich für politische Rahmenbedingungen und rechtliche Regelungen einsetzen, die den Missbrauch von KI einschränken und einen ethischen Einsatz fordern.

Gott hat uns Menschen schon im Garten Eden aufgetragen, die Erde zu bebauen und zu bewahren[4]. Zu diesem Zweck hat die Menschheit seit jeher Werkzeuge (Tools) verwendet, die wir dank unseres von Gott geschenkten Verstandes entwickeln konnten. Die ganze Bibel lehrt uns, unsere Ressourcen in Verantwortung vor Gott und zum Wohle unserer Mitmenschen einzusetzen[5]. Obwohl jedes Werkzeug sowohl zum Guten als auch zum Bösen verwendet werden kann (vgl. die Erfindung des Messers), sind wir aufgerufen, einen Unterschied zu machen und unsere Gaben positiv einzusetzen. KI ist eben ein solches Werkzeug, das viel Gutes, aber auch Schlechtes in dieser Welt bewirken kann. Gott lehrt uns, verantwortungsvoll mit den uns anvertrauten «Talenten» umzugehen und sie zu vermehren, anstatt sie zu vergraben.[6]

Wir sind heute an einem Punkt angelangt, an dem die Frage nicht mehr lautet, ob wir KI einsetzen, sondern wie und wo wir KI einsetzen. Kirchliche Mitarbeiterinnen und Mitarbeiter nutzen diese Technologien längst, wenn auch nicht immer klar deklariert. Wo es keine Führung diesbezüglich gibt, wird die Technologie nach eigenem Gutdünken und nach eigenen Massstäben eingesetzt. Kirchenleitungen sollten sich daher diesem Thema stellen. Das vorliegende Arbeitspapier soll dazu eine Diskussionsgrundlage bieten, auch wenn es nicht alle Antworten liefert.

Und wie können wir als Christen Künstliche Intelligenz verantwortungsvoll einsetzen?

  • Indem wir unseren Pfarrern, Pastorinnen und Mitarbeitenden das nötige Wissen, Richtlinien und Werkzeuge für den Umgang mit KI zur Verfügung stellen.
  • Indem wir KI als Assistenten einsetzen und ihre Arbeit und Resultate immer kritisch hinterfragen.
  • Indem wir uns fragen, was dem Guten dient, und auf dieser Basis über den Einsatz von KI entscheiden.
  • Indem wir den Einsatz von KI immer transparent machen und die ursprünglichen Quellen der Informationen deklarieren.
  • Indem wir uns an die Gesetzgebung halten und den Datenschutz, den Schutz der Privatsphäre und das Urheberrecht beachten und biblisch christliche Werte einbeziehen.

Zukunftsperspektive

Wir müssen davon ausgehen, dass die Durchdringung unseres beruflichen und privaten Alltags mit KI noch massiv zunehmen wird. In fast allen Berufszweigen wird massiv in KI investiert und die Generationen Z und Alpha wachsen mit KI so selbstverständlich auf, als wäre das Werkzeug schon immer da gewesen.

Der Übersetzungsknopf im Ohr, den es bis vor Kurzem nur in Science-Fiction-Filmen gab, das selbstfahrende Auto, der persönliche Assistent, der den Friseurtermin bucht, die KI-basierte Lieferdrohne, intelligente Haushaltsroboter oder Geräte, welche die Vitalwerte überwachen und entsprechend sinnvoll reagieren können – all diese Technologien sind bereits als Prototypen verfügbar oder befinden sich im Entwicklungszyklus zur Marktreife.

In der kirchlichen Landschaft sind solche zukunftsweisenden KI-Entwicklungen heute sehr spärlich gesät – das Potenzial ist aber gross. Beginnen wir gemeinsam visionär zu denken: Wie können wir diese Ressource in der Verantwortung vor Gott, zum Wohl unserer Mitmenschen und zur Unterstützung und Entlastung unserer Mitarbeitenden so einsetzen, dass sie zum Segen wird?

Jeder soll den anderen mit der Gabe dienen, die er von Gott bekommen hat. Wenn ihr das tut, erweist ihr euch als gute Verwalter der Gnade, die Gott uns in so vielfältiger Weise schenkt.[7]


[1] Stephen Hawking, Bill Gates, Elon Musk, 19.8.2015: https://www.independent.co.uk/tech/stephen-hawking-elon-musk-and-others-call-for-research-to-avoid-dangers-of-artificial-intelligence-9972660.html
Steve Wozniak, Elon Musk, 29.3.2023: https://www.euronews.com/next/2023/03/29/profound-risk-to-humanity-elon-musk-and-steve-wozniak-join-calls-to-halt-ai-development
Sam Altman, 17.5.2023: https://www.euronews.com/next/2023/05/17/openais-sam-altman-calls-for-regulation-amid-fears-ai-could-cause-significant-harm-to-the-
Geoffrey Hinton, 22.5.2024: https://www.businessinsider.de/bi/risiken-bis-zur-ausloeschung-der-menschheit-experten-warnen-vor-ki/

[2] Fritz Lang, Film mit dem Titel «Metropolis»

[3] Vgl. Wikipedia: Amische, https://de.wikipedia.org/wiki/Amische#Immaterielle_Merkmale_amischer_Kultur

[4] Bibel, 1. Mose 2, 15

[5] Bibel, Matthäus 22, 37-40

[6] Bibel, Matthäus 25, 14-30

[7] Bibel, 1. Petrus 4, 10, Neue Genfer Übersetzung

Thesen:

  • KI ist ein «Assistent», dessen Resultate hilfreich oder irreführend sein können und darum immer geprüft werden müssen. Die Verantwortung bleibt immer bei uns Menschen.
    (Vgl. Konklusion, Kap. 1.3.1, 3.3.2, 3.5.1, 4.2.3)
  • KI ist ein Werkzeug und nicht nur einfach gut oder schlecht. KI bietet sowohl Chancen als auch Risiken. (Vgl. Konklusion, Kap. 2.2 These 1+6, Kap. 5 Frage 17)
  • Als Kirchen haben wir eine Verantwortung, uns mit von Gott geschenkten Gestaltungsmöglichkeiten (hier: Technologien wie KI) auseinanderzusetzen und sie reflektiert und aktiv in Verantwortung vor Gott und zum Wohle der Menschen einzusetzen. (Vgl. Konklusion, Kap. 1.3, Kap. 2.2 These 11, Kap. 3.5, Lausanne IV Art 94[8])
  • Christen in unserer Gesellschaft kommen an dem Thema KI nicht vorbei. Ob sie Technologie nutzen oder nicht – beides hat Folgen sowohl für das Gemeindeverständnis als auch für die Gemeindepraxis. (Vgl. Konklusion, Kap. 3.4, 3.5)
  • Christen sind KI nicht einfach ausgeliefert, sondern können erkennen, wo sie zum Guten eingesetzt werden kann, und entsprechend reagieren. (Vgl. Konklusion, Kap. 2.2 These 5, Kap. 3.5.4)
  • Wenn Leiter sich nicht aktiv mit dem Thema KI auseinandersetzen, werden Mitglieder in der Anwendung Fakten schaffen. (Vgl. Konklusion, Kap. 2.2 These 2, Kap. 3.7)

 

Appelle:

  • Nehmt die KI-Diskussion als Gelegenheit, um den Umgang eurer Kirche mit Technologie und Datenschutz zu überprüfen.
  • Erstellt Leitlinien für eure Kirche bzw. euren Verband im Umgang mit Künstlicher Intelligenz.
  • Fördert eine aktive Diskussionskultur zum Thema KI in Eurer Kirche.
  • Prüft, welche Themen lokal und welche auf Verbandsebene diskutiert werden müssen, und initiiert die nächsten Schritte.

 


 

[8] https://lausanne.org/statement/the-seoul-statement#christians-must-discern-technologies-that-are-motivated-by-the-idea-that-neither-nature-nor-human-nature-should-be-allowed-to-limit-human-freedom

Autor: Marcel Keller «KI ist eines der wichtigsten Dinge, an denen die Menschheit arbeitet. Es ist tiefgreifender als Elektrizität oder Feuer»[9], meint Sundar Pichai und führt weiter aus: «Wir haben gelernt, das Feuer zum Wohle der Menschheit zu nutzen, aber wir mussten auch seine Schattenseiten überwinden.» Pichai bringt es auf den Punkt: KI wird die Welt und ihre Entwicklung massgeblich beeinflussen und diese Reise wird viele positive, aber auch negative Konsequenzen für die Menschheit mit sich bringen. Das Thema geht auch an Kirchen nicht spurlos vorbei. Im Gegenteil: KI wird heute von kirchlichen Mitarbeitenden genutzt, auch wenn dies nicht immer öffentlich deklariert wird. Wir sind also mittendrin, auch wenn das nicht allen bewusst ist. Wie können wir darauf reagieren? Besteht Handlungsbedarf? Sollen wir als Kirchen KI fördern oder verhindern? Beat Ungricht, Präsident der Schweizerischen Evangelischen Allianz, sagte dazu: «Wir können uns jetzt mit KI beschäftigen oder warten, bis uns das Thema überrollt.» Dieses Arbeitspapier wurde erstellt vom Think Tank CornerStone (Research Plattform für christliche Leiterschaft) in Zusammenarbeit mit der Schweizerischen Evangelischen Allianz. Es hat zum Ziel, die Auseinandersetzung mit dem Thema KI in der Kirchenlandschaft zu fördern, Basiswissen zu liefern und wesentliche Fragen aufzuwerfen und teilweise zu beantworten. Es richtet sich an christliche Kirchen und Werke im deutschsprachigen Raum, an ihre angestellten und ehrenamtlichen Mitarbeitenden. Wir müssen uns darüber im Klaren sein, dass KI die breite Öffentlichkeit erst im Jahr 2022 erreicht hat (OpenAI Chatbots GPT-3 und 4). Seitdem hat eine Lawine von KI-Anwendungen und -Nutzungen die Technologielandschaft überrollt, die viel grösser und schneller ist, als wir es aus der Vergangenheit gewohnt sind. Diese Entwicklung macht vor den Kirchen nicht halt. KI fordert uns heraus. So hat Papst Franziskus im Jahr 2019 festgestellt: «Künstliche Intelligenz, Robotik und andere technologische Innovationen dürften jedoch nur zum Wohle der Menschheit und zum Schutz des Planeten beitragen.»[10] KI fordert uns heraus, Stellung zu beziehen, einen ethischen Umgang mit der Technologie zu definieren und sie für das Gute einzusetzen. Mit diesem Arbeitspapier möchten wir einen Beitrag leisten, KI in der Kirche zu thematisieren. Wir gehen davon aus, dass KI zum Wohl der Menschen und zum Aufbau des Reiches Gottes eingesetzt werden kann, und möchten die notwendigen Leitplanken aufzeigen, wie das bewusst und verantwortungsvoll geschehen kann. Gleichzeitig ist uns bewusst, dass wir in diesem Arbeitspapier nicht alle Fragen zu KI beantworten können,
  • weil das Thema relativ neu ist und uns die langjährige Erfahrung damit fehlt,
  • weil die Entwicklung schneller voranschreitet und dieses Papier laufend überarbeitet werden müsste,
  • weil die Forschung rund um KI und Ethik noch in vollem Gange ist,
  • weil sich Entwickler und Regierungen derzeit mit der Regulierung von KI beschäftigen,
  • weil es noch wenig angewandte Rechtsprechung zu KI gibt
  • und nicht zuletzt, weil eine Vielfalt von Meinungen zu diesem Thema durchaus erwünscht und zulässig ist.
Wir haben dieses Dokument für drei Zielgruppen (Rollen) geschrieben und empfehlen, jeweils die für sie vorgesehenen Kapitel zu lesen:
A) Für Pastoren: Kapitel 1 – Grundlagen Kapitel 2 – Theologie
B) Für Leitungspersonen: Kapitel 1 – Grundlagen Kapitel 3 – Leitungspersonen
C) Für Mitarbeitende: Kapitel 1 – Grundlagen Kapitel 4 – Mitarbeitende
Im Kapitel 5 «Frage & Antwort» gehen wir auf die häufigsten Fragen rund um KI ein und im Kapitel 6 «Glossar» erläutern wir die wichtigsten Fachbegriffe aus diesem Themenkreis. Die Autoren möchten an dieser Stelle darauf hinweisen, dass sie teilweise KI für Recherche, Formulierung und Übersetzung eingesetzt, die Richtigkeit der KI-Aussagen jedoch selbst überprüft haben. In diesem Dokument wird nicht durchgängig die männliche und weibliche Form verwendet. Die Verwendung der einen Form dient der Vereinfachung, bezieht sich aber immer auf beide Geschlechter. Wir wünschen spannende Diskussionen in den Kirchgemeinden und Leitungsgremien und Gottes Segen für weise Entscheidungen rund um das Thema KI.
[9] Sundar Pichai, CEO von Alphabet, Google, 24.1.2018, https://money.cnn.com/2018/01/24/technology/sundar-pichai-google-ai-artificial-intelligence/index.html [10] Papst Franziskus, 25.2.2019, https://www.vaticannews.va/de/papst/news/2019-02/papst-franziskus-akademie-leben-robotik-intelligenz-wuerde.html

Autoren: Jürgen Rintz, Friedhelm Wolf

In den letzten Jahren fand bereits ein starker Ausbau der Digitalisierung statt. Mit KI bekommt die Digitalisierung nicht nur noch mehr Power, KI übernimmt auch immer mehr die inhaltliche Gestaltung des digitalen Outputs: (1) Bei Informationen, Dienstleistungen und Produkten, (2) als Angebot KI selbst zu nutzen und (3) als Mensch, der seine Sicht durch KI vertritt, einfordert. Wie wir KI verstehen und anwenden, bestimmt, in welcher Weise KI-Anwendungen unser Leben beeinflussen werden.

Dieses Kapitel will notwendige Grundlagen zum Verständnis von KI vermitteln. Diese sind wichtig für Leitungspersonen, für die zukünftige Zusammenarbeit in Kirchen und Gemeinden sowie auch für die Kommunikation nach aussen.

Für uns als Kirchen und Gemeinden hat die Verarbeitung von Texten und Sprache eine besondere Bedeutung. Durch Generative KI können Inhalte (Texte und Sprache) neu generiert und verbreitet werden. Welchen Wert, welchen Wahrheitsgehalt haben KI-generierte Inhalte? Es hängt stark von demjenigen ab, der KI nutzt!

KI ist komplex und schwierig zu durchschauen. Eine gute, konstruktive Anwendung von KI erfordert eine Durchdringung und Beachtung dieser Komplexität.

Dieses Kapitel enthält wichtige Navigationspunkte für die Sicht auf KI und eine verantwortungsvolle Nutzung von KI. Neben einem kurzen historischen Überblick der Entwicklungsgeschichte von KI und einer Beschreibung, wie KI funktioniert und betrieben wird, eröffnet das Kapitel die Frage, welche Konsequenzen sich aus den neuen technologischen Entwicklungen für die Gemeinde ergeben und wie Verantwortung für KI wahrgenommen wird.

1.1 KI: Ein kurzer Überblick

In der öffentlichen Debatte und in einschlägigen Werken der Populärkultur kursieren oft widersprüchliche Vorstellungen und Bilder. So wird in entsprechenden Filmen und Büchern oft ein übermenschliches Computersystem mit eigenem Willen und Zielen beschrieben, das alle Mittel der Technik zur Verfügung hat, um Menschen zu beherrschen.

Im allgemeinen Sprachgebrauch hat sich der Begriff der «starken KI»[11] etabliert. Damit ist eine computerbasierte Intelligenz gemeint, die in unterschiedlichsten Bereichen und Anwendungsfällen operiert und all dies in eine zusammenhängende Logik und Denkweise vereint.

Eine solche «starke KI» gibt es derzeit nicht und es ist auch nicht gesichert oder absehbar, ob es sie jemals geben wird. Auch die faszinierenden Ergebnisse von Sprachmodellen, die in den letzten Jahren entstanden sind, ordnen sich sogenannter «schwacher KI»[12] zu, also KI-Algorithmen, die für einen gezielten Zweck implementiert sind und auch nur diesen beherrschen. Im Fall von Sprachmodellen ist es die Fortführung von Texten auf Basis der wahrscheinlichsten Folgeworte und Sätze. Im Fall eines Bilderkennungssystems ist es die Einordnung eines unbekannten Bildes anhand einer erlernten Menge vergleichbarer Bilder.

1.1.1 Ein kurzer Rückblick

Um den heutigen Stand der KI-Entwicklung einordnen zu können, ist ein Blick auf die lange Entwicklung von Theorien und Grundlagen der Digitalisierung bis zu aktuellen Neuerungen im sprachlichen Bereich mithilfe von Generativer KI (siehe 1.1.3) wichtig.

1.1.1.1 Naturwissenschaft als Grundlage der KI-Entwicklung

Naturwissenschaft ist die Grundlage aller technologischen Entwicklungen. Ohne den langen Weg von Berechnungen, Hypothesen und aufeinander aufbauenden Erkenntnissen gäbe es viele Errungenschaften heute nicht. Auch KI ist eine Fortsetzung dieser technologischen Entwicklungen. Dieses Grundverständnis ist für eine realistische Betrachtung dessen, was KI leisten kann, notwendig und hilft bei einer Abgrenzung von unrealistischen Annahmen und Spekulationen.

In ihrem 2024 erschienenen Buch «Alles überall auf einmal» geben Mirjam Meckel und Lea Steinacker als Kommunikationswissenschaftlerinnen und Unternehmerinnen nicht nur einen guten Überblick über die aktuellen KI-Entwicklungen, für sie ist auch ein Blick auf die KI-Geschichte wichtig. Sie beginnt mit Ada Lovelace[13], der Pionierin der modernen Informatik, und wie sie bereits im 19. Jahrhundert die Grundlagen für spätere KI-Entwicklungen legte.[14] Es wird aufgezeigt, dass die Entwicklung neuronaler Netze, die Muster in Daten ähnlich wie unser Gehirn erkennen, ein entscheidender Durchbruch für KI war. Sie ermöglichten sogenanntes «Deep Learning», eine Methode, bei der Computer durch viele verknüpfte Schichten lernen. Dadurch ist KI als Querschnittstechnologie in viele Technikbereiche eingezogen und hat unser Leben nachhaltig verändert.

1.1.1.2 Die Zeit der Digitalisierung

Digitalisierung ist in wenigen Jahrzehnten zu einem Megatrend geworden, der alle Lebensbereiche erfasst und uns weltweit vernetzt. Aus der analogen Welt fliessen immer mehr Daten und Informationen in die digitale Welt, um dort analysiert, bewertet und weiterverarbeitet zu werden. Das sind Abläufe, an die wir uns gewöhnt haben und die unser Zusammenleben mitbestimmen. Ohne Digitalisierung würde unser Zusammenleben in vielen Bereichen nicht mehr funktionieren.

Auf diesem Weg wurden die Menge und Verfügbarkeit der digitalen Informationen ständig erweitert. So leben wir heute in einem Zeitalter, in dem weite Teile der Welt «digital-global» miteinander verbunden sind. Jeder kann von seinem Laptop oder Mobiltelefon weltweit senden und empfangen.

Eine zentrale Frage der modernen digitalen Infrastruktur ist, wie die verfügbaren, riesigen Datenmengen nutzbringender, produktiver und umfassender eingesetzt werden können. Algorithmen helfen, Daten zu analysieren, zu bewerten und zu nutzen. Suchmaschinen und Kommunikationsnetzwerke bringen die globale Welt jeden Tag ein Stück näher. Wir kennen Orte, auch wenn wir noch nie dort waren, und erreichen Menschen mit unseren Ansichten, die wir analog nie gesehen haben und denen wir meistens auch nie begegnen werden.

1.1.1.3 Der Beginn der Generativen KI

Im November 2022 hatte OpenAI so grosse Mengen an Daten aufgenommen, verarbeitet und daraus gelernt, dass man mit dem Chatbot ChatGPT an die Öffentlichkeit ging. Ein Meilenstein in der KI-Entwicklung, denn generative Sprachmodelle wie ChatGPT können nicht nur natürliche Sprachen verarbeiten, sondern auch Texte und Bilder generieren (daher der Begriff «Generative KI). Das Besondere daran ist, dass diese generierten Inhalte ganz individuell auf Eingabetexte und deren Kontext eingehen. Damit wurde die Kommunikation von Mensch und Maschine in einer neuen Form für die Allgemeinheit möglich. Technologie wurde in einer ganz neuen Art zum «Gegenüber», das auf meine Fragen als Mensch gezielt antwortet.

Die Entwicklung und Verbreitung der Generativen KI erfolgt in hoher Geschwindigkeit und hat die die digital-globale Welt in kürzester Zeit erfasst. Generative KI wird zunehmend zu einem der wichtigsten Leistungsfaktoren von digitalen Anwendungen. Bei den Anbietern digitaler Dienste ist in kürzester Zeit ein unglaublicher Wettbewerb entstanden. Es ist davon auszugehen, dass die Entwicklungsgeschwindigkeit für KI-Innovationen auch weiterhin hoch sein wird. Mit den daraus entstehenden Chancen, Anforderungen und Risiken befassen wir uns detaillierter in den nachfolgenden Abschnitten und Kapiteln.

1.1.2 Big Data für KI

KI braucht Daten – und davon möglichst viel! Durch die Digitalisierung entstehen jeden Tag grosse Mengen an maschinenlesbaren Daten. Ein grosser Teil davon ist über das Internet verfügbar und wird nicht nur von uns, sondern auch von KI-Anbietern genutzt. Durch deren Weiterverarbeitung entsteht eine Wertschöpfung. Der Mehrwert liegt in der Aufbereitung von Daten, der Analyse und Strukturierung bis zur Verknüpfung verschiedenster Datenquellen. Je mehr übereinstimmende Datensätze entdeckt werden, desto aussagefähiger wird die Analyse. So können Trends erkannt, aber auch Abweichungen sichtbar gemacht werden.

Zentral ist dabei die Erkennung von Mustern in der Datenaufbereitung und -bearbeitung. Ein Muster in der Automatisierungstechnik kann zum Beispiel der bevorstehende Ausfall einer Maschine sein, der durch Sensordaten frühzeitig erkannt wird[15]. Digitale Mustererkennung ist in vielen Bereichen ein fester Bestandteil, sowohl in der Forschungsarbeit als auch in praktischen Anwendungen verschiedener Brachen (z.B. Maschinenbau und Medizintechnologie).

Je mehr Daten ausgewertet werden und je besser sie aufbereitet sind, desto aussagefähiger sind die Ergebnisse. Die Frage, die uns bei der Anwendung von KI immer begleiten muss, ist: Sind die erforderlichen Daten für die spezifische Anfrage vorhanden und wurden die richtigen Bezüge und Verknüpfungen hergestellt? Das ist natürlich ein hoher Anspruch an die Nutzer von KI-Anwendungen. Was für konkrete Auswirkungen dies auf unseren Umgang mit KI hat, wird in den Kapiteln 2 und 3 noch tiefer behandelt.

1.1.3 Generative KI

Generative KI[16] ist der grosse Sprung in der KI-Entwicklung. Die Modelle für Generative KI sind in der Lage, nicht nur zu analysieren, sondern auch Textzusammenhänge zu berechnen, mit denen neue Inhalte generiert werden können.

1.1.3.1 KI-generierte Inhalte

Um Antworten auf Fragen zu erhalten, musste man bisher überlegen, wo man sucht, und die Antwort selbst zusammenstellen und formulieren. Mit ChatGPT und ähnlichen Anwendungen hat eine neue Zeit begonnen. Plötzlich ist es für Millionen von Menschen möglich, mit ihrem Mobilgerät oder Laptop die unterschiedlichsten Fragen zu stellen und KI-generierte Antworten zu erhalten. Antworten, die nicht nur von einer Person stammen, sondern aus digitalem Wissen mit digitalen Technologien erstellt wurden. Inzwischen ist ein starker Wettbewerb entbrannt, der die Leistungsfähigkeit erweitert und immer neue Anwendungsbereiche entstehen lässt. Wir stehen erst am Beginn neuer KI-Entwicklungen, die alle Lebens- und Anwendungsbereiche betreffen.

Durch die Generative KI ist es also möglich, Inhalte zu generieren, ohne die Quellen selbst recherchiert und die Inhalte selbst verstanden zu haben. Die Qualität sowie Chancen und Gefahren von generativer KI werden in Abschnitt 1.3 «Verantwortung wahrnehmen» vertieft.

1.1.3.2 Filme, Bilder und Sprache

Lange Zeit war ein Bild oder ein Filmmitschnitt Ausdruck der Wirklichkeit, in der Regel auch ein Beweis für einen Sachverhalt. Im Zeitalter der digitalen Video- und Bildbearbeitung können wir uns dieser Annahme nicht mehr sicher sein. Generative KI lässt eigene Bilder entstehen, die aufgrund einer Anfrage aus generierten Daten entstehen: Bilder, die der Realität entsprechen können, aber auch Bilder, die es in der analogen Welt so nicht gibt.

Die gleiche Entwicklung erleben wir mit Sprache: Aus wenigen Sätzen lernen KI-Modelle das Sprachverhalten von einzelnen Menschen. Sie können Aussagen von Menschen produzieren, die diese nie gemacht haben, und Inhalte sprechen, die sie nie gesagt haben.

Ein Beispiel sind Unternehmen, die KI-Anwendungen immer häufiger nutzen, um Anfragen von Kunden und Mitarbeitenden zu interpretieren und Antworten automatisch zu generieren. Es kann davon ausgegangen werden, dass in einzelnen Disziplinen in sehr naher Zukunft maschinell generierte Antworten eine höhere Aussagequalität haben als die Antwort eines durchschnittlichen Mitarbeiters.

Damit kann eine «digitale Realität» erstellt werden, die nicht der Wirklichkeit entspricht. Man kann sich plötzlich nicht mehr auf Beweise in Video, Bild und Ton verlassen. Wie können wir in der Zukunft noch den Unterschied von Wirklichkeit und Deepfakes erkennen? Im Bereich Bild und Sprache sind diese Herausforderungen besonders gross.

1.1.4 Worauf wir uns einstellen sollten

1.1.4.1 Entwicklungen der Technologie

Die Weiterentwicklung von KI erfolgt auf einem sehr hohen technologischen Stand mit einer globalen Infrastruktur. Neue Erkenntnisse lassen sich in kürzester Zeit umsetzen. KI ist eine Querschnittstechnologie, welche die gesamte Digitalisierung durchdringt und damit alle Lebensbereiche betrifft. Wir müssen lernen, mit dieser schnellen Entwicklung umzugehen, und gemeinsame Ansichten über die Auswirkungen und die Anwendung finden.

1.1.4.2 Qualifikationsanforderungen in Zeiten von KI

Die Nutzung von KI verändert Abläufe in hoher Geschwindigkeit. Für die meisten Personen wird die damit steigende Komplexität zu einer zunehmenden Herausforderung. Nochmals Miriam Meckel und Lea Steinacker mit der Aussage: Alles überall auf einmal[17].

Es ist eine Aufforderung, Qualifikationen zu überdenken und zu aktualisieren – persönlich und dort, wo wir Verantwortung tragen. Dazu folgende Anregungen:

  • Wie qualifiziere ich mich persönlich und die Mitarbeitenden in meinem Verantwortungs­bereich unter Einbeziehung der durch KI entstehenden Entwicklungen?[18]
  • Wie treffe ich persönlich und in meinem Verantwortungsbereich die richtige Auswahl von KI-Anwendungen?
  • Welche Nutzungsbedingungen gelten für KI?

Ein Update unserer Qualifikationen kann nicht nur hilfreich für die Nutzung sein, es hilft uns auch, die Möglichkeiten, die KI bietet, strategisch einzuordnen. Eine Konkretisierung dieser Anregungen erfolgt in den Abschnitten 1.2 «Wie funktioniert Künstliche Intelligenz?» und 1.3.3 «Perspektive Qualifizierung».

1.2 Wie funktioniert Künstliche Intelligenz?

1.2.1 Algorithmen und Analytik

Künstliche Intelligenz nutzt Algorithmen, die aus Eingabedaten lernen, um bessere Ausgabedaten zu erzeugen, basierend auf statistischen Methoden zur Analyse von Datenbeziehungen. Maschinelles Lernen, ein Teilgebiet der KI, entwickelt mathematische Modelle, die aus Beispieldaten trainiert werden und verschiedene Lernmethoden wie überwachtes, unüberwachtes und bestärkendes Lernen anwenden, um aus grossen Datenmengen Muster abzuleiten und zukünftige Eingaben zu verarbeiten. Nach ausreichendem Training können diese Modelle auch unbekannte Eingabedaten analysieren und entsprechende Ergebnisse liefern.

Neuronale Netze (eine spezielle Form des maschinellen Lernens) ahmen Strukturen des menschlichen Gehirns nach und sind besonders gut darin, Korrelationen zwischen Daten zu erkennen. Sie bestehen aus digitalen Neuronen, deren Verbindungen in Schichten organisiert sind, wobei die Ausgaben einer Schicht als Eingabe für die nächste dienen. Tiefe neuronale Netze mit mehreren Zwischenschichten (bekannt als Deep Learning) haben bedeutende Fortschritte in der Sprach- und Bilderkennung erzielt.

1.2.2 Die Rolle von Daten

Die Qualität und Struktur der Eingabedaten sind entscheidend für die Ergebnisse selbstlernender KI-Modelle. Moderne KI-Modelle profitieren von der zunehmenden Digitalisierung und der damit verbundenen Verfügbarkeit grosser Datenmengen, wie sie beispielsweise für das Training von OpenAIs ChatGPT genutzt werden. Die Herausforderung besteht darin, reale Szenarien digital abzubilden, wobei die Komplexität der Daten die Komplexität des KI-Modells bestimmt, insbesondere bei anspruchsvollen Eingabedaten wie Texten und Bildern.

Entscheidend für den Lernerfolg von KI-Modellen ist ebenfalls, ob die Daten gut zu dem passen, was sie in der Praxis leisten sollen. Die Daten zum Training müssen sorgfältig ausgewählt und strukturiert werden, damit das Modell auch unbekannte Fälle korrekt verarbeiten kann. Wenn Modelle mit unpassenden Daten trainiert werden, können sie schlechter auf unbekannte Situationen reagieren. Moderne generative Modelle profitieren besonders von der Fähigkeit, grosse Datenmengen zu verarbeiten, was ihre Leistungsfähigkeit erheblich steigert.

1.2.3 Notwendige Infrastruktur

Das Trainieren moderner KI-Modelle erfordert grosse Datenmengen und hohe Rechenkapazitäten, die nur durch Hochleistungsrechenzentren und Netzwerke von Rechnern mit paralleler Verarbeitung erreicht werden können. Ein Grossteil der heutigen KI-Logik wird in einer Cloud abgebildet, wobei Anbieter wie Microsoft Azure, Google Cloud oder Amazon Webservices um die beste Infrastruktur für die notwendigen Rechenleistungen konkurrieren.

Nach dem Training können die Modelle mit weniger Ressourcen genutzt werden. Eine Ausführung auf Endanwendergeräten stellt aber hohe IT-technische Anforderungen an den Endanwender und bringt Einschränkungen durch die Leistungsfähigkeit der Hardware mit sich. Online-Angebote grosser Anbieter werden voraussichtlich die grösste Nutzerbasis gewinnen, da sie die hohen Anforderungen an parallele Zugriffe und Datenverarbeitung am besten bewältigen können. Der aktuelle Fortschritt in der KI-Entwicklung ist auf die gesteigerte Leistungsfähigkeit aller beteiligten Elemente zurückzuführen.

1.2.4 Die Entwicklung eines Marktes (Ansätze zur KI-Nutzung)

Auch wenn eine sichere Prognose der Marktentwicklung im Bereich der KI-Services schwierig ist, lassen sich doch folgende Entwicklungen feststellen:

  • Es gibt einige grosse Cloud-Anbieter, die sich im Bereich der Generativen KI – insbesondere für die Erstellung von Texten und multimedialen Inhalten wie Bildern und Videos – am Markt um eine Etablierung als führender Anbieter bemühen.
  • Darüber hinaus entstehen viele Start-ups, die basierend auf den neuen KI-Modellen gezielte Dienste für bestimmte Anwendungsbereiche einbringen.

Der erste Kontakt mit KI wird für die meisten Anwender hauptsächlich über etablierte Anwendungen stattfinden, in denen KI-Assistenten oder KI-Algorithmen im Hintergrund verwendet werden. Hier haben besonders die generativen Sprach- und Bildermodelle das Potenzial, die Interaktion der Anwendung mit dem Benutzer zu vereinfachen und ihn in der Erzeugung von Texten und Inhalten zu unterstützen. Diese Integration von KI-Modellen in bestehende Applikationen (wie z.B. Canva oder Microsoft Office) ist essenziell geworden, um wettbewerbsfähig zu bleiben.[19]

In welcher Form KI-Angebote genutzt werden, hängt auch stark von der Art und Grösse einer Organisation ab. Während Privatpersonen vor allem auf fertige Dienste oder integrierte KI-Funktionen in Standardanwendungen zurückgreifen, bauen grössere Unternehmen auch eigene Infrastrukturen auf.

1.2.4.1 Angebote mit externer Infrastruktur und externen Daten

Viele KI-Dienste sind als reine Cloud-Dienste für den Endbenutzer verfügbar, sie haben entsprechend aus Benutzersicht eine externe Infrastruktur. Beispiele hierfür sind ChatGPT, Google Gemini oder Microsoft Copilot. Hierbei ist zu beachten, dass die Datenbasis und verwendete Algorithmen nicht immer transparent sind. Dies trifft sowohl auf Trainings- wie auch auf Eingabedaten und Systemprompts[20] zu.

Eine Variante davon sind KI-unterstützte Funktionen in bereits bestehenden Anwendungen wie z.B. einem E-Mail-Programm. In diesem Fall greift das Modell auf die eigenen E-Mails zu und analysiert diese. Solche Angebote sind interessengeleitet und zielen unter anderem auf die Generierung von Umsatz ab. Hierbei ist besonders darauf zu achten, ob Daten, die an ein KI-Modell und dessen Betreiberfirma weitergeleitet werden, von dieser ausgewertet oder sogar bewusst, oder durch Hackerangriffe ungewollt, weitergegeben werden.

Es ist schwierig zu bewerten, welche Daten und Algorithmen zur Anwendung kommen. Diese Herausforderung ist nicht neu, wir kennen sie bereits aus der Anwendung von Suchmaschinen. Die Anwendung generativer KI, also die Generierung neuer Inhalte, verstärkt diese Herausforderung noch einmal.

1.2.4.2 Angebote zum Aufbau eigener digitaler Infrastruktur und Datenhaltung

Viele Unternehmen verfügen in der Produktion oder der Erbringung von Dienstleistungen über eine eigene leistungsfähige digitale Infrastruktur und arbeiten in regulierten Netzwerken zusammen. Die Nutzung von Daten und damit auch von KI ist damit vertraglich geregelt. Hierbei wird oft auf die Infrastruktur der grossen Cloud Service Provider zurückgegriffen, sodass nicht zwingend alle Dienste im eigenen Rechenzentrum betrieben werden.

Solche Ansätze bieten die Möglichkeit, eigene Systeme geschützt im eigenen Netzwerk bzw. in einem abgesicherten Netzwerk in der Cloud an KI-Dienste anzubinden und somit isolierte, nicht öffentliche KI-Modelle mit bekannten Daten und Prozessen zu nutzen. Dies führt zu einer höheren Qualität des KI-Outputs mit Bezug auf die Interessen der Organisation, zu einer fortlaufenden Verbesserung der Ergebnisse und es ermöglicht, Datenschutzrichtlinien einzuhalten.

1.3 Verantwortung wahrnehmen

Künstliche Intelligenz ist ein weites Feld mit unterschiedlichen Einsatzbereichen. Entsprechend differenziert sind auch die Möglichkeiten und Gefahren einzuordnen und zu beachten. Im Folgenden ein paar Gedankenanstösse, wie die KI-Technologie verantwortungsvoll eingesetzt werden kann und wie christliche Organisationen von den Vorteilen profitieren können.

1.3.1 Leitungsverantwortung bei der Anwendung von KI

Wie oben beschrieben, ist der Markt von direkten und integrierten KI-Angeboten komplex und breit aufgestellt. Die Qualität des Outputs ist sehr stark von den verwendeten Daten und Werkzeugen abhängig. Die Beachtung von globalen und gesamtgesellschaftlichen Zusammenhängen, wie sie in der Einführung aufgezeigt und in den nachfolgenden Kapiteln vertieft werden, ist nicht nur wichtig, sondern eine wesentliche Voraussetzung für einen erfolgreichen Einsatz. Dies betrifft auch die Förderung von Qualifizierungen (siehe Abschnitt 1.1.4 «Worauf wir uns einstellen sollten») und die Zusammenarbeit. Darüber hinaus ist ein Überblick über verfügbare KI-Dienste und deren Anwendungsgebiete in der Gemeinde notwendig, die wir in Kapitel 4 aufzeigen.

An dieser Stelle werfen wir einen kurzen Blick auf die spezifische Situation im christlichen Umfeld:

1.3.1.1 Die Situation von Kirchen und christlichen Werken

Kirchen und christliche Werke sind zum einen dezentral und zum anderen in Verbänden organisiert. Oft verfügen sie kaum über digitale Netzwerke, die eine eigene KI-Anwendung ermöglichen würden. Für KI-Anwendungen werden daher hauptsächlich KI-Services von grossen Anbietern genutzt, die mit externen und mit aus christlicher Sicht nicht qualifizierten Daten arbeiten.

Da stellt sich die Frage: Wie viel von dem, was uns als Christen wichtig ist, und in welcher Qualität finden wir im Internet vor? Welche der verfügbaren Daten flossen in die Trainingsdaten der KI-Modelle ein? Im Abschnitt 1.3.3 «Perspektive Qualifizierung» gehen wir hierauf weiter ein.

Die folgenden beiden Beispiele geben einen Eindruck, wie unterschiedlich der Einsatz von KI in christlichen Organisationen aussehen kann.

1.3.1.2 Beispiel: Persönliche Produktivität mit Microsoft Copilot und E-Mail

Als kostenpflichtige Erweiterung stellt Microsoft für seine Office Produkte, wie Word, Excel, Power Point, Outlook und Teams, den Copilot für Microsoft 365 bereit. Dieser ist unter anderem im E-Mail-Programm Outlook integriert und erlaubt es dort, über einen Chat Fragen zu allen E-Mails im Postfach zu stellen oder Zusammenfassungen einzelner E-Mail-Konversationen oder E-Mails in einem bestimmten Zeitraum zu erstellen. Ausserdem lassen sich E-Mails mithilfe des Copiloten verfassen und anpassen.

Eine solche Funktion ist sehr breit von vielen Akteuren nutzbar und kann sowohl in grossen Organisationen als auch in Kirchen mit wenigen hauptamtlichen Mitarbeitern eine Hilfe zur Handhabung von hohem E-Mail-Aufkommen sein.

1.3.1.3 Beispiel: Nikodemus.AI – Chatfunktion als integriertes Angebot in bibleserver.com

Die Webseite bibleserver.com wird vom Evangeliums-Rundfunk (ERF) betrieben, einem Medienunternehmen und Missionswerk, das sich darauf konzentriert, Menschen durch Radio, Fernsehen, Web und Social Media Gott näherzubringen. Der ERF Bibleserver hat dabei neben einer umfangreichen Auswahl an Bibelübersetzungen auch einige integrierte Zusatzfunktionen, die mit einem persönlichen Account verknüpft sind: z.B. eigene Notizen, multimediale Inhalte zu einzelnen Bibeltexten und -themen oder ein Katalog von Bibelleseplänen, der es Nutzern auch erlaubt, eigene Bibellesepläne bereitzustellen.

Mit der neuen KI-basierten Chatfunktion Nikodemus.AI ergänzt der ERF nun sein Angebot um einen Chatbot, der zwar im Hintergrund das GPT-Modell von OpenAI nutzt, es jedoch gezielt auf eine christliche Weltsicht fokussiert und ihm alle Informationen des Bibleserver zur Verfügung stellt. Damit ist Nikodemus.AI ein interaktiver Assistent, den man zu Bibel- und Glaubensfragen befragen kann. Zum Beispiel können Bibelstellen direkt aus dem Chat heraus nachgeschlagen werden und bei einer Frage wie «Was ist eine gute Vorgehensweise, um die Bibel durchzulesen?» wird auf den eigenen Katalog an Bibelleseplänen verwiesen. Damit ist Nikodemus.AI ein gutes Beispiel, wie christliche Organisationen KI-Funktionen nutzen können, um Benutzern einen neuartigen und intuitiven Zugang zu bestehenden Angeboten zu geben.[21]

Eine umfangreiche Übersicht vieler weiterer Beispiele findet sich in den Kapiteln 3 und 4.

1.3.2 Gefahren erkennen – Gefahren reduzieren

KI trägt zu spürbaren Leistungsverbesserungen bei, etwa zur Verbesserung der Wertschöpfung in verschiedenen Bereichen. Gleichzeitig kann die Anwendung von KI zu Fehlinformationen und Verwirrung bis hin zu gezielter Zerstörung von Werten führen. Wir müssen in der Lage sein, zu erkennen, ob die KI-Nutzung in der konkreten Anwendung zur Wertschöpfung beiträgt oder im konkreten Fall toxisch ist, zur Wertminderung oder gar zerstörerisch wirkt. Es folgen ein paar Grundsätze, wie mit KI umgegangen werden sollte.

1.3.2.1 Qualität sicherstellen

Daten: Wir müssen die Quellen kennen, also die Daten, die zur Anwendung kommen, um die Datenqualität beurteilen zu können. Enthalten sie Inhalte, die für unseren Output wichtig sind?

Kontext: Wir müssen wissen, in welchem Kontext und mit welchem Ziel KI-Output generiert wird. Stehen die Auswertungen im richtigen Kontext zueinander und im Kontext unserer Werte? Auch richtige Daten können in einen nicht relevanten oder falschen Kontext gestellt werden.

Deepfakes: Zur Erstellung von Deepfakes gibt es eine Vielzahl von Tools, ja ganze Industrien. Wir müssen beachten, dass Falschinformationen gezielt verbreitet werden können, auch um zu diffamieren und zu zerstören. Es gilt, toxische Inhalte zu erkennen und zu meiden.

Komplexität: KI ist in seiner Anwendung komplex, auch wenn die Nutzung oft einfach ist. Mit generativer KI kann Output generiert und verbreitet werden, den die Nutzerin oder der Nutzer selbst nicht beurteilen kann. Und mit generierten Inhalten kann jede und jeder sich Wissen aneignen und verbreiten, das nicht den eigenen Grundwerten und Überzeugungen entsprechen muss.

Gesunde Skepsis: Generell gilt, KI-generierten Daten nicht einfach zu vertrauen. Oft ist es hilfreich, die gleiche Anfrage an verschiedene KI-Chatbots zu senden und die unterschiedlichen Antworten zu differenzieren.

Wir müssen lernen, Komplexität zu durchdringen und Naivität zu vermeiden – die Naivität eines Nutzers, der einfach generieren lässt und keine Verantwortung für den erhaltenen Output übernimmt, aber auch die Naivität des «Ablehners», der meint, KI-Entwicklungen könnten wir vermeiden oder umgehen.

1.3.2.2 Synthetische Daten und Remix

Die vorgenannten Entwicklungen führen dazu, dass im Netz neben den Daten aus der analogen Welt auch immer mehr synthetische Daten[22] entstehen, also Informationen, die von KI-Systemen und nicht von Menschen generiert wurden.

Meckel/Steinacker beschreiben in «Alles überall auf einmal»[23] sehr eindrücklich, wie immer mehr ein Remix entsteht, eine Vermischung von Daten aus der realen Welt und synthetischen Daten, welche von einer KI produziert wurden. Ein solcher Remix beinhaltet Gefahren, die bisher viel zu wenig Beachtung gefunden haben, aber explosiv sein können. Dies betrifft insbesondere den Bereich Sprache. Wenn immer mehr sprachliche Inhalte vermischt werden, entfernen sich die Aussagen zunehmend von der Realität. Da die Menge von Daten im Netz auch die Häufigkeit ihrer Verwendung bestimmt, kommt es zu einer immer höheren Beachtung von Mehrheitsmeinungen und immer geringeren Beachtung von Minderheitsmeinungen. Da wir als gläubige Christen auch in der digitalen Welt eine Minderheit sind, kann sich diese Entwicklung für uns besonders stark auswirken.

1.3.3 Perspektive Qualifizierung

Sowohl die Entwicklung wie auch die Nutzung von KI-Anwendungen erfordern menschliche Intelligenz. Qualifizierung und Zusammenarbeit sind ein Schlüsselthema und eine wichtige Perspektive für den Einsatz von KI.

Mit KI befinden wir uns technologisch und inhaltlich in einem höchst komplexen Umfeld. Es gibt praktisch keinen Bereich, der nicht von der Digitalisierung und der Anwendung von KI betroffen ist. Doch die Meinungen über deren Auswirkungen gehen weit auseinander und die erwarteten Ergebnisse werden sehr unterschiedlich gesehen.

Durch KI befinden wir uns in der grössten Qualifizierungsoffensive aller Zeiten. Dies betrifft die Wissensvermittlung in der Schule, die berufliche Ausbildung, Studiengänge, aber vor allem die Umstellung im beruflichen Alltag.

Im christlichen Bereich finden wir diese Qualifikationen eher bei Einzelpersonen und weniger in unseren Organisationen. Es ist dringend erforderlich, dass wir mehr interdisziplinär denken und die berufliche Erfahrung unserer Mitglieder stärker in die Gestaltung unserer Arbeit einfliesst. In unseren Kirchen, Gemeinden und christlichen Werken gibt es eine Vielzahl von Personen, die über die erforderlichen Qualifikationen für die Anwendung von KI verfügen. Wie gelingt eine bessere Vernetzung, eine interdisziplinäre Zusammenarbeit örtlich und überregional? In den nachfolgenden Kapiteln ist mehr zu den praktischen Überlegungen zu finden.

Wenn man in der Nutzung von KI allein unterwegs ist, ist die Gefahr gross, sich zu verirren und an einem anderen Punkt zu landen als geplant. Komplexität, wie sie uns in der Anwendung von KI begegnet, lässt sich nur im gemeinsamen Research durchdringen und in der Anwendung gemeinsamer Regeln bewältigen. Hier gilt ein Appell an die Qualitätssicherung, inhaltlich und in der Zusammenarbeit, und an ein aktives Risikomanagement! Ein wesentlicher Schlüssel für gute KI-Ergebnisse und eine Gefahrenreduzierung liegt in der persönlichen und gemeinsamen Qualifizierung. KI ist ein Querschnittsthema für alle Bereiche und für alle Führungsebenen. Unternehmen investieren daher sehr viel in das KI-bezogene Risikomanagement für den einzelnen Mitarbeiter, für Mitarbeiterteams und für Führungskräfte.

Die Digitalisierung und Anwendung von KI in der Wirtschaft führt zu einer noch stärkeren Zusammenarbeit, z. B. in Lieferketten, Einkaufsplattformen, Netzwerken, Cloud-Lösungen etc. In christlichen Bereichen werden diese Möglichkeiten der Zusammenarbeit bisher nicht genutzt, obwohl es viele Chancen in der Zusammenarbeit, der Ressourcenteilung und letztlich auch in der christlichen Wertevermittlung gibt. Doch es muss nicht so bleiben!

In den folgenden Kapiteln zeigen wir auf, wie wir die Chancen, die KI uns bietet, gemeinsam besser nutzen können. Zur theologischen Verantwortung, Kapitel 2 (Perspektive Theologie) und zur Anwendung von KI die Kapitel 3 (Perspektive: Leitungspersonen) und 4 (Perspektive: Mitarbeitende).


[11] Siehe Glossar, Kapitel 6

[12] Siehe Glossar, Kapitel 6

[13] Anna Siffert Ada: Lovelace und das erste Computerprogramm der Welt, Max-Plank-Gesellschaft https://www.mpg.de/frauen-in-der-forschung/ada-lovelace abgerufen: 07.03.2025

[14]  Miriam Meckel, Lea Steinacker: Alles überall auf einmal, Rowohlt Verlag, Kapitel 2 Ex Machina: Eine kurze Geschichte der KI

[15]  Maximilian Köster: Mustererkennung durch KI: Produktion effizienter gestalten (Stand: 29.10.2024) https://www.uxuix.de/kuenstliche-intelligenz/mustererkennung-durch-ki-produktion-effizienter-gestalten/ [03.08.2024]

[16] Siehe Glossar, Kapitel 6

[17] Miriam Meckel und Lea Steinacker: Alles überall auf einmal, 2024, Rowohlt Verlag

[18] Siehe auch Kapitel 3, Leitungspersonen

[19] Bachmann, Marion: KI 2024: Was erwartet uns in diesem Jahr? (Stand: 28.05.2024) https://www.gruender.de/kuenstliche-intelligenz/ki-2024 [02.04.2024]

[20] Damit sind dem Benutzer nicht einsehbare Anweisungen an das Sprachmodell gemeint, die sein Ausgabeverhalten mitbestimmen.

[21] Nikodemus.AI, ERF Wetzlar/DE https://www.bibleserver.com/nicodemus-ai

[22] KI: Kollaps droht wegen KI-generierter Trainingsdaten, Heise 04.08.2024, https://www.heise.de/news/KI-Kollaps-  droht-wegen-KI-generierter-Trainingsdaten-9823352.html

[23]  Miriam Meckel und Lea Steinacker: Alles überall auf einmal, Rowohlt Verlag 2024

Autor: Dr. Jörn Krebs
Zielgruppe: Pfarrer, Pastoren, Prediger, Bibelarbeiter

2.1 Abstract

  1. Künstliche Intelligenz wird das Leben der Menschen in Zukunft sowohl stark positiv als auch stark negativ beeinflussen. Beide Effekte werden sich gegenseitig durchdringen und intensiv ausgeprägt sein. Statt einer «goldenen Mitte» wird das Zusammenspiel der positiven und negativen Auswirkungen eine polare Struktur haben, bei der beide Seiten deutlich spürbar sind.
  2. Die Reaktionen auf KI-bedingte Veränderungen hängen stark vom persönlichen Welt- und Menschenbild ab, wobei festgefahrene Positionen – sowohl bei Enthusiasten als auch bei Pessimisten – eine tiefergehende Auseinandersetzung oft verhindern.
  3. Aus theologischer Sicht spiegelt die Fähigkeit des Menschen, KI zu schaffen, seine im «Ebenbild Gottes» angelegte Rolle wider. Dies insbesondere durch das von Gott verliehene Mandat zur Herrschaft über die Schöpfung, das mit einem verantwortungsvollen und kulturprägenden Einfluss verbunden ist.
  4. Trotz der von Gott verliehenen Fähigkeiten ist der Mensch aufgrund seines gefallenen Wesens anfällig dafür, Macht und Technik, einschliesslich KI, zum Schaden anderer zu missbrauchen, wobei utopische Vorstellungen oft an das Verführungsmuster des biblischen Sündenfalls erinnern.
  5. Die gesellschaftliche Dynamik um KI muss als «zweischneidiges Schwert» betrachtet werden, das sowohl Gottes allgemeine Gnade als auch die Gefallenheit des Menschen widerspiegelt.
  6. Eine theologische Sicht auf Technik zeigt, dass (technologische) Werkzeuge seit der Urzeit einen zwiespältigen Charakter haben.
  7. Eine Theologie der Informatik bietet Christen im Tech-Bereich eine biblisch fundierte Sichtweise auf ihre Arbeit, sodass sie ihre beruflichen Tätigkeiten als Teil ihres Glaubens und zur Ehre Gottes verstehen und integrieren können.
  8. Ein biblisch-christlicher Ansatz zur Informatik betrachtet Programmiersprachen als parallele, wenn auch abgeschwächte Form der ursprünglichen menschlichen Fähigkeit zur Benennung und Ordnung der Welt, wie sie Adam verliehen wurde. Dies reflektiert die Ebenbildlichkeit Gottes im Menschen, da durch allgemeine Sprache und Programmiersprachen eine strukturierende und schöpferische Kapazität ausgedrückt wird.
  9. Der Mensch behält die Kontrolle über Maschinen und KI, die, auch wenn sie Aufgaben effizient übernehmen, von menschlichen Eingaben und Überwachung abhängig bleiben. Während der KI keine eigenständige «Machtübernahme» möglich sein wird, liegt das grössere Risiko von KI-Anwendungen im potenziellen Missbrauch durch den Menschen selbst.
  10. Der Einsatz von KI zur Zeitersparnis bei kirchlichen Aufgaben kann langfristig zu einem Verlust an geistlicher Tiefe und Glaubwürdigkeit führen, da Verkündigung und geistliches Wachstum persönliche, tiefgehende Auseinandersetzungen erfordern, die von KI nicht ersetzt werden können. KI-Anwendungen sind im besten Fall wie ein «Praktikant», dem man bestimmte Aufgabe übertragen, aber nie blind vertrauen kann.
  11. KI-Anwendungen sind «zweischneidige Schwerter», die man aus verantwortungsbewusster Vorsicht aber nicht «vergraben»[24], sondern in Verantwortung vor Gott und den Menschen einsetzen sollte.

2.2 Eine Thesenreihe

Es ist noch zu früh zu sagen, wie die Nutzung von KI-Anwendungen das allgemeine Leben genau beeinflussen wird. So gibt es in der gesellschaftlichen und christlichen Auseinandersetzung zwei Hauptströmungen in Bezug auf die Nutzung von KI-Anwendungen: Die eine Personengruppe sieht den Entwicklungen mit grossem Enthusiasmus entgegen und verfällt leicht einem gewissen Hype. Die andere Personengruppe verspürt einen Pessimismus und betreibt «Schwarzmalerei» besonders im Blick auf zukünftige gesellschaftliche Entwicklungen.[25] Der vorliegende Beitrag will keinem der beiden Hauptströmungen «verfallen», sondern einen «dritten Weg» vorschlagen, der eine alternative und konstruktive jedoch kritische Perspektive eröffnet. Dieser Weg sei mit der folgenden Reihe von zusammenhängenden Thesen grob skizziert:

  1. Sowohl als auch: Auf lange Sicht werden KI-Anwendungen das allgemeine Leben sowohl stark und positiv als auch stark und negativ beeinflussen. Die Frage, ob KI gut oder schlecht ist oder sein wird, ist nicht eine Frage, bei der die Wahrheit in der sprichwörtlichen Mitte liegt, sondern es wird beides der Fall sein, und zwar auf eine starke Art und Weise. Die Realität von KI im allgemeinen Leben wird also eher eine «polare» Struktur haben.[26] Auf der einen Seite wird der Mensch scheinbar neue «godlike»[27] (gottähnliche) Fähigkeiten besitzen. Auf der anderen Seite wird der Mensch durch die Nutzung von KI-Anwendungen stark manipulierbar sein. Die Wirkung von Künstlicher Intelligenz wird also sowohl stark positiv als auch stark negativ sein.

Die folgende Skizze soll genau diesen Zusammenhang verdeutlichen. Die positiven und negativen Wirkungen von Künstlicher Intelligenz überlagern und «durchdringen» sich gegenseitig, was in den beiden Dreiecken ausgedrückt ist, die auf ihrer Grundlinie deckungsgleich aufeinander liegen. Das eine Dreieck steht für das Positive, während das andere für das Negative steht. In der Y-Achse (Höhenachse) stehen die Höhen der Dreiecke für die jeweilige Intensität (des Positiven oder Negativen). Die Anordnung soll verdeutlichen, dass sich Positives und Negatives in den intensivsten Ausprägungen «polar» gegenüberstehen. Es sind diese beiden Strukturelemente, und nicht eine Art «goldene Mitte», die dem Sachverhalt am nächsten zu kommen scheinen.

  1. Welt- & Menschenbild: Die individuelle Reaktion von Menschen auf Veränderungen, welche von KI-Tools verursacht sind, ist sehr stark von ihrem Welt- und Menschenbild abhängig. Für viele ist die Auseinandersetzung daher beendet, bevor sie richtig angefangen hat. Und das gilt wieder für Enthusiasten und Pessimisten zu diesem Thema auf gleiche Weise. Wer nicht bereit ist, seine eigene Position zu reflektieren, kann bei diesem vielschichtigen Thema nicht mehr dazulernen.
  1. Als Ebenbild Gottes geschaffen: Die positiven Aspekte von KI-Tools kommen aus theologischer Sicht u.a. stark davon, dass der Mensch im Ebenbild Gottes geschaffen ist. Das Geschaffen-Sein im Ebenbild Gottes drückt sich u.a. in drei Aspekten aus: 1) in einem Kind-Vater-Bezug zu Gott geschaffen zu sein, 2) Herrschaft über die Schöpfung von Gott übertragen bekommen zu haben und 3) auf Gottes unmittelbare Gegenwart hin geschaffen zu sein.[28] Diese drei Aspekte gehören stets zusammen im Blick auf die Ebenbildlichkeit des Menschen. Aber für ein besseres Verständnis der menschlichen Fähigkeit, überhaupt so etwas wie KI schaffen zu können, ist besonders der zweite Aspekt der erteilten Herrschaft über die Schöpfung zentral. Adam und Eva sind ursprünglich so etwas wie «Vassalenkönige unter Gott»[29] als Unterkönige, die Gott ergeben sein sollen in ihrem Wirken auf der Erde. Bereits das Benennen der Tiere durch Adam[30] mithilfe menschlicher Sprache ist ein Ausdruck des Gott repräsentierenden Regierens des Menschen auf der Erde.[31] Dahinter wird eine (fast) «schöpferische» Macht sichtbar, da im Alten Testament das Namengeben als identitäts- und sinnstiftend verstanden wird. Der Mensch «regiert» hier also bereits massiv innerhalb der Schöpfung. Sicher bleibt zugleich ein fundamentaler Unterschied zwischen Gott als Schöpfer und Mensch als Geschöpf bestehen – der Mensch wird nicht zu einem Gott ebenbürtigen «Halbschöpfer». Aber der Mensch hat enorme Macht, die Geschicke auf der Welt zu prägen, vor allem durch seine Fähigkeit zur Sprache. Daher kommen auch seine scheinbar «godlike» (gottähnlichen) Fähigkeiten. Der Mensch hat ein kulturschaffendes Mandat von Gott erhalten, was sich von Genesis bis Offenbarung ausdrückt und auch technologischen Fortschritt mit sich bringt.[32]
  1. Sünde: Der Mensch hat wunderbare und mächtige Fähigkeiten von Gott bekommen, aber er ist auch gefallen – das Mass seiner Gefallenheit ist unergründlich[33]. Jeder Wesenszug und jede Fähigkeit des Menschen ist von der Gefallenheit betroffen. Der Mensch kann sich unter Druck wie ein echtes «Biest» verhalten, was vor allem die Geschichte totalitärer Staaten und Systeme gut dokumentiert. Bereits in der Antike wunderte man sich über die moralische Rohheit, zu welcher der Mensch imstande ist, und man sagte damals «Der Mensch ist ein Wolf»[34], um dies auszudrücken. So gilt auch in Bezug auf die mögliche Nutzung von KI-Tools im Dienst liberal-gewinnorientierter, aber auch totalitärer Gesellschaftsformen unterschiedlicher Art[35]: Der Mensch ist ein Wolf und in seiner Rohheit und Tücke ist nichts vor ihm sicher. Er findet immer wieder neue Wege, an sich gute Dinge und Strukturen zweckentfremdend zum Falschen zu nutzen. Ein gutes Beispiel ist das System der Demokratie im 20. Jahrhundert in Deutschland, das im Dritten Reich unterwandert wurde. Nichts ist letztlich vor dem Menschen sicher. Das ist auch global im Hinblick auf KI-Anwendungen wahr.

Aber die Gefallenheit hebt die menschliche Macht und Kapazitäten nicht auf, sondern diese beiden Realitäten existieren parallel nebeneinander. Sie sind zwar inhaltlich stark im Konflikt miteinander, aber im Rahmen der menschlichen gefallenen Existenz verlaufen Gefallen-Sein und menschliche Macht so parallel wie sonst nur Bahnschienen zueinander.

Dennoch gilt: Die bleibende Gefahr ist sehr real, zumal von KI-Utopien auch ein gewisser Reiz im Blick auf die Realisierung menschlichen Entwicklungspotenzials ausgeht. Manches erinnert an die Geschichte der Verführung von Adam und Eva und der grossen Versprechungen der Schlange: Das geschickte Vorgehen der Schlange entpuppt sich als «Cocktail aus Halbwahrheiten[36]  und unverblümten Lügen[37]», der den Menschen den Wunsch ins Herz legen soll, (noch mehr als bisher) «wie Gott sein» zu wollen. Die Erzählung der Schlange geschieht unter dem Deckmantel einer «nobel klingenden Lüge» und des reizvollen Versprechens, das eigene «Potenzial voll ausschöpfen zu können». Dieser alternative Weg zur Verwirklichung menschlichen Potenzials verkauft somit einen moralisch falschen, täuschenden Dreh oder in Mediensprache «Spin». Adam und Eva widerstehen dem verlockenden Anreiz dieser Alternativversion nicht und essen vom Baum der Erkenntnis von Gut und Böse.[38]

Diese biblische Grundlinie ist von Bedeutung, wenn wir uns mit extremen Formen des KI-Enthusiasmus beschäftigen, die KI implizit als eine Art «Baum der Erkenntnis von Gut und Böse» verstehen. Menschliches Streben, das nicht aus Vertrauen und Ergebenheit zu Gott entspringt, sondern «moralische Autonomie (Unabhängigkeit)» von Gott bezweckt, ist keineswegs neu. Vielmehr zeigt sich dieses Muster in alten und modernen Kulturen über Jahrhunderte und Jahrtausende hinweg. Was dabei letztlich herauskommt, bezeichnete Nietzsche in seiner Zeit und in seinen Worten als den «Tod Gottes». Dieses Streben bewirbt hohe menschliche Ideale, hinterlässt jedoch in der Praxis vor allem menschlich verursachte Verwüstung, wie das 20. Jahrhundert (v.a. durch Nationalsozialismus und Kommunismus) eindrucksvoll demonstriert hat. Warum jedoch diese alternative «Verheissung» des KI-Enthusiasmus letztlich nicht erfolgreich sein wird und warum man vor ihr keine «panische Angst» haben muss, wird in These Nr. 9 näher erläutert.

  1. Zweischneidiges Schwert aus «Allgemeiner Gnade» und Gefallenheit: Die gesellschaftliche Dynamik um KI-Tools ist u.a. aus dem Spannungsfeld zwischen allgemeiner Gnade und Gefallenheit zu betrachten. «Allgemeine Gnade» bezeichnet die göttliche Zuwendung zu den Menschen, da diese seine Geschöpfe in seinem Ebenbild sind (vgl. These Nr. 3). Diese Ebenbildlichkeit Gottes der Menschen bleibt ungeachtet ihrer Gefallenheit und ihres Ungehorsams gegenüber Gott (vgl. These Nr. 4) weiter bestehen[39]. Gott hat seine Ebenbilder nach dem Sündenfall nicht «entmachtet» und er hat auch nicht aufgehört, sie mit Gutem unterschiedlicher Form zu versorgen. Wir sehen dies sowohl im Alten wie im Neuen Testament in verschiedener Art und Weise, worauf an dieser Stelle nur im Vorbeigehen verwiesen sei. Aber Gott versorgt seine Geschöpfe, unabhängig davon, ob sie ihm gehorsam sind oder nicht, und er tut ihnen viel Gutes, so heisst es beispielsweise in Psalm 145, 9: « Der HERR ist gütig zu allen, und sein Erbarmen gilt jedem seiner Geschöpfe.»[40] Der Ausdruck «Geschöpfe» bezieht sich in diesem Fall besonders auf die Menschen. Und auch Jesus spricht davon, dass Gott auch die lebensbedingende und lebensbringende Sonne aufgehen lässt über Böse wie Gute. Dies äussert er in einem kulturellen Umfeld, in welchem Regen nicht wie in Mitteleuropa oft als Unliebsamkeit und Spassverderber verstanden wird, sondern als Elixier des Lebens, ohne dass man in den Wüsten und Halbwüsten des Nahen Ostens sterben würde. Gott «lässt seine Sonne über Bösen und Guten aufgehen und lässt es regnen für Gerechte und Ungerechte.»[41] Allgemeine Gnade ist also etwas, was Gott allen Menschen schenkt, und abhängig davon, ob er sie einmal beim letzten Gericht begnadigen oder verurteilen wird.[42]

Aber so wunderbar und stark das Gute in Form der allgemeinen Gnade ist, so ist allgemeine Gnade in der konkreten Erfahrung der Menschen in einer gefallenen Welt doch auch wie ein zweischneidiges Schwert, denn ihre Stärke und ihre (manchmal fast blendende) Helligkeit kann recht einfach manipuliert werden. Es kommt sehr leicht zu «Durchmischungen» von Wahrheit und praktischer Falschheit bzw. Tücke, die nicht mehr leicht als solche zu erkennen sind. Dies führte nicht nur in biblischen Zeiten, sondern auch in nachbiblischen Zeiten oft dazu, dass sich das Volk Gottes über aufkommende kulturelle Bewegungen und Ideologien, die sehr schädlich waren, (lange) nicht einig war.

Ein Grund dafür liegt im Wesen von Wahrheit und Falschheit[43], d.h. so, wie eine parasitäre Pflanze einen Teil einer anderen guten Pflanze herausgreift und anzapft, um von deren «Lebenssäften» zu leben. Auf diese Weise greift auch Falschheit, als «Remix» des Guten, Gutes und Wahres auf, aber verleiht dem aus dem ursprünglichen Gesamtgefüge des Wahren und Guten Gerissenen durch bestimmte Hinzufügungen und Auslassungen einen ganz anderen Dreh bzw. Spin, als die Schlange Eva fragt: «Hat Gott wirklich gesagt, dass ihr von keinem Baum im Garten essen dürft?»[44] Wahr ist, dass Gott gesagt hatte, dass die Menschen nicht von einem bestimmten Baum essen durften. Die Schlange macht geschickt aus diesem «einen» Baum «alle Bäume», baut auch auf dem Verbot Gottes auf, aber formuliert dieses so um, dass es Gottes Absicht und Güte zugleich auch völlig in Frage stellt. Ein weiteres Beispiel des parasitischen Charakters von Falschheit ist auch das Vorgehen des Teufels gegenüber Jesus: Dieser versucht Jesus ausschliesslich mit Zitaten aus dem Alten Testament, reisst sie aber alle aus ihrem theologischen Kontext ihres wahrheitsgemässen Gesamtgefüges. Damit erzeugt er viel perfidere Täuschungs- und Fehldarstellungsmöglichkeiten als mit «platten und dumpfen» Lügen. Nicht umsonst schreibt Paulus in 2. Korinther 11,14-15: «[D]er Satan selbst tarnt sich als Engel des Lichts. Warum sollte es dann etwas Aussergewöhnliches sein, wenn auch seine Diener sich verstellen und so auftreten, als würden sie im Dienst der Gerechtigkeit stehen?»[45] Im Namen des Guten, der Befreiung und der Gerechtigkeit wird also oft die Wahrheit durch Ungerechtigkeit «unterdrückt»[46], während man aber mehr oder weniger deutlich auf ihr «aufbaut». Hierin wird die grosse Komplexität deutlich sowie das Mass an Unterscheidung, das nötig ist[47], Gutes von Falschheit zu unterscheiden. Im Blick auf Künstliche Intelligenz ist dies nicht nur bei Generativer KI und Deepfakes eine echte Herausforderung, sondern bei jeglichem Inhalt, der von Künstliche Intelligenz erzeugt wurde. Es ist daher wichtig eine Naivität abzulegen, welche dem grossen Enthusiasmus über KI-Anwendungen zugrunde liegt, aber langfristig zu viel persönlicher und kollektiver Enttäuschung sowie zu noch mehr Vertrauensverlust in die moderne Wissensgesellschaft und die Medien führen kann.

Auf stärkere positive Aspekte allgemeiner Gnade in Form von KI reagieren die einen (übermässig) befürwortend und die anderen aufgrund der Manipulierbarkeit dieser Güter (übermässig) abweisend. Dies resultiert oft aus einer Mischung aus persönlichen Tendenzen, Lebenssituation, Biografie, theologischer und gemeindlicher Prägung.

Ich denke, man muss beides sehen, und zwar nicht übermässig stark, aber stark.

Die Wahrheit ist nicht «in der Mitte», sondern in sehr polaren (aperspektivischen) Aspekten. Nur das ist ausreichend Ermutigung und Warnung zugleich, die es braucht für das Leben mit diesen komplexen Realitäten.

Aus diesen Gründen ist es wichtig, die gesellschaftlichen und individuellen Dynamiken um KI-Anwendungen als zweischneidiges Schwert zu sehen. Denn nur das erlaubt einen kritischen, aber auch konstruktiven Umgang damit, der versucht, das Gute zu maximieren und das Schlechte zu minimieren. Nicht selten wird, wer nach dem Guten und der Wahrheit fragt, einer gewissen Komplexität gegenübertreten müssen, die sich nicht in «einfach gut» oder «einfach schlecht» reduzieren lässt. Die uralten Werte wie Besonnenheit und überlegtes Vorgehen sind daher aktueller denn je.

  1. Zu einer Theologie der Technik: Alle Tools bzw. Werkzeuge haben schon immer einen gewissen zweiseitigen Charakter. Über viele Dinge des alltäglichen Lebens machen wir uns nicht viele Gedanken, wie sie theologisch zu betrachten sind. Dennoch lohnt es sich, wenn auch nur bruchstückhaft, über Werkzeuge oder Tools im Allgemeinen zu reflektieren und damit aufzuzeigen, dass Vieles, was uns in den Zeiten von Künstlicher Intelligenz an Herausforderungen begegnet, nicht unbedingt neu ist.

Werkzeug gibt es schon seit Tausenden von Jahren, als etwa Adam nach der Ausweisung aus dem Garten Eden einen Stock oder ein Wurzelwerk oder eine Art Schaufel nahm, um den Erdboden zu bearbeiten. Er merkte schnell, dass dies nicht nur seine Arbeit vereinfachte. Es führte auch dazu, dass seine Hände an bestimmten Stellen bei schwerer Arbeit von dem Holz stärker aufgerieben wurden und er davon Blasen bekam, wenn er nicht geschickt die Hände und Druckflächen abwechselte.[48]

Aber es blieb nicht bei so einfachen Werkzeugen und Instrumenten. Irgendwann stellten die Menschen systematisch Metallwerkzeuge her[49], was ein Ausdruck davon war, sich die Erde effektiver «untertan»[50] zu machen. So gilt auch für die weitere Entwicklung mitten ins digitale Zeitalter hinein: «Von Hämmern und Nägeln bis zu digitalen Geräten wie Smartphones und Computer, wir designen und schaffen Werkzeuge, welche uns erlauben zu arbeiten in einer gebrochenen Welt, die nicht so ist, wie Gott sie designt hat.»[51] Wir haben sowohl erleichternde Vorteile als auch (schmerzhafte) Nachteile bei der Nutzung von Werkzeugen. Es galt schon immer die Vorteile zu maximieren und die Nachteile zu minimieren. Eine gesunde Theologie technischer Werkzeuge bzw. eine Theologie der Technik erlaubt es uns, diese nicht entweder zu pessimistisch[52] oder zu enthusiastisch (utopisch) zu sehen. Die Umsetzung technischer Innovationen in der Breite der Gesellschaft ist meist viel aufwendiger und langwieriger ist, als man dies beim Aufkommen der Technologie erwartete. Besonders technische Vordenker erwarten eher kurze Etablierungsphasen. Dazu kommt, dass bestimmte Technologien über die Jahre und Jahrzehnte durch mehrere «Hype-Cycles»[53] gehen können, was die öffentliche Wahrnehmung zu diesem technologischen Bereich auch durch ein erhebliches Auf und Ab gehen lässt. Die Geschichte zeigt, dass Prognosen zu technologischen Entwicklungen sehr schwierig sind. Es ist besser, weniger über die Höhen des möglich Positiven und über die Tiefen der moralischen Abgründe zu spekulieren, die damit möglich sind. Wir sind besser beraten, die Form der Technologie, wie sie sich in unserem «kulturellen Moment» gerade zeigt und verfügbar ist, zu reflektieren und verantwortlich zu nutzen. «Morgen» ist der kulturelle Moment vielleicht schon wieder anders (aber dies ist der Lauf der Dinge unter dem kulturellen Fortlauf, der uns Menschen seit dem Auftrag in Genesis aufgegeben ist), und wir müssen erneut überlegen, wie wir das Gute maximieren und das Negative minimieren können.

  1. Eine Theologie der Informatik hilft auch KI einzuordnen. Hierbei geht es nicht um die Anwendung von Informatik in der Theologie, der Gemeinde oder dem christlichen Leben, sondern um eine konstruktive Sicht auf Informatik aus biblisch-christlicher Sicht. Dies ist aber vor allem für Christen relevant, die selbst im Tech-Bereich arbeiten (wollen) und weniger Diskrepanz zwischen «Sonntag und Montag» haben wollen, indem sie ihr ganzes Leben, und dazu gehört auch ihre Tätigkeit in der Informatik, als unter Gottes Herrschaft und zu seiner Ehre verstehen. In der nächsten These wird ein wichtiger Ansatzpunkt für eine Theologie der Informatik bzw. KI vorgestellt.
  1. KI als Sprache (Referenzsystem) des Menschen: Wie sehen biblisch-theologische Ansätze für eine christliche Sicht auf die Informatik bzw. für eine Theologie der Künstlichen Intelligenz aus? Hierzu gibt es bisher wenige Überlegungen. Allerdings kann man festhalten, dass Informatik und besonders Programmiersprachen, die ja die digitale Welt zusammenhalten, eine ähnliche, aber abgeschwächte Form dessen sind, wie einst Adam mit seinen Worten die Tiere benannte und somit Herrschaft auf der Erde ausübte. Programmiersprachen bezeichnen und referenzieren auf einer anderen Ebene die Wirklichkeit und ordnen dort Ressourcen, Wissen und Kommunikation. Diese Programmiersprachen sind im Grunde sogenannte «formale Sprachen» und sie basieren wie «natürliche Sprachen» (allgemeine Sprachen, wie Deutsch, Englisch oder Hebräisch) auf einem «referenziellen Zeichensystem».[54] Die Menschen damals wie heute haben also Möglichkeiten, dank ihrer Ebenbildlichkeit Gottes (These Nr. 3) und allgemeiner Gnade (These Nr. 5) enorme Kapazitäten und Möglichkeiten herzustellen. Diese erscheinen manchmal vor allem dem enthusiastischen Beobachter wie «godlike», da Menschen Gott in dieser Sache «widerspiegeln» als seine Ebenbilder.
  1. Der Mensch hat weiter das Sagen, nicht die Maschine! Der Mensch muss also nicht die Übernahme der Welt durch Maschinen fürchten. Sicher wird sich in der Zukunft durch die weit verbreitete Verwendung von KI in den modernen Gesellschaften sehr viel ändern, vor allem im Arbeitsleben. Manchmal kann es den Anschein erwecken, dass nicht mehr der Mensch, sondern die «Maschine» die Sache in der Hand hat. Dagegen sei die These gewagt, dass es hier nur zu einer gewissen Verschiebung der Zuständigkeit von Mensch zu Maschine kommt, aber nicht zu der «Ablösung» des Menschen durch die Maschine und dem Kontrollverlust des Menschen (welcher oft evolutionistisch «Gorilla-Problem» genannt wird). Für diese These gibt es mehr Gründe, als aufgrund der Knappheit dieses Textes behandelt werden können. «Es gibt nichts Neues unter der Sonne», vermerkt Prediger 1,9. Und dies gilt wohl auch im Blick auf diese technisch bedingten Umbrüche. Sicher sind es bedeutsame Umbrüche. Umbrüche hat es aber über die Jahrtausende grundsätzlich immer gegeben, geändert hat sich vor allem die Geschwindigkeit, mit der diese Umbrüche geschehen. Aber all diese vergangenen und gegenwärtigen Umbrüche vermögen die Rolle und Funktion des Menschen auf dieser Erde, welche Gott ihm gegeben hat, nicht aufzulösen. Einer der Hauptgründe dafür ist das Geschaffen-Sein des Menschen in der Ebenbildlichkeit Gottes (vgl. These Nr. 3).

Gott hat den Menschen über die Werke seiner Hände gestellt und das umfasst jegliche materiellen und intellektuellen Ressourcen. Der Psalm 8,5-7 fasst das so: «Was ist der Mensch, dass du an ihn denkst? Wer ist er schon, dass du dich um ihn kümmerst! Du hast ihn nur wenig geringer gemacht als Gott, mit Ehre und Würde hast du ihn gekrönt. Du hast ihn zum Herrn eingesetzt über deine Geschöpfe, die aus deinen Händen hervorgingen; alles hast du ihm zu Füssen gelegt.»[55]

Die Menschen sind diejenigen Geschöpfe Gottes, die er in seinem Ebenbild geschaffen und denen er seinen Geist gegeben hat, um zum Wohl anderer Menschen und der Schöpfung im positiven Sinn «Herrschaft» auszuüben. Es ist nichts Neues, dass wir Maschinen die Verantwortung für einzelne Aufgaben (Tasks) delegieren, um effizienter zu sein und um unsere Fähigkeiten zu erweitern. Aber es bleibt dabei, dass der Mensch gegenüber der «Maschine» das sprichwörtliche erste und das letzte Wort hat. Der Mensch schaltet eine KI-Anwendung an und gibt dieser Input, worauf sie aktiv wird und Ergebnisse produziert. Die Ergebnisse hängen sehr stark von den Eingaben ab. Der Mensch bestimmt, wie lange er dieses KI-Tool verwendet, egal ob dies ein «Large Language Model» wie ChatGPT ist oder ein KI-unterstütztes Waffensystem. Der Mensch aktiviert und deaktiviert sie grundsätzlich und die «Maschinen» sind weiter auf die Eingaben von Menschen angewiesen, um effektiv funktionieren zu können.

Künstliche Intelligenz wird oft stark als «Automatisierungs-Wunder» ursprünglich menschlicher Arbeit vermarktet. Doch es ist eine Übertreibung. Damit es überhaupt dazu kommt, dass die Maschinen ihren Job tun können, sind sie von Unmengen von Menschen abhängig, die sie nicht nur einrichten, sondern auch warten und mit entsprechenden Daten «füttern». Ein grosses Heer häufig ungesehener Menschen auf jeder Anwendungsebene machen Künstliche Intelligenz überhaupt «intelligent».[56] Und dies ist eine Tatsache, die sich im Blick auf KI-Anwendungen wohl nie ändern wird – auch nicht bei anderen Formen von Künstlicher Intelligenz, über die spekuliert wird, wie etwa «General AI» oder «Super AI», welche von KI-Forschern kontrovers diskutiert werden. «Super AI» ist eine Form von AI, wie es sie aufgrund von These Nr. 2 wohl nie geben wird. Sie entspricht der fiktiven Welt des Films Matrix oder in leicht abgeschwächten Form Elon Musks «Robocalypse». Es ist eine angstbasierte und nicht hoffnungsbasierte Welt, in der die Maschinen die Menschen «verknechten» und ihnen die Macht über den Planeten nehmen. In einem säkularen-evolutionistischen Weltbild ist dies auch durchaus denkbar[57], aber biblisch gesehen werden am Ende der Zeit immer noch menschliche Staatsoberhäupter und mächtige Wirtschaftspersonen das Sagen haben[58]. Christen dürfen aufgrund der Gottebenbildlichkeit der Menschen mit gutem Grund darauf vertrauen, dass es nie so kommen wird. Die zweite Form von Künstlicher Intelligenz «General AI» ist ein Sammelbegriff dafür, dass Computersysteme nicht nur relativ eng definierte Aufgabenstellungen lösen, sondern gar unterschiedliche Wissensbereiche kombinieren, dabei Erkenntnisse und Verbindungen selbstständig entdecken, die selbst menschlichen Experten in diesem Wissensbereich bisher nicht bekannt oder zugänglich waren. Diese Form von Künstlicher Intelligenz gibt es nicht, sie ist reine Spekulation. Wir haben auch keinen technischen Hinweis dafür, dass es sie jemals geben wird, es sind bisher nur «Träume». Die dritte Form von Künstlicher Intelligenz ist die Einzige, die es bisher wirklich gibt, und es ist eine Form, die sehr vielversprechend ist. Man nennt sie auch schmale oder spezifische Künstliche Intelligenz (narrow or specific AI). Sie ist eine auf konkrete und spezifische Tätigkeiten «ausgerichtete» Form von Computerberechnungen. Sie ist «Intelligenz» nur in dem Sinn, dass sie statistische Muster aus grossen Datenmengen herausarbeitet und nach diesen verfährt.[59]  (Künstliche Intelligenz in diesem Sinn ist bereits weit verbreitet, u.a. auch in Anwendungen wie Google Maps, die sehr viele Menschen benutzen, ohne sich dessen bewusst zu sein.)

Der Mensch muss sich grundsätzlich nicht vor der Übernahme der Welt durch Maschinen fürchten. Wenn es etwas gibt, wovor der Mensch in dieser Angelegenheit eine «gesunde Furcht» haben sollte, dann ist es der Missbrauch seiner eigenen Macht in diesem Universum (These Nr. 2 und 3) in Verbindung mit seiner eigenen Gefallenheit (These Nr. 4). Es ist also viel gefährlicher, was der Mensch mithilfe von KI bewirken kann. Als Beispiele: KI-Anwendungen kriegstechnischer Art geben dem Menschen noch mehr Macht, nicht weniger Macht.[60] Und in modernen Gesellschaften, in denen es totalitäre Entwicklungen gibt, haben KI-Anwendungen auch ein enormes Potenzial für das Schlechte, wie es z.B. die durch KI-Systeme erschwerte Verfolgungssituation der Christen (und anderer Minderheitsgruppen) in China erkennen lässt.

Es bleibt also ein Abenteuer, wie sich die Dinge unter der Führung des Menschen, des «Unterkönigs» Gottes auf der Erde, entwickeln werden. Vieles um KI steckt noch in den Kinderschuhen, aber Gott bleibt in Kontrolle, trotz aller Entwicklungen und Ungewissheiten.[61]

  1. Spiritualität & Gemeinde: Kurzfristiger Zeitgewinn vs. langfristiger Kompetenz- und Glaubwürdigkeitsverlust – das Spannungsfeld zwischen einerseits menschlichem Einsatz bzw. geistlicher Verantwortung und andererseits geistlichem Leben, Wachstum und Tiefe bleibt und wird nicht zugunsten KI-generierter Inhalte aufgelöst.

Wir leben in Zeiten, in denen sich viele Gemeindeverantwortliche einer Flut von «To-dos» gegenübersehen und insgeheim angesichts dieser Überforderung mit der blossen Sicherstellung der gemeindlichen Organisationsvorgänge absorbiert sind. Es scheint für alles zu wenig Zeit zu sein, besonders auch für biblische Verkündigung. Daher ist es für viele Personen bei der Input- oder Predigtvorbereitung verlockend, die Arbeit an ein Large-Language-Model (LLM) wie ChatGPT zu delegieren, in der Meinung, es käme vor allem auf einen Text an, den man am Sonntag vortragen könne. Man sucht so etwas Erleichterung im mühsamen Gemeindealltag und lässt sich treiben auf dem «Weg des geringsten Widerstands».[62]

Aber langfristig ist ein solcher kurzfristiger Zeitgewinn teuer erkauft, wenn er auf Kosten des Erwerbs eigener Kompetenz, Überzeugungen und der eigenen Ergriffenheit geht. Menschen benötigen menschliche Vorbilder, besonders wenn es um wichtige Lebensentscheidungen oder persönliche Dinge geht – und um genau diese geht es in der Nachfolge Jesu und in den Aktivitäten der Gemeinde Jesu. Wenn daher Gemeindemitgliedschaft als Nachfolge Jesu verstanden wird, ist es für die Nachfolgeprozesse der Hörerinnen und Hörer der Predigt sehr wichtig, dass der Verkünder nicht nur eine Maske trägt und seinen Predigttext «performt». Vielmehr muss er selbst ergriffen sein vom Bibeltext und seine Zuhörer in seine Ergriffenheit und Betroffenheit in seinem Leben mithineinnehmen. Auf diesem Weg gibt es keine «Abkürzungen» (Shortcuts). Der gestresste Prediger mag einmal oder mehrmals mit einer KI-Predigt vom Platz kommen, aber über die Jahre nehmen sein Wissen, seine Verstehens- und Anwendungskompetenz, seine Ergriffenheit und die lebenspraktische Aneignung der biblischen Inhalte im eigenen Leben massiv Schaden. Die Kluft zwischen äusserem Schein und geistlicher Wirklichkeit weitet sich zunehmend. Und ultimativ droht einem solchen «Maskenträger» vor sich selbst und anderen ein massiver Glaubwürdigkeitsverlust, der für den eigenen geistlichen Dienst massiv negative Folgen haben kann. Es braucht einfach Zeit für die eigene Beschäftigung mit den biblischen Texten, sonst bleiben unsere persönlichen Interaktionen mit ihnen nicht nur oberflächlich, sondern geistlich «wüst und leer». Man kann auch keine Maschine «beten» lassen und erwarten, dass dies vor Gott so funktioniere. Ebenso kann man auch keine Maschine die «Predigt schreiben» lassen und erwarten, dass dies langfristig funktioniere. Gott hat Menschen seinen Geist gegeben. Dinge wie Gebet und Predigt- oder Themenvorbereitung sind nicht Dinge, die einfach zu «managen» sind, sondern sie müssen aus der eigenen Verantwortung und Ergriffenheit vor Gott geschehen. Paulus ist hierfür ein gutes Beispiel, wenn er schreibt: «Denn wir treiben keinen Handel mit dem Wort Gottes wie die meisten, sondern wie aus Lauterkeit, sondern wie aus Gott reden wir vor Gott in Christus.»[63] Der Akt des Verkündens ist ein Akt des Redens vor Gott und aus Gott. Dies ist ein Vorgang, der weder reduzierbar noch ersetzbar ist. Vieles im geistlichen Wachstum der Gemeinde ist auf positive Nachahmung aufgebaut. Dies ist auch wesentlicher Teil des Begriffs «zu Jüngern zu machen». Dieser Prozess geschieht von Mensch zu Mensch und er beginnt und wird getragen von der Begegnung des Menschen mit Gott.

Die Verkünder haben mehr als nur eine soziale Rolle als Erzähler oder Ausleger der kirchlichen Botschaft, sondern sie müssen selbst von der Botschaft des biblischen Textes verändert worden sein. Dies hat eine starke Auswirkung auf ihre emotionale, formative und ethische Aneignung des Textes, die sonst einfach fehlt oder oberflächlich wird. Diese «Spiritualität des geringsten Widerstandes» ist selbstverständlich nichts Neues! Es gibt sie schon lange – in der letzten Vorstufe nahm sie z.B. die Form des Kopierens von Predigten aus dem Internet an. Mit KI-Tools erfährt diese Versuchung eine Zuspitzung.

KI-Tools können durchaus zu Recherche-Zwecken herbeigezogen werden oder man kann einer KI-Anwendung das eigens ausgearbeitete Predigtskript füttern, um gute Vorschläge für die Ankündigung der kommenden Predigt in den sozialen Medien entwerfen zu lassen. Aber bei der Vorbereitung muss man wissensmässig über seinen «eigenen Stand in der Materie» verfügen, um nicht unkritisch abhängig zu sein von KI-Anwendungen oder Internet, sondern diese überprüfen zu können. Die Unterlassung der tiefgreifenden Auseinandersetzung mit den biblischen Texten wird ein «Vakuum» erzeugen, was in die zwei Hauptströmungen (Enthusiasmus oder Pessimismus) führen und biblisches Verständnis und lebenspraktische Aneignung noch seltener machen wird. Auch können selbst KI-Funktionen innerhalb professioneller Bibelsoftware zur Stoffsammlung nützlich sein, aber das Denken im biblischen «Horizont » wird dabei nicht ausreichend erlernt, wie etwa bei einer traditionell ausgeführten exegetischen Ausarbeitung. Eine kritische und konstruktive Herangehensweise an KI-Tools für die Themenvorbereitung ist auch geboten, da Large Language Models (LLM) wie ChatGPT neben theologischen Engführungen (aufgrund der mangelnden Datenqualität durch einseitig liberale theologische Ressourcen) auch politische Betonungen[64] besitzen, die man nicht unaufmerksam übernehmen will. Denn die Unreife vieler KI-Anwendungen selbst im Informatikbereich ist immer noch gravierend. Sie können einerseits z.B. Programmiertemplates sehr schnell erzeugen, aber die Anzahl von Programmierfehlern (Bugs) bei komplexeren Aufgabestellungen ist deutlich höher als der Durchschnitt erfahrener (menschlicher) Programmierer[65]. KI-Tools sind allgemein im besten Fall bei vielen Themen so effektiv wie ein «Praktikant im Master-Studiengang» in dem jeweiligen Wissensfeld bzw. Wissenschaftsfeld, in einzelnen Aspekten können sie aber auch besser sein. Und dennoch vertraut man einem Praktikanten als verantwortliche Leitungsperson auch nicht blind beim Entwurf lebensbeeinflussender Inhalte. Dies ist besonders zutreffend, da es immer noch technische Probleme mit diesen KI-Anwendungen gibt, so dass auch die OpenAI-Architektin Mira Murati z.B. vor der Gefahr von «KI-Halluzinationen» von Modellen wie ChatPT4.0 warnt, da diese Inhalte erfinden.[66]

Eine Erklärung der Lausanner Bewegung hält daher treffend fest: Die Verkündigung des Evangeliums ist nicht nur einfach eine Frage des Wissenstransfers, sondern vielmehr eine Transformation der ganzen Person durch die Kraft des Heiligen Geistes.[67]

  1. Auch «zweischneidige Schwerter» sollte man nutzen, aber bewusst und verantwortlich! Viele der vorgängigen Thesen haben festgehalten, welch zweischneidige Schwerter KI-Anwendungen sind. Auf den oberflächlichen ersten Blick kann es daher so erscheinen, als sei die Nutzung von KI-Tools generell nicht zu empfehlen. Aber dies entspricht nicht der vorgetragenen Thesenreihe. KI-Tools sind einerseits ein wertvolles Gut menschlicher Wirkens- und Schaffenskraft. Sie sollten als solche eingesetzt werden. Andererseits gibt es bei der Nutzung im Allgemeinen und auch bei der Nutzung von jedem einzelnen KI-Tool gewisse Nachteile und langfristige Gefahren. Der Mensch ist in Verantwortung vor Gott und seinen Mitmenschen bei der Nutzung dieser Tools. Und die Sache ist durchaus ernst! Aber der Ernst der Dinge sollte den Einzelnen nicht derart in seiner Verantwortung vor Gott «verstimmen», dass er die Möglichkeit an sich für seine eigene Nutzung verwirft. Dies wäre ähnlich wie Talente zu vergraben[68], was «frommer» erscheinen mag, aber langfristig nicht ertragreicher vor Gott ist.

Daher sollten wir um einen Umgang mit den KI-Anwendungen ringen, der nicht naiv ist, sondern konstruktiv und nachhaltig im Blick auf die Bildung unseres Charakters und Wissens (vgl. These Nr. 10). Dieser Umgang muss sowohl gemeinschaftlich (Gemeinde und Familie) als auch individuell (Einzelperson) erfolgen.

In Gemeinden, Think Tanks und Familien wird man mit den Meinungsunterschieden des «Anderen» umgehen lernen müssen. Aber man kann somit auch eine fortlaufende Reflexionsgemeinschaft zu diesem Thema bilden, wobei die Gemeinschaft mehr erreicht als das Individuum, wäre es nur auf sich selbst gestellt.[69]

Aufgrund des ständigen technischen Wandels und Fortschritts muss auch ein ständiges (Re-)Evaluieren des Einsatzes von KI im eigenen Leben oder in der Kirche/Gemeinde stattfinden.

Auch die individuelle Nutzung muss kritisch differenziert sein, damit man das Negative minimiert. Zum Beispiel heisst dies im Blick auf das Smartphone, Popups zu deaktivieren für bessere Konzentration und Ruhe. Ähnliche Alltagsregeln muss jeder für sich suchen und reflektieren, um ungesunde Abhängigkeiten von Fremdwissen anstelle von eigenem Wissen und «Substanz», aber u.a. auch das angelegte Suchtpotenzial «in den Griff» zu bekommen.

Der eigene konstruktive Einsatz von KI-Tools muss so gestaltet sein, dass wir die positiven Potenziale Künstlicher Intelligenz maximieren und damit Gott und den Nächsten «ohne Abkürzungen» und «ungeheuchelt» lieben.

Daher sollten Christinnen und Christen, die mit der Entwicklung oder Anwendung von KI beruflich zu tun haben, ermutigt werden, aktiv ihre Tätigkeiten auszuüben.[70] Daniel und seine Freunde im ideologisch fremden Babylon haben sich nicht aus der Verantwortung vor Gott und Menschen gezogen, sondern dienten in ihren beruflichen Tätigkeiten in dieser Spannung gemäss Jeremia 29,7 in Treue zu Gott und zum Wohl aller Einwohner Babylons.


[24] Vgl. Bibel, Matthäus 25,24-28

[25]Vgl. Christopher Watkin: Biblical Critical Theory – How the Bible’s Unfolding Story Makes Sense of Modern Life and Culture, Grand Rapids: Zondervan, 2022, 110.

[26] Es geht um zwei Perspektiven oder Aspekte, die sich scheinbar sehr gegenüberstehen, aber dennoch gegenseitig durchdringen und gegenseitig auch bedingen. Erkenntnistheoretisch kann man auch Begriffe wie «bifokal» wie bei zwei-Stärke-Linsen oder «aspektivisch» (vgl. Emma Brunner-Traut:  Frühformen des Erkennens – Aspektive im Alten Ägypten, Darmstadt: Wissenschaft Buchgesellschaft, 1996.) und begrenzt auch «komplementär» verwenden. (vgl. Thomas Schirrmacher, ‘Die Entdeckung der Komplementarität, ihre Übertragung auf die Theologie und ihre Bedeutung für das biblische Denken’. In: Klaus Müller u.a.: Mission als Kommunikation – Die christliche Botschaft verstehen, Nürnberg: VTR, 2007, 111.)

[27] Ich verwende das Wort hier in Anlehnung an den technischen Slang von «god-mode» bei Computerspielen, aufgrund ausserordentlicher Fähigkeiten und des Überwindens festgedachter Grenzen. Der Begriff ist theologisch sicherlich nicht präzise.

[28] Vgl. Catherine L. McDowell: The Image of God in the Garden of Eden – The Creation of Humankind in Genesis 2:5-3:24 in Light of the mīs pî, pīt pî, and wpt-r Rituals of Mesopotamia and Ancient Egypt, Winona Lake: Eisenbrauns, 2015, 141.

[29] Vgl. John M. Frame: Systematic Theology – An Introduction to Christian Belief, Phillipsburg: P&R, 2013, 792.

[30] Vgl. Bibel, 1. Mose 2,19

[31] Vgl. Vern S. Poythress: In The Beginning was the Word: Language – A God-Centered Approach, Wheaton: Crossway, 2009, 29- 31. (Buch ist als PDF frei verfügbar unter: https://frame-poythress.org/wp-content/uploads/2012/08/PoythressVernInTheBeginningWasTheWord.pdf) Watkin, Biblical Critical Theory, 68, 99-101. Zu den Unterschieden zwischen Gott und Mensch im Gebrauch der Sprache sei in Abgrenzung zu einem konstruktivistischen Verständnis, bei welchem durch Sprache Wirklichkeit erst geschaffen wird, auf die Differenz verwiesen, dass Gott durch sein Wort überhaupt erst die Dinge ins Dasein ruft, während der Mensch durch sein Wort (Benennung der Tiere) die ihm vorgegebene Wirklichkeit erkennt und ordnet. Im Schöpfungsbericht wird das z.B. dadurch deutlich, dass Gott sagt «Es werde Licht!», und es wird Licht (das kann der Mensch nicht), dass er dann das Licht Tag nennt (hebr. «ruft») und die Finsternis Nacht (das kann der Mensch auch, wenn er die Tiere bei ihrem Namen «ruft») (vgl. 1. Mose 1,3-5). Was bei Gott sozusagen sekundärer Sprachgebrauch ist (Sprache nicht zum Erschaffen, sondern zum Benennen des Erschaffenen) ist beim Menschen der primäre Sprachgebrauch. Für Mehr Informationen zum Kontext der Passage: Benjamin Kilchör: 1. Mose 2,19-20: Und der Mensch gab jedem Tier seinen Namen… | LECTIO CONTINUA 25 (aufgerufen am 1.11.2024) https://www.youtube.com/watch?v=w88UGjURFpw (ab 10min).

[32] Vgl. Jason Thacker: The Age of AI – Artifical Intelligence and the Future of Humanity, Grand Rapids: Zondervan, 2020, 17-19. Watkin, Biblical Critical Theory, 96-106.

[33] Bibel, Jeremia 17,9

[34] Das originale Sprichwort heisst: «Homo homini lupus», und heisst in etwa «Der Mensch ist dem Mensch ein Wolf.» (Plautus, ca. 254-184 v.Chr.)

[35] Auf die Möglichkeiten der unterschiedlichen Varianten der Manipulation von Menschen durch technische Mittel haben u.a. George Orwell (1984), Jaques Ellul und Aldous Huxley (Schöne Neue Welt) schon vor langer Zeit aufmerksam gemacht.  Orwell beschreibt Manipulation (von Menschen) durch Angst und Schmerzzufügung. Huxley beschreibt Manipulation (von Menschen) durch Konsum, Vergnügen und Unterhaltung. Für Ellul ist Technik mehr als nur ein Werkzeug – sie kreiert ein eigenes System und Umfeld, in dem der Mensch als Folge lebt.

[36] Vgl. Bibel 1. Mose 3,3 und These Nr. 5 in diesem Kapitel

[37] Vgl. Bibel, 1. Mose 3,4-6

[38] Bibel, 1. Mose 3,4-6, Vgl. Watkin, Biblical Critical Theory, 111-118, 151-157. C.S. Lewis: Pardon ich bin Christ – Meine Argumente für den Glauben, Basel, Brunnen, 1977, 55.

[39] Vgl. Bibel, 1. Mose 9,6

[40] Bibel, NGÜ

[41] Bibel, Matthäus 5,45 NGÜ

[42] Mehr zu Allgemeiner Gnade, die kirchengeschichtlich auch sehr unterschiedlich verstanden wurde: Tim Keller: Center Church – Kirche in der Stadt: Deutsch, Worms: Puls, 2015, 209-216.

[43] Vgl. Watkin, Biblical Critical Theory, 133-159, 166-177.  Diese gesamtbiblische Sicht des Bösen als parasitisch oder als Entfremdung des Guten ist auch in der biblisch beeinflussten Literatur von z.B. C.S. Lewis und J.R.R. Tolkien präsent. (vgl. Austin M. Freeman: Tolkien Dogmatics – Theology Through Mythology with the Maker of Middle-Earth, Bellingham: Lexham, 2022, 183. U.a. unterstreicht C.S. Lewis, «dass das Böse ein Schmarotzer, nicht etwas Ursprüngliches ist». (C.S. Lewis, Pardon ich bin Christ, 51. (Vgl. Ebd., 49-51) Im englischen Original spricht er vom Bösen als Parasiten: «Evil is a parasite, not an original thing.» (C.S. Lewis: Mere Christianity (New York et al: MacMillan, 1972, 35.) Vgl. Donald T. Williams: Deeper Magic – The Theology behind the Writings of C.S.Lewis, Baltimore: Square, 2016, 111-112. Vgl. Vern S. Poythress, ‘Counterfeiting in the Book of Revelation as a Perspective on Non-Christian Culture’ JETS 40/3 (1997) 411-418.  Auch in extremen Formen von Bosheit besitzt das Böse oft die Frechheit, sich in einer gewissen Gewöhnlichkeit und Unauffälligkeit, ja Normalität, zu kleiden. Dies legte Hannah Arendt treffend mit dem Begriff «die Banalität des Bösen» dar. Ein Begriff, den sie v.a. verwendete, um den Nazi-Schwerverbrecher Eichmann bei seinem Gerichtsprozess zu beschreiben, mit dem Hinweis, wie gekonnt er es verstand, gewöhnlich zu erscheinen, als sei er nur ein normaler und «guter» Familienvater gewesen. (vgl. Hannah Arendt: Eichmann in Jerusalem – Ein Bericht von der Banalität des Bösen, München et al: Piper, 2011)

[44] Bibel, 1. Mose 3, 1 NGÜ

[45] Bibel, NGÜ

[46] Bibel, Römer 1,18

[47] Beispiele aus der Zeit vor und während und nach dem zweiten Weltkrieg zur Täuschung der deutschen Christen bei der Machtergreifung des Nationalsozialismus bis hin zur aktiven Zustimmung aller landeskirchlichen und freikirchlichen Verbände der damaligen Zeit im Namen des Kampfes gegen den Liberalismus und Kommunismus lassen sich zahlreich finden. Auch Beispiele von ideologischer Unterwerfung seitens der Christen in der DDR gegenüber dem System lassen sich finden: Karl H. Voigt: Freikirchen in Deutschland (19. Und 20. Jahrhundert), Leipzig: Evangelische Verlagsanstalt, 2004, 179-187, 214-226. vgl. Auch: Helmut Thielicke: Das Gebet das die Welt umspannt: Reden über das Vaterunser aus den Jahren 1944/45 – Mit einem Dialog über die Frage: Wie war der Nationalsozialismus in Deutschland möglich?, Stuttgart: Quell, 1964, 167-207.

[48] Vgl. Darrel Bock und John Dyer: Discovering a Theology of Technology. (Aufgerufen am 31.10.2024) https://voice.dts.edu/tablepodcast/technology/.

[49] Vgl. Bibel, 1. Mose 4,22

[50] Vgl. Bibel, 1. Mose 1,28

[51] Thacker, Age of AI, 19. Eine umfassendere Theologie der Technik berücksichtigt aber nicht den Aspekt der Technik als «Werkzeug», sondern auch den Aspekt der Technik als eine das «soziales Umfeld-prägende» Grösse. Um den Rahmen dieses Kapitels nicht zu sprengen, kann nur darauf verwiesen werden. (vgl. Heidi A. Campbell und Stephen Garner: Networked Theology (Engaging Culture): Negotiating Faith in Digital Culture, Grand Rapids: Baker, 2016, 22. Watkin, Biblical Critical Theory, 161-166, 170-177.

[52] Vgl. Nial Fergusson: Doom – Die grossen Katastrophen der Vergangenheit und einige Lehre für die Zukunft, München: Deutsche Verlagsanstalt, 2021, 27-48, 477-500.

[53] Ein Hype-Zirkel in der Technikwelt hat meist fünf Phasen: 1) Innovations-Auslöser, 2) Gipfel überhöhter Erwartungen, 3) Die Dürre der Desillusionierung, 4) (erneuter) Anstieg der Erkenntnis, 5) Plateau der Produktivität einer Technologie. Und zu KI gibt es bereits mehrere Durchläufe des Hype-Cycles (vgl. Sabine Hossenfelder: New Batteries: It’s Not All Hype (aufgerufen am 31.10.2024) https://youtu.be/2eIPHX-NpMM?si=PeiWXRiFzcfOvLFY&t=59) (ab 0:59min) (und vgl. ab 1:33min).

[54] Vgl. Jörn Krebs: Sprache, Metaphern, Gott und die Bibel (aufgerufen am 31.10.2024)  https://youtu.be/YzX3SAtYyT4?si=I1vv34CmuyOS-Aju&t=230 (ab 3:50min).

[55] Bibel NGÜ

[56] Vgl. Real Stories: The ”Modern Day Slaves” Of The AI Tech World (aufgerufen am 31.10.2024) https://youtu.be/VPSZFUiElls?si=74tC3kNUnUULW-JH&t=130 (ab 1:30min).

[57] Vgl. Watkin, Biblical Critical Theory, 128.

[58] Vgl. Bibel, Offenbarung 17-18

[59] Vgl. Prof. Peter G. Kirchschläger (Professor für Theologische Ethik und Leiter des Instituts für Sozialethik ISE der Universität Luzern) lehnt es ab von künstlicher «Intelligenz» zu sprechen, sondern formuliert alternativ: «Der Begriff «datenbasierte Systeme (DS)» beschreibt angemessener, was sogenannte «KI» eigentlich ausmacht: Erzeugung, Sammlung, Bearbeitung und Auswertung von Daten, datenbasierte Wahrnehmung, datenbasierte Vorhersagen und datenbasierte Entscheidungen.» (Daniel Jörg: Künstliche Intelligenz ausser Kontrolle (aufgerufen am 4.11.2024)

https://www.unilu.ch/magazin/artikel/kuenstliche-intelligenz-ausser-kontrolle/ ). Alison Gopnik von der Universität Berkeley sagt übersetzt: «Wir nennen es ‚künstliche Intelligenz‘, aber ein besserer Name dafür könnte sein, statistische Muster aus grossen Datensätzen zu extrahieren.» (Alex Hollings: SKYBORG – How the Air Force really built AI-PILOTED FIGHTER JETS (aufgerufen am 31.10.2024) https://youtu.be/Ghh-wf5NaQw?si=j-CDrS9vWtsgYtXW&t=1235 (ab 20:35min).) Auch bei mathematischen Fragestellungen haben KI-Modelle wie ChatGPT (LLMs) immer noch erhebliche Probleme, da solche KI-Modelle nicht versuchen diese Fragestellungen primär basierend auf mathematischen Regeln, sondern auf Basis statistischer Überlegungen, zu lösen. (vgl. Albertatech: Why AI sucks at math? (aufgerufen am 5.11.2024) https://youtube.com/shorts/Wx4iMMbsekE?si=3ReCiP_nmw9zCr6l.)  Zu «starker KI» und «schwacher KI» siehe auch im Glossar der vorliegenden Ausgabe. Die zunehmende Wichtigkeit von statistischen Auswertungen in moderne Gesellschaften ist auch eine Gelegenheit für Christinnen und Christen differenziert über das Thema der Grundlagen von Statistiken und Wahrscheinlichkeitsaussagen aus einer biblisch-informierten Perspektive nachzudenken, und nicht nur auf vorwiegend säkularen Annahmen. Es ist eine Chance zu entdecken, wie auch dieser Bereich in Abhängigkeit zu Gott steht (vgl. Vern S. Poythress: Chance and the Sovereignty of God: A God-centered Approach to Probability and Random Events, Wheaton: Crossway, 2014, 101-142.

[60] Die Gefahr einer Konzentration menschlicher Macht durch Technologie wurde bereits von C.S. Lewis in seinem Buch «Die Abschaffung des Menschen» beschrieben. Aktuelle Entwicklungen, wie der Einsatz von KI in Kampfflugzeugen (z.B. als virtuelle Piloten der F-16), bestätigen diese Bedenken. Alex Hollings erläutert in seinen Videos, dass solche komplexen Systeme (wie ein KI-gesteuerter Kampfjet) nur durch die Kombination vieler spezialisierter KI-Anwendungen funktionieren. Ein menschlicher Pilot bleibt dabei unerlässlich, um diese Systeme zu koordinieren. Diese Notwendigkeit der menschlichen Kontrolle wird voraussichtlich auch in Zukunft bestehen bleiben (vgl. Hollings, ab 21:20min).
Quellen: Hollings, Alex: What happens if the Air Force’s AI fighter jets GO ROGUE? (ab 23:08min)
Hollings, Alex: SKYBORG – How the Air Force really built AI-PILOTED FIGHTER JETS (ab 28:43min)

[61] Vgl. Bibel, Matthäus 28,20

[62] Auch rein säkulare Stimmen wie Ex-Google-Geschäftsführer Eric Schmidt weisen darauf hin, dass die Fähigkeit kritisch und eigenständig analysieren und reflektieren zu können nun noch wichtiger sein wird als in der Zeit ohne KI. (vgl. The Diary Of A CEO: Ex Google CEO: AI Can Create Deadly Viruses! If We See This, We Must Turn Off AI!

(aufgerufen am 14.11.2024) https://www.youtube.com/watch?v=2Zg–ouGl7c  (ab 5:45min).) Und das Erlangen und Ausüben dieser Fähigkeit benötigt Zeit und Anstrengung. Es ist kein Weg des geringsten Widerstands.

[63] Bibel, 2. Korinther 2,17, Elberfelder 2006

[64] Vgl. Sabine Hossenfelder: Is the AI Left-Bias Real? (aufgerufen am 31.10.2024) https://www.youtube.com/watch?v=xaroJxFTVFQ.

[65]Vgl. Sabine Hossenfelder, I Didn’t Believe that AI is the Future of Coding. I Was Right. (Abgerufen am 1.11.2024)

https://www.youtube.com/watch?v=3A-gqHJ1ENI (ab 5:00min).

[66]Vgl. Emily Chang: Inside OpenAI, den Architekten von ChatGPT (aufgerufen am 31.10.2024) https://youtu.be/p9Q5a1Vn-Hk?si=x48QG0hWf8LN4Gdp&t=291 (ab 4:50min).

[67] Im Original: «The proclamation of the gospel is not simply about information transfer but is rather a whole person transformation by the power of the Holy Spirit.» (Angela Kim, Sharoon Sarfraz, Jason Thacker, Dan Whitenack: Artifical Intelligence (aufgerufen am 31.10.2024)) https://lausanne.org/report/human/artificial-intelligence.

[68] Vgl. Bibel, Matthäus 25,24-28

[69]Vgl. Andy Crouch: The Tech-Wise Family – Everyday Steps for Putting Technology in Its Proper Place, Grand Rapids: Baker, 2017. Oder Amy Crouch and Andy Crouch: My Tech-Wise Life: Growing Up and Making Choices in a World of Devices, Grand Rapids: Baker, 2020.

[70] Bedeutende englische christliche Positionspapiere evangelikaler Christen ermutigen auch zu einem reflektierten aber aktiven und konstruktiven Umgang auf dem Berufsweg: (Vgl. Angela Kim, Sharoon Sarfraz, Jason Thacker, Dan Whitenack, Artifical Intelligence. Und Russell Moore et al.: Artificial Intelligence – An Evangelical Statement of Principles (aufgerufen am 31.10.2024) https://erlc.com/policy-content/artificial-intelligence-an-evangelical-statement-of-principles/.

Autor: Simeon Stiefel
Zielgruppe: Kirchliche Leitungspersonen

3.1 Abstract

KI verändert die Art und Weise, wie wir kommunizieren und interagieren, und das beeinflusst auch die Strukturen der Kirchgemeinden und ihre Leitungspersonen. KI-generierte Inhalte und datenbasierte Entscheidungen können soziale Dynamiken und Machtverhältnisse verschieben, denn der Zugang zu KI-Tools kann auch komplexe Aufgaben für Laien zugänglicher machen.

Gleichzeitig verstärkt KI bestehende soziale Ungleichheiten und schafft eine digitale Kluft zwischen jenen, die kompetent mit der Technologie umgehen können, und jenen, die (aufgrund unterschiedlicher Faktoren wie Alter oder Bildungsgrad) abgehängt werden.

Ein weiterer kritischer Punkt ist der Umgang mit Wahrheit und Desinformation. (Generative) KI kann genutzt werden, um sowohl Falschinformationen zu verbreiten als auch zu bekämpfen, was aktuell besonders im politischen Kontext problematisch ist, aber auch für Kirchen herausfordernd werden kann. Im kirchlichen Umfeld kann KI zwar bei Verwaltungsaufgaben und in der Kommunikation unterstützen, doch in Bereichen, die menschliche Nähe und Empathie oder theologische Scharfsinnigkeit erfordern, sollten KI-Tools mit viel Fingerspitzengefühl eingesetzt werden.

Für den verantwortungsvollen Einsatz von KI sollten Kirchen und Verbände klare Richtlinien und Standards definieren. Durch gezielte Pilotprojekte und Schulungen können Kirchen, Gemeinden und christliche Werke die Technologie schrittweise einführen, ohne ihre theologischen Werte zu verlieren. Letztlich geht es um die Balance zwischen technologischem Fortschritt und dem Erhalt der menschlichen, zwischenmenschlichen und transzendenten Dimension des kirchlichen Lebens. Nur so kann KI die Arbeit der Kirche auf allen Ebenen und in allen Bereichen bereichern, ohne die Authentizität und den Kernauftrag zu gefährden.[1]

3.2 Einleitung

Die Einführung von Künstlicher Intelligenz in der Gesellschaft bringt weitreichende Veränderungen mit sich, die auch vor Kirchen und christlichen Werken nicht haltmachen. Diese technologischen Entwicklungen eröffnen zahlreiche neue Möglichkeiten, stellen jedoch gleichzeitig erhebliche Herausforderungen dar. Insbesondere die Leitungspersonen von Kirchen und Gemeinden, darunter Synoden und Kirchenpflegen, stehen vor der Aufgabe, diese Veränderungen zu verstehen, zu bewerten und verantwortungsbewusst in ihre Arbeit und die Arbeit der Mitarbeitenden zu integrieren.

Das folgende Kapitel richtet sich an Entscheidungsträger und Leitungspersonen in Kirchen, Gemeinden und christlichen Werken, die möglicherweise über wenig Vorwissen im Bereich der KI verfügen. Ziel ist es, einen möglichst grossen (wenn auch nicht umfassenden) Überblick über die gesellschaftlichen und praktischen Implikationen von Künstlicher Intelligenz zu geben und Handlungsempfehlungen für den verantwortungsvollen Umgang mit dieser Technologie zu formulieren.

Wichtig vorab ist zu erwähnen, dass die folgenden Ausführungen keinen Anspruch auf Vollständigkeit erheben. Es wurde versucht, sich den aktuell relevantesten Themen und Fragestellungen gerecht zu werden und mögliche Antworten und Lösungsansätze zu formulieren. Vieles ist deshalb auch bewusst vage formuliert oder mit offenem Ausgang

3.3 KI in der Gesellschaft

3.3.1 Einleitung: Gesellschaftliche Reaktionen auf technologischen Fortschritt

Historisch gesehen haben technologische Innovationen immer wieder bedeutende gesellschaftliche Veränderungen hervorgerufen. Die industrielle Revolution im 18. und 19. Jahrhundert führte zu einer radikalen Transformation der Produktionsprozesse und Arbeitsverhältnisse, die von massiven sozialen Umwälzungen begleitet wurde. Aber auch die Einführung des Internets im späten 20. Jahrhundert brachte eine ähnliche Welle des Wandels mit sich, indem es die Art und Weise revolutionierte, wie Menschen kommunizieren und Informationen austauschen.

Die aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz sind vergleichbar mit dem Wechsel von Muskel- auf Dampfkraft. Wie bei früheren Innovationen gibt es auch in Bezug auf KI sowohl Ängste als auch hohe Erwartungen (an die Maschine wie auch an den Menschen). Allerdings bringt insbesondere Generative KI nicht nur eine quantitative, sondern auch eine qualitative Veränderung. Das bedeutet zum Beispiel, dass nicht nur mehr theologischer Inhalt generiert wird, sondern mit KI auch grundsätzlich anders gearbeitet wird.[2]

Gesellschaftliche Ängste konzentrieren sich oft auf den Verlust von Arbeitsplätzen durch Automatisierung, den Verlust der Privatsphäre und die vermehrte Möglichkeit von Missbrauch, intrasparente kommerzielle Interessen und die organisierte Kriminalität. Im Gegensatz zu anderen, früheren technologischen Errungenschaften kommt hier aber eine weitere Dimension hinzu: Gerade in Technologieunternehmen wird je länger, je mehr die Vision formuliert, dass KI die Intelligenz des Menschen überflügeln könnte, der Mensch die Kontrolle über KI-Systeme verliert und schliesslich von Maschinen verdrängt wird.[3]

Gleichzeitig gibt es grosse Hoffnungen auf verbesserte Effizienz, neue Arbeitsplätze und bessere Lebensqualität durch intelligente Systeme. Durch schnellere, datenbasierte Entscheidungswege und intelligente Automatisierungen wird der Mensch entlastet und kann sich neben der Arbeit wieder den schöneren Dingen im Leben widmen (wobei man sich in den gängigen Erzählungen uneinig ist, wie «die schönen Dinge» näher . Die aktuelle Entwicklung zeigt aber, dass dieses Narrativ als eines der grössten Versprechen der Digitalisierung bislang nicht erfüllt wird, sondern primär eine Neuverteilung von Gewinnern und Verlierern stattfindet bzw. neue Verteilungsprobleme auftreten.

3.3.2 Einfluss auf Kommunikations- und Interaktionsformen

KI-gestützte Assistenten wie Siri oder Alexa sind längst Teil unseres Alltags, während Plattformen wie Netflix oder Spotify mithilfe intelligenter Algorithmen unsere Vorlieben analysieren und uns massgeschneiderte Inhalte präsentieren. Was wir sehen, hören und lesen, wird immer stärker gefiltert – das beeinflusst nicht nur unsere individuelle Wahrnehmung und Interpretation der Welt, sondern auch die Art, wie wir miteinander kommunizieren.

Diese Entwicklung verändert soziale Dynamiken auf eine Art und Weise wie wir sie noch nie erlebt haben: Einerseits ermöglicht KI den Zugriff auf ein weltweites Datennetzwerk und neue Formen der digitalen Zusammenarbeit, andererseits verschieben sich traditionelle soziale Interaktionen. Früher war es zum Beispiel üblich, sich mit Freunden über neue Musik oder Filme auszutauschen – heute entscheidet oft der Algorithmus, was uns überhaupt vorgeschlagen wird. Das kann dazu führen, dass wir uns in personalisierten Informationsblasen bewegen, in denen nur noch Inhalte auftauchen, die unser bestehendes Weltbild bestätigen.

Gleichzeitig übernehmen KI-gestützte Systeme zunehmend Aufgaben in der direkten Kommunikation. Automatisierte Kundenservices, smarte Chatbots und sogar virtuelle Influencer machen den menschlichen Austausch effizienter, aber auch unpersönlicher. Wenn wir uns daran gewöhnen, mit KI statt mit echten Menschen zu interagieren, stellt sich die Frage, welche Auswirkungen das langfristig auf unser soziales Miteinander hat.

Diese Entwicklungen passieren in atemberaubendem Tempo – und mit ihnen verschieben sich Macht- und Besitzstrukturen. Wer die besten Algorithmen kontrolliert, bestimmt, welche Inhalte sichtbar sind und wer in der digitalen Welt Gehör findet. Während einige davon profitieren, besteht das Risiko, dass andere immer stärker von zentral gesteuerten Plattformen abhängig werden. Die Art und Weise, wie wir kommunizieren und uns vernetzen, wird also nicht nur digitaler, sondern auch zunehmend von Maschinen mitgestaltet.

3.3.3 Wenn Laien zu «Experten» werden

Ein wichtiger Aspekt ist die Demokratisierung des Zugangs zu KI-Technologien. Durch die neusten Entwicklungen und technischen Möglichkeiten wurden diese Werkzeuge einer breiten Gesellschaftsschicht zugänglich. Ein Beispiel dafür ist die Verwendung von KI in alltäglichen Anwendungen wie die Bilderkennung und -bearbeitung: Früher waren es Experten, die Bilder in aufwändigen Prozessen bearbeiten konnten, heute ist vieles mit ein paar wenigen Klicks gemacht. Dieser Trend bringt jedoch auch Herausforderungen mit sich, denn nicht alle sind in der Lage, die technischen und ethischen Implikationen bei der Nutzung von KI nachzuvollziehen. Ein zentrales Problem ist dabei, zu erkennen, ob es sich bei Texten und Bildern tatsächlich um Originale handelt oder wann und durch wen sie in welcher Form verändert wurden.

3.3.4 Soziale Ungleichheit und KI

Die Diskussion über soziale Ungleichheit hat durch die Einführung von KI in viele gesellschaftliche Prozesse eine neue Dimension erhalten. Das Internet und die Digitalisierung gaben ursprünglich das Versprechen ab, allen Menschen Zugang zu Informationen und Technologien zu ermöglichen – nun offenbart sich aber eine neue Form der Ungleichheit. Diese zeigt sich vor allem in der grösstenteils unbeantworteten Frage, ob KI-Technologien überhaupt genutzt werden können oder nicht. Es entstehen neue gesellschaftliche Lager, die im Folgenden kurz beschrieben werden:

Verweigerung/Unfähigkeit vs. aktive, mündige Nutzung: Einige Menschen verweigern KI oder sind unfähig, KI-Technologien zu nutzen, während andere sie aktiv und kompetent einsetzen. Diese Spaltung kann auf Faktoren wie Bildung, Einkommen, religiöse Prägung und Zugang zu Technologie zurückgeführt werden.[4] Global gesehen haben Menschen in wohlhabenderen Regionen oder mit besserem Bildungshintergrund eher Zugang zu Schulungen und Ressourcen, die ihnen helfen, KI effektiv zu nutzen.

Suchtverhalten vs. souveräne Nutzung: Die intensive Nutzung von KI-gestützten Anwendungen, insbesondere in Zusammenhang mit sozialen Medien, kann zu Suchtverhalten führen. Menschen, die nicht in der Lage sind, ihre Nutzung zu kontrollieren, können negativen psychologischen und sozialen Auswirkungen ausgesetzt sein, während andere einen souveränen Umgang mit diesen Technologien pflegen und von ihren Vorteilen profitieren.[5] [6] Aktuelle Studien thematisieren, wie ganze Generationen massgeblich davon betroffen sein könnten.[7]

Naive Nutzung vs. bewusste und gezielte Nutzung: Es gibt Organisationen, die KI unbedarft verwenden, und solche, die sie bewusst und strategisch in einem geordneten Setting einsetzen. Führungskräfte sollten sich gut überlegen, ob und wie sie eine unkontrollierte Nutzung zulassen möchten oder gezielte Regulierungen einführen.

Ungleichheit in der Arbeitswelt und globale digitale Kluft: Während KI wie bereits die Digitalisierung Arbeitsplätze ersetzt, erschafft sie auch neue. Allerdings profitieren nicht alle Arbeitnehmenden gleichermassen von diesen Veränderungen. Hochqualifizierte Fachkräfte, die über die notwendigen Fähigkeiten verfügen, um mit KI-Technologien zu arbeiten, sind besser positioniert, um von den neuen Möglichkeiten zu profitieren. Weniger qualifizierte Arbeitskräfte bzw. solche mit anderen sozialen und kommunikativen Bedürfnissen stehen dagegen in der Gefahr, auf der Strecke zu bleiben.[8] [9] Auch global wird die digitale Kluft durch den ungleichen Zugang zu Internet und digitalen Geräten verstärkt. In vielen ländlichen und einkommensschwachen Regionen der Erde fehlt es an der notwendigen Infrastruktur, um Zugang zu KI-gestützten Diensten und Technologien zu gewährleisten. Dies führt zu einer weiteren Marginalisierung derjenigen, die bereits benachteiligt sind.

3.3.5 Umgang mit Wahrheit und Desinformation

Ein grosses Problemfeld im Zusammenhang mit KI ist der Umgang mit Wahrheit und Desinformation. KI-Systeme werden sowohl zur Verbreitung von Fake News als auch zu ihrer Bekämpfung eingesetzt; sie werden sowohl für die Sicherheit (z.B. in Cyberschutz-Programmen) als auch für Cyberangriffe genutzt. Die grosse Stärke von KI, grosse Datenmengen zu analysieren, Muster zu erkennen und entsprechende Schlüsse daraus abzuleiten, wird von beiden Seiten genutzt. Gerade bei heiklen Themen (z.B. politischen Wahlen aber auch in der theologischen Arbeit) kann KI mittlerweile von einer breiten Bevölkerung für Manipulationen genutzt werden, was es immer schwieriger bis unmöglich macht, Wahrheit von Unwahrheit zu unterscheiden.[10]

3.3.6 KI in verschiedenen Bereichen des gesellschaftlichen Lebens

In Schule und Ausbildung

Die Integration von KI in den Bildungssektor bietet viele Chancen für personalisierte Lernsequenzen und individuelle Förderung. Intelligente Tutoren können den Lernprozess unterstützen und auf die spezifischen Bedürfnisse der Schüler eingehen. Dies kann zu besseren Lernergebnissen und einer inklusiveren Bildung führen.[11] Allerdings stellen sich auch ethische Fragen, beispielsweise in Bezug auf den Datenschutz und die Abhängigkeit von digitalen Systemen. Gerade die Abhängigkeit von KI-Tools und der damit zusammenhängende befürchtete Rückgang des selbstständigen Denkens werden aktuell breit diskutiert. Zudem wird in der aktuellen wissenschaftlichen und politischen Diskussion immer bewusster, dass durch Digitalisierung und KI neue Krankheitsbilder und mentale Risiken in epidemischem Masse gefördert werden und ganze Generationen davon betroffen sind. Denn das traditionelle Kommunizieren, soziale Interagieren und körperliche Verhalten werden in einer Art substituiert, die immer offensichtlicher ungesund für die menschliche Psyche und die neuronale Entwicklung ist.

Am Arbeitsplatz

Am Arbeitsplatz verändert KI die Arbeitsorganisation und die Führungskultur. Durch den Einsatz von KI können Prozesse optimiert und Entscheidungen fundierter getroffen werden. Dies hat Auswirkungen auf alle Berufsfelder und langfristig gesehen könnten diese Veränderungen zu einer neuen Definition von Arbeit und Beruf führen.[12] Von besonderer Bedeutung ist es dabei, ob Prozesse, Entscheidungen und Verantwortlichkeiten noch bei Menschen liegen und transparent sind.

In den Medien, in Social Media, in der politischen Meinungsbildung und in der Werbung

KI beeinflusst die Medienlandschaft erheblich, indem sie journalistische Arbeit erleichtert und personalisierte Inhalte liefert. In den sozialen Medien steuern Algorithmen, welche Inhalte Nutzer sehen, was wiederum die öffentliche Meinungsbildung und Trends stark beeinflusst. Auch in der politischen Meinungsbildung und der Werbung spielt KI eine zentrale Rolle, indem sie gezielte und personalisierte Kampagnen ermöglicht, die auf individuellen Nutzerprofilen basieren.[13]

3.4 KI in der Kirche & Gemeinde

3.4.1 Einleitung

Künstliche Intelligenz bietet wie in allen Branchen auch für Kirche und Gemeinde sowohl Chancen als auch Herausforderungen. KI-Tools können zwar die Effizienz und Reichweite kirchlicher Aktivitäten erheblich verbessern[14], allerdings muss die menschliche Verantwortung gerade in diesen Institutionen hochgehalten werden. Denn das Vertrauen in die Menschen und in die Kirche wird nicht durch KI-Tools gefördert, sondern durch konkret gelebte zwischenmenschliche Beziehungen.[15]

Das kann durchaus bedeuten, dass KI nicht in allen Bereichen des Gemeindelebens eingesetzt wird, auch wenn es gerade in der Verwaltung und in der Kommunikation viele Anwendungsmöglichkeiten gibt. Im Bereich der Seelsorge können KI-Tools in Form von Chatbots scheinbar Unterstützung leisten[16], sind aber (noch) nicht in der Lage, menschliche Empathie zu erfassen und zu imitieren. Im Grossen und Ganzen gibt es einige verbreitete und durchaus berechtigte Bedenken, dass der Einsatz von KI die persönliche und spirituelle Natur der kirchlichen Arbeit beeinträchtigen könnte.[17] Gerade in der kirchlichen Arbeit ist deshalb eine sorgfältige Abwägung der Verantwortlichkeiten von Mensch und Maschine wichtig, damit theologische Grundlagen (z.B. biblische Anthropologie) nicht korrumpiert wird. Eine mögliche Herangehensweise und Hilfestellung bieten die Thesen aus Kapitel 2.

3.4.2 Übersetzung in den Alltag der Gemeindeleitung

Verantwortlichkeiten und Entscheidungsfindung

Die Einführung von KI in Kirchen und Gemeinden bringt neue Verantwortlichkeiten für die Leitungsgremien mit sich. Es ist nicht die Frage, ob KI-Tools genutzt werden sollten oder nicht, sondern wie der Umgang damit sein soll. Mitarbeitende kommen früher oder später mit der Technologie in Kontakt, da sie in viele bestehende Tools eingebaut und so zum Standard wird. Gemeindeleitungen sollten deshalb klare Richtlinien für den ethischen und sicheren Einsatz von KI entwickeln und sicherstellen, dass die Tools im Einklang mit den Werten und Zielen der Kirche stehen. Dazu gehören Entscheidungen über die Auswahl geeigneter und sicherer KI-Tools, Partner und Workshops für die Mitarbeitenden – die in vielen Fällen auch Budgetentscheidungen mit sich bringen. Ebenso ist es Leitungsaufgabe, zu entscheiden, welche (KI-generierten) Inhalte auf welchen Kanälen publiziert werden. Die Verantwortung gerade für Inhalte mit theologischen Aussagen muss zwingend bei menschlichen Leitungspersonen bleiben und darf nie an KI-Systeme abgegeben werden.

Wie solche Entscheidungen gefällt werden, kann unterschiedlich aussehen und ist abhängig von internen Prozessen. Was aber auf jeden Fall sicher ist: Die Entscheidungen müssen fundiert sein, denn sie können durchaus die Zukunft einer Gemeinde beeinflussen. Fundierte Entscheidungen zu treffen, bedeutet im Zeitalter der KI auch, Trends und Hypes kritisch zu hinterfragen. Selbstständiges Denken und ein kritischer Blick hinter die Kulissen von Tool-Betreibern sind unumgänglich. Natürlich zeigen viele Unternehmen ihre wahren Beweggründe nicht, jedoch haben wir in Europa je länger, je mehr Datenschutzvorgaben und Regulierungen (z.B. der EU AI Act). Der unbedarfte Einsatz von KI-Tools kann also auch rechtliche Konsequenzen haben und es liegt in der Verantwortung der Gemeindeleitung, sich nicht nur eingehend zu informieren, sondern auch entsprechende Verhaltensweisen in der Gemeinde zu fordern und zu fördern.

3.4.3 Aufgaben für KI in der Kirche

Wie bereits erwähnt, kann Künstliche Intelligenz für eine Vielzahl von Aufgaben genutzt werden. Im Folgenden wird nochmals etwas genauer auf die einzelnen Bereiche eingegangen – entsprechende Tools und konkrete Anwendungsfälle werden in Kapitel 4 erläutert.

Automatisierte und KI-unterstützte Administration

Grundsätzlich hat Automatisierung nichts mit Künstlicher Intelligenz zu tun, denn Automatisierungen verwenden «hartcodierte» Programme, also einen festgelegten Code. Künstliche Intelligenz dagegen wird nicht programmiert, sondern trainiert. Dennoch kann KI besonders in der Zusammenarbeit mit automatisierten Prozessen schneller zu Lösungen kommen. Vor allem, wenn sich in rascher Abfolge die Bedingungen ändern, wie das beispielsweise in der Administration vor allem in grösseren Kirchgemeinden der Fall ist. Zum Beispiel kann die Termin- und Raumplanung über einen Chatbot auf der Webseite gemacht werden (wobei «Natural Language Processing» als Teilgebiet von KI zur Anwendung kommt), Mitarbeiterverzeichnisse können aufgrund einfacher Text- oder Sprachbefehle automatisch (z.B. in einem CRM) angepasst werden und Ressourcen von ehrenamtlichen Mitarbeitern effizient zugeteilt werden. Bei Meetings können KI-Tools automatisch Notizen und Zusammenfassungen von Besprechungen erstellen und Aufgaben daraus ableiten.[18] [19] Wichtig ist bei all diesen Möglichkeiten, personenbezogene Daten von KI- und Automatisierungs-Tools zu verarbeiten, dass die aktuell geltenden Datenschutzbestimmungen unter allen Umständen eingehalten werden – was dank kleinerer und lokal installierbaren KI-Tools immer weniger zum Problem werden dürfte.

Predigtvorbereitung

In der Predigtvorbereitung können KI-Tools wertvolle Unterstützung bieten, wobei aber der Zeitgewinn durch eine KI-Recherche oder zielgruppengerechte KI-generierte Formulierung nicht «auf Kosten des Erwerbs eigener Kompetenz, Überzeugungen und der eigenen Ergriffenheit»[20] gehen darf. Verschiedene Tools können zwar relevante Bibelstellen und theologische Quellen lesen und bewerten, Inhalte strukturieren und Vorschläge für die Predigtgestaltung oder für Kleingruppenmaterial machen. KI-Tools können dem Prediger, wie andere (digitale) Werkzeuge auch, als Unterstützung dienen, sind aber in keinem Fall eine Abkürzung in der Erarbeitung einer Predigt (vgl. dazu Kapitel 2, These Nr. 10).

Kommunikation

Auch neben der Predigt kann gerade die Generative KI eine grosse Unterstützung in der Formulierung von Briefen, E-Mails oder Newslettern sein. Zielgruppenspezifische Formulierungen, Zusammenfassungen oder humorvolle Anekdoten für Kolumnen können auf Knopfdruck generiert werden. Auch im Bild-, Audio oder Videobereich kann die Generative KI unterstützen, indem genau das Material generiert werden kann, das gebraucht wird.

Des Weiteren können KI-gestützte Chatbots auf Kirchenwebseiten häufig gestellte Fragen beantworten, Informationen über Gottesdienste und Veranstaltungen bereitstellen und Webseitenbesucher zu den richtigen Ressourcen leiten. Diese sind rund um die Uhr verfügbar und bieten eine personalisierte Unterstützung, die besonders für grössere Gemeinden von Vorteil ist.[21] Wichtig zu erwähnen ist hier, dass solche Chatbots eine sorgfältige Planung und Integration erfordern, damit sie den gesetzten Rahmen der Kirche und deren ethischen und datenschutzrechtlichen Richtlinien entsprechen.

3.4.4 Übersetzung in den Alltag der Gemeindemitarbeitenden

Verantwortung der Mitarbeitenden

Obwohl vorher betont wurde, dass der Gemeindeleitung ein Grossteil der Entscheidungsverantwortung zukommt, können und sollen Mitarbeitende miteinbezogen werden. Mehr noch: Mitarbeitende haben für ihren Bereich und ihre Aufgabe auch die inhaltliche Verantwortung – nicht nur aber gerade dann, wenn sie KI-generierte Inhalte veröffentlichen.

Dies hat mehrere Gründe: Mitarbeitende sind in ihren Aufgabenbereichen meistens Experten, haben eine Ausbildung oder eine Begabung, um die Aufgabe bestmöglich auszuführen. Der mögliche Einsatz von KI sollte dementsprechend auf ihre Initiative hin evaluiert werden oder, falls von der Gemeindeleitung verordnet, mit den Mitarbeitenden eng abgesprochen werden.

Des Weiteren ist der Umgang mit Künstlicher Intelligenz ein gesamtgesellschaftlicher Lernpfad, den wir alle gemeinsam beschreiten. Gerade in komplexen Themen wie KI brauchen wir die unterschiedlichen Ansichten und Meinungen, um ein gemeinsames Ziel zu erreichen.

Praktische Anwendungen und Tools

In welchen Bereichen KI-Tools eingesetzt werden, ist abhängig von verschiedenen Faktoren. An dieser Stelle wird auf eine Auflistung von Anwendungsmöglichkeiten und Tools verzichtet; eine ausführlichere Einschätzung findet sich in Kapitel 4.

3.5 Konsequenzen und Leitungsverantwortung

Wie bisher dargelegt wurde, hat Künstliche Intelligenz grosse Auswirkungen auf die täglichen Aufgaben, Prozesse und die Wahrnehmung sowohl der Mitarbeitenden als auch der Gemeindeglieder. Unabhängig davon, ob und wie stark KI-Tools in den einzelnen Tätigkeiten genutzt werden, hat die Technologie einen starken Einfluss auf das kirchliche Leben. Denn die Gesellschaft und die Wirtschaft rund um uns herum beschäftigen sich stark mit der Thematik – Grund genug, dass sich auch die Kirche fragt, wie sie damit umgehen möchte.

3.5.1 Einfluss auf die Gemeindearbeit

Wenn ein Grossteil der administrativen und kommunikativen Aufgaben vereinfacht oder automatisiert werden, wird viel Zeit frei für andere Aufgaben. Um das Potenzial von KI-Tools ungefähr abschätzen zu können, kann zum Beispiel gefragt werden, welche Aufgaben eine «Maschine» aktuell nicht oder nicht zufriedenstellend erledigen oder imitieren kann. Schnell wird klar, dass dies im Gemeindekontext die spezifisch menschlichen Kompetenzen wie Emotionalität oder Spiritualität sind. Eine Maschine wird wahrscheinlich nie menschliche Emotionen wie Angst oder Freude, Trauer oder Schmerz empfinden können – das wird uns Menschen immer einzigartig machen.[22] Entsprechend braucht es Menschen für zwischenmenschliche und spirituelle Angelegenheiten wie Seelsorgegespräche oder gemeinsames Gebet. Diese Aufgaben sollten nach wie vor von Menschen angeleitet und nicht an Avatare delegiert werden.

Wenn KI-Tools wohlüberlegt und geschickt eingesetzt werden, können sie aber auch an der Schnittstelle von Mensch und Maschine grosse Unterstützung für Kirchgemeinden bieten. Ein Seelsorger kann nie ersetzt werden, jedoch könnten Chatbots und virtuelle Assistenten rund um die Uhr einen Teil des Beratungsdienstes übernehmen, Fragen beantworten und ein menschliches Gegenüber imitieren, wenn persönliche Betreuung nicht sofort oder rund um die Uhr möglich ist.

3.5.2 Gesellschaftliche Wahrnehmung der Nutzung von KI im kirchlichen Kontext

Die Einführung von Künstlicher Intelligenz in religiösen Kontexten ruft in der allgemeinen Öffentlichkeit gemischte Reaktionen hervor. Einerseits wird gerade in progressiven Kreisen die Modernisierung und Effizienzsteigerung begrüsst, andererseits gibt es Bedenken bezüglich der Authentizität und der möglichen Entfremdung von traditionellen Werten und Praktiken.

Verschiedene Forschergruppen beschäftigen sich in unterschiedlichen Disziplinen mit der Frage, wie KI und Religion zusammenpassen.[23] Eine repräsentative Umfrage, wie die Nutzung von KI im kirchlichen Kontext wahrgenommen wird, existiert aktuell noch nicht. Die wenigen Beispiele, in denen KI-Systeme im öffentlichen Raum in den kirchlichen Kontext eingebettet wurden, erinnern eher an Kunstinstallationen als an tatsächlich nutz- und auswertbare und schon gar nicht wissenschaftliche Experimente:

  • Beim Evangelischen Kirchentag in Nürnberg 2023 wurde eine von KI generierte Predigt gezeigt – die Rückmeldungen von Gottesdienstbesuchern reichten von «ist eine coole Sache» bis «zu unpersönlich, zu emotionslos, keine Bewegung im Altarraum, keine Atmosphäre».[24]
  • Die Ausstellung «Vater, Sohn & Künstliche Intelligenz» in der Ev.-luth. Kirche St. Markus (Hamburg) im Frühsommer 2024 zeigte eine innovative Verbindung zwischen KI und kirchlicher / spiritueller Erfahrung, was sowohl Faszination als auch Skepsis hervorruft.[25]
  • Auch in der Schweiz war im Sommer 24 die Kunstinstallation «Deus in Machina» in der St. Peterskapelle in Luzern erlebbar: Eine KI in Form von Jesus als Beichtvater konnte zu verschiedenen Fragen Antworten liefern. Das Gespräch war faszinierend und regt zum Nachdenken an, wobei die Maschine nach wie vor spürbar war und ein menschliches Gegenüber nicht ersetzte.[26]

Es lässt sich also feststellen, dass die Gemeinden, welche die Nutzung von KI öffentlich kommunizieren und auch für die Öffentlichkeit nutzbar machen, auf jeden Fall wahrgenommen werden. Das ist einerseits positiv, denn so kann sich die Kirche wieder mehr in die öffentliche Diskussion über Religion, Gott und Spiritualität einbringen. Andererseits müssen aber auch die kirchliche Tradition und Altbewährtes ihren Platz behalten, damit die Kirche für alle Generationen relevant bleibt.

3.5.3 Eine Frage für die Leitungspersonen: Wo und wie setzen wir KI ein?

Die Frage, ob KI eingesetzt wird, sollten sich Leitungspersonen genauso wenig stellen, wie die Frage, ob E-Mails oder generell das Internet im kirchlichen Kontext eingesetzt werden. Beides gehört zur Kirche des 21. Jahrhunderts dazu. Die Frage ist eher, was die Voraussetzungen und Rahmenbedingungen sind und wie die praktische Umsetzung aussieht. Und diese Themen müssen auf Leitungsebene besprochen und geklärt werden.

Ein grosser Vorteil ist, dass Kirchen durch den Einsatz von (Generativer) KI ihren Wirkungskreis erhöhen und neue Zielgruppen ansprechen können, die bisher möglicherweise keinen oder nur erschwerten Zugang zu kirchlichen Angeboten hatten. Wenn genügend Daten vorhanden sind, können dank Künstlicher Intelligenz und Maschinellem Lernen mit verhältnismässig wenig Aufwand auch unerreichte Kulturräume mit dem Evangelium angesprochen werden.[27]

Eine der grössten Herausforderungen beim Einsatz von KI in der Kirche ist jedoch die Wahrung der Authentizität und der menschlichen Beziehungen. Ähnlich wie bei Social Media stehen Leitungspersonen vor der Herausforderung, dass sich die Kirche auf den Screens der Menschen zeigen sollte, gleichzeitig so aber auch zwischenmenschliche Interaktionen auf der Strecke bleiben könnten – gerade bei den jüngeren Generationen. Mit KI ist die Bespielung von Kommunikationskanälen noch einfacher und kostengünstiger geworden, gleichzeitig ist es auch einfacher, sich hinter einem KI-generierten Avatar zu verstecken und nicht mehr sein wahres Gesicht zu zeigen.

Eine Abwägung zwischen Nutzen und Gesichtsverlust (im wahrsten Sinne des Wortes und im übertragenen Sinn) ist deshalb neu ein grosser Teil der Leitungsaufgabe. Denn Künstliche Intelligenz kann auch für Deepfakes missbraucht werden und dadurch eine Gemeinde und vor allem Pastoren in unvorteilhaftes Licht rücken. Die Herausforderung, die Leitungspersonen in Zusammenhang mit Künstlicher Intelligenz angehen müssen, lässt sich am besten wie folgt beschreiben: Alle digitalen Daten (in Form von Predigten, theologischen Statements, aber auch harmlosen E-Mails oder Zeitungsartikeln) können missbraucht werden, was an sich eine Herausforderung ist, die schon vor Jahrzehnten im Zuge der Digitalisierung aufkam. Allerdings ist es durch die rasante Verbreitung von KI-Tools einer breiten gesellschaftlichen Schicht nun möglich, die Daten auch missbräuchlich und für schädliche Zwecke zu verwerten.

Neben der Datensicherheit besteht auch das Risiko, dass Gemeinden zu sehr von Technologie abhängig werden und traditionelle Methoden und Werte vernachlässigen.[28] Denkbar ist hier die realistische Gefahr einer Vernachlässigung bewährter theologischer Konzepte, die durch den Einsatz von Künstlicher Intelligenz durchaus in Frage gestellt werden könnten.

Leitungspersonen sollten sich die Frage stellen: Inwiefern ersetzt oder bereichert Technologie in einer bestimmten Aufgabe einen Menschen, eine menschliche Interaktion oder auch eine Mensch-Gott-Interaktion (z.B. in der Formulierung von Predigten)? Oder noch mehr: Wo vertrauen wir der Technologie (z.B. KI-generierten Worten) mehr als zum Beispiel biblischen Aussagen (z.B. in der Formulierung von Gebeten oder Liedern)? Leitungspersonen müssen beides abwägen und eine Balance finden zwischen dem Einsatz von zukunftsgerichteten Technologien wie KI und einer rückwärtsgewandten Verbundenheit mit kirchlicher Tradition.[29]

Eine solche Abwägung ist nicht einfach und sollte nicht schnell einmal in einer Gemeindeleitungssitzung am Rande besprochen werden. Vielmehr ist davon auszugehen, dass wir die nächsten Jahre und Jahrzehnte damit beschäftigt sein werden, uns mit solchen Gedanken auseinanderzusetzen, da sie die Wirkung von 2000 Jahre Kirchengeschichte grundlegend in Frage stellen können und entscheidend für die Zukunft der Kirche sind.

Um den immer schnellen stattfindenden Veränderungen gewachsen zu bleiben, sind in den meisten Fällen auch Anpassungen bei den klassischen Rollen nötig. Das heisst, die Rolle der Gemeindeleitung verändert sich im Rahmen der Einführung von KI insofern, dass neue Fähigkeiten erlernt werden müssen, weil neue Verantwortlichkeiten hinzukommen. Eine Gemeindeleitung kann sich in der Gemeindeentwicklung nicht mehr nur theologischen oder ethischen Fragen widmen, sondern muss auch ihre technischen Kompetenzen entwickeln und erweitern – sei das durch Schulungen der bestehenden Mitarbeitenden oder dadurch, dass Technologiepartner und -berater in bestehende Gremien eingeladen werden.

3.5.4 Orientierung und Wegweisung für den Umgang mit KI

Nicht nur die Gemeindeleitung muss einen guten Umgang mit Technologie im Allgemeinen und Künstlicher Intelligenz im Speziellen finden. In den Lernprozess ist die ganze Gemeinde und jedes Gemeindeglied mit seinem Umfeld involviert.

Um Orientierung zu finden, ist einerseits der Austausch wichtig, sowohl mit Experten als auch mit Gemeindegliedern und anderen Gemeinden. Gerade andere Gemeinden, die vielleicht sogar eine andere theologische Ausrichtung haben, aber bereits erfolgreich KI-Technologien integriert haben, können eine erfrischende alternative Sicht auf die Herausforderungen in der eigenen Gemeinde bieten.

Andererseits sollte die Gemeindeleitung auch Orientierung und Aufklärung in Form von Workshops, Seminaren oder Informationsmaterialien für die Gemeinde bieten. Damit kann sichergestellt werden, dass alle Mitglieder die gleichen Chancen und das gleiche Wissen im Umgang mit KI haben und die Technologie in allen Bereichen der Gemeinde verantwortungsvoll eingesetzt wird.

Wenn die Leitungspersonen ein klares Bild von KI und den Auswirkungen auf die Gemeinde haben, sollten sie sich zuerst klar positionieren. Jede Gemeinde oder jeder Verband sollte eine klare Haltung zum Einsatz von KI formulieren und kommunizieren. Diese Haltung sollte auf den theologischen Grundsätzen und den ethischen Überzeugungen der Kirche basieren und von den Bereichs- und Teamleitenden mitgetragen werden.

Wenn die Grundlagen festgelegt sind, geht es an die Entwicklung einer Strategie zur schrittweisen Integration von KI-Technologien, die sicherstellt, dass die Technologie auf ihre Auswirkungen überprüft wird. Eine solche Strategie enthält im besten Fall Pilotprojekte und Testphasen, damit in klar definiertem, sicherem Rahmen Erfahrungen gesammelt werden können. Wie eine solche Strategie im Detail aussehen könnte, ist in Kapitel 3.7.2 näher umschrieben.

3.6 Gesetzgebung

Bis hierhin haben wir uns viel mit der externen Wahrnehmung von KI in kirchlichem Kontext beschäftigt sowie Chancen und Herausforderungen behandelt. In diesem Abschnitt schauen wir uns an, welche gesetzlichen Rahmenbedingungen gegeben sind und was das für den Einsatz von KI in der Gemeinde bedeutet.

Wichtig: Die in diesem Abschnitt dargestellten Bedingungen und Handlungsempfehlungen erheben keinen Anspruch auf Vollständigkeit oder Rechtsgültigkeit und ersetzen keine ausführliche Beratung durch einen Fachanwalt.[30] Zudem geben sie den im März 2025 aktuellen Stand der Regulierung wieder.

3.6.1 Aktuelle rechtliche Rahmenbedingungen

Überblick über die rechtlichen Rahmenbedingungen

Die Europäische Union hat mit dem «Artificial Intelligence Act» (AI Act) einen umfassenden Rechtsrahmen geschaffen, der die Nutzung von Künstlicher Intelligenz in der EU regulieren soll. Der AI Act legt Regelungen für Transparenz, Sicherheit und Verantwortlichkeit fest und definiert spezielle Bestimmungen für Hochrisikoanwendungen (z.B. Überwachungssysteme). Er verfolgt einen risikobasierten Ansatz und kategorisiert KI-Anwendungen nach ihrem potenziellen Risiko.[31]

In der Schweiz gibt es aktuell noch keine gesetzlichen Regelungen für den Vertrieb oder Einsatz von KI-Systemen. Der Bundesrat hat sich mit den Entwicklungen, Chancen und Herausforderungen von KI befasst. Er hat das Eidgenössisches Departement für Umwelt, Verkehr, Energie und Kommunikation beauftragt, bis Ende 2024 mögliche Ansätze zur Regulierung von KI aufzuzeigen und dabei alle Bundesstellen miteinzubeziehen, die bei den betroffenen Rechtsbereichen federführend sind. In einer Medienmitteilung vom 12. März 2025[32] wird neben einer Erklärung des Status Quo auch ein Fahrplan kommuniziert:

  • Die KI-Konvention des Europarats[33] wird ins Schweizer Recht übernommen.
  • Wo Gesetzesanpassungen nötig sind, sollen diese möglichst Sektor bezogen ausfallen. Das heisst, für Kirchen und NPOs können andere Gesetze gelten als für Handwerksbetriebe.
  • Die Regulierung im Bereich KI soll sich an drei Zielen orientieren: Der Stärkung des Innovationsstandorts Schweiz, der Wahrung des Grundrechtsschutzes inklusive der Wirtschaftsfreiheit sowie der Stärkung des Vertrauens der Bevölkerung in KI.
  • Bis Ende 2026 werden das Eidgenössische Justiz- und Polizeidepartement, das Eidgenössisches Departement für Umwelt, Verkehr, Energie und Kommunikation sowie das Eidgenössische Departement für auswärtige Angelegenheiten eine Vernehmlassungsvorlage erstellen, welche.

Ein zentrales Thema bei KI-Regulierungen ist der Schutz personenbezogener Daten. KI-Systeme verarbeiten grosse Mengen an Daten, was besondere Anforderungen an den Datenschutz stellt. Die Datenschutz-Grundverordnung und das Schweizerische Datenschutzgesetz bieten hier einen rechtlichen Rahmen, der sicherstellt, dass personenbezogene Daten sicher verarbeitet werden. Zudem müssen Verantwortlichkeiten bei der Nutzung von KI geklärt werden, insbesondere hinsichtlich der Haftung bei Fehlern oder Schäden, die durch KI-Systeme verursacht werden.

3.6.2 Spezifische Regelungen für die Nutzung von KI in religiösen Kontexten

Aktuell gibt es keine spezifischen Regelungen für die Nutzung von KI in religiösen Kontexten. Wie alle anderen Organisationen müssen auch Kirchen sicherstellen, dass die Daten ihrer Mitglieder, Webseite-Besucher oder Nutzerinnen und Nutzer von Seelsorgeangeboten besonders geschützt sind – unabhängig davon, ob die Daten ausschliesslich intern oder für KI-Tools verwendet werden. Dies betrifft sowohl die technischen Massnahmen zur Datensicherheit als auch die organisatorischen Regelungen zur Datennutzung und -verarbeitung.

3.6.3 Plagiate und Kennzeichnung

Die Nutzung von KI-Tools zur Textgenerierung und Recherche erhöht die Gefahr von Plagiaten. Die einfache Zugänglichkeit von KI-generierten Inhalten kann dazu führen, dass diese ohne angemessene Quellenangabe genutzt werden – zumal die Herkunft der Trainingsdaten von Sprachmodellen und anderen KI-Systemen nicht bekannt ist. Darum ist es von Vorteil, eine KI-Software einzusetzen, welche Quellenangaben mitliefert, z.B. Perplexity.ai oder Microsoft Copilot. Es besteht allerdings aktuell keine Pflicht, KI-generierte Texte, Bilder, Videos oder Audios zu kennzeichnen (es sei denn, der Betreiber des KI-Tools untersteht dem EU AI Act).

3.6.4 Zukünftige Entwicklungen und Anpassungen

Es wird erwartet, dass der EU AI Act kontinuierlich weiterentwickelt wird, um den schnellen technologischen Fortschritten und neuen Anwendungsfeldern gerecht zu werden. Diese Anpassungen sollen sicherstellen, dass der Rechtsrahmen immer aktuell bleibt und neue Herausforderungen berücksichtigt. Vor allem für die Hersteller und Vertreiber von KI-Tools werden die Regulierungen eher mehr als weniger. Allerdings ist Europa in diesem Punkt restriktiver als andere Länder und Regionen, was auch dazu führen kann, dass wir den Zugriff auf leistungsfähige KI-Tools verlieren – auch in der Schweiz, da sich die Schweizer Gesetzgeber eher an EU-Recht als beispielsweise an amerikanischem Recht orientieren.

Die Integration von KI in kirchliche Strukturen wird zunehmend durch ethische Standards und Leitlinien geprägt sein. Diese sollen sicherstellen, dass die Nutzung von KI nicht nur rechtlich, sondern auch ethisch einwandfrei ist. Zudem wird es zunehmend Fortbildungen und Aufklärungsangebote geben, um Gemeindemitglieder und Mitarbeiter im Umgang mit KI zu schulen und zu sensibilisieren. Diese Massnahmen sollen dazu beitragen, dass KI-Technologien verantwortungsvoll und bewusst eingesetzt werden. So könnte es sein, dass Kirchen und kirchennahe Institutionen eine massgebliche Stimme bei der Entwicklung und im Einsatz von KI-Tools werden.

3.7 «KI und Kirche» – ein Projekt zum gemeinsamen Nach- / Weiterdenken und Umsetzen

Natürlich kann sich ein kirchliches Leitungsgremium an dieser Stelle die Frage nach Aufwand und Nutzen stellen: Übersteigt im Wissen um die Gefahren und Risiken des Einsatzes von KI tatsächlich der Nutzen den Aufwand? Verschiedene Personen werden hier zu unterschiedlichen Schlüssen kommen, nicht zuletzt abhängig von der Gemeindestruktur, der Technikaffinität von Leitenden und Mitarbeitenden, den Zielen und Ideologien. Das ist völlig legitim. Als Leitungsteam sollte man sich aber darüber im Klaren sein, dass der Einsatz von KI ein Zug ist, den niemand mehr aufhalten kann.

Sich als Kirche gegen die Nutzung von KI zu entscheiden, bedeutet in der Praxis, dass Pastorinnen und Mitarbeiter trotzdem diese Werkzeuge nutzen und nach ihren eigenen Massstäben handeln und entscheiden werden. Das Fahren ohne Leitplanken erhöht das Risiko des Missbrauchs und löst die Bedenken der Kirche in keiner Weise. Ein bewusster Einsatz von KI mit vereinbarten Rahmenbedingungen und Richtlinien ist daher immer der klügere Ansatz.

In diesem Abschnitt soll es deshalb um das Projekt «KI und Kirche» gehen – ein Weg, den wir alle gemeinsam beschreiten. Es werden hier ein paar grundsätzliche Überlegungen vorgestellt, die es Kirchen, Gemeinden und christlichen Werken ermöglichen sollen, selber aktiv zu werden.

3.7.1 Ziele des Projekts

Initiierung und Begleitung von Pilotprojekten

Um die Möglichkeiten von KI optimal zu nutzen und Herausforderungen zu bewältigen, ist es essenziell, dass Kirchen und Gemeinden gemeinsam über den Einsatz nachdenken und entsprechende Projekte initiieren. Für nachhaltig erfolgreiche KI-Projekte ist es allerdings von grosser Bedeutung, dass nicht nur Leitungspersonen von Lokalgemeinden, sondern alle Mitglieder von Gemeinden und Verbänden sich mit diesem gesellschaftsverändernden Thema befassen – jeweils auf eine Weise, die ihrer Rolle und ihren Möglichkeiten entspricht.

Förderung des Dialogs

Es soll ein offenes, denominationsunabhängiges und moderiertes Forum entstehen, das Raum bietet für Diskussionen über die Rolle und den Einsatz von KI im kirchlichen Kontext. Nicht nur technische, sondern auch theologische und ethische Fragen sollen in einem angstfreien Raum erörtert werden können.

Gemeinsames Lernen

Auf einer Lernplattform sollen kuratierte Ressourcen und Materialien bereitgestellt werden, um das Verständnis und die Kompetenzen im Umgang mit KI zu verbessern. Erfolgreiche Strategien und Best Practices sollen hier geteilt werden, um bewährte Vorgehensweisen zu fördern. Ebenfalls sollen on- und offline von einer Fachstelle zentral koordinierte Veranstaltungen organisiert werden, bei denen Experten aus den Bereichen KI, Theologie, Ethik, Datenschutz & Recht etc. Vorträge und Workshops halten.

Forschung und Entwicklung

Die Erforschung der Nutzung von Künstlicher Intelligenz im kirchlichen Kontext ist entscheidend, um fundierte und ethisch vertretbare Entscheidungen treffen zu können. Das Projekt «KI und Kirche» soll aktiv Forschungsprojekte fördern und unterstützen, die sich mit den verschiedenen Aspekten des KI-Einsatzes beschäftigen. Die relevanten Forschungsbereiche sind insbesondere die folgenden:

  • Technologische Anwendungen: Untersuchung der Einsatzmöglichkeiten von KI in der Verwaltung, Seelsorge und Gemeindearbeit.
  • Ethische Implikationen: Erforschung der ethischen Herausforderungen und Fragen, die durch den Einsatz von KI in der Kirche aufgeworfen werden.
  • Soziale Auswirkungen: Analyse der sozialen Auswirkungen von KI auf Gemeindemitglieder und das kirchliche Leben.
  • Organisationsentwicklung: KI kann eine kulturelle Transformation hin zu datenbasierten Entscheidungsprozessen auslösen und die Frage aufwerfen, auf welchen Grundlagen Entscheidungen getroffen werden.

Eine enge Zusammenarbeit mit Universitäten und Forschungseinrichtungen kann dazu beitragen, aktuelle Entwicklungen und Forschungsergebnisse in die kirchliche Praxis zu integrieren.

Publikationen und Newsletter

In regelmässigen Abständen sollen die aktuellen Entwicklungen, Forschungsergebnisse und praktische Tipps zum Einsatz von KI in der Kirche veröffentlicht werden. Diese können sowohl in gedruckter Form als auch digital verfügbar gemacht werden, damit möglichst viele Kirchen, Leitungspersonen und Gemeindeglieder mit kuratierten Inhalten erreicht werden.

Ressourcen und Unterstützung

Um den Erfolg des Projekts zu gewährleisten, ist es wichtig, dass ausreichende Ressourcen und Unterstützung zur Verfügung stehen. Zu denken ist hier vor allem an die Bereitstellung von finanziellen Mitteln, technischen Ressourcen und der Unterstützung durch Fachexperten. Spezifische Fundraising-Projekte bei Unternehmen oder auch bei Fakultäten könnten hier eine zentrale Rolle spielen, damit auch kleinere Gemeinden von der Expertise und dem Austausch profitieren können.

3.7.2 Entwicklung einer KI-Strategie

Neben dem übergeordneten und zentral koordinierten Projektteil soll jede Kirche (oder jeder Verband) eine Vorstellung davon haben, wie ihre Strategie zur Einführung von Künstlicher Intelligenz in den lokalen Gemeinden aussehen soll. Im Folgenden geben wir deshalb ein paar grundsätzliche Schritte mit, die helfen können, eine Strategie zu entwerfen.

  • Bedarfsanalyse: Identifikation der einzelnen Bereiche, in denen KI einen Mehrwert bieten kann, z.B. in der Verwaltung, Seelsorge oder Kommunikation.
  • Zieldefinition: Festlegung klarer Ziele für den Einsatz von KI in der Kirche (z.B. welche Aufgabe bis wann um wie viel Prozent effektiver werden soll).
  • Technologieauswahl: Auswahl der geeigneten KI-Technologien und -Tools, die den definierten Zielen entsprechen (eine Auswahl von Tools findet sich in Kapitel 4).
  • Handlungsrichtlinien: Die involvierten Mitarbeitenden und Gemeindeglieder müssen sich an verbindliche Richtlinien halten, in denen unter anderem ethische und datenschutzrechtliche «Dos and Don’ts» festgehalten sind. Die ausgewählten Tools müssen sich diesen Richtlinien in jedem Fall unterordnen.
  • Pilotprojekte: Durchführung von Pilotprojekten, um die Wirksamkeit und Praxistauglichkeit der ausgewählten Technologien zu testen.
  • Evaluation: Regelmässige Überprüfung und Anpassung der Strategie basierend auf den Ergebnissen der Pilotprojekte und dem Feedback der Gemeindeglieder.

 


 

[1] Vgl. Kapitel 2, v.a. Thesen 9 und 10

[2] Eine Wertung dieses Sachverhalts wird unter anderem in Kapitel 2 formuliert.

[3] In diesem Zusammenhang ist der Film «End of Humanity» empfehlenswert: https://www.swiss-ai-experts.ch/the-end-of-humanity-ein-globales-film-event-mit-einer-alternativen-vision-fuer-ki/

[4] Vgl. Chui, Michael et al.: The state of AI in 2023: Generative AI’s breakout year (Stand 19.08.2024) https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-ais-breakout-year. [2023].

[5] Vgl. Giattino, Charlie et al.: Artificial Intelligence (Stand: 19.08.2024): https://ourworldindata.org/artificial-intelligence. [2023].

[6] Vgl. Whiting, Kate: Growth Summit 2023: The impact of AI on growth, according to experts (Stand 19.08.2024) https://www.weforum.org/agenda/2023/05/growth-summit-2023-the-impact-of-generative-ai-on-growth-according-to-experts/. [2023].

[7] Vgl. Haidt, Jonathan: Generation Angst [2024]

[8] Vgl. Maslej, Nestor et al.: Artificial Intelligence Index Report 2023 (Stand: 19.08.2024) https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf. [2023].

[9] Vgl. Europäisches Parlament: Künstliche Intelligenz: Chancen und Risiken (Stand 19.08.2024) https://www.europarl.europa.eu/pdfs/news/expert/2020/9/story/20200918STO87404/20200918STO87404_de.pdf.

[10] Vgl. Kapitel 2, These 5: Zweischneidiges Schwert aus «Allgemeiner Gnade» und Gefallenheit: Die gesellschaftliche Dynamik um KI-Tools ist u.a. aus dem Spannungsfeld zwischen allgemeiner Gnade und Gefallenheit zu betrachten.

[11] Vgl. Schwarzenbach, Robin: Ein Zürcher Maturand sagt: «Ich habe keines meiner Bücher gelesen. Das hat alles die KI für mich gemacht». Begegnung mit einem Schüler, der sich Goethes «Faust» komplett von Chat-GPT erläutern liess – und an der Abschlussprüfung die Bestnote erzielte. (Stand: 19.08.2024) https://www.nzz.ch/zuerich/ki-in-der-schule-mit-chat-gpt-fuer-die-matur-lernen-ld.1827160. [2024].

[12] Vgl. Europäisches Parlament: Künstliche Intelligenz: Chancen und Risiken (Stand 19.08.2024) https://www.europarl.europa.eu/pdfs/news/expert/2020/9/story/20200918STO87404/20200918STO87404_de.pdf.

[13] Vgl. Delcker, Janosch: Wie verändert künstliche Intelligenz die Gesellschaft? (Stand: 19.08.2024) https://www.dw.com/de/k%C3%BCnstliche-intelligenz-wie-revolutioniert-ki-die-gesellschaft/a-65192292. [2023].

[14] Vgl. Kapitel 5 Fragen & Antworten, Nr. 11

[15] Vgl. dazu auch die Ausführungen in Kapitel 2 Theologie.

[16] Vgl. ARD Wissen: Better Than Human? – Leben mit KI (Stand: 19.08.2024) https://www.ardmediathek.de/video/ard-wissen/better-than-human-leben-mit-ki/das-erste/Y3JpZDovL21kci5kZS9zZW5kdW5nLzI4MjA0MS8yMDIzMTIyOTA2MDAvbWRycGx1cy1zZW5kdW5nLTc4NzI. [2023].

[17] Vgl. Yeo, Praisye: The Impact of Artificial Intelligence in the Church (Stand: 19.08.2024). https://www.altarlive.com/blog/the-impact-of-artificial-intelligence-on-the-church-embracing-the-opportunities. [2023].

[18] Vgl. Missional Marketing: AI-Powered Church Communications: The Next Big Thing in Ministry (Stand: 19.08.2024). https://missionalmarketing.com/ai-powered-church-communications-the-next-big-thing-in-ministry. [2023].

[19] Vgl. Church Tech Today: 7 Innovative Ways For Churches To Use AI Effectively (Stand: 19.08.2024). https://churchtechtoday.com/ways-for-churches-to-use-ai. [2024].

[20] Vgl. Kapitel 2 Theologie, These 10

[21] Vgl. Yeo, Praisye: The Impact of Artificial Intelligence in the Church (Stand: 19.08.2024). https://www.altarlive.com/blog/the-impact-of-artificial-intelligence-on-the-church-embracing-the-opportunities. [2023].

[22] Zur Frage, ob und inwiefern Maschinen menschliche Emotionen imitieren und eines Tages sogar «aus sich selbst heraus» Emotionalität erlernen können, gehen die Meinungen weit auseinander. Jedoch ist der Mensch in seiner Zusammensetzung aus Körper, Seele und Geist ein Konstrukt, das nicht einfach digitalisiert und «auf eine Platine gelötet» werden kann.

[23] Zum Beispiel: Netzwerk für Theologie & Künstliche Intelligenz (Stand: 29.09.2024) https://nethki.digital/ueber-uns. [2021].

[24] Sell, Dieter: Alles aus der Maschine. Kirchentag feiert Deutschlands ersten KI-Gottesdienst (Stand 29.09.2024) https://www.evangelisch.de/inhalte/217045/09-06-2023/alles-aus-der-maschine-kirchentag-feiert-deutschlands-ersten-ki-gottesdienst. [2023].

[25] St. Markus Hoheluft: Vater, Sohn & Künstliche Intelligenz (Stand: 28.09.2024) https://ki-kirche.de. [2023].

[26] Jungen, Anna: Digitale Seelsorge. Keine Offenbarung: Zu Besuch beim Luzerner KI-Jesus (Stand 29.09.2024). https://www.srf.ch/kultur/gesellschaft-religion/digitale-seelsorge-keine-offenbarung-zu-besuch-beim-luzerner-ki-jesus. [2024].

[27] Echte Beispiele der interkulturellen Mission sind noch nicht bekannt (wohl einfach deshalb, weil die Datenbeschaffung und -bewirtschaftung zu teuer für spendenfinanzierte Projekte ist). Aber die Vorstellung, dass z.B. aus Sinus-Studien Daten ausgewertet und daraus mit KI eine zielgruppengerechtere Ansprache (im Vergleich zu herkömmlichen Kirchenmodellen) generiert werden kann, ist durchaus plausibel.

[28] «Traditionell» meint an dieser Stelle vor allem den Fokus auf bewährte Werte und Methoden, die in den letzten Jahrhunderten auch ohne Technologie ausgekommen sind: Z. B. Persönliche und «langsame», statt digitale und schnelllebige Kommunikation, lokale Vernetzung statt Globalisierung oder Entscheidungsfindung durch persönliche Beratung statt aufgrund von Datenanalysen und Algorithmen.

[29] Vgl. dazu auch Kapitel 2, Theologie

[30] Das bedeutet nicht, dass sich jede Kirche, Gemeinde oder jedes christliche Werk einen Fachanwalt beiziehen muss. Empfehlenswert wäre eine Beratung auf Verbandsebene, damit die Lokalgemeinden ihre Richtlinien entsprechend anpassen und gewisse allgemeingültige Elemente übernehmen kann.

[31] Vgl. Future of Life Institute: Der AI Act Explorer (Stand 29.09.2024). https://artificialintelligenceact.eu/de/ai-act-explorer. [2024].

[32] KI-Regulierung: Bundesrat will Konvention des Europarats ratifizieren (Stand: 08.03.2025). https://www.admin.ch/gov/de/start/dokumentation/medienmitteilungen.msg-id-104110.html. [2025].

[33] Vgl. Swissinfoi.ch: Europarat nimmt KI-Konvention an (Stand 08.03.2025). https://www.swissinfo.ch/ger/europarat-nimmt-ki-konvention-an/77798121. [2024].

Autor: Sandro Jacky
Zielgruppe: Mitarbeitende im kirchlichen Umfeld

 

4.1 Abstract

Ideen für die nächste Gottesdienstreihe aushecken? Für den nächsten Sonntag eine passende neue Strophe zu «Grosser Gott wir loben dich» dichten? Oder mit Nikodemus.AI aktuelle biblische Fragen diskutieren[1]?

Um einen raschen Einstieg in den Umgang mit KI-Tools zu ermöglichen, werden hier verschiedene Anwendungen im Kirchen- und Gemeindeumfeld vorgestellt. Solche Tools können in wiederkehrenden, aber auch bei kreativen Aufgaben unterstützen und Denkanstösse liefern. Ein möglichst breites Feld von Nutzungsmöglichkeiten soll Ideen für möglichst unterschiedliche Gruppen liefern. Viele davon können direkt angewendet werden. Neben einer prägnanten Beschreibung der Anwendung geht es auch um den Reifegrad, die Praktikabilität und die Kosten.

Einleitend wird auf wichtige Punkte hingewiesen, die für einen wertvollen und effizienten Umgang mit den verschiedenen KI-Anwendungen zu beachten sind. Wie und wo setzen wir KI-Tools ein, was gibt es bei der Eingabe zu beachten und was stellen wir mit dem Ergebnis an?

Auch wichtig, jedoch hier nicht aufgeführt, ist die Funktionsweise von KI-Modellen und wie die Resultate generiert werden. Informationen dazu sind im Abschnitt 1.2 «Wie funktioniert Künstliche Intelligenz?» zu finden.

Dieses Kapitel soll Impulse und Ideen liefern, wie und wofür KI-Tools eingesetzt werden können. Der nächste Schritt ist das Ausprobieren und Anwenden an konkreten Alltagsbeispielen. Aufgrund der hohen Dynamik, mit der neue KI-Tools entwickelt werden, wird diese Liste weder vollständig noch dauerhaft gültig sein.

4.2 Wie setze ich KI-Tools ein

Durch einen spielerischen Umgang mit der KI lernen wir, das Potenzial zu erfassen, aber auch die Grenzen kennen. Das dafür notwendige Grundwissen wird in den folgenden Abschnitten angesprochen.

4.2.1  Neuartiger Einsatz

Auch wenn gewisse Anwendungen zurzeit irritieren, ist zu erwarten, dass der Einfluss von KI in der Gesellschaft stark wachsen und dies auch Auswirkungen auf die Gemeindeglieder haben wird. Jonas Simmerlein bringt es auf den Punkt: «KI gestaltet Gesellschaft und Gesellschaft gestaltet Religion.»[2] Wir wollen offen bleiben für Neues und dessen Nutzen unvoreingenommen prüfen.

4.2.2  Umgang mit sensiblen Daten

Personenbezogene und andere sensible Daten müssen sorgfältig behandelt werden. Dabei gilt es, sich an die geltenden Datenschutz-Richtlinien zu halten.

Als hilfreiche Faustregel gilt: Gib nur Dinge in ein KI-System ein, die jeder problemlos per E-Mail an unbeteiligte externe Dritte (die ganze Welt) weiterleiten könnte, ohne zuvor die Quelle der Information um Erlaubnis zu bitten.[3] Dies ist notwendig, da viele KI-Systeme mit den Benutzereingaben kontinuierlich lernen und diese Informationen weiterverwenden, um Antworten für andere Benutzer zu generieren.

4.2.3  Ergänzen statt Ersetzen

KI-Tools können uns auf vielfältige Weise unterstützen und ergänzen. Im Folgenden werden mögliche Anwendungen und ihre Grenzen aufgezeigt. Man bewegt sich also in einem Spannungsfeld, bei dem die Unterstützung des Menschen im Vordergrund stehen soll.

KI-Tools können uns ergänzen, indem sie als digitale Assistenten repetitive Aufgaben automatisieren, uns rasch einen Einblick in neue Arbeitsgebiete aufzeigen oder helfen, kreative Ideen zu entwickeln («Sparring-Partner»). Dies soll Ideenentwicklungen aus menschlichen Teams sinnvoll unterstützen.

In Gemeinden können KI-Tools einen wichtigen Zweck erfüllen, wenn Personal fehlt oder der konventionelle Aufwand für eine Aufgabe zu hoch ist. Dabei soll nicht Personal- und Kostenreduzierung im Fokus sein, sondern das Ergänzen und Unterstützen von Teams, die zu wenig Ressourcen haben.

Im Gottesdienst können KI-Tools eine neue Art des Erlebens schaffen und jüngere Menschen ansprechen, die mit der Digitalisierung aufgewachsen sind. Dabei soll die Beziehung zwischen Gott und den Menschen nach wie vor im Zentrum stehen.

Weitere Informationen dazu finden sich im Abschnitt 3.4 «KI in der Kirche & Gemeinde».

4.2.4  Zielgerichtete Eingaben liefern bessere Ergebnisse

Bei vielen KI-Tools wird das Ergebnis durch eine textbasierte Eingabe (Prompt) generiert. Da die KI-Tools spätestens seit 2023 immer raffinierter werden, liefern auch einfache Eingaben teilweise gute Ergebnisse. Dennoch ist dringend zu empfehlen, sich mit den Möglichkeiten verschiedener Eingaben auseinanderzusetzen, Verschiedenes auszuprobieren und die Resultate zu vergleichen. Denn nach wie vor ergibt eine bessere Eingabe ein besseres Ergebnis.

Eine gute Eingabe benötigt Zielorientierung und Präzision. Sie muss spezifisch und eindeutig genug sein, um das gewünschte Ergebnis zu erzielen, ohne jedoch die Kreativität oder Flexibilität des Modells einzuschränken. Es braucht den nötigen Kontext in einer vernünftigen Länge. Je spezifischer die Antwort sein soll, desto mehr Hintergrundinformationen werden für eine passende Antwort benötigt. Auch Sprache und Stil können z.B. durch die Verwendung von Fachjargon oder spezifischer Stilrichtung die Antwort beeinflussen. Dabei können Schlüsselwörter wie zum Beispiel detailliert, freundlich, tabellarisch, für Kinder, originell, visionär, einen guten Dienst leisten.[4]

Ein Beispiel einer Anfrage auf ChatGPT plus: «Besuche die Webseite unseres Hauptkonkurrenten unter www.konkurrent-website.com. Analysiere die Hauptmerkmale seiner Produkte und Dienstleistungen und erstelle eine Liste mit fünf Punkten, in denen wir uns verbessern könnten, um wettbewerbsfähiger zu werden.»

Dabei sollte man sich auf eine Frage konzentrieren und durch Nachfragen das Ergebnis immer mehr in die gewünschte Richtung lenken. Die KI-Modelle greifen dabei auf die vorangehende Unterhaltung zurück.

4.2.5  Prüfen und Hinterfragen

Unter Berücksichtigung dieser Aspekte können KI-Tools bereits vielfältig eingesetzt werden. Bei keinem Einsatz von KI-Tools darf jedoch die kritische Auseinandersetzung mit dem Ergebnis vernachlässigt werden. Mehr noch, es muss ein Bewusstsein dafür geschaffen werden, wie die Inhalte zu bewerten sind. Hier helfen Schulungen, die einerseits ein Grundverständnis der Materie und andererseits gezielt Informationen vermitteln, um sich laufend an technische und rechtliche Neuerungen anzupassen. Der Bewertung der Ergebnisse muss ein hoher Stellenwert eingeräumt werden, da mit der Übernahme der Ergebnisse auch die Verantwortung übernommen wird.

4.2.6  Transparenz in der Anwendung von KI

Indem wir den Einsatz von KI-Tools transparent kommunizieren, schaffen wir Vertrauen. Wir wollen ehrlich einschätzen, wer der Urheber der Arbeit ist, und dies auch so darstellen. Aus christlicher Sicht ist es wichtig, sich nicht mit Fähigkeiten zu schmücken, die nicht die eigenen sind.

Deutlich zeigt das die folgende Bibelstelle (welche ebenfalls von einer KI gefunden wurde): «Aufziehende Wolken und Wind, die aber keinen Regen bringen, so ist ein Mann, der grossspurig ein Geschenk verspricht, aber das Versprechen nicht einlöst.»[5] (Gemeint ist eine Person, die mit einem Geschenk prahlt, das ihr nicht gehört.)

Weitere Informationen dazu finden sich im Abschnitt 5.12 «Muss ich KI-generierte Inhalte kennzeichnen?».

4.2.7  Kosten und Verfügbarkeit

Die meisten der vorgestellten Werkzeuge sind entweder kostenlos oder gegen eine geringe Gebühr erhältlich. Kann ein Tools regelmässig auch kleine Zeiten einsparen, relativiert dies rasch die anfallenden Kosten.

Spezifische Tools können in ihren Einsatzbereichen tendenziell grössere Arbeitspakete übernehmen als allgemeine KI-Modelle, sind aber auch teurer. Dem gegenüber stehen allgemeine (chatbasierte) KI-Tools, welche sehr breit kleinere Aufgaben(-schritte) übernehmen können.

Eigene KI-Modelle (auf eigenen Computern, welche die Berechnungen lokal durchführen) erlauben eine deutlich stärkere Vernetzung der eigenen Daten, ohne die diese im Netz preiszugeben, stechen hervor. Diese sind derzeit jedoch nur für grössere Unternehmen erschwinglich, da die Rechenleistung in dieser Dimension, wie es komplexe Modelle benötigen sehr teuer ist. Es gibt jedoch Anzeichen, dass diese Hürde in Zukunft kleiner werden könnte[6].

Die Preise ändern sich jedoch ständig, da die technische Entwicklung von KI-Tools sehr schnell voranschreitet. Auch kommen laufend neue Tools hinzu, während andere verschwinden oder aufgrund rechtlicher Bestimmungen nicht mehr zugänglich sind. Letztlich empfiehlt sich immer ein Blick auf die Webseite eines Tools und eine zyklische Neubewertung. Die Bedürfnisse der einzelnen Mitarbeiter sollten berücksichtigt werden, wenn KI-Tools von einem ganzen Team eingesetzt werden soll.

4.3 Arbeitsbereich «Gottesdienst»

4.3.1 Lieder, Musik & Worship

Liedauswahl, Textauswahl

KI-Tools können anhand des Predigttexts oder thematischen Stichworten Vorschläge für Lieder, Songtexte, Psalmen, Gedichte usw. für einen Gottesdienst liefern.[7]

Vorschläge möglicher Tools

Sprachmodelle wie z.B.
ChatGPT | https://chatgpt.com/, Claude AI | https://claude.ai/, Gemini | https://gemini.google.com/

Technologischer Reifegrad und Zukunftsperspektive

Diese Anwendung kann bereits heute Ergebnisse zur Inspiration liefern.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Diese Anwendung kann unterstützend und als Ideenquelle verwendet werden. Der Inhalt ist jedoch sorgfältig zu Prüfen und die Verantwortung kann nicht an die Technologie abgegeben werden.

 

Musik Komposition

Mit KI-Tools können Melodien aufgrund einer Beschreibung generiert werden, beispielsweise spezifisch zu einer Predigt oder einem Anlass.

Vorschläge möglicher Tools

udio | https://udio.com/, Suno | https://suno.com/

Technologischer Reifegrad und Zukunftsperspektive

Es können schon gute Ergebnisse geliefert werden, jedoch eher als Idee, welche von den Musikern noch weiterentwickelt werden muss. In diesem Einsatzgebiet muss das Urheberrecht nochmals genauer überprüft werden, da nicht klar ist, ob die KI Teile der Melodie irgendwo abschreibt.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Ein sparsamer Einsatz dieser Technologie kann neue Ideen bringen.

 

4.3.2 Gebet

Inspiration Gebet

KI-Tools können Vorschläge für Gebete erstellen. Diese können zum Beispiel zu bestimmten Themen wie Kraft und Geduld, Heilung und Trost oder Dankbarkeit und Freude oder Fürbitte erstellt werden. Ebenfalls können sie als Inspirationsquelle für tiefere oder schlicht andere Gedanken zu einem bestimmten Thema dienen.

Alternativ können zu entsprechenden Themen direkt Bibelstellen gefunden werden, die als Gebetsgrundlage verwendet werden können.

Vorschläge möglicher Tools

Sprachmodelle wie z.B.
ChatGPT | https://chatgpt.com/, Claude AI | https://claude.ai/, Gemini | https://gemini.google.com/

Technologischer Reifegrad und Zukunftsperspektive

Diese Anwendung kann bereits akzeptable Ergebnisse liefern.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Diese Anwendung kann eine gewisse Inspiration liefern. Allerdings ist davon abzuraten, KI-Tools in diesem Bereich anzuwenden. Es ist einfach nicht klar, was der KI als Grundlage dient. Denkbar ist jedoch die erwähnte Alternative, dass KI-Tools passende Bibelstellen liefern.

 

4.3.3 Gottesdienstleitung / Moderation

Moderationstexte

KI-Tools können Moderationstexte erstellen, interessante Überleitungen schreiben und Ideen zu jedem möglichen Thema bringen.

Vorschläge möglicher Tools

Sprachmodelle in Zusammenarbeit mit Internetrecherche wie z.B.

Bing | https://bing.com /COPILOT oder ChatGPT | https://chatgpt.com/

Technologischer Reifegrad und Zukunftsperspektive

Diese Anwendung liefert bereits heute gute Ergebnisse.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Analog zu einer Internetrecherche kann KI dazu im kirchlichen Umfeld eingesetzt werden. Die Gefahr, mit KI-Tools jedoch einfach die gängigste Meinung zu übernehmen, ist gross und auch grösser als bei der klassischen Recherche. Eine verantwortliche theologische Reflexion und Überprüfung der Ergebnisse ist daher dringend zu empfehlen.

 

Präsentation

Es können thematische Unterlagen und Präsentationen erstellt werden, welche den Gottesdienst visuell unterstützen. Eine zusätzliche Anwendung kann die Präsentation von Predigten auf Social-Media-Kanälen sein.

Es benötigt eine sorgfältige Tool-Auswahl. Die Resultate aber auch die Kosten der einzelnen Tools unterscheiden sich stark.

Vorschläge möglicher Tools

Beautiful.ai | https://beautiful.ai/
Gamma | https://gamma.app/
Openart.ai | https://openart.ai (Midjourney)
Leonardo.ai | https://leonardo.ai/
Canva | http://canva.com

Technologischer Reifegrad und Zukunftsperspektive

Diese Anwendung liefert teilweise schon sehr gute Resultate. Jedoch ist je nach Einsatz noch mit einem Aufwand zur Nachbearbeitung zu rechnen.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Ja, dies kann angepasst an die Gemeinde im Kirchenumfeld eingesetzt werden.

 

4.3.4 Technik

Audio

Ein aktiver Einsatz ist aktuell nicht absehbar. Es gibt aber Dienste die gewisse Teile der Audiotechnik in naher Zukunft übernehmen könnten.

Vorschläge möglicher Tools

Tools wie LANDR, Ozone von iZotope und AI Mastering bieten cloudbasierte oder softwarebasierte Lösungen für automatisiertes Audio-Mastering. KI wird auch in Live-Sound-Umgebungen eingesetzt, um Ton in Echtzeit zu überwachen und zu optimieren. Systeme wie DPA Mic’s CORE und Waves Nx können in Echtzeit Audioprofile anpassen, um den Klang in verschiedenen akustischen Umgebungen zu verbessern.

Technologischer Reifegrad und Zukunftsperspektive

Solche KI-gestützte Tools können verwendet werden. Allerdings bleibt abzuwarten, bis die ersten Mischpulte solche Technologien integrieren können.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Da es sind um einen rein technischen Einsatz von KI-Tools handelt, ist auch eine Anwendung im Kirchenumfeld möglich.

 

Multimedia / Liedfolien

KI-gestützte Spracherkennungssoftware kann den gesprochenen Inhalt eines Vortrags analysieren und automatisch die passenden Folien oder Grafiken einblenden. Andere Tools bieten Songtext-Synchronisationsdienste, die für Live-Umgebungen genutzt werden können. Diese Plattformen verwenden KI, um Songtexte in Echtzeit mit dem laufenden Lied zu synchronisieren.

Technologischer Reifegrad und Zukunftsperspektive

Aktuell sind diese Tools noch nicht reif für den Live-Einsatz in der Kirche. Man kann jedoch davon ausgehen, dass solche Lösungen in den nächsten Jahren brauchbar und nutzbar werden.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Da es sind um einen rein technischen Einsatz von KI-Tools handelt, ist auch eine Anwendung im Kirchenumfeld möglich, welche anhand des gesprochenen Inhaltes eine vorbereitete Folie einblendet.

Nicht bewertet: Bei komplett automatisierter Übersetzung aktueller Lieder muss die Qualität geprüft werden, wenn es eine solche Anwendung gibt. Dies kann analog zur Simultanübersetzung bewertet werden.

 

Video, Live-Streaming und Licht

KI-Tools können die Kameraführung übernehmen, entscheiden, was gerade am wichtigsten ist, und selbstständig die Ansichten wechseln.

Ebenso wird das Licht gesteuert. Diese beiden Punkte lassen sich gut verbinden, da sie voneinander abhängig sind.

Technologischer Reifegrad und Zukunftsperspektive

Aktuell sind solche Tools noch nicht oder nur mit hohem finanziellem Aufwand einsatzfähig.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Eine Anwendung im Kirchenumfeld wäre problemlos möglich, da diese Anwendung den Gottesdienst wiedergeben soll, keine eigenen Inhalte generiert und sowieso überwacht werden muss.

 

4.3.5  Übersetzung

Schriftlich: Übersetzung von Predigten und anderen Dokumenten

KI-Tools können rasch qualitativ gute Übersetzungen in alle möglichen Sprachen erstellen.

Vorschläge möglicher Tools

Sprachmodelle wie z.B.
ChatGPT | https://chatgpt.com/, Claude AI | https://claude.ai/, Gemini | https://gemini.google.com/

Auf Übersetzung spezialisierte Tools wie Deepl | https://deepl.com/

Technologischer Reifegrad und Zukunftsperspektive

Diese Technologien werden in der Geschäftswelt ständig genutzt und bieten mittlerweile eine Qualität, welche meist die eines Mitarbeiters mit Fremdsprachenkenntnissen übertrifft. Trotzdem sollte man das Resultat der Übersetzung nochmals genau durchlesen und gegebenenfalls korrigieren.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Bei entsprechender Qualität ist ein Einsatz im Kirchenumfeld möglich. Wichtig ist der Hinweis auf die KI generierte Ausgabe.

 

Transkription

Gesprochenes Wort (z.B. Predigt, Sitzungsprotokoll) kann mit KI transkribiert werden.

Vorschläge möglicher Tools

Tools wie Otter.ai, Descript, Google Speech-to-Text, Microsoft Azure Speech to Text, Rev.ai, Trint, Sonix, Amazon Transcribe, IBM Watson Speech to Text, Speechmatics, Zoom oder Microsoft Teams gehören zu den bekannten Tools, welche Sprache in Echtzeit transkribieren können.

Weitere Tools:
Dialekt transkribieren | https://schweizerdeutsch-uebersetzen.ch
Video übersetzen (inkl. Lippensynchronisation) | https://heygen.com

Technologischer Reifegrad und Zukunftsperspektive

Solche Transkriptionen sind meist nicht fehlerfrei. Texte können deutlich besser übersetzt werden als gesprochene Sprache. Trotzdem können solche Transkriptionen als Hilfsmittel genutzt werden.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Wenn keine qualitativ hochwertigen Transkriptionen erforderlich sind, können diese Tools im kirchlichen Umfeld eingesetzt werden. Allerdings muss man sich auch hier bewusst sein, dass Fehler immer möglich sind und man sich nicht auf die Tools allein verlassen kann.

 

Simultanübersetzung

KI-Tools sollen gesprochene Sprache simultan in eine andere Sprache übersetzen. Da KI viel mehr Sprachen beherrscht als die Mitarbeiter und diese meist auch in besserer Qualität übersetzen können, ist diese Anwendung ideal für KI. Ein Einsatz zur Simultanübersetzung z.B. von Predigten wäre speziell dort wünschenswert, wo kein menschlicher Übersetzer zur Verfügung steht.

Vorschläge möglicher Tools

Timekettle | https://timekettle.co/de

Technologischer Reifegrad und Zukunftsperspektive

Heute ist eine professionelle Anwendung in diesem Bereich noch nicht möglich. Die dazu nötigen Technologien (Spracherkennung, Übersetzung, Sprachausgabe) sind aber alle verfügbar. Es kann davon ausgegangen werden, dass dies künftig eine Standard-Anwendung von KI wird.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Da kein neuer Inhalt generiert wird, können diese Tools nach einer Qualitätsprüfung genutzt werden. Es gilt zu prüfen, ob das für sich ausgewählte Tool den eigenen Ansprüchen genügt, bevor es generell eingesetzt wird.

 

4.4 Arbeitsbereich «Administration & Organisation»

4.4.1 Sekretariat

Gottesdienstplanung

Tools können Termine planen und Mitarbeiter-Einsatzpläne erstellen.

Vorschläge möglicher Tools

Elvanto | https://elvanto.com/, Churchtools | https://church.tools/
Planningcenter | https://www.planningcenter.com/, Ministry Scheduler Pro, ServicePlanner, WorshipPlanning, Flocknote

Technologischer Reifegrad und Zukunftsperspektive

Es gibt in diesem Bereich bereits Tools, die aufgrund der vorhandenen Daten Planungsvorschläge generieren oder auf Überbuchungen hinweisen. KI-Tools sind dafür nicht erforderlich.

Man kann davon ausgehen, dass neue KI-Tools auf den Markt kommen, welche Einteilungspläne mit Hilfe von KI erstellen, wie z.B. Polypoint [8] für das Gesundheitswesen.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Bereits existierende Tools decken diesen Bereich bereit ab und werden im Kirchenumfeld eingesetzt.

Nicht bewertet: Zukünftige KI-Tools müssen entsprechend der Einleitung neu bewertet werden (z.B. 4.2.2 Umgang mit sensiblen Daten).

 

Kommunikation & Öffentlichkeitsarbeit

KI-Tools können Inhalte von digitalen Auftritten, wie der Webseite, aufgrund von Predigten, Planungen und anderen Events aktualisieren.

Vorschläge möglicher Tools

Openart.ai | https://openart.ai (Midjourney)
Leonardo.ai | https://leonardo.ai/
Canva | http://canva.com

Technologischer Reifegrad und Zukunftsperspektive

Automatisches Aktualisieren ist nur bedingt möglich bzw. muss überprüft und entsprechend ausgewiesen werden.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Es muss sichergestellt sein, dass keine Falschinformationen publiziert werden.

 

Chatbots

KI-gesteuerte Chatbots können rund um die Uhr Fragen zur Gemeinde und deren Veranstaltungen beantworten sowie Besuchern bei der Suche nach Informationen helfen.

Technologischer Reifegrad und Zukunftsperspektive

Im Kirchenumfeld bereits fertig einsetzbare Tools sind noch nicht bekannt. Es gibt jedoch bereits Anwendungen wie z.B. askcathy.ai | https://www.askcathy.ai/

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Eine öffentliche Kommunikation im Namen der Kirche sollte man besser nicht einer Maschine überlassen, die auch mit kirchenfernen Themen gefüttert wurde. Es kann nicht garantiert werden, dass KI im Sinne der Kirche antwortet. Eine Ausnahme bilden hier eigene Chatbots wie z.B. Nikodemus.AI, welche auf einem eigens dafür erstellten Modell programmiert wurden.

 

Erstellung von Flyern

KI-Tools können bei vorgegebenen Parametern wie Thema, Art und Zielgruppe verschiedene Entwürfe mit Bildern und Texten generieren.

Vorschläge möglicher Tools

Canva Magic | http://canva.com
Adobe Firefly | https://www.adobe.com/ch_de/products/firefly.html
Adobe Photoshop | https://www.adobe.com/ch_de/products/photoshop/landpa.html

Technologischer Reifegrad und Zukunftsperspektive

Flyer können aktuell schon mit KI-Unterstützung erstellt werden. KI hilft bei Layout, Grafiken und Textformulierungen. Eine manuelle Nachbearbeitung ist jedoch immer erforderlich.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Mithilfe von KI-Tools zusammen mit dem Menschen eine kreative Lösung zu entwickeln, ist eine sinnvolle Anwendung.

 

Einsatz in der Gemeindezeitung

KI-Tools können bei der Überarbeitung von Texten, Kürzung, Korrekturen unterstützen und zusätzlich Symbolbilder einfach erstellen.

Vorschläge möglicher Tools

Sprachmodelle wie z.B.
ChatGPT | https://chatgpt.com/, Claude AI | https://claude.ai/, Gemini | https://gemini.google.com/

Technologischer Reifegrad und Zukunftsperspektive

Unterstützend kann KI in vielen Bereichen bereits gut eingesetzt werden.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Mit Hilfe von KI-Tools als Werkzeug können kreative Lösungen entwickelt werden.

 

4.4.2 Sicherheit

Physische Sicherheit

KI-Tools können ungewöhnliches Verhalten oder Ereignisse in Überwachungsdaten erkennen und melden (Anomalie-Erkennung).

Technologischer Reifegrad und Zukunftsperspektive

Die Fähigkeiten, Videomaterial zu analysieren und auszuwerten, sind vorhanden.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Keine Empfehlung in diesem Bereich, da der Datenschutz von Personen nicht mehr gewährleistet ist.

 

Digitale Sicherheit

KI-Tools können durch kontinuierliche Überwachung und Analyse von Netzwerkaktivitäten vor Cyberangriffen warnen und schützen (Cybersecurity).

Technologischer Reifegrad und Zukunftsperspektive

Antiviren-Tools und Firewalls benutzen schon heute KI-Modelle. Der Bedarf an solchen Sicherheitslösungen wird stark steigen.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Solche Technologien werden heute in der IT eingesetzt und können auch empfohlen werden.

 

4.5 Arbeitsbereich «Dienst am Menschen»

4.5.1 Seelsorge

Anonymer Gesprächspartner*

KI-Tools können in Seelsorge und Beratung Menschen unterstützen (Chat-Funktion), die Bibel besser zu verstehen, aktuelle Probleme zu lösen, in Lebensfragen zu beraten, die eigenen Fähigkeiten und Ressourcen richtig einzusetzen und sie vielleicht auch näher zu Gott zu bringen.[9]

Technologischer Reifegrad und Zukunftsperspektive

Die Nutzung von KI-Tools in diesem Bereich ist noch klein, auch wenn KI hier schon gute Dienste erweisen könnte. Es gibt auch einen Bedarf aufgrund von fehlendem Personal oder dem Wunsch, anonym zu bleiben. Natürlich muss hier klar deklariert werden, dass die Beratung durch KI stattfindet.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Eine öffentliche Kommunikation im Namen der Kirche sollte man besser nicht einer Maschine überlassen, die auch mit kirchenfernen Themen gefüttert wurde. Es kann nicht garantiert werden, dass KI im Sinne der Bibel antwortet.

4.6 Weitere Arbeitsbereiche

Kleingruppen / Hauskreise

KI-Tools können bei der Analyse von Bibeltexten, historischen Kontexten und theologischen Fragen unterstützen.

Vorschläge möglicher Tools

Bibelbasierte Tools wie z.B. https://Nicodemus.AI | https://www.bibleserver.com/nicodemus-ai oder Logos Bible Software | https://www.logos.com/

Technologischer Reifegrad und Zukunftsperspektive

Noch in Entwicklung, aber liefert bereits gute Ergebnisse und Anregungen.
Auch öffentliche Chatbots wie ChatGPT können gute Antworten auf theologische Fragen geben. Solange man die Antworten von KI kritisch hinterfragt, können diese durchaus als Anregung eines virtuellen Kleingruppen-Teilnehmers genutzt werden.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

KI-Tools können in diesem Bereich als Hilfsmittel eingesetzt werden. Allerdings ist auch hier die Überprüfung der Ergebnisse wichtig. Christliche Chatbots wie Nikodemus.AI oder Logos können hier helfen, da die Datenbasis sehr begrenzt ist und die Bibel einen hohen Stellenwert bekommt.

Auch kann dies die Gemeinschaft und den persönlichen Austausch mit anderen Menschen nicht ersetzen.

 

Kinder- und Jugendarbeit

KI-Tools können kreative Inhalte wie Lieder, Gebete oder Andachten generieren. Dies kann die Vielfalt und Zugänglichkeit der kirchlichen Jugendarbeit bereichern.

Vorschläge möglicher Tools

Sprachmodelle wie z.B. ChatGPT | https://chatgpt.com/, Claude AI | https://claude.ai/, Gemini | https://gemini.google.com/

Bibelbasierte Tools wie z.B. https://Nicodemus.AI | https://www.bibleserver.com/nicodemus-ai oder Logos Bible Software | https://www.logos.com/

Technologischer Reifegrad und Zukunftsperspektive

Hier gibt es verschiedene Bereiche, in denen KI bereits gut bei der Ideenfindung und Umsetzung eingesetzt werden kann. Sie könnte personalisierte Lerninhalte erstellen, christliche Spiele entwickeln oder bei der Planung von Ferienlagern helfen.

Praktikabilität und Empfehlung zur Nutzung im Kirchenumfeld

Es spricht   KI-Tools als Ideengenerator einzusetzen, um kreative Ideen für die Kinder- und Jugendarbeit zu entwickeln. Der Einsatz von KI sollte aber vor dem Hintergrund des theologischen oder gemeindepädagogischen Gesamtkonzepts der Kinder- und Jugendarbeit reflektiert werden.

 


 

[1] Nikodemus.AI Chatbot von ERF Bibelserver (Stand 09.03.2025) https://www.bibleserver.com

[2] Jonas Simmerlein: «KI in der kirchlichen Praxis – 5 Thesen zur Zukunft religiöser KI» (09.03.2025)  [RefLab-Tagung vom 3.11.2023] https://www.youtube.com/watch?v=PX1cs8_Tv74&list=PLVhcai29ClC7uOj9vPIQuWgt9jLcdWSTG

[3] Evangelisches Werk für Diakonie und Entwicklung e. V.: Leitlinien zur Nutzung von Künstlicher Intelligenz (Stand: 09.03.2025) https://www.diakonie.de/diakonie_de/user_upload/diakonie.de/PDFs/Publikationen/Leitlinien_zur_Nutzung_von_KI_im_EWDE__M%C3%A4rz_2024__extern.pdf, Berlin, Diakonie Deutschland, 2024, S. 4

[4] Tolingo.com: Die besten Prompt-Engineering Tricks (Stand: 09.03.2025) https://www.tolingo.com/de/prompt-engineering

[5] Sprüche 25,14; NGÜ

[6] Sarah Dégallier Rochat: DeepSeek: Um was geht’s beim chinesischen ChatGPT? (Stand: 09.03.2025)

https://www.bfh.ch/de/aktuell/storys/2025/deepseek-einordnung

[7] Kobra KI: ChatGPT Prompts für Songtexte (Stand 09.03.2025)
https://cobraki.de/chatgpt-prompts-fuer-songtexte/#15_effektive_ChatGPT_Prompts_fuer_Songtexte

[8] Microsoft news: Luzerner Kantonsspital (LUKS) revolutioniert Dienstplanung mithilfe künstlicher Intelligenz, 24.04.2024 (Stand 08.10.2024)
https://news.microsoft.com/de-ch/2024/04/22/luzerner-kantonsspital-luks-revolutioniert-dienstplanung-mithilfe-kuenstlicher-intelligenz/?msockid=29b61c31fe9e6dbf1cf108cfffee6c4b

[9] evangelisch.de: Wie die KI die evangelische Kirche verändert vom 15.02.2024 (Stand 08.10.2024)
https://www.evangelisch.de/inhalte/227000/15-02-2024/glaube-und-kuenstliche-intelligenz-wie-die-ki-die-evangelische-kirche-veraendert

Autor: Marcel Keller

 

1

Können wir als Kirche auch unsere eigene KI aufbauen, anstatt säkulare Produkte wie ChatGPT zu nutzen?

Ja, man kann eine eigene KI-Lösung bauen, um spezifische Bedürfnisse und ethische Richtlinien zu erfüllen, allerdings wäre das im Jahr 2025 ein aufwendiges und kostspieliges Projekt und erforderte KI-Spezialisten.
Als Beispiel kann hier erwähnt werden, dass die Evangelische Kirche in Deutschland einen KI-generierten Avatar von Martin Luther entwickelt hat.[1]

2

Für welche Themen und Fragen ist eine KI wie ChatGPT gut geeignet?

Eine KI wie ChatGPT im Jahr 2025 ist gut geeignet, um Wissensfragen zu beantworten, für kreatives Schreiben, Programmierung, Übersetzungen, Bildung und um Alltagsaufgaben zu lösen.

3

Für welche Themen und Fragen ist eine KI wie ChatGPT nicht geeignet?

Eine KI wie ChatGPT im Jahr 2025 ist nicht geeignet für eine persönliche Beratung, um subjektive Meinungen zu äussern, vertrauliche Informationen zu speichern oder Fragen dazu zu beantworten, Emotionen oder Empathie zu äussern oder eine physische Interaktion in der realen Welt auszuführen.
Eine KI wie ChatGPT wird logische Aufgaben oder komplexe logische Kriterien nicht immer korrekt ausführen, weil diese KI anhand eines statistischen Modells entscheidet, was richtig oder falsch ist, und nicht anhand absoluter Logik.

4

Auf welchem Wissens- und Qualitätslevel sind heute die Antworten von KI?

Man kann davon ausgehen, dass die Antworten heutiger (2025) Large Language-Modelle wie ChatGPT etwa auf dem Niveau eines Masterstudenten liegen. Allerdings macht die KI gelegentlich Grundschulfehler, weil die Antworten nicht nur auf Logik, sondern häufiger auf Statistik beruhen, und weil der KI die praktische Erfahrung und der selbstkritische «gesunde Menschenverstand» fehlen. 

Die Qualität und der Wissensstand hängen stark vom Grad der Digitalisierung der entsprechenden Disziplin im Internet ab. Beispielsweise ist der Digitalisierungsgrad in der Medizin hoch und die KI wurde mit sehr vielen Informationen aus dem medizinischen Bereich trainiert. Entsprechend detailliert und gut sind die Antworten zu diesem Thema.

Im Wissen um diese Vorteile, aber auch um die Grenzen, empfiehlt es sich, KI als Assistenten einzusetzen und die Ergebnisse und Antworten von KI immer kritisch zu hinterfragen.

5

Macht eine KI auch Fehler oder liefert falsche Antworten?

Ja, eine KI kann Fehler machen oder manchmal falsche Antworten liefern. Obwohl sie darauf trainiert ist, präzise und nützliche Informationen zu geben, basieren die Antworten auf einem statistischen Modell, das Muster in den Daten erkennt. Diese Muster sind nicht immer perfekt und können zu Fehlern führen, besonders wenn die Frage mehrdeutig ist oder wenn die KI mit Informationen konfrontiert wird, die ausserhalb des Trainingsdatensatzes liegen. In dem Zusammenhang wird auch der Begriff verwendet, dass KI manchmal «halluziniert».
Es ist wichtig, dass Benutzer die von KI bereitgestellten Informationen kritisch hinterfragen und sie gegebenenfalls mit vertrauenswürdigen Quellen überprüfen.
Menschliche Expertise, Erfahrung und Weitsicht sind wichtiger denn je.

6

Darf ich KI nutzen, wenn ich die Resultate nicht überprüfen kann?

Es ist immer erlaubt, KI zur Ideenfindung, zur persönlichen Inspiration (im Bewusstsein der Risiken von Fehlinformationen) oder zur Unterhaltung zu nutzen. Man sollte jedoch davon absehen, KI-generierte Informationen zu publizieren oder öffentlich zu verwenden, wenn man den Wahrheitsgehalt und die Qualität der Aussagen nicht überprüfen kann.

7

Kann KI bewusst täuschen oder mit den Antworten politische Ziele verfolgen?

Nein, eine KI hat kein Bewusstsein und keine eigenen Ziele oder Absichten. Die KI wird anhand der Informationen antworten, mit der sie trainiert wurde. Es kann jedoch nicht ausgeschlossen werden, dass der Betreiber der KI mit deren Programmierung gewisse Ziele verfolgt.

8

Kann eine KI gefährlich werden?

Die Frage, ob Künstliche Intelligenz gefährlich werden kann, ist durchaus ein Thema in der aktuellen Diskussion über die Zukunft der Technologie. Es gibt verschiedene Meinungen und Studien zu diesem Thema. Einige Experten warnen davor, dass sich fortgeschrittene KI-Systeme in den kommenden Jahren verselbstständigen und gegen ihre Erfinder wenden könnten, was zu einer existenziellen Bedrohung für die Menschheit führen könnte[2]. Andere betonen jedoch, dass die Risiken kontrollierbar sind und dass KI viele Vorteile bietet, z.B. in Bereichen wie der Krebsforschung.[3]

Es ist wichtig, die Entwicklung von KI verantwortungsbewusst zu gestalten und sicherzustellen, dass die Systeme ethischen Richtlinien folgen und nicht für schädliche Zwecke eingesetzt werden. Die Debatte über die potenziellen Gefahren von KI ist komplex und erfordert eine sorgfältige Abwägung der Vor- und Nachteile sowie eine fortlaufende Forschung und Diskussion unter Wissenschaftlern, Ethikern und Politikern.

9

Welches ist aktuell der beste Chatbot (Large Language Model)?

Die grossen KI-Hersteller investieren riesige Summen, um die Nase vorne zu haben und das beste Large Language Model (LLM) anzubieten und damit eine Schlüsselrolle in der Technologielandschaft zu spielen. Um zu prüfen, welches LLM zurzeit das Beste ist, treten diese regelmässig in der Chatbot Arena[4] gegeneinander an. Dort wird dann die Rangliste der besten LLM erstellt.

10

Brauchen wir in der Gemeinde einen KI-Beratungsstab oder eine Kompetenzstelle?

Es empfiehlt sich auf jeden Fall, einen Technologieverantwortlichen zu haben, damit sowohl die Gemeindeleitung als auch Kirchenmitglieder eine zentrale Ansprechperson für Technologiefragen haben. In Bezug auf KI sollen nicht nur die technologischen Möglichkeiten, sondern auch die ethischen und rechtlichen Implikationen im Blick sein. Das heisst, Technologieverantwortliche und Gemeindeleitungen müssen eng zusammenarbeiten, um in der Gemeinde KI-Kompetenzen aufzubauen. Bei grossen Verbänden oder Gemeinden kann es deshalb durchaus hilfreich sein, eine entsprechende Stelle (z.B. in Form eines Technologieverantwortlichen, der auch in Sachen KI beraten kann) ausserhalb des Verantwortungsbereichs eines Pastors zu schaffen und so in die Zukunft zu investieren.

12

Muss ich KI-generierte Inhalte kennzeichnen?

Die Verpflichtung, KI-generierte Inhalte zu kennzeichnen, hängt von der jeweiligen Rechtslage und den spezifischen Kontexten ab. Die Europäische Union hat mit dem sogenannten „AI Act“ ein umfassendes Regelwerk verabschiedet, das unter anderem eine Transparenzpflicht für solche Inhalte vorsieht. Demnach müssen künstlich erzeugte oder bearbeitete Inhalte wie Audios, Bilder und Videos eindeutig als solche gekennzeichnet werden. In der Schweiz existiert derzeit (2024) keine gesetzliche Verpflichtung zur Kennzeichnung von KI-generierten Inhalten. Es gibt jedoch einige wichtige Überlegungen:

Transparenz und Ethik

Auch wenn es keine gesetzliche Verpflichtung gibt, kann es aus ethischen Gründen sinnvoll sein, KI-generierte Inhalte zu kennzeichnen. Dies fördert Transparenz und Ehrlichkeit gegenüber denjenigen, die mit den Inhalten interagieren. Besonders in Bereichen wie Journalismus, Marketing oder in wissenschaftlichen Arbeiten[5] ist es wichtig, klarzustellen, ob ein Text von einem Menschen oder einer KI erstellt wurde, um mögliche Missverständnisse oder Manipulationen zu vermeiden.

Urheberrecht

In vielen Ländern regeln Urheberrechtsgesetze die Schöpfung und Nutzung von Inhalten. Da KI-generierte Inhalte oft keine eindeutige «menschliche Urheberschaft» haben, können Fragen des geistigen Eigentums entstehen. Um Missverständnisse oder rechtliche Probleme zu vermeiden, könnte es ratsam sein, KI-generierte Inhalte zu kennzeichnen, insbesondere wenn sie veröffentlicht oder kommerziell genutzt werden.

Regulierungen in der Zukunft

Die Regulierung von KI und KI-generierten Inhalten ist ein sich entwickelndes Feld. In der Europäischen Union gilt der AI Act, welcher die Nutzung von KI festlegt. Wir können davon ausgehen, dass auch in der Schweiz vergleichbare Regulierungen kommen werden.

 

Betrug und Täuschung

In Situationen, in denen KI-generierte Inhalte zur Irreführung oder Täuschung genutzt werden könnten, könnten bestehende Gesetze gegen Betrug oder Falschaussagen Anwendung finden. In diesem Fall könnte das Nicht-Kennzeichnen von KI-Inhalten als Täuschungsversuch gewertet werden, was rechtliche Konsequenzen haben könnte.

Fazit

Aktuell hängt es von den spezifischen Gesetzen im jeweiligen Land und dem Kontext ab, ob KI-generierte Inhalte gekennzeichnet werden müssen. In der Schweiz gibt es derzeit keine allgemeine gesetzliche Verpflichtung, aber aus Gründen der Transparenz und der sich ändernden Regulierungen ist es sinnvoll, dies zu tun. Es ist ratsam, die Entwicklungen in der Gesetzgebung genau zu verfolgen.

13

Wer gilt als Urheber von KI-generierten Inhalten? Kann ich bei der Publikation von KI-generierten Inhalten urheberrechtliche Probleme bekommen?

Bei von KI erstellten Inhalten wird im Moment davon ausgegangen, dass die KI selbst nicht als Urheber betrachtet werden kann, da sie keine «natürliche Person» ist. Die Person, welche die KI verwendet hat, wird in der Regel auch nicht automatisch als Urheberin angesehen, da die kreative Kontrolle über den Entstehungsprozess fehlt.

Wenn die KI für die Generierung von Inhalten Trainingsdaten verwendet hat, die urheberrechtlich geschützte Werke umfassen, könnte es zu Problemen kommen, wenn die generierten Inhalte diesen Werken zu ähnlich sind.
Plagiate: Sollte die KI Werke erzeugen, die stark auf urheberrechtlich geschützten Inhalten basieren oder diese imitieren, könnte dies als Urheberrechtsverletzung angesehen werden.

Bisher gibt es keine spezifischen Gerichtsentscheide in der Schweiz oder in der EU, die sich mit den urheberrechtlichen Fragen rund um KI-generierte Inhalte beschäftigen.

14

Kann KI geistliche Inhalte vermitteln? Oder anders gefragt: Nutzt der Heilige Geist die KI, um dadurch Menschen zu inspirieren?

Diese Frage kann von den Autoren dieses Arbeitspapiers nicht abschliessend beantwortet werden, weil das eine theologische Frage ist.

Wir wagen folgende Antwort: Ja, der Heilige Geist kann KI brauchen. Er bestimmt selbst, wie er Menschen inspirieren will. KI trägt Gedankengut aus verschiedensten Quellen so zusammen, dass sie als «Ganzes» wirken. Meist sagt KI jedoch deutlich, wie divers ein Thema ist oder wie aus der Quellenmenge unterschiedliche Antworten möglich sind.
KI ermöglicht es Mitarbeitenden mit geistlicher Verantwortung, auf einfache Weise zu einem breiten Spektrum von Informationen zu kommen. Wie sehr die Autoren dieser Quellen durch den Heiligen Geist inspiriert sind, muss der einzelne selbst abschätzen und den verantwortlichen Umgang sicherstellen. Aber am Ende ist es so, wie wenn jemand in vielen Büchern nach Inspiration sucht. Auch dann muss man verantwortungsvoll prüfen, um das Gute zu behalten.

15

Kann ich den Antworten von KI vertrauen?

KI-Systeme basieren auf umfangreichen Trainingsdaten, die von Menschen erzeugt wurden. Diese Daten enthalten oft richtiges Wissen, aber auch Fehler, Lücken oder Verzerrungen. Die Antworten sind so programmiert, dass sie auf den wahrscheinlichsten und passendsten Informationen basieren. Dies ist jedoch keine Garantie für absolute Richtigkeit. KI kann Informationen falsch interpretieren, wenn Fragen mehrdeutig oder unklar gestellt werden. KI hat keine persönliche Erfahrung, moralische Intuition oder Fähigkeit, Informationen unabhängig zu bewerten. Sie folgt rein statistischen Modellen.
Das Phänomen, wenn eine KI falsche oder erfundene Informationen liefert, wird als Halluzination bezeichnet. In diesem Zusammenhang bedeutet es, dass die KI plausible, aber faktisch falsche oder ausgedachte Antworten generiert. Halluzinationen treten auf, wenn das Sprachmodell versucht, eine sinnvolle Antwort zu geben, obwohl die zugrunde liegenden Daten nicht ausreichen oder keine korrekten Informationen vorhanden sind.
Der Wissenstand der heutigen LLMs ist jeweils ein paar Monate bis Jahre alt. Darum können Informationen veraltet sein.

KI ist ein hilfreiches Werkzeug für erste Informationen, Ideen oder Erklärungen. Für wichtige, kritische oder hochspezialisierte Entscheidungen sollte man die Informationen überprüfen oder mit Experten besprechen. Besondere Vorsicht ist bei sensiblen Themen oder komplexen Zusammenhängen geboten.

16

Wer ist verantwortlich für den Output und die Nutzung von KI-Modellen?

Die Verantwortung für den Output und die Nutzung von KI-Modellen verteilt sich auf mehrere Akteure und hängt vom spezifischen Anwendungsfall ab. Sie lässt sich grob wie folgt aufteilen:


1) Nutzer der KI (Endanwender)
Verantwortung:

·         Die Nutzung der KI in Übereinstimmung mit rechtlichen und ethischen Richtlinien

·         Kritische Prüfung der Antworten, insbesondere in sensiblen Kontexten

·         Kein Missbrauch der KI, z. B. für Desinformation oder rechtswidrige Zwecke


Haftung:

·         Nutzer sind in der Regel für die Konsequenzen der Nutzung verantwortlich, insbesondere wenn sie die KI in einem professionellen oder öffentlichen Kontext einsetzen.


2) Organisationen, die KI integrieren

Verantwortung:

·         Sorgfältige Integration der KI in ihre Produkte oder Prozesse

·         Aufklärung ihrer Kunden oder Nutzer über die Fähigkeiten und Grenzen der KI

·         Regelmässige Überprüfung der Outputs und Sicherstellung, dass dieser den rechtlichen und ethischen Standards entspricht

Haftung:

·         Organisationen oder Unternehmen können haftbar gemacht werden, wenn durch den Einsatz der KI Schäden entstehen oder sie falsche Angaben über deren Zuverlässigkeit machen.

 

3) Entwickler und Anbieter der KI (z. B. OpenAI)
Verantwortung:

·         Design, Entwicklung und Training des Modells

·         Sicherstellen, dass das Modell sicher, ethisch und robust ist

·         Transparente Kommunikation über die Fähigkeiten und Einschränkungen des Modells

·         Implementierung von Sicherheitsmechanismen zur Minimierung von Missbrauch und Schäden


Haftung:

·         Entwickler und Anbieter können für Schäden oder Probleme haftbar gemacht werden, wenn diese auf nachweisbare Fahrlässigkeit bei der Entwicklung oder unzureichende Sicherheitsmassnahmen zurückzuführen sind.

17

Wie können wir menschliches kritisches Denken in Zeiten von KI fördern?

Ja, dies kann gefördert werden mit folgenden Massnahmen:

(1)    Digitale und KI-Kompetenzen fördern

(2)    Medienkompetenz stärken

(3)    Nutzer ermuntern, KI-Antworten zu hinterfragen statt akzeptieren

(4)    Diskussion über ethischen Umgang mit KI

(5)    Dialog und Communities rund um KI-Nutzung fördern

(6)    Kritischen Umgang mit KI-Antworten praktisch üben

(7)    Politische Forderung für Nachvollziehbarkeit von KI-Entscheidungen

(8)    Informationen aus verschiedenen Perspektiven einholen und mit den Outputs der KI abgleichen

18

Ist KI lediglich ein Werkzeug (Tool) oder ist es mehr?

KI ist in erster Linie ein computerbasiertes Tool, das von Menschen erschaffen wurde und mit einem Teil des Wissens der Menschheit trainiert wurde. Im Gegensatz zu den meisten Werkzeugen aus unserem Alltag, welche starr und deterministisch (nach festgelegten Naturgesetzen) sind, ist KI probabilistisch (die Wahrscheinlichkeit berücksichtigend). Das führt dazu, dass KI-Anwendungen in unserer Wahrnehmung eher einem «Verstand» gleichen, weil sie «kreativ» wirken.
In der Philosophie würde man sagen, KI-Anwendungen haben «phänomenologischen Verstand» (sie können Erscheinungen oder Muster verarbeiten), aber keinen «ontologischen Verstand» (kein Verständnis des Seins).

 


 

[1] TheoNet: Martin Luther im 21. Jahrhundert (Stand: 27.10.2023) https://theonet.de/2023/10/27/martin-luther-im-21-jahrhundert-ki-gesteuerter-3d-real-life-avatar-beantwortet-live-fragen-auf-youtube/

[2] National Geographic: Warum Künstliche Intelligenz gefährlich werden kann (Stand: 7.10.2022) https://www.nationalgeographic.de/wissenschaft/2022/10/warum-kuenstliche-intelligenz-gefaehrlich-werden-kann

[3] ZDF: Wie gefährlich kann KI für die Welt werden? (Stand: 1.4.2023) https://www.zdf.de/nachrichten/panorama/kriminalitaet/gefahren-kuenstliche-intelligenz-entwicklung-stopp-gpt-100.html

[4] Siehe https://chat.lmsys.org/?leaderboard

[5] Universität Basel, https://www.unibas.ch/dam/jcr:7657cc63-1b5c-4bcb-b2a7-98005abb8e23/Eigenstaendigkeitserklaerung_Declaration-of-Independent-Authorship_Mar-2023.pdf

Autor: KI

Deutsch

Englisch

Beschreibung

Allgemeine Künstliche Intelligenz

Artificial General Intelligence (AGI),
General AI

AGI ist ein hypothetisches Konzept, das es in der Realität noch nicht gibt. Wenn es verwirklicht wird, wäre AGI in der Lage, in verschiedenen Bereichen so zu arbeiten, wie es Menschen tun – beispielsweise in Wissenschaft, Kunst und alltäglicher Entscheidungsfindung.

AGI ist eine Form der Künstlichen Intelligenz, die in der Lage ist, jede intellektuelle Aufgabe auszuführen, die ein Mensch erledigen kann. Sie hat ein breites Verständnis und kann aus Erfahrungen lernen, Probleme kreativ lösen und flexibel auf verschiedene Situationen reagieren.

Merkmale:

·         Kann Wissen und Fähigkeiten von einem Bereich auf einen anderen übertragen.

·         Hat ein umfassendes Verständnis der Welt und ist nicht auf eng definierte Aufgaben beschränkt.

·         Zeigt kognitive Fähigkeiten, die dem menschlichen Denken nahekommen.

Autonomes Fahren

Autonomous self-driving

Autonomes Fahren, auch bekannt als automatisiertes Fahren, bezeichnet die technologische Fähigkeit von Fahrzeugen, die Herausforderungen im Strassenverkehr ohne menschliches Zutun zu meistern.[1]

Avatar

 

Ein Avatar ist eine grafische Darstellung, die eine echte Person im Internet repräsentiert. Es kann sich um ein Bild, ein Icon oder eine 3D-Figur handeln, die Menschen, Tiere oder Fantasiewesen zeigt. Avatare werden häufig in sozialen Netzwerken, Foren oder Computerspielen verwendet, wo sie als visuelle Identifikationsfigur neben Beiträgen oder innerhalb des Spiels erscheinen.[2]

Bing AI, Copilot

 

Dies ist ein KI-Chatbot, der von Microsoft entwickelt und ab dem 7. Februar 2023 in die Suchmaschine Bing integriert wurde. Der Chatbot wurde in Zusammenarbeit mit OpenAI entwickelt. 2024 wurde Bing AI in «Copilot» umbenannt.

Chatbot

 

Ein Chatbot ist ein Computerprogramm, das entwickelt wurde, um menschenähnliche Gespräche zu führen. Es nutzt künstliche Intelligenz oder regelbasierte Systeme, um Fragen zu beantworten, Anfragen zu verarbeiten und Benutzer in natürlicher Sprache zu unterstützen.

LLM-basierte Chatbots haben seit der Veröffentlichung von ChatGPT, Bing Chat und Gemini enorm an Popularität gewonnen. Weniger ausgefeilte Chatbots gab es schon lange, angefangen bei ELIZA, welcher in den 1960er-Jahren veröffentlicht wurde.

ChatGPT

 

 

ChatGPT ist ein im November 2022 vorgestellter Chatbot des US-amerikanischen Softwareunternehmens OpenAI, der in der Lage ist, mit Nutzern über textbasierte Nachrichten und Bilder zu kommunizieren. Die Grundlage von ChatGPT ist ein Large Language Model.

DALL-E

 

DALL-E ist ein KI-Bildgenerator, der von OpenAI am 5. Januar 2021 veröffentlicht wurde. Der Name ist eine Kombination aus den Namen der Pixar-Figur WALL-E und des Künstlers Salvador Dalí.

DALL-E wird von GPT-3 betrieben, die so verändert wurde, dass sie Bilder anstelle von Text erzeugt.

Wie bei anderen KI-Bildgeneratoren (z. B. Midjourney) gab es viele Diskussionen darüber, wie DALL-E die Zukunft der Kunst beeinflussen könnte.

Deepfake

 

«Deepfake» ist ein Kofferwort aus den englischen Begriffen «Deep Learning» und «Fake». Es bezeichnet realistisch wirkende Medieninhalte (wie Fotos, Audios, Videos usw.), die durch Techniken der Künstlichen Intelligenz abgeändert, erzeugt oder verfälscht worden sind. Deepfakes nutzen maschinelles Lernen, genauer gesagt künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom und damit in bislang ungeahnter und nicht möglicher Dimension zu erzeugen.
Ein bekanntes Beispiel für Deepfakes ist das sogenannte «Face Swapping», bei dem in visuellem Material (z.B. Videos oder Fotos) das Gesicht einer Person durch das Gesicht einer anderen Person ersetzt wird. Die so entstehenden Inhalte haben grosses destruktives Potenzial.[3]

DSGVO

GDPR

Datenschutz-Grundverordnung der EU, die am 25. Mai 2018 in Kraft getreten ist.

ELIZA

 

ELIZA war ein früher Chatbot, der in den 1960er-Jahren vom MIT-Informatiker Joseph Weizenbaum entwickelt wurde. ELIZA spielte die Rolle eines Psychotherapeuten, wobei der Benutzer die Rolle seines Patienten übernahm.

Seine Programmierung war recht einfach und beschränkte sich in der Regel darauf, die Eingaben des Benutzers in Form von Fragen zu wiederholen, aber er erwies sich als überraschend überzeugend für die Benutzer, die oft glaubten, dass er sie verstehen kann.

EU KI-Gesetz

EU AI Act

 

Der EU AI Act ist ein Gesetz der Europäischen Union, das den Einsatz von Künstlicher Intelligenz regulieren soll, indem es Risiken in verschiedene Kategorien einteilt, Transparenzvorgaben für KI-Anbieter festlegt und Anwendungen mit «unvertretbarem Risiko», wie etwa biometrische Überwachung, verbietet. Der EU AI Act ist am 1. August 2024 in Kraft getreten. Die meisten seiner Regeln treten nach 2 Jahren in Kraft.

Eingabeaufforderung

Prompt

Ein Prompt ist die Benutzereingabe, auf die ein generatives KI-Modell (wie ChatGPT) reagiert. Er besteht in der Regel aus Text, den der Benutzer eingibt. Der Prozess der Entwicklung klarer Prompts, die nützliche Ergebnisse liefern und unerwünschte Ergebnisse vermeiden, wird Prompt Engineering genannt.

Gemini, Bard

 

Dies ist ein KI-Chatbot, der von Google entwickelt und am 21. März 2023 als «Bard» in begrenztem Umfang veröffentlicht wurde. Bei seiner Veröffentlichung wurde er als Antwort des Unternehmens auf ChatGPT von OpenAI und auf Bing Chat angesehen. Bard wurde als multimodales System konzipiert, das verschiedene Arten von Informationen wie Text, Code, Audio, Bilder und Videos verstehen, verarbeiten und kombinieren kann.
Bard wurde 2024 in Gemini umbenannt.

Generative KI

Generative Artificial intelligence (GenAI)

Generative Künstliche Intelligenz ist ein Bereich der Künstlichen Intelligenz, der darauf abzielt, neue und originelle Inhalte zu erzeugen, anstatt nur vorhandene Daten zu analysieren oder vorherzusagen. Sie verwendet Algorithmen und Modelle, um Texte, Bilder, Musik, Videos, Programmcode und andere Formen von Daten zu erstellen, die realistisch und oft schwer von menschlich erstellten Inhalten zu unterscheiden sind. Dazu gehören Chatbots wie ChatGPT, Bildgeneratoren wie Midjourney, Videogeneratoren, Musikgeneratoren usw.

Grosses Sprachmodell

Large Language Model (LLM)

Ein grosses Sprachmodell (Large Language Model, LLM) ist ein neuronales Netz mit einer grossen Anzahl (in der Regel Milliarden) von Parametern, für das grosse Mengen an Text als Trainingsdaten verwendet werden. Es ist derzeit ein sehr beliebter Ansatz in der Forschung zur Verarbeitung natürlicher Sprache (NLP).

LLMs werden für allgemeine Zwecke und nicht für spezielle Aufgaben trainiert. Sie funktionieren aufgrund der grossen Datenmengen, die für ihr Training verwendet werden, gut und sind in der Lage, hochentwickelte Antworten zu produzieren.

Der derzeit beliebteste LLM-Typ ist der generative vortrainierte Transformator (GPT), der in dem äusserst beliebten Chatbot ChatGPT verwendet wird.

Künstliche Intelligenz (KI)

Artificial intelligence (AI)

Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.

KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen. Der Computer empfängt Daten (die bereits über eigene Sensoren, zum Beispiel eine Kamera, vorbereitet oder gesammelt wurden), verarbeitet sie und reagiert.

KI-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten.[4]

LLaMA

Large Language Model Meta AI

LLaMA (Large Language Model Meta AI) ist eine Reihe von Open-Source-Sprachmodellen, die von Meta (Facebook) entwickelt wurden, um effiziente und leistungsstarke KI-Modelle zur Verarbeitung natürlicher Sprache zu bieten. Sie zielen darauf ab, weniger Ressourcen zu verbrauchen als vergleichbare Modelle und für Forschung sowie praktische Anwendungen zugänglich zu sein.

Maschinelles Lernen

Machine learning

«Machine Learning» ist ein Teilbereich der Künstlichen Intelligenz, der sich darauf konzentriert, Computern das Lernen aus Daten zu ermöglichen, ohne dass sie explizit programmiert werden müssen.

Es gibt verschiedene Arten von maschinellem Lernen, darunter überwachtes Lernen, unüberwachtes Lernen und bestärkendes Lernen.

·         Beim überwachten Lernen werden Modelle anhand von Beispieldaten trainiert, die sowohl Eingabevariablen als auch die korrekten Ausgaben enthalten. Das Ziel ist es, eine Funktion zu lernen, die Eingaben auf Ausgaben abbildet, so dass das Modell Vorhersagen für neue, unbekannte Daten machen kann.

·         Beim unüberwachten Lernen werden Modelle anhand von Daten trainiert, die keine Ausgaben enthalten. Das Ziel ist es, Muster, Zusammenhänge oder Strukturen in den Daten zu finden.

·         Bestärkendes Lernen ist eine Methode des maschinellen Lernens, bei der ein Agent durch Interaktion mit einer Umgebung lernt, optimale Entscheidungen zu treffen. Der Agent erhält Belohnungen oder Strafen für seine Aktionen und verbessert sein Verhalten durch wiederholtes Ausprobieren.

Maschinelles Lernen wird in einer Vielzahl von Anwendungen eingesetzt, darunter Empfehlungssysteme, Bilderkennung, Spracherkennung und Vorhersageanalysen. Es ist auch die Grundlage für «Deep Learning».

Mehrschichtiges Lernen, tiefgehendes Lernen

Deep learning

«Deep Learning» ist ein Teilbereich des maschinellen Lernens und bezieht sich auf künstliche neuronale Netzwerke, die aus vielen Schichten bestehen – daher der Begriff «tief» (engl. «deep»). Diese Modelle versuchen, hochkomplexe Muster in grossen Datenmengen zu erkennen und zu lernen.

Im Gegensatz zu traditionellen maschinellen Lernmethoden, die oft auf handgefertigten Merkmalen basieren, sind Deep-Learning-Modelle in der Lage, relevante Merkmale direkt aus den Rohdaten zu lernen. Dies macht sie besonders nützlich für Aufgaben wie Bild- und Spracherkennung, bei denen die Erstellung von handgefertigten Merkmalen schwierig sein kann.

Microsoft Copilot

 

Microsoft Copilot ist ein KI-gestützter Assistent, der in verschiedene Microsoft-Produkte wie Word, Excel, Outlook, Teams und Windows integriert ist. Er hilft dabei, Aufgaben zu automatisieren, Texte zu erstellen, Daten zu analysieren und Meetings zusammenzufassen.

Midjourney

 

Midjourney ist ein generatives KI-System, das Bilder als Reaktion auf Anfragen des Benutzers erzeugt. Es wurde von dem in San Francisco ansässigen Unternehmen Midjourney, Inc. entwickelt und veröffentlicht.

Wie DALL-E und andere KI-Bildgeneratoren wurde Midjourney sowohl gelobt als auch kritisiert. Einige behaupten, dass die App zur Erstellung von Deepfakes verwendet werden kann oder dass sie die Arbeit menschlicher Künstler plagiiert. Andere betonen das kreative Potenzial und die Zugänglichkeit des Tools.

Modell (im Zusammenhang mit KI)

 

Ein Modell in der KI ist eine mathematische Struktur, die aus Daten gelernt hat und zur Vorhersage oder Entscheidungsfindung verwendet wird. Es nimmt Eingaben entgegen, verarbeitet sie basierend auf zuvor gelernten Mustern und gibt eine Ausgabe zurück.

Ein KI-Modell wird durch Training mit Daten optimiert, wobei es Parameter anpasst, um möglichst genaue Ergebnisse zu liefern. Beispiele sind Sprachmodelle (wie GPT), Bildklassifikationsmodelle oder Empfehlungssysteme.

Neuronale Netzwerke

Neural Network

Ein rechnerisches Modell, das aus miteinander verbundenen Knoten (Neuronen) besteht und das Lernen und die Mustererkennung im Stil des menschlichen Gehirns simuliert.

OpenAI

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

OpenAI ist ein bedeutendes KI-Forschungs- und Entwicklungsunternehmen. Es hat beliebte Tools wie ChatGPT und DALL-E herausgebracht und die diesen Tools zugrunde liegende generative Pre-Trained Transformer (GPT)-Technologie entwickelt.

Das Unternehmen wurde 2015 von Ilya Sutskever, Greg Brockman, Sam Altman und Elon Musk (der heute nicht mehr beteiligt ist) gegründet. OpenAI begann als gemeinnütziges Unternehmen, wurde aber 2019 in ein gewinnorientiertes Unternehmen umgewandelt. Der derzeitige (2025) CEO ist Sam Altman.

Robocalypse

 

Eine Robocalypse beschreibt ein Szenario, in dem Roboter und KI-Technologien die Kontrolle übernehmen und Menschen verdrängen oder sogar bedrohen. Diese hypothetische Situation wird oft in Science-Fiction-Literatur und Filmen dargestellt und ist Ausdruck der Sorge vor einer möglichen Übermacht der Maschinen.

Schwache KI,
Schmale KI,
Spezifische KI

Weak AI,
Narrow AI,
Specific AI

Eine «schwache KI» ist auf spezifische Aufgaben und Funktionen spezialisiert und basiert auf vorgegebenen Algorithmen, ohne dabei über eigenes Bewusstsein oder echtes Verständnis zu verfügen. Sie führt Aufgaben aus, für die sie entwickelt wurde, beispielsweise Spracherkennung, Bilderkennung, maschinelles Lernen in eng definierten Bereichen, jedoch ohne ein allgemeines Verständnis der Aufgabe oder der dahinterliegenden Logik.
Schwache KI ist die Technologie, die wir heute in den meisten Anwendungen finden.

Spracherkennung

Natural Language Processing (NLP)

KI kann natürlich gesprochene Sprache erkennen und transkribieren oder darauf reagieren.

Starke KI

Strong AI

Der Begriff «starke KI» wird oft synonym mit AGI verwendet, da beide Konzepte eine ähnliche Zielsetzung haben. Eine starke KI wäre in der Lage, Bewusstsein, Empathie und ein wirkliches Verständnis von Informationen zu haben, wie es auch ein Mensch tut.

Unterschied: Eine starke KI ist oft auf kognitive Fähigkeiten fokussiert und schliesst ein echtes Bewusstsein mit ein, während AGI theoretisch auch ohne Bewusstsein funktionieren könnte.

Eine starke KI existiert heute nicht.

Superintelligenz

Superintelligence,
Super AI

Eine Superintelligenz ist eine Intelligenz, welche die menschliche Intelligenz in weiten Bereichen signifikant übertrifft. Das bezieht sich nicht nur auf kognitive Fähigkeiten, sondern auch auf Bereiche wie Kreativität, Sozialkompetenz und strategisches Denken.


Merkmale:

·         Übertrifft die menschliche Intelligenz in nahezu allen Bereichen.

·         Kann Problemlösungen entwickeln, die für Menschen unvorstellbar sind.

·         Verfügt über extreme Rechenleistung, Anpassungsfähigkeit und möglicherweise auch moralisches Urteilsvermögen auf einem höheren Niveau als Menschen.

Beispiel: Eine Superintelligenz kommt in der Science-Fiction-Literatur vor. Sie könnte eine potenzielle Gefahr für die Menschheit darstellen, wenn ihre Ziele nicht mit menschlichen Werten übereinstimmen (oft als «KI-Risiko» bezeichnet).

Eine tatsächlich geistig überlegene Maschine, welche die Kriterien einer Superintelligenz erfüllt, gibt es nach heutigem Kenntnisstand nicht.[5]

Token

 

Ein Token ist die Grundeinheit eines Textes, der von einem grossen Sprachmodell (LLM) verarbeitet wird. Oft ist es ein komplettes Wort, es kann aber auch ein Teil eines Wortes oder ein Satzzeichen sein.

LLMs produzieren Text, indem sie auf der Grundlage von Mustern, die sie aus ihren Trainingsdaten gelernt haben, wiederholt vorhersagen, welches Token als nächstes kommen sollte. Es ist zum Beispiel sehr wahrscheinlich, dass «Nacht» das nächste Token nach dem Text «Ich konnte nicht schlafen letzte» ist.

LLMs wählen jedoch nicht einfach jedes Mal das Token mit der höchsten Wahrscheinlichkeit aus; dies führt zu sehr repetitivem Text, der nicht menschlich wirkt. Um das zu kompensieren, wählt KI manchmal auch zweit- und drittwahrscheinlichste Tokens aus. Damit können KI-Schreibwerkzeuge eine Vielzahl von Antworten auf eine einzige Aufforderung geben.

Trainingsdaten

Training Data

Der Datensatz, der verwendet wird, um ein KI-Modell zu trainieren, sodass es Muster erkennen und Vorhersagen treffen kann.

Turing Test

 

Der Turing-Test, vorgeschlagen von Alan Turing im Jahr 1950, prüft, ob eine Maschine menschenähnliche Intelligenz besitzt. Dabei kommuniziert ein Mensch über eine textbasierte Schnittstelle mit einer anderen Person und einer KI, ohne zu wissen, wer wer ist. Wenn die Maschine den Menschen täuschen kann, sodass der Befragende sie für menschlich hält, hat sie den Test bestanden.

Watson

Watsonx

Watson ist eine KI-Plattform, die von IBM entwickelt wurde. Watson kann Fragen in natürlicher Sprache verstehen und beantworten und wird für Aufgaben wie Datenanalyse, Mustererkennung und Entscheidungsunterstützung genutzt. Im Laufe der Zeit hat IBM Watson durch Innovationen in der Kerntechnologie erweitert und bietet nun mit Watsonx eine nächste Generation von KI- und Datenplattformen an. Diese Plattform ermöglicht es Partnern, Modelle mit generativer KI und maschinellem Lernen zu trainieren, abzustimmen und zu verteilen. IBM Watsonx zielt darauf ab, verantwortungsvolle, transparente und erklärbare KI-Workflows zu beschleunigen.

 


 

[1] Swarco: Autonomes Fahren: Über den aktuellen Stand & die Zukunft selbst fahrender Autos (Stand: 19.04.2024) https://www.swarco.com/de/mobilitaet-der-zukunft/autonomes-fahren

[2] Vgl. Chip.de: Was ist ein Avatar? (Stand: 15.08.2023) https://praxistipps.chip.de/was-ist-ein-avatar-einfach-erklaert_41412

[3] Wikipedia: Deepfake (Stand: 19.04.2024) https://de.wikipedia.org/wiki/Deepfake

[4] Europäisches Parlament: Was ist künstliche Intelligenz und wie wird sie genutzt? (Stand: 19.04.2024): https://www.europarl.europa.eu/topics/de/article/20200827STO85804/was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt

[5] Wikipedia: Superintelligenz (Stand: 19.04.2024): https://de.wikipedia.org/wiki/Superintelligenz