Fachforum Geisteswissenschaften
Zwischen 1/0 und Fleisch/Blut
Für die KI sind wir Menschen nichts anderes als binäre Codes, eine Folge von Einsen und Nullen. Für uns Menschen ist sie weitaus mehr – der heilige Gral für die einen, der mögliche Untergang der Menschheit für die anderen. Die Diskurse um Chancen und Risiken der KI beschäftigen alle akademischen Disziplinen, und das nicht nur, wenn es darum geht, inwieweit ChatGPT eine Hausarbeit schreiben kann. Den unaufhaltsamen Vormarsch digitaler Technologien nahm das Fachforum Geisteswissenschaften 2024 zum Anlass, sich mit Experten über dessen ethische, rechtliche und anthropologische Implikationen auszutauschen.
Ein kleines Glossar der KI
Schwache KI, auch enge KI: Alles, was die Künstliche Intelligenz in einer Domäne leisten kann. Hierunter fallen die gängigen heutigen KI-Anwendungen. Der Begriff „Schwache KI“ ist missverständlich, besser wäre spezielle: in vielen Bereichen werden menschliche Fähigkeiten schon übertroffen, beispielsweise im Schach- oder Go-Spiel.
Starke KI, auch Superintelligenz oder Artificial General Intelligenz (AGI): Universell einsetzbare KI, die dem menschlichen Verstand gleichkommt. Dazu muss sie laut Prof. Dr. Christoph Benzmüller neben dem Problemlösen in der Lage zu sein, rational und abstrakt zu denken, selbständig zu lernen, sich selbst zu reflektieren und sozial zu interagieren.
LLM (Large Language Models): Die generative KI von Sprachverarbeitungsmodellen wie ChatGPT, Google LaMDA oder BERT wird landläufig mit KI gleichgesetzt. Diese datengetriebenen Anwendungen operieren auf der Basis von Wahrscheinlichkeit. Sie werden mit riesigen Datenmengen trainiert und verwenden Deep Learning-Algorithmen, um natürliche Sprache zu verarbeiten. Sind stark abhängig von den Daten, mit denen sie gefüttert werden, was sie anfällig für Bias macht.
Hybride KI: Die Kombination von datengetriebener, subsymbolischer KI mit symbolischer, wissensbasierter KI, die sich nah an neurologischen Strukturen ausrichtet. Damit sollen Systeme geschaffen werden, die leistungsfähig, robuster und inklusiv sind.
Die Auswirkungen künstlicher Intelligenz auf unser Verhalten und Zusammenleben standen im Fokus des Fachforums. In ihrer Keynote am Freitagabend sprach Dr. Verena Lütschg an, inwieweit die KI unser Menschenbild verändert – konzeptionell wie praktisch. Was unterscheidet unsere natürliche von der künstlichen Intelligenz, was ist typisch menschlich? Die Teilnehmer waren sich einig: Bewusstsein, Emotionalität, Kreativität und die Fähigkeit zur Selbstreflexion.
Nach dem Vortrag waren wir uns nicht mehr ganz so sicher. Die Referentin war online aus der Schweiz zugeschaltet – doch woher konnten wir wissen, dass es sich bei ihr nicht um einen Avatar handelte? Das klingt heute noch wie Science Fiction, könnte aber bald schon Realität sein. So stellte Verena Lütschg das Beispiel des südkoreanischen Dokumentarfilms „Meeting You“ vor, in dem eine Mutter durch eine VR-Brille die Möglichkeit erhielt, ihre mit sieben Jahren an Leukämie verstorbenen Tochter ein letztes Mal zu sehen.
Ein weiteres Experiment im Hinblick auf ein Weiterleben als Avatar oder Chatbot bietet das Unternehmen Eternos. Nach dem Ableben einer geliebten Person möchte es Hinterbliebenen diese als virtuellen Gesprächspartner zur Verfügung stellen. Dazu wird zu deren Lebzeiten eine personalisierte Intelligenz mit persönlichen Informationen gefüttert. Auf Basis der eingespeisten Aussagen können dabei auch Antworten generiert werden, die so nie direkt gesagt wurden, sondern lediglich dem Stil entsprechen, wie sie die KI aus dem Gesprochenen verarbeitet hat. Als erster Mensch wird der an Darmkrebs erkrankte Investor Michael Bommer die digitale Technologie erproben. Seine Beweggründe schildert er in diesem Podcast im Gespräch mit dem Spiegel-Journalist Juan Moreno.
Auf dem Weg zum Übermenschen? – KI in Medizin und Bioethik
Menschen operieren mit Gedanken und Gefühlen, haben transzendentale Vorstellungen. Unsere neuronalen Netzwerke bestehen aus organischer Masse, die digitalen Netzwerke liegen auf riesigen Servern. Und doch nähern wir uns immer mehr aneinander an. Futuristische Szenarien von Nanobots oder in den Körper eingeführte Chips sollen die Gesundheit oder unsere Leistungsfähigkeit steigern.
In der sogenannten Longevity-Forschung wurde in ersten Studien bereits nachgewiesen, dass die biologische Uhr um einige Jahre zurückgedreht werden kann, eine Lebensspanne von über 100 Jahren rückt damit in den Bereich des Möglichen. Kritisch ist zu sehen, was diese Vorstöße in Richtung des ewigen Lebens mit uns machen. Dehnt sich die Lebensspanne auf 200 Jahre aus – was bedeutet dies für das Sozialgefüge, für unsere Lebensgestaltung?
Zwar könne KI in der jetzigen Form nicht das Erbgut verändern, doch mit der Gen-Schere CRISPR/Cas ist eine Technik der Gen-Editierung gefunden. Mit dem ersten unverantwortlichen Experiment mit „gecrisperten“ Babys durch einen chinesischen Wissenschaftler im Jahr 2018 ist eine Büchse der Pandora geöffnet worden. Die „Züchtung“ eines durch Gentechnik optimierten Menschen wird greifbarer. Dies freut Vertreter des Bioliberalismus, die großes Potential im genetischen Enhancement sehen. Tatsächlich sind die Therapiemöglichkeiten für einzelne monogenetische Erkrankungen vielversprechend. Doch auch rein ästhetische Eingriffe sind vorstellbar. Längere Wimpern oder mehr Muskelmasse durch einen Schnipp mit der Gen-Schere? Mögen derartige kosmetische Mutationen harmlos klingen, nicht absehbar wären die Konsequenzen, käme es nun zu einer Art genetischen Wettrüstens. Die Dystopie einer gänzlich neuen Spezies von Mutanten riss Lütschg an, was biokonservative Ansätze umso gebotener erschienen ließ.
Kurz erklärt: Transhumanismus
Transhumanisten wollen mit technologischen Mitteln die Fähigkeiten des Menschen erweitern und seine biologischen Beschränkungen überwinden. In der Verschmelzung von Mensch und Maschine sehen Anhänger dieser philosophischen Denkrichtung die nächste Evolutionsstufe der Menschheit.
In den Debatten der Bio- und Medizinethik unterscheidet man zwischen biokonservativen und bioliberalen Positionen. Biokonservative lehnen Eingriffe in die menschliche Biologie entweder gänzlich ab oder fordern eine strenge Reglementierung derselben. Bioliberale befürworten das Enhancement mit den Mitteln der Gentechnik.
Eine Liebesgeschichte mit Folgen (für die Metaphysik)
Prof. Dr. Christoph Benzmüller hat sich 1990 in die KI verliebt. Damit ist nicht an ein Szenario einer Beziehung zwischen Mensch und Maschine wie bei dem Film Her oder Ex Machina zu denken. In einer der ersten KI-Vorlesungen im deutschen Raum packte den heutigen Informatikprofessor der Uni Bamberg die Faszination für Computersysteme. Seitdem treibt es ihn an, zu beweisen, dass es kategoriale Unterschiede zwischen Menschen und Maschinen gibt. In seinem Vortrag zeigte der Mathematiker und Informatiker auf, wie leistungsfähig KI ist und wo ihre Beschränkungen liegen.
„Notwendigerweise existiert Gott“, sagt auch die KI.
So konnte Benzmüller mit seinem Team in Pionierarbeit beweisen, dass KI zu höherer modaler Logik fähig ist. Im Bereich der sogenannten „Computationalen Metaphysik“ überprüfte er mithilfe der KI, dass es eine widerspruchsfreie theistische Theorie gibt. Damit überführte Benzmüller Kurt Gödels Gottesbeweis in die Welt der Computer. Gödels Axiome, 1970 noch mit Papier und Stift angefertigt, automatisierte Benzmüller und erregte damit international Schlagzeilen. Mitunter wurde ihm zugeschrieben, mit seinem Macbook Gott bewiesen zu haben.
Eine humorvolle Erklärung seines Vorgehens und der verkürzenden Darstellungen durch die Presse findet ihr in seinem Science Slam-Beitrag „Ontologischer Gottesbeweis am Computer?“.
Pubertierende KI und die Frage nach der Regulierung
Würden wir die KI einer Entwicklungsstufe zuordnen, so Benzmüller, befände sie sich gerade in der Pubertät. Hier sind wir als „Erziehungsberechtigte” gefragt. Zu potent sind die Technologien, dass wir die KI einfach ihre Hörner abstoßen lassen können. Um einer ungebremsten Findungsphase der KI einen Riegel vorzuschieben, hat Benzmüller die Infrastruktur für ein Schutzhüllenmodell entworfen: mithilfe eines ethischen Reasoners (man denke an das Einspeisen von Axiomen wie etwa die Zehn Gebote) soll sichergestellt werden, dass die KI ethische Vorgaben erfüllt. Die Frage nach Verantwortung könne so in Form eines Compliance-Checks formal-logisch den Systemen eingebaut werden. Die Forderung nach größtmöglicher Transparenz sieht er kritisch: politische wie industrielle Akteure könnten ihre Geheimnisse nicht preisgeben, ohne sich einem enormen Sicherheitsrisiko auszusetzen.
Die europäische KI-Strategie beleuchtete Philipp Mahlow M.A., Promovend in Rechtswissenschaften an der Universität Innsbruck. Er zitierte Google-Chef Sundar Pichai: „KI ist zu wichtig, um sie nicht zu regulieren.“ Die Europäische Kommission hat Anfang des Jahres 2023 den KI-Verordnungsentwurf vorgelegt. Zwar seien dessen risikobasierte Ansätze grundsätzlich sinnvoll, für ihn stellten sich allerdings noch zu viele technische Fragezeichen bei ihrer Implementierung.
Der bessere Picasso? – KI und Kunst, Musik und Literatur
Gerade in den Geisteswissenschaften herrscht das Primat origineller intellektueller Schöpfungen. KI-gestützte Bildgeneratoren wie Dall‑E jedoch machen handgefertigen Kunstwerken Konkurrenz, ChatGPT kann Drehbücher und Gedichte schreiben, die manche Literaturkritiker zu Lobeshymnen veranlassen. Zur Verwunderung einiger Teilnehmer hatten wir Schwierigkeiten, aus vier präsentierten Gemälden einen echten Picasso auszusuchen. Die anderen drei Bilder wurden von der KI im Stil des spanischen Künstlers „gemalt“. An unzähligen Vorbildern trainiert kann die KI meisterlich Muster erlernen und replizieren. Was aber ist die Entwicklung eines persönlichen Stils Anderes? Die Antwort auf diese Frage hat Einfluss darauf, wie wir künftig Originalität und Kreativität definieren.
Werden uns die Kunstwerke beschert, die uns durch die Endlichkeit des künstlerischen Schaffens verwehrt blieben? Die Beatles haben 2023 ihren letzten Song „Now and Then“ veröffentlicht, wobei John Lennon durch KI wieder zum Leben erweckt wurde. Die Mitglieder der schwedischen Kultband ABBA kann man seit 2022 als „ABBA-tare“ in der Blütezeit der 1970er in einer Hologramm-Show auf der Bühne sehen. Ist dies die Zukunft der Musikindustrie?
In der Gegenwart knüpfen sich daran jedoch materielle und rechtliche Fragen – was ist, wenn kreative Berufe an Computer „outgesourct“ werden? Die Fälle von Kreativschaffenden, die sich gegen KI aussprechen, mehren sich: Sie fordern Schadensersatz von Bildgeneratoren. Es geht um Urheberrechte, um die Frage des Eigenwerts von Kunstwerken. Die Problematik von künstlicher Kunst ist wie so vieles im Bereich der neuen Technologien kontrovers.
Von digitaler Unsterblichkeit bis zu Segensrobotern – KI in Theologie, Psychologie und Seelsorge
Nicht nur Popstars werden für die Ewigkeit konserviert, auch Normalsterblichen soll künftig digital zur Unsterblichkeit verholfen werden. Darum haben Anbieter wie Eternos oder Hereafter.ai ihr Geschäftsmodell gestrickt. Bieten sie Hinterbliebenen eine trauerpsychologische Hilfestellung oder wird besonders vulnerablen Personen ein Bärendienst erwiesen? Es tun sich immer weitere ethische Probleme auf: Wann beendet man das Gespräch mit einem derartigen Chatbot? Muss man dazu seine digitalen Angehörigen zum zweiten Mal virtuell beerdigen?
Auch der Einsatz von Gebets- oder Segensrobotern wie Bless U-2 wurden in nachmittäglichen Workshops kritisch diskutiert. Ist ein Roboter für die Entlastung von Priestern bei pastoralen Tätigkeiten tatsächlich ein Segen oder droht mit der Einführung anthropomorpher Gehilfen der Verlust zwischenmenschlicher Beziehungen? Welche Instanz übernimmt Verantwortung, sollte das Handeln von Robotern fehlerhaft sein oder Schaden verursachen?
Humanistische Bildung gegen selbstgewählte Unmündigkeit
Der Einsatz von KI im Alltag scheint zunächst magisch, mit nur einem Mausklick über das gesamte Wissen der Welt zu verfügen, seine Mails auf einmal in unterschiedlichen Stilebenen und Sprachen zu schreiben… doch dieser Illusion dürfen wir uns nicht hingeben, wie Dipl. sc. pol. Univ. Timo Greger, M.A. am letzten Tag eindrücklich hervorhob. Der wissenschaftliche Koordinator und Co-Projektleiter von „KI und Ethik“ an der LMU warnte davor, sich blind auf automatisierte Assistenzsysteme zu verlassen. Dies habe die Verkümmerung eigener Fähigkeiten zur Folge. Es mag bequem erscheinen, eine Seminararbeit von ChatGPT anfertigen zu lassen, doch mit der Scheu vor eigener intellektueller Arbeit täten wir uns keinen Gefallen. Im Schreiben lernt man das Denken, im Lernen einer Sprache durchdringt man komplexe Systeme und trainiert auch die eigene Frustrationstoleranz. Das Entfalten der eigenen intellektuellen, emotionalen und psychischen Fähigkeiten ist essentiell für eine rundum gebildete Persönlichkeit. Bei der Bewältigung dieser Herausforderungen könne KI unterstützen, sie solle sie uns aber nicht abnehmen. Für eine sinnvolle Lebensgestaltung ist auch im Gebrauch der so verlockenden technischen Anwendungen die aristotelische goldene Mitte geboten.
Eine in den drei Tage wiederholt auftretende Frage ist die nach dem genuin Menschlichen. Was gibt es an uns, das Maschinen nicht substituieren können, worin sind wir der KI (noch) voraus? Stets schwingt die Sorge um technologische Singularität mit: was ist, wenn der Break Even Point droht, in dem eine Superintelligenz den Menschen überflüssig macht? Ein Moratorium, weitere Forschung zur Entwicklung der Künstlichen Intelligenz zu pausieren, hat neben Elon Musk und großen Tech-Firmen auch Christoph Benzmüller unterschrieben. Er glaubt noch immer nicht daran, dass es diesen Moment geben wird, plädiert aber für Entschleunigung. Weitere Entwicklungen müssten von interdisziplinärer Forschung flankiert werden, um eine unkontrollierbare Blackbox zu vermeiden. Gerade bei der Anwendung in militärischen Kontexten ist das zerstörerische Potential von KI immens. Es bleibt zu hoffen, dass das Designen einer verantwortungsvollen KI Vorrang hat vor ökonomischem Wettbewerbsdruck.
Wie wollen wir leben – als Menschen in einer smarten, KI-gestützten Welt?
Wie die Tage intensiven Austauschs gezeigt haben, wirft KI nicht nur gänzlich neue ethische Fragestellungen auf, sondern zwingt uns dazu, alle moralischen und ethischen Konzepte unter neuen Vorzeichen zu bedenken. Dr. Anna-Karger Kroll spricht von einer „moralischen Revolution“, der wir uns stellen müssen. Ein Alltag, der von Smart Mobility, Smart Cities und Smart Homes durchdrungen ist, braucht auch smarte Nutzer dieser Technik.
Es ist eine große Verpflichtung für uns als junge Geisteswissenschaftler, uns in die Diskussion zu einem verantwortungsvollen Umgang mit der KI einzubringen. Dazu sind wir allerdings bestens ‚programmiert‘. Die auf Statistik basierenden LLM verfügen nur scheinbar über universale Antworten, tatsächlich sind sie „Besserwisser-Plappageien“, so Benzmüller. Ihnen fehlt es an Rationalität oder Realitätsbezug. Für ihren vernünftigen Gebrauch ist ein tiefgehendes Verständnis von Sprache fundamental. Zu dessen Ausbildung können die Philologien ebenso wie die Linguistik einen Beitrag leisten. Philosophie, Theologie und Ethik liefern das Handwerkzeug, ein normatives Grundgerüst aufzustellen. Die Kultur- und Medienwissenschaften können ebenso wie die Pädagogik für einen kritischen Umgang mit inhärenten Bias sensibilisieren.
Spielen wir unsere menschliche Kernkompetenz aus und hinterfragen wir reflektiert: inwieweit wollen wir uns Menschen den Maschinen angleichen, inwieweit wollen wir uns in Abhängigkeit von KI begeben? Die Frage, welche Rolle wir KI in unserem eigenen Leben überlassen, muss jedes mündige Subjekt für sich selbst beantworten.
Das Fachforum Geisteswissenschaften 2024 wurde vom Referat 04.05 unter Leitung von Dr. Jutta Möhringer und Isabel Küfer M.A. ausgerichtet. Organisiert wurde es von Luise Anna Jeßberger, Carolina Loß und Marc Croitor.