Fachforum Geisteswissenschaften

Zwischen 1/0 und Fleisch/Blut

Veröffentlicht am 27. Mai 2024 von Jana Paulina Lobe

Für die KI sind wir Men­schen nichts ande­res als binä­re Codes, eine Fol­ge von Ein­sen und Nul­len. Für uns Men­schen ist sie weit­aus mehr – der hei­li­ge Gral für die einen, der mög­li­che Unter­gang der Mensch­heit für die ande­ren. Die Dis­kur­se um Chan­cen und Risi­ken der KI beschäf­ti­gen alle aka­de­mi­schen Dis­zi­pli­nen, und das nicht nur, wenn es dar­um geht, inwie­weit ChatGPT eine Haus­ar­beit schrei­ben kann. Den unauf­halt­sa­men Vor­marsch digi­ta­ler Tech­no­lo­gien nahm das Fach­fo­rum Geis­tes­wis­sen­schaf­ten 2024 zum Anlass, sich mit Exper­ten über des­sen ethi­sche, recht­li­che und anthro­po­lo­gi­sche Impli­ka­tio­nen auszutauschen.

Die ana­lo­ge Zuhö­rer­schaft des hybrid aus­ge­rich­te­ten Fach­fo­rums Geis­tes­wis­sen­schaf­ten 2024 (Foto: Fran­zis­ka Lang)

Schwa­che KI, auch enge KI: Alles, was die Künst­li­che Intel­li­genz in einer Domä­ne leis­ten kann. Hier­un­ter fal­len die gän­gi­gen heu­ti­gen KI-Anwen­dun­gen. Der Begriff „Schwa­che KI“ ist miss­ver­ständ­lich, bes­ser wäre spe­zi­el­le: in vie­len Berei­chen wer­den mensch­li­che Fähig­kei­ten schon über­trof­fen, bei­spiels­wei­se im Schach- oder Go-Spiel.

Star­ke KI, auch Super­in­tel­li­genz oder Arti­fi­ci­al Gene­ral Intel­li­genz (AGI): Uni­ver­sell ein­setz­ba­re KI, die dem mensch­li­chen Ver­stand gleich­kommt. Dazu muss sie laut Prof. Dr. Chris­toph Benz­mül­ler neben dem Pro­blem­lö­sen in der Lage zu sein, ratio­nal und abs­trakt zu den­ken, selb­stän­dig zu ler­nen, sich selbst zu reflek­tie­ren und sozi­al zu interagieren.

LLM (Lar­ge Lan­guage Models): Die gene­ra­ti­ve KI von Sprach­ver­ar­bei­tungs­mo­del­len wie ChatGPT, Goog­le LaM­DA oder BERT wird land­läu­fig mit KI gleich­ge­setzt. Die­se daten­ge­trie­be­nen Anwen­dun­gen ope­rie­ren auf der Basis von Wahr­schein­lich­keit. Sie wer­den mit rie­si­gen Daten­men­gen trai­niert und ver­wen­den Deep Lear­ning-Algo­rith­men, um natür­li­che Spra­che zu ver­ar­bei­ten. Sind stark abhän­gig von den Daten, mit denen sie gefüt­tert wer­den, was sie anfäl­lig für Bias macht.

Hybri­de KI: Die Kom­bi­na­ti­on von daten­ge­trie­be­ner, sub­sym­bo­li­scher KI mit sym­bo­li­scher, wis­sens­ba­sier­ter KI, die sich nah an neu­ro­lo­gi­schen Struk­tu­ren aus­rich­tet. Damit sol­len Sys­te­me geschaf­fen wer­den, die leis­tungs­fä­hig, robus­ter und inklu­siv sind.

Die Aus­wir­kun­gen künst­li­cher Intel­li­genz auf unser Ver­hal­ten und Zusam­men­le­ben stan­den im Fokus des Fach­fo­rums. In ihrer Key­note am Frei­tag­abend sprach Dr. Vere­na Lütschg an, inwie­weit die KI unser Men­schen­bild ver­än­dert – kon­zep­tio­nell wie prak­tisch. Was unter­schei­det unse­re natür­li­che von der künst­li­chen Intel­li­genz, was ist typisch mensch­lich? Die Teil­neh­mer waren sich einig: Bewusst­sein, Emo­tio­na­li­tät, Krea­ti­vi­tät und die Fähig­keit zur Selbstreflexion.

Nach dem Vor­trag waren wir uns nicht mehr ganz so sicher. Die Refe­ren­tin war online aus der Schweiz zuge­schal­tet – doch woher konn­ten wir wis­sen, dass es sich bei ihr nicht um einen Ava­tar han­del­te? Das klingt heu­te noch wie Sci­ence Fic­tion, könn­te aber bald schon Rea­li­tät sein. So stell­te Vere­na Lütschg das Bei­spiel des süd­ko­rea­ni­schen Doku­men­tar­films „Mee­ting You“ vor, in dem eine Mut­ter durch eine VR-Bril­le die Mög­lich­keit erhielt, ihre mit sie­ben Jah­ren an Leuk­ämie ver­stor­be­nen Toch­ter ein letz­tes Mal zu sehen.

Ein wei­te­res Expe­ri­ment im Hin­blick auf ein Wei­ter­le­ben als Ava­tar oder Chat­bot bie­tet das Unter­neh­men Eter­nos. Nach dem Able­ben einer gelieb­ten Per­son möch­te es Hin­ter­blie­be­nen die­se als vir­tu­el­len Gesprächs­part­ner zur Ver­fü­gung stel­len. Dazu wird zu deren Leb­zei­ten eine per­so­na­li­sier­te Intel­li­genz mit per­sön­li­chen Infor­ma­tio­nen gefüt­tert. Auf Basis der ein­ge­speis­ten Aus­sa­gen kön­nen dabei auch Ant­wor­ten gene­riert wer­den, die so nie direkt gesagt wur­den, son­dern ledig­lich dem Stil ent­spre­chen, wie sie die KI aus dem Gespro­che­nen ver­ar­bei­tet hat. Als ers­ter Mensch wird der an Darm­krebs erkrank­te Inves­tor Micha­el Bom­mer die digi­ta­le Tech­no­lo­gie erpro­ben. Sei­ne Beweg­grün­de schil­dert er in die­sem Pod­cast im Gespräch mit dem Spie­gel-Jour­na­list Juan Moreno. 

Men­schen ope­rie­ren mit Gedan­ken und Gefüh­len, haben tran­szen­den­ta­le Vor­stel­lun­gen. Unse­re neu­ro­na­len Netz­wer­ke bestehen aus orga­ni­scher Mas­se, die digi­ta­len Netz­wer­ke lie­gen auf rie­si­gen Ser­vern. Und doch nähern wir uns immer mehr anein­an­der an. Futu­ris­ti­sche Sze­na­ri­en von Nano­bots oder in den Kör­per ein­ge­führ­te Chips sol­len die Gesund­heit oder unse­re Leis­tungs­fä­hig­keit steigern.

In der soge­nann­ten Lon­ge­vi­ty-For­schung wur­de in ers­ten Stu­di­en bereits nach­ge­wie­sen, dass die bio­lo­gi­sche Uhr um eini­ge Jah­re zurück­ge­dreht wer­den kann, eine Lebens­span­ne von über 100 Jah­ren rückt damit in den Bereich des Mög­li­chen. Kri­tisch ist zu sehen, was die­se Vor­stö­ße in Rich­tung des ewi­gen Lebens mit uns machen. Dehnt sich die Lebens­span­ne auf 200 Jah­re aus – was bedeu­tet dies für das Sozi­al­ge­fü­ge, für unse­re Lebensgestaltung?

Zwar kön­ne KI in der jet­zi­gen Form nicht das Erb­gut ver­än­dern, doch mit der Gen-Sche­re CRISPR/Cas ist eine Tech­nik der Gen-Edi­tie­rung gefun­den. Mit dem ers­ten unver­ant­wort­li­chen Expe­ri­ment mit „gecris­per­ten“ Babys durch einen chi­ne­si­schen Wis­sen­schaft­ler im Jahr 2018 ist eine Büch­se der Pan­do­ra geöff­net wor­den. Die „Züch­tung“ eines durch Gen­tech­nik opti­mier­ten Men­schen wird greif­ba­rer. Dies freut Ver­tre­ter des Bio­li­be­ra­lis­mus, die gro­ßes Poten­ti­al im gene­ti­schen Enhance­ment sehen. Tat­säch­lich sind die The­ra­pie­mög­lich­kei­ten für ein­zel­ne mono­ge­neti­sche Erkran­kun­gen viel­ver­spre­chend. Doch auch rein ästhe­ti­sche Ein­grif­fe sind vor­stell­bar. Län­ge­re Wim­pern oder mehr Mus­kel­mas­se durch einen Schnipp mit der Gen-Sche­re? Mögen der­ar­ti­ge kos­me­ti­sche Muta­tio­nen harm­los klin­gen, nicht abseh­bar wären die Kon­se­quen­zen, käme es nun zu einer Art gene­ti­schen Wett­rüs­tens. Die Dys­to­pie einer gänz­lich neu­en Spe­zi­es von Mutan­ten riss Lütschg an, was bio­kon­ser­va­ti­ve Ansät­ze umso gebo­te­ner erschie­nen ließ.

Kurz erklärt: Transhumanismus 

Trans­hu­ma­nis­ten wol­len mit tech­no­lo­gi­schen Mit­teln die Fähig­kei­ten des Men­schen erwei­tern und sei­ne bio­lo­gi­schen Beschrän­kun­gen über­win­den. In der Ver­schmel­zung von Mensch und Maschi­ne sehen Anhän­ger die­ser phi­lo­so­phi­schen Denk­rich­tung die nächs­te Evo­lu­ti­ons­stu­fe der Menschheit.

In den Debat­ten der Bio- und Medi­zin­ethik unter­schei­det man zwi­schen bio­kon­ser­va­ti­ven und bio­li­be­ra­len Posi­tio­nen. Bio­kon­ser­va­ti­ve leh­nen Ein­grif­fe in die mensch­li­che Bio­lo­gie ent­we­der gänz­lich ab oder for­dern eine stren­ge Regle­men­tie­rung der­sel­ben. Bio­li­be­ra­le befür­wor­ten das Enhance­ment mit den Mit­teln der Gentechnik.

Prof. Dr. Chris­toph Benz­mül­ler (Foto: Fran­zis­ka Lang)

Prof. Dr. Chris­toph Benz­mül­ler hat sich 1990 in die KI ver­liebt. Damit ist nicht an ein Sze­na­rio einer Bezie­hung zwi­schen Mensch und Maschi­ne wie bei dem Film Her oder Ex Machi­na zu den­ken. In einer der ers­ten KI-Vor­le­sun­gen im deut­schen Raum pack­te den heu­ti­gen Infor­ma­tik­pro­fes­sor der Uni Bam­berg die Fas­zi­na­ti­on für Com­pu­ter­sys­te­me. Seit­dem treibt es ihn an, zu bewei­sen, dass es kate­go­ria­le Unter­schie­de zwi­schen Men­schen und Maschi­nen gibt. In sei­nem Vor­trag zeig­te der Mathe­ma­ti­ker und Infor­ma­ti­ker auf, wie leis­tungs­fä­hig KI ist und wo ihre Beschrän­kun­gen liegen.

So konn­te Benz­mül­ler mit sei­nem Team in Pio­nier­ar­beit bewei­sen, dass KI zu höhe­rer moda­ler Logik fähig ist. Im Bereich der soge­nann­ten „Com­pu­ta­tio­na­len Meta­phy­sik“ über­prüf­te er mit­hil­fe der KI, dass es eine wider­spruchs­freie the­is­ti­sche Theo­rie gibt. Damit über­führ­te Benz­mül­ler Kurt Gödels Got­tes­be­weis in die Welt der Com­pu­ter. Gödels Axio­me, 1970 noch mit Papier und Stift ange­fer­tigt, auto­ma­ti­sier­te Benz­mül­ler und erreg­te damit inter­na­tio­nal Schlag­zei­len. Mit­un­ter wur­de ihm zuge­schrie­ben, mit sei­nem Mac­book Gott bewie­sen zu haben.

Eine humor­vol­le Erklä­rung sei­nes Vor­ge­hens und der ver­kür­zen­den Dar­stel­lun­gen durch die Pres­se fin­det ihr in sei­nem Sci­ence Slam-Bei­trag „Onto­lo­gi­scher Got­tes­be­weis am Computer?“. 

Wür­den wir die KI einer Ent­wick­lungs­stu­fe zuord­nen, so Benz­mül­ler, befän­de sie sich gera­de in der Puber­tät. Hier sind wir als „Erzie­hungs­be­rech­tig­te” gefragt. Zu potent sind die Tech­no­lo­gien, dass wir die KI ein­fach ihre Hör­ner absto­ßen las­sen kön­nen. Um einer unge­brems­ten Fin­dungs­pha­se der KI einen Rie­gel vor­zu­schie­ben, hat Benz­mül­ler die Infra­struk­tur für ein Schutz­hül­len­mo­dell ent­wor­fen: mit­hil­fe eines ethi­schen Reasoners (man den­ke an das Ein­spei­sen von Axio­men wie etwa die Zehn Gebo­te) soll sicher­ge­stellt wer­den, dass die KI ethi­sche Vor­ga­ben erfüllt. Die Fra­ge nach Ver­ant­wor­tung kön­ne so in Form eines Com­pli­ance-Checks for­mal-logisch den Sys­te­men ein­ge­baut wer­den. Die For­de­rung nach größt­mög­li­cher Trans­pa­renz sieht er kri­tisch: poli­ti­sche wie indus­tri­el­le Akteu­re könn­ten ihre Geheim­nis­se nicht preis­ge­ben, ohne sich einem enor­men Sicher­heits­ri­si­ko auszusetzen.

Phil­ipp Mahl­ow M.A. (Foto: Fran­zis­ka Lang)

Die euro­päi­sche KI-Stra­te­gie beleuch­te­te Phil­ipp Mahl­ow M.A., Pro­mo­vend in Rechts­wis­sen­schaf­ten an der Uni­ver­si­tät Inns­bruck. Er zitier­te Goog­le-Chef Sun­dar Pichai: „KI ist zu wich­tig, um sie nicht zu regu­lie­ren.“ Die Euro­päi­sche Kom­mis­si­on hat Anfang des Jah­res 2023 den KI-Ver­ord­nungs­ent­wurf vor­ge­legt. Zwar sei­en des­sen risi­ko­ba­sier­te Ansät­ze grund­sätz­lich sinn­voll, für ihn stell­ten sich aller­dings noch zu vie­le tech­ni­sche Fra­ge­zei­chen bei ihrer Implementierung.

Gera­de in den Geis­tes­wis­sen­schaf­ten herrscht das Pri­mat ori­gi­nel­ler intel­lek­tu­el­ler Schöp­fun­gen. KI-gestütz­te Bild­ge­ne­ra­to­ren wie Dall‑E jedoch machen hand­ge­fer­ti­gen Kunst­wer­ken Kon­kur­renz, ChatGPT kann Dreh­bü­cher und Gedich­te schrei­ben, die man­che Lite­ra­tur­kri­ti­ker zu Lobes­hym­nen ver­an­las­sen. Zur Ver­wun­de­rung eini­ger Teil­neh­mer hat­ten wir Schwie­rig­kei­ten, aus vier prä­sen­tier­ten Gemäl­den einen ech­ten Picas­so aus­zu­su­chen. Die ande­ren drei Bil­der wur­den von der KI im Stil des spa­ni­schen Künst­lers „gemalt“. An unzäh­li­gen Vor­bil­dern trai­niert kann die KI meis­ter­lich Mus­ter erler­nen und repli­zie­ren. Was aber ist die Ent­wick­lung eines per­sön­li­chen Stils Ande­res? Die Ant­wort auf die­se Fra­ge hat Ein­fluss dar­auf, wie wir künf­tig Ori­gi­na­li­tät und Krea­ti­vi­tät definieren.

Wer­den uns die Kunst­wer­ke beschert, die uns durch die End­lich­keit des künst­le­ri­schen Schaf­fens ver­wehrt blie­ben? Die Beat­les haben 2023 ihren letz­ten Song „Now and Then“ ver­öf­fent­licht, wobei John Len­non durch KI wie­der zum Leben erweckt wur­de. Die Mit­glie­der der schwe­di­schen Kult­band ABBA kann man seit 2022 als „ABBA-tare“ in der Blü­te­zeit der 1970er in einer Holo­gramm-Show auf der Büh­ne sehen. Ist dies die Zukunft der Musikindustrie? 

In der Gegen­wart knüp­fen sich dar­an jedoch mate­ri­el­le und recht­li­che Fra­gen – was ist, wenn krea­ti­ve Beru­fe an Com­pu­ter „out­ges­ourct“ wer­den? Die Fäl­le von Krea­tiv­schaf­fen­den, die sich gegen KI aus­spre­chen, meh­ren sich: Sie for­dern Scha­dens­er­satz von Bild­ge­ne­ra­to­ren. Es geht um Urhe­ber­rech­te, um die Fra­ge des Eigen­werts von Kunst­wer­ken. Die Pro­ble­ma­tik von künst­li­cher Kunst ist wie so vie­les im Bereich der neu­en Tech­no­lo­gien kontrovers.

Nicht nur Pop­stars wer­den für die Ewig­keit kon­ser­viert, auch Nor­mal­sterb­li­chen soll künf­tig digi­tal zur Unsterb­lich­keit ver­hol­fen wer­den. Dar­um haben Anbie­ter wie Eter­nos oder Hereafter.ai ihr Geschäfts­mo­dell gestrickt. Bie­ten sie Hin­ter­blie­be­nen eine trau­er­psy­cho­lo­gi­sche Hil­fe­stel­lung oder wird beson­ders vul­ner­ablen Per­so­nen ein Bären­dienst erwie­sen? Es tun sich immer wei­te­re ethi­sche Pro­ble­me auf: Wann been­det man das Gespräch mit einem der­ar­ti­gen Chat­bot? Muss man dazu sei­ne digi­ta­len Ange­hö­ri­gen zum zwei­ten Mal vir­tu­ell beerdigen? 

Auch der Ein­satz von Gebets- oder Segens­ro­bo­tern wie Bless U-2 wur­den in nach­mit­täg­li­chen Work­shops kri­tisch dis­ku­tiert. Ist ein Robo­ter für die Ent­las­tung von Pries­tern bei pas­to­ra­len Tätig­kei­ten tat­säch­lich ein Segen oder droht mit der Ein­füh­rung anthro­po­mor­pher Gehil­fen der Ver­lust zwi­schen­mensch­li­cher Bezie­hun­gen? Wel­che Instanz über­nimmt Ver­ant­wor­tung, soll­te das Han­deln von Robo­tern feh­ler­haft sein oder Scha­den verursachen?

Dipl. sc. pol. Univ. Timo Gre­ger, M.A. sprach über „Huma­nis­mus aus einer phi­lo­so­phi­schen Per­spek­ti­ve“ (Foto: Fran­zis­ka Lang)

Der Ein­satz von KI im All­tag scheint zunächst magisch, mit nur einem Maus­klick über das gesam­te Wis­sen der Welt zu ver­fü­gen, sei­ne Mails auf ein­mal in unter­schied­li­chen Stil­ebe­nen und Spra­chen zu schrei­ben… doch die­ser Illu­si­on dür­fen wir uns nicht hin­ge­ben, wie Dipl. sc. pol. Univ. Timo Gre­ger, M.A. am letz­ten Tag ein­drück­lich her­vor­hob. Der wissen­schaft­li­che Koor­di­na­tor und Co-Pro­jekt­lei­ter von „KI und Ethik“ an der LMU warn­te davor, sich blind auf auto­ma­ti­sier­te Assis­tenz­sys­te­me zu ver­las­sen. Dies habe die Ver­küm­me­rung eige­ner Fähig­kei­ten zur Fol­ge. Es mag bequem erschei­nen, eine Semi­nar­ar­beit von ChatGPT anfer­ti­gen zu las­sen, doch mit der Scheu vor eige­ner intel­lek­tu­el­ler Arbeit täten wir uns kei­nen Gefal­len. Im Schrei­ben lernt man das Den­ken, im Ler­nen einer Spra­che durch­dringt man kom­ple­xe Sys­te­me und trai­niert auch die eige­ne Frus­tra­ti­ons­to­le­ranz. Das Ent­fal­ten der eige­nen intel­lek­tu­el­len, emo­tio­na­len und psy­chi­schen Fähig­kei­ten ist essen­ti­ell für eine rund­um gebil­de­te Per­sön­lich­keit. Bei der Bewäl­ti­gung die­ser Her­aus­for­de­run­gen kön­ne KI unter­stüt­zen, sie sol­le sie uns aber nicht abneh­men. Für eine sinn­vol­le Lebens­ge­stal­tung ist auch im Gebrauch der so ver­lo­cken­den tech­ni­schen Anwen­dun­gen die aris­to­te­li­sche gol­de­ne Mit­te geboten.

Eine in den drei Tage wie­der­holt auf­tre­ten­de Fra­ge ist die nach dem genu­in Mensch­li­chen. Was gibt es an uns, das Maschi­nen nicht sub­sti­tu­ie­ren kön­nen, wor­in sind wir der KI (noch) vor­aus? Stets schwingt die Sor­ge um tech­no­lo­gi­sche Sin­gu­la­ri­tät mit: was ist, wenn der Break Even Point droht, in dem eine Super­in­tel­li­genz den Men­schen über­flüs­sig macht? Ein Mora­to­ri­um, wei­te­re For­schung zur Ent­wick­lung der Künst­li­chen Intel­li­genz zu pau­sie­ren, hat neben Elon Musk und gro­ßen Tech-Fir­men auch Chris­toph Benz­mül­ler unter­schrie­ben. Er glaubt noch immer nicht dar­an, dass es die­sen Moment geben wird, plä­diert aber für Ent­schleu­ni­gung. Wei­te­re Ent­wick­lun­gen müss­ten von inter­dis­zi­pli­nä­rer For­schung flan­kiert wer­den, um eine unkon­trol­lier­ba­re Black­box zu ver­mei­den. Gera­de bei der Anwen­dung in mili­tä­ri­schen Kon­tex­ten ist das zer­stö­re­ri­sche Poten­ti­al von KI immens. Es bleibt zu hof­fen, dass das Desi­gnen einer ver­ant­wor­tungs­vol­len KI Vor­rang hat vor öko­no­mi­schem Wettbewerbsdruck.

Wie die Tage inten­si­ven Aus­tauschs gezeigt haben, wirft KI nicht nur gänz­lich neue ethi­sche Fra­ge­stel­lun­gen auf, son­dern zwingt uns dazu, alle mora­li­schen und ethi­schen Kon­zep­te unter neu­en Vor­zei­chen zu beden­ken. Dr. Anna-Kar­ger Kroll spricht von einer „mora­li­schen Revo­lu­ti­on“, der wir uns stel­len müs­sen. Ein All­tag, der von Smart Mobi­li­ty, Smart Cities und Smart Homes durch­drun­gen ist, braucht auch smar­te Nut­zer die­ser Technik.

Dr. Anna Kar­ger-Kroll bei ihrem Vor­trag „Smart, grün und die Vor­stel­lung eines bes­se-ren Lebens – eine sozi­al­ethi­sche Ana­ly­se“ (Foto: Fran­zis­ka Lang)

Es ist eine gro­ße Ver­pflich­tung für uns als jun­ge Geis­tes­wis­sen­schaft­ler, uns in die Dis­kus­si­on zu einem ver­ant­wor­tungs­vol­len Umgang mit der KI ein­zu­brin­gen. Dazu sind wir aller­dings bes­tens ‚pro­gram­miert‘.  Die auf Sta­tis­tik basie­ren­den LLM ver­fü­gen nur schein­bar über uni­ver­sa­le Ant­wor­ten, tat­säch­lich sind sie „Bes­ser­wis­ser-Plap­pa­gei­en“, so Benz­mül­ler. Ihnen fehlt es an Ratio­na­li­tät oder Rea­li­täts­be­zug. Für ihren ver­nünf­ti­gen Gebrauch ist ein tief­ge­hen­des Ver­ständ­nis von Spra­che fun­da­men­tal. Zu des­sen Aus­bil­dung kön­nen die Phi­lo­lo­gien eben­so wie die Lin­gu­is­tik einen Bei­trag leis­ten. Phi­lo­so­phie, Theo­lo­gie und Ethik lie­fern das Hand­werk­zeug, ein nor­ma­ti­ves Grund­ge­rüst auf­zu­stel­len. Die Kul­tur- und Medi­en­wis­sen­schaf­ten kön­nen eben­so wie die Päd­ago­gik für einen kri­ti­schen Umgang mit inhä­ren­ten Bias sensibilisieren.

Spie­len wir unse­re mensch­li­che Kern­kom­pe­tenz aus und hin­ter­fra­gen wir reflek­tiert: inwie­weit wol­len wir uns Men­schen den Maschi­nen anglei­chen, inwie­weit wol­len wir uns in Abhän­gig­keit von KI bege­ben? Die Fra­ge, wel­che Rol­le wir KI in unse­rem eige­nen Leben über­las­sen, muss jedes mün­di­ge Sub­jekt für sich selbst beantworten.

Wie stets reg­ten die Vor­trä­ge und Work­shops zu ange­reg­ten Gesprä­chen an. (Foto: Fran­zis­ka Lang)