INKOVEMA-Podcast „Gut durch die Zeit“

#202 GddZ – Digitalisierte Empathie und Mediationsarbeit?

Neue Technologien für Mediation und Konfliktberatung. Teil 7

Im Gespräch mit Michael Lardy

Michael Lardy: Mediator aus Salzburg, Österreich. Er absolvierte ein Jurastudium an der Universität Salzburg von 2020 bis 2024. Zusätzlich schloss er einen diplomierten Lehrgang zum Mediator am Wifi Salzburg zwischen 2022 und 2023. Lardy spezialisiert sich auf Familienmediation und Scheidungsmediation. Er hat sich auch mit dem Thema Künstliche Intelligenz in der Mediation beschäftigt und einen Artikel mit dem Titel „Mediation und KI: Die stille Revolution – Wie menschlich ist ChatGPT?“.

Gut durch die Zeit.

Der Podcast rund um Mediation, Konflikt-Coaching und Organisationsberatung.

Inhalt

Kapitel

0:03 – Einführung in die neue Technologie

0:57 – Spannende Entwicklungen in der Mediation

1:50 – Michael Lardy im Podcast

2:28 – Der Einfluss von KI auf die Mediation

6:55 – Empathie und KI: Eine kritische Betrachtung

8:41 – Vermenschlichung von Technologie

11:16 – Die Rolle der Sprache in der Kommunikation

15:10 – Vertrauen in KI: Chancen und Risiken

18:40 – Die Zukunft der KI in der Mediation

21:21 – Vision eines KI-Co-Mediators

24:58 – Open-LLMs: Die nächste Revolution?

28:22 – Anforderungen an zukünftige KI-Modelle

32:14 – Niederschwelliger Zugang zur Mediation

36:13 – Internationale Perspektiven auf Mediation

39:50 – Fazit und Ausblick auf die Zukunft

Inhaltliche Zusammenfassung

In dieser Folge des Podcasts „Gut durch die Zeit“ dreht sich alles um die Integration Neuer Technologien in den Bereich der Mediation und Konfliktbewältigung. Ich, Sascha Weigel, und mein Kollege Dr. Frank Termer reflektieren über die Herausforderungen und Chancen, die mit der Anwendung von Künstlicher Intelligenz (KI), insbesondere ChatGPT, in der Mediation verbunden sind. Wir diskutieren nicht nur, was technologisch möglich ist, sondern auch, wie sich die Realitäten der Mediation in der Praxis durch derartige Innovationen verändern könnten.

Frank und ich eröffnen das Gespräch, indem wir auf aktuelle Ereignisse eingehen, die nicht nur die politische Landschaft, sondern auch unsere Arbeit als Mediatoren beeinflussen. Wir betonen die Notwendigkeit, proaktiv auf kommende Herausforderungen zu reagieren und dabei nicht den Überblick über die rasante technologische Entwicklung zu verlieren. Unser Gast ist der Mediator Michael Lardy aus Salzburg, der bereits frühzeitig Erfahrungen mit KI-Technologien gesammelt hat. Michael bringt interessante Perspektiven darüber ein, wie Künstliche Intelligenz die Art und Weise, wie wir Streitigkeiten lösen, revolutionieren könnte.

Ein besonderer Fokus liegt auf der Frage, wie empathisch KI tatsächlich ist und ob sie der menschlichen Empathie nahekommen kann. Aus wissenschaftlichen Perspektiven beleuchten wir verschiedene Studien, die zeigen, dass KI in der Lage ist, empathisch zu agieren, zumindest in der Wahrnehmung der Nutzer. Das führt zu der wichtigen Frage: Vermenschlichen wir die Technologie und projizieren wir menschliche Eigenschaften auf sie, oder hat KI tatsächlich das Potential, empathisch zu handeln? Diese Diskrepanz bildet einen zentralen Punkt unserer Diskussion.

Michael Lardy teilt seine Erfahrungen aus seiner Praxis und betont die Potentiale, die sich durch den Einsatz von KI in der Mediation ergeben, wie etwa die Möglichkeit, rollenspezifisches Training durch KI-gestützte Simulationen zu durchlaufen. Wir betrachten auch, wie KIs den Zugang zur Mediation erleichtern könnten, indem sie als Erstkontakt fungieren und Menschen helfen, Konflikte bereits im Vorfeld besser zu begreifen und zu navigieren.

Zusätzlich diskutieren wir die Herausforderungen und Bedenken hinsichtlich der ethischen Nutzung von KI und der Notwendigkeit, die richtigen Rahmenbedingungen zu schaffen, damit Künstliche Intelligenz in der Mediation akzeptiert werden kann. Wir analysieren, inwiefern Mediatoren die Kontrolle über die Technologie behalten sollten, um sicherzustellen, dass die menschliche Verbindung im Geschehen bleibt.

Abschließend erörtern wir, wie wichtig es ist, auch im Rahmen der digitalen Transformation nicht nur Konsumenten von Technologie zu sein, sondern aktiv Strategien zu entwickeln, um die eigenen Fähigkeiten und die der Technologien zu optimieren. Wir bilden uns gemeinsam fort, um die Zukunft der Mediation besser gestalten zu können und schlagen vor, dass niederschwellige Zugänge zur Mediation durch KI-gestützte Lösungen eröffnet werden sollten.

Diese Episode ist ein faszinierendes Eintauchen in die Entwicklung und die Herausforderungen, die KI in unserer Branche mit sich bringt. Sie regt zum Nachdenken an über die Rolle der Technologie in unserer Arbeit und wie wir diese zum Vorteil derer nutzen können, die Unterstützung in Konfliktsituationen suchen.

  • Michael Lardy: „Mediation und KI: Die stille Revolution – Wie menschlich ist ChatGPT?“; Deutsch

 

Vollständiges Transkript der Episode

[0:03]
Einführung in die neue Technologie
[0:00]Zwei Aspekte. Das eine, was ist in der Mediation real umsetzbar? Ich denke, da gibt es noch recht enge Grenzen. Andererseits sehe ich, was ist technologisch am Werden? Da ist Unglaubliches am Kommen. Also wenn man nur mal alles zusammennimmt, was es schon gibt. Herzlich willkommen zum Podcast Gut durch die Zeit. Der Podcast rund um Mediation, Konfliktcoaching und Organisationsberatung. Ein Podcast von INKOVEMA. Ich bin Sascha Weigel und begrüße dich zu einer neuen Folge. Und heute wieder mit meinem Kollegen Dr. Frank Termer zusammen. Und das bedeutet, wir sind bei den neuen Technologien für Mediatorinnen und Berater.
[0:36]Frank, wie geht’s dir? Guten Morgen, Sascha. Ja, mir geht’s blendend. Alles gut soweit. Aber ja, die Ereignisse überschlagen sich gerade. Ich weiß, ich bin nicht nur Mediator, sondern auch im Verband unterwegs. Und der war für uns gestern, wir sind heute hier beim 7. November, war gestern ein ganz aufregender Tag. Insofern, mir geht’s gut, dass es viel los. Das zeigt mal wieder, dass es manchmal auch zu spät sein kann für Mediation.
[0:57]
Spannende Entwicklungen in der Mediation
[0:55]Man muss schon den richtigen Zeitpunkt erwischen. Aber das soll uns heute nicht davon abhalten, über neue Technologien zu sprechen und wie sie Mediation verändern und vielleicht sogar besseren können.
[1:05]Und aufregender Tag, weil das auch anderswo aufregend war. Der amerikanische Präsident ist gewählt worden, die deutsche Regierung hat Neuwahlen angeordnet, der Finanzminister ist entlassen worden, der Verkehrsminister ist aus der Partei ausgetreten. Nee, das ist genau das, was bei uns im Verband ja dann auch ankommt und wo wir uns natürlich auch dann irgendwie intensiv mit beschäftigen. Wir müssen ja auch, so wie es bei der Mediation auch der Fall ist, immer vor dem eigentlichen Ereignis schon bereit sein, um Dinge in die Wege zu leiten. Entsprechend haben wir uns auf eine Bundestagswahl 2025 natürlich schon vorbereitet, die haben wir eher so in den Herbst gedacht. Und jetzt sieht es ja ganz stark danach aus, dass wir sehr, sehr viel früher dran sein werden. Da gilt es natürlich jetzt auch schnell zu sein und genau, die richtigen Dinge in die Wege zu leiten. Okay. Und richtigen Dinge in die Wege zu leiten und vor die Welle zu kommen, da sind wir bei unserem heutigen Gesprächsgast angekommen.
[1:50]
Michael Lardy im Podcast
[1:51]Wir haben heute eingeladen, ich weiß gar nicht genau, ob ich jetzt sagen kann, einen Technikexperten, aber auf jeden Fall einen Mediator-Kollegen, der frühzeitig schon ChatGPT genutzt hat und auch publiziert, reflektiert hat und dazu einen ganz interessanten Beitrag jetzt auch verfasst hat. Und das war Grund genug zu sagen, Michael, Lade, du musst mit ins Podcaststudio kommen. Und kaum zu glauben, er hat sofort Ja gesagt. Hallo Michael.
[2:19]Hallo, Michael. Hallo, Sascha. Hallo, Frank. Ja, vielen Dank für die Einladung
[2:28]
Der Einfluss von KI auf die Mediation
[2:26]zu dem Podcast heute. Ich bin sehr gespannt. Ja, ein mega spannendes Thema, KI in der Mediation. Also ich habe Dezember 2022 JGPT entdeckt und habe eigentlich schon relativ bald gedacht, boah, das wäre ja toll, wenn man da Rollenspieler so was machen könnte. Und das war so der Ausgangspunkt, dass ich mich dann nach und nach immer intensiver damit beschäftigt habe. Wir gucken uns heute sozusagen auch wirklich als Mediatoren das an. Nicht so sehr sozusagen von der technischen Seite wahrscheinlich, aber ich bin auch gespannt, wie du sozusagen da hingekommen bist, Michael, sozusagen als Mediator aus der Mediatorenecke oder ob du auf anderen Pfaden mit der Technologie zunächst mal in Kontakt gekommen bist. Und schauen uns aber heute an, sozusagen so eine Überschrift, so wie menschlich kann sich KI geben und wie werden wir damit umgehen können. Und da ist ja schon einiges so, was sich abzeichnet. Michael, zunächst aber zu dir. Du bist Mediator, wissen wir beide, also Frank und ich, und du lebst in Salzburg schon eine lange Zeit. Wer bist du noch? Was macht dich aus? Wie kommst du mit JetGPT in Kontakt? Ich wohne seit über 20 Jahren in Salzburg, bin Saarbrücker eigentlich ursprünglich.
[3:38]Ja, JetGPT, ich war schon immer sehr technikaffin. Also ursprünglich habe ich Chemie studiert, hatte dann über 25 Jahre eine Solarfirma, also in einem ganz anderen Bereich. Hab dann sehr spät entdeckt, oder was heißt sehr spät, aber wenigstens relativ spät, entdeckt, dass Mediation eigentlich ein faszinierendes Thema ist, um Streitigkeiten einfach anders zu lösen. Und habe dann, als dieses Tool rauskam, gedacht, das wäre ja wirklich faszinierend, wenn man einfach so seine Fähigkeiten einfach besser verbessern könnte, indem man da Rollenspiele macht, indem man Mediation und Simulationen macht. Und es ist halt sehr faszinierend, als ich damit angefangen habe, konnte dieses Tool noch extrem wenig. Und das Faszinierende daran, finde ich jedenfalls, ich nehme an, euch geht es ähnlich, die extreme Entwicklung dieser Technologie. Also man muss praktisch für jeden Termin, den man irgendwie hat, ein Seminar oder ein Webinar oder ein Podcast, man muss sich jedes Mal nochmal anschauen, was kann das Teil jetzt wieder alles. Das ist allein der letzte Fortschritt mit diesen neuen Stimmen, dieser neuen Stimmfunktion. Also die Entwicklung ist rasant und finde ich absolut faszinierend. Und ich denke, es gibt vielfältige Möglichkeiten, wie man es einsetzen kann.
[5:00]Aber man muss sich auch ganz gut damit beschäftigen, damit man es recht realistisch einschätzt. Du sagst, du hast das schon frühzeitig sozusagen genutzt und gleichwohl sozusagen diese Dynamik mit einberechnen. Also du sagst, wir müssen uns jedes Mal von Neuem nochmal angucken, was sich da verbessert hat. Worauf wartest du am ehesten noch jetzt bei KI, wo du sagst, dann ist das nochmal für uns Mediatoren, für unsere Aufgabenstellungen, die wir vielleicht in der Mediation mit Medianten haben oder die wir eben auch außerhalb, davor und danach bewältigen. Du sagst, wenn das kommt, das Feature, dann haben wir wirklich nochmal ein Instrument, wo eigentlich alle Mediatoren sofort sagen müssen, das gehört für mich jetzt zum Arbeitsalltag. Denn das, glaube ich, ist noch nicht ganz so, oder? Frank, Michael, wie sagt ihr, ist das schon so ein angekommenes Instrument? Mein Eindruck ist, dass Mediatoren doch grundsätzlich extrem skeptisch sind, oder ziemlich skeptisch sind, was die Fähigkeiten von KI und also ich spreche immer von JGPT, weil meiner Meinung nach ist es das fortschrittlichste Large Language Modell im Moment. Das merkt man, wenn man damit arbeitet. Ich finde, die anderen KIs kommen da gar nicht mit, abgesehen davon. Ich arbeite zum Beispiel auch nicht mehr über eine Tastatur. Am sinnvollsten ist es halt einfach mündlich, das zu machen, wie es halt in der Mediation letzten Endes auch ist. Und von daher, ich orientiere mich an meinen anderen GPT.
[6:24]Was da noch fehlt, naja, ich finde, es kann schon eine ganze Menge, und ich denke, man kommt jetzt schon kaum hinterher, so richtig immer auszutesten, was es schon alles kann. Ich meine, es gibt diese Studien, dass eine KI empathisch ist. Ich denke, das hat einige Leute doch recht überrascht. Mediatoren generell haben, glaube ich, tendenziell das Gefühl, dass es einige Fähigkeiten gibt von Mediatoren, die eine KI aufhören. Überhaupt nicht irgendwie erlangen kann. Ich glaube, in dem Punkt muss man ein
[6:55]
Empathie und KI: Eine kritische Betrachtung
[6:54]bisschen vorsichtig sein. Bleiben wir mal bei der Empathie, weil das ist ja für viele Mediatoren so eine ganz zentrale Eigenschaft, die sie glauben, mitbringen zu müssen als Mediatoren und um die es auch geht in der Mediation. Und ich kann mir gut vorstellen, wenn es jemandem zugehört hat, die KI ist empathisch, haben Studien gezeigt, dann ist sofort, das muss man irgendwie genauer angucken. Das kann eigentlich nicht sein, weil das ist ja eine Annahme, dass das nicht und niemals möglich ist. Was ist genau der Stand momentan? Auch Frank, du bist ja auch drin. Wie würdet ihr das Thema Empathie momentan verordnen?
[7:33]Wir hatten ja hier an der Stelle auch schon mal über das Thema Empathie gesprochen, wenn es um ZGPT oder Künstliche Intelligenz im Allgemeinen geht. Und ich finde es sehr interessant, auch aus den Gesprächen der letzten Wochen und Monate heraus, da zwei Dinge zu unterscheiden. Das eine ist ja, kann man tatsächlich nachweisen oder testen oder wie auch immer herausfinden, ob so eine Technologie wirklich empathisch ist oder Empathie zeigen kann. Oder die zweite Geschichte, die finde ich viel spannender, schreiben Menschen dieser Technologie diese Eigenschaft zu. Also hat man quasi eine Art Glaubwürdigkeit auf der technologischen Seite geschaffen, um Menschen weiszumachen oder diesen Glauben eben zu entwickeln, dass die Technologie tatsächlich empathisch sein kann. Und wir haben ja auch schon mal über dieses Tool ELISA gesprochen, was ja auch Michael in seinem Aufsatz thematisiert hat, was ja schon in den 60er Jahren damals einen ähnlichen Ansatz verfolgt hatte mit weit weniger technologischer Ausgereiftheit, als wir das heute haben. Und trotzdem hat man diesem ganz einfachen Chatbot damals schon Empathie zugesprochen. Und das finde ich immer noch mal einen spannenden Punkt zu unterscheiden. Geht es uns eher darum, wirklich nachzuweisen und zu zeigen, ist diese Technologie tatsächlich empathisch?
[8:41]
Vermenschlichung von Technologie
[8:37]Also versteht sie was? Hat sie ein Verständnis von dem, was da gerade passiert? Oder eher die andere Seite, schreiben Menschen so einer Technologie Empathie zu und kann das auch schon für irgendetwas genutzt werden? Da würde mich auch, Michael, in deiner Sicht mal interessieren.
[8:52]Trägt diese Unterscheidung oder macht es überhaupt Sinn, sich auf eines von beiden zu fokussieren oder müsste man das irgendwie ganzheitlich sehen? Wie ist da so dein Eindruck? Also ich denke, das Beispiel mit ELISA ist wirklich sehr gut, weil damals war ja Weizenbaum, also der Professor am MIT extrem beeindruckt oder was heißt beeindruckt, irritiert eigentlich eher, welche Fähigkeiten die Leute, die ELISA genutzt haben, diesem Computerprogramm, das ja im Verhältnis zu heute sehr einfach war, was sie dem zugeschrieben haben. Und es gibt ja viele Beispiele, dass die Vermenschlichung von Computern, dass das eine sehr menschliche Tendenz letzten Endes ist, ein sehr simples Computersystem. Nehmen wir das Beispiel von den Tamagotchis in den 90er Jahren. Also es gibt einen sehr schönen Aufsatz von einer amerikanischen Forscherin, Sharon Turtle heißt die, glaube ich, die das untersucht hat. Und das war ja wirklich extrem primitiv und trotzdem haben die Kinder das sehr extrem ernst genommen, haben das gefüttert, hatten Angst, dass es stirbt und so weiter. Also die Tendenz, Technik zu vermenschlichen, ist, glaube ich, schon sehr ausgeprägt. Aber gucken wir uns sozusagen diese Differenz und ich finde, das ist im Grunde genommen das kommunikative Problem.
[9:59]Vermenschlichung auf der einen Betonungsseite, wir machen die Maschine menschlicher, letztlich sozusagen das Frankensteinische, wir pumpen Blut rein und hauchen ihm Leben ein und dann würde es sozusagen eine Art biologisches Leben sein, das dann auch zur Empathie möglicherweise fähig ist. Oder aber kommunikativ gucken wir uns die Adressatenseite an, also wir, welches Bild machen wir und was ruft es bei uns hervor, wenn ein Mensch, eine Katze, ein Hund oder eben ein Computerprogramm und dann als Sprache in uns etwas in Bewegung bringt, uns sozusagen emotionalisieren kann. Und das findet aber bei uns statt und nicht in der Maschine. Und da würde ich schon sagen, also die Entscheidung ist wichtig, aber sie ist nicht so wichtig für die Frage, was die Maschine kann, ob sie wie ein Mensch ist oder nicht, sondern was sie mit uns Menschen machen kann. Und wir sind, und das glaube ich ist auch in der Studie, die du angesprochen hast, Michael, ganz deutlich, wir sind total fasziniert, emotionalisiert und selbst skeptische Leute können sich dem kaum entziehen. Wenn man, und da finde ich, ist die Spracheingabe tatsächlich eine Riesenhürde, wo auch dann…
[11:16]
Die Rolle der Sprache in der Kommunikation
[11:11]Jeder, der sprechen kann, sofort mit der Maschine kommunizieren kann. Und das Chatten ist ja doch eher nochmal, ich würde jetzt nicht sagen nördig, aber das ist sozusagen wie die Schwelle früher, ob die Interface im Computer verstehbar ist oder ob das was nur für Techniker ist. Ich glaube, da kommt aber auch noch was dazu, Sascha, nämlich die Art und Weise, wie ChatGPT da auch reagiert. Denn das ist in allem, was es tut, immer sehr, sehr wohlwollend. Also egal, was du da reingibst und wie du reinspricht und mit welchen abstrusen Ideen du um die Ecke kommst oder Sonstiges, du wirst immer erst mal Zustimmung erfahren, positive Unterstützung, Bestärkung.
[11:49]Und das ist, glaube ich, was, wenn sowas mit uns resoniert, tatsächlich, wenn wir jemanden finden, der uns unterstützt, der uns positiv gesonnen ist, quasi eine ähnliche Meinung vielleicht dann auch entwickelt oder uns bestärkt mit dem, was wir vorhaben. Klar kommt das gut und positiv an. Also ich glaube, das liegt dann natürlich auch mit dem Interface, hängt das auch zusammen. Aber es liegt, glaube ich, zum einen oder zum wesentlichen Teil daran, wie diese Maschine dann auch reagiert und wie sie sich äußert an den Stellen. Empathie von JetGPT, was meinst du? Gerade weil die Stimme immer besser wird. Also gerade der letzte Fortschritt, wo jetzt in diesem neuen Audio-Modell, das jetzt vor kurzem publiziert worden ist, ist ja auch zum Beispiel kaum mehr englischer Akzent drin, kaum mehr Fehler drin, wenn sie irgendwie eine Auflistung macht von erstens, zweitens, drittens. Das hat sie früher nicht so gut gekonnt. Also die Stimme wird immer besser und ist mittlerweile eigentlich extrem menschlich. Vieles führt dazu, dass man sicherlich da Kompetenzen reindenkt oder gerne reindenkt. Ja, wo man sich überlegen muss, hat sie sie wirklich?
[12:45]Ich meine, dieser Test, den ich da angeführt habe, dieser LEAS-Test, das ist ein Psychotest, den man halt auch mit Menschen macht. Da schneidet JET-GPT einfach überdurchschnittlich gut ab. Bei den Tests muss man allerdings ein bisschen aufpassen, habe ich jetzt gemerkt. Manchmal sind es die Vergleichsgruppen und so. Also sie werden auch ein bisschen gedreht in die Richtung, dass es besonders gut abschneidet. Also beim Lehrtest zum Beispiel waren es Studenten nur, also eine ganz enge Zielgruppe, jetzt keine breit soziologisch gestreute Gruppe. Und jetzt gab es ja vor zwei Wochen ein neues Paper von DeepMind, die auch veröffentlicht haben, oder beziehungsweise die Presse hat es eigentlich daraus gemacht, die KI wäre besser als die Mediatoren. Im Endeffekt waren ja nicht Mediatoren die Vergleichsgruppe, sondern es war eine Person, die kein Mediator war, der aber zum Mediator gemacht wurde.
[13:33]Man muss sich schon die Studien sehr genau anschauen, wie sie konstruiert sind und teilweise sind sie auch ein bisschen so konstruiert, dass was sehr Positives dabei rauskommt. Aber trotzdem, ich meine, auch wenn es nur annähernd so empathisch ist, ich sehe das immer vor dem Hintergrund, dass einfach die Dynamik der Entwicklung ja unglaublich ist. Das heißt also, es ist ja nicht der Status Quo, der unbedingt zählt, sondern was haben wir in zwei Monaten, in drei Monaten, in fünf Monaten, in einem halben Jahr gewählt. Und da glaube ich, ja, ich meine, die KI lernt letzten Endes ja von den literarischen Texten zum Beispiel auch, da ist einfach die Emotion drin, da sind zwischenmenschliche Beziehungen bis zum Gehtnichtmehrtrennen, das ist die Basis. Also von daher ist es halt eine simulierte Empathie, aber die meiner Meinung nach immer besser werden wird. Und wir haben dieses Verführungselement, wenn die so wohlwollend ist.
[14:26]Ich kann mich noch erinnern, ich muss mich an diesen Punkt meistens daran erinnern, an Odyssey im Weltraum von Stanley Kubrick, der HAL 9000, IBM-angedockte Name. Der hat ja dann gruselige Sachen gesagt. in einer Ruhe und Freundlichkeit kann mich noch an den Schauer erinnern, als er einfach den da rausschickte und den nicht wieder rein ließ und konnte das nicht machen in aller Frage. Und diese Irritation haben wir noch nicht. Bei Computerstimmen heute, bei ChatGBT sind immer wohlwollend und sie sprechen uns immer irgendwie sehr an. Aber ich kann mir vorstellen, das ändert sich schlagartig, wenn wir diese Ausrichtung nicht mehr hätten und die würden etwas Kritisches sagen. Ist es das, Frank, wo du meinst, da liegt noch ein Erfahrungsbereich, der uns bisher erspart geblieben ist.
[15:10]
Vertrauen in KI: Chancen und Risiken
[15:10]Ja, also das ist durchaus denkbar, dass das noch in so eine Richtung geht, wobei ich schon auch die Anbieter bzw. Hersteller da sehr stark wahrnehme, dass die da auch viel nachsteuern und Grenzen einziehen und auch die Modelle sozusagen im Zaum halten. Gerade in der Anfangszeit, wo diese ganz neu rauskamen und ähnliches mehr.
[15:27]Da wurden ja die abstrusesten Dinge schon ausprobiert. Der Mensch ist ja dann gleich so und will dann versuchen, solche Systeme an die Grenzen zu bringen und darüber hinaus, was ja dann auch geklappt hat. Und die Anbieter, Entwickler, Hersteller haben ja dann auch ziemlich schnell auch Grenzen eingebaut, ob das bestimmte Reaktionen ausbleiben oder bestimmte Themen ausgeschmackt sind. Das war auf Twitter, ne? Genau, es gab so Twitter-Chatbots und Ähnliches, die dann innerhalb von wenigen Minuten zu einem rechtsradikalen Nazi wurden und ihm übelst ein paar Wohlen irgendwie ausgegeben haben.
[15:52]Microsoft-Bot-Wort war das damals gewesen. Und sowas hat man dann natürlich unterbunden und das findet auch jetzt natürlich noch statt. Also ich glaube schon, dass der Mensch da mit seinen ethischen, moralischen, wertebasierten Vorstellungen einen wichtigen Faktor aktuell einnimmt und auch die Unternehmen, die dahinterstehen, diesen Rahmen vorgeben, in dem sich so eine Technologie bewegt, um auch quasi eine Entwicklung in eine positive Richtung weiterzutreiben und das eben nicht in eine Ecke zu bringen, die uns nicht gefällt an der Stelle. Und trotzdem sind wir ja, das haben wir ja auch schon in diesem Podcast diskutiert, weit, weit weg von wirklich so einer generellen künstlichen Intelligenz, die wirklich eine Art Bewusstsein entwickelt und eigene Meinungen entwickelt und eigene Strategien aufbaut, was vielleicht ja bei HL9000 und dem Film, den du angesprochen hast, schon ein bisschen vorgegriffen war tatsächlich. Wenn er dann sagt, sorry Dave, I can’t do that. Das werden wir dann hier bei Chatschiputti, glaube ich, erstmal nicht erleben. Insofern bleibt die Verantwortung schon noch bei uns Menschen ein Stück weit, ja. Aber da muss ich kurz dazwischen gehen. Vor kurzem habe ich mit einer Open-LLM-Version eine Lama 3.1, weil das auch ein sehr spannendes Thema ist, Open-LLMs zu nutzen. Da habe ich eine Anweisung gegeben, er soll einen Satz umformulieren. Da ging es um die Empathiefähigkeit von KIs.
[17:02]Und da habe ich so einen Hall-Effekt gehabt. Und zwar sagt mir die KI, ja, also da ist sie doch nicht meiner Meinung. Eine KI wäre nicht empathisch, sie wäre vom Menschen programmiert und so weiter und so fort.
[17:15]Hat die Aufgaben nicht erfüllt, die ich wollte, nämlich einen Satz umzuformulieren. Und hat gemeint, stattdessen schlage ich dir doch das vor. Wenn man öfters mit KIs arbeitet, das geht euch wahrscheinlich auch ab und zu so, man hat so Momente, wo man stutzt, wo Situationen passieren, wo die KI auf eine Art reagiert, meistens eher positiv, weil in dem Fall war es eher negativ, weil sie einfach die Arbeit verweigert hat, wo man sich schon wundert, was passiert da jetzt letzten Endes. Also ganz so haulfrei habe ich das Gefühl, sind wir nicht unbedingt immer. Ja, mir war der Punkt da wichtig, weil du den auch angesprochen hast, Michael. Das ist, finde ich, in der Anwendung ein Riesenschritt, dass das Ding spricht. Also, dass wir eine Spracheingabe haben und dass es eine Sprachausgabe gibt von einer Stimme, die sehr menschlich wird und die auch Füllwörter nutzen kann etc. Und das ist was ganz anderes ist in der Wahrnehmung, also für mich ist das sozusagen bedeutend, ich weiß nicht, wie es für euch ist, darum geht es gerade, als wenn man das reinschreibt, als wenn man mit dem chattet, also chatten ist irgendwie wirklich technisch, also dann sieht man irgendwie, man braucht so ein Pad, man muss dann tippen und man muss die Sprache eingeben, aber das Sprache, das ist sofort irgendwie natürlicher und das ist für mich in der Anwendung und Michael, du sagst ja auch, du sprichst eigentlich nur noch und kaum noch sozusagen im Chatten, dass das echt ein Booster ist für diese KI-Entwicklung.
[18:40]
Die Zukunft der KI in der Mediation
[18:41]Ja, definitiv. Also ich empfinde das extrem so, weil es ist, wenn man jetzt Mediationsanwendungen macht, irgendwelche Kommunikationsübungen und so, dann ist es einfach viel näher an der Realität. Ich denke, selbst wenn man tippen würde, ich bin jetzt nicht