INKOVEMA-Podcast „Gut durch die Zeit“

#217 GddZ

Ethische Aspekte von Künstlichen Intelligenzen und Beratung

Warum wir uns bei ChatGPT nicht bedanken müssen – und auch nicht bei Siri!

Im Gespräch mit Cornelia Diethelm

Cornelia Diethelm ist eine Schweizer Expertin für digitale Ethik, Unternehmerin und Verwaltungsrätin. Sie gestaltet den digitalen Wandel an der Schnittstelle von Wirtschaft und Gesellschaft aktiv mit. Als Studiengangsleiterin des CAS Digital Ethics an der Hochschule für Wirtschaft Zürich (HWZ) und Dozentin in zahlreichen Studiengängen vermittelt sie ihr Wissen weiter.

Diethelm hat Politikwissenschaft, Betriebs- und Volkswirtschaft studiert, später einen MAS in Digital Business an der HWZ absolviert und sich in Technoethik weitergebildet. Sie verfügt über langjährige Erfahrungen in der Privatwirtschaft, beim Staat sowie bei Nichtregierungsorganisationen. 2018 gründete sie ihr eigenes Unternehmen, die Shifting Society AG, zu der insbesondere das Centre for Digital Responsibility (CDR) gehört.

Neben ihrer Tätigkeit als Unternehmerin ist Diethelm Mitglied in mehreren Verwaltungsräten, darunter Ethos, Metron und die Sparkasse Schwyz. Sie ist außerdem Mitinhaberin des LegalTech-Unternehmens Datenschutzpartner.

Cornelia Diethelm wurde von LinkedIn als „Top Voice“ ausgezeichnet und vom Magazin „Women in Business“ zu den Top 100 Frauen in der Schweiz gewählt.

Gut durch die Zeit.

Der Podcast rund um Mediation, Konflikt-Coaching und Organisationsberatung.

Inhalt

Kapitel:

0:03 – Einführung in Ethik und KI
3:51 – Die Bedeutung der ethischen Reflexion
8:25 – Herausforderungen und Risiken von Social Media
16:16 – Umgang mit Datenschutz und Ethik
24:21 – Die Rolle der Menschlichkeit in der KI
31:14 – KI-Agenten im Business
35:40 – Autonomie und Selbstbestimmung in der Technologie
39:17 – Entscheidungsarbeit im Umgang mit KI

Inhaltliche Zusammenfassung

In dieser Episode des Podcasts «Gut durch die Zeit» widmen wir uns einem der drängendsten Themen der heutigen Zeit: der Ethik in der künstlichen Intelligenz (KI). Ich spreche mit der Expertin Cornelia Diethelm von der Hochschule für Wirtschaft in Zürich, einer erfahrenen Betriebswirtschaftlerin, Politikwissenschaftlerin und Volkswirtin, die zahlreiche Perspektiven in diesem komplexen Bereich mitbringt. Wir diskutieren, wie die rasante Entwicklung neuer Technologien nicht nur zahlreiche Möglichkeiten eröffnet, sondern auch ethische Fragestellungen aufwirft, die wir nicht ignorieren dürfen.

Cornelia betont, dass Technologien nie neutral oder objektiv sind. Sie sind das Produkt menschlicher Entscheidungen und können nicht ohne Berücksichtigung unserer Werte und Ethik bewertet werden. Unsere Diskussion beginnt mit den grundlegendsten Fragen: Wie funktioniert KI und welche ethischen Überlegungen müssen wir anstellen, wenn wir sie in Coaching- und Mediationserfahrungen integrieren? Wir erklären, dass ein grundlegendes Verständnis für die Funktionsweise von KI entscheidend ist, um die richtigen Anwendungen für unsere Bedürfnisse und Werte zu identifizieren.

Wir hinterfragen, wie die Wahrnehmung von Technologien wie dem Internet oder Smartphones unsere Sicht auf die gegenwärtige KI beeinflusst. Cornelia hebt hervor, dass wir oft die negativen Folgen erst erkennen, wenn eine Technologie bereits umfassend in unser Leben integriert ist. Diese Reflexion führt uns zu den Herausforderungen des digitalen Wandels und den potenziellen Risiken, die KI für Beratungssettings im Fachbereich mit sich bringt. Wir müssen uns aktiv fragen, wo diese Technologien unsere Praxis bereichern können und wo sie möglicherweise Werte gefährden oder Stereotype verstärken.

Ein zentrales Thema unserer Unterhaltung ist die Verantwortung, die wir tragen, wenn wir KI einsetzen. Cornelia argumentiert, dass, obwohl wir KI als Unterstützung nutzen können, wir als Fachkräfte für die Ergebnisse verantwortlich bleiben müssen. Wir müssen auch bei der Nutzung von KI klar zwischen Mensch und Maschine unterscheiden, um Missverständnisse über die Natur dieser Tools zu vermeiden. Ihre Kritik an der Vermenschlichung von Maschinen impliziert, dass wir uns bewusst sein müssen, welche Erwartungen wir an KI stellen. Eine verwässerte Grenzziehung zwischen menschlichen und maschinellen Interaktionen kann zu einem Verlust an Kontrolle führen.

Die Diskussion über Selbstbestimmung und Entscheidungstransparenz ist besonders wichtig. Cornelia ermutigt dazu, dass Fachleute in der Beratung aktiv mit KI arbeiten können, um die Komplexität ihrer Fälle besser zu bearbeiten, aber immer in einem Rahmen, der ein klares Bewusstsein für ethische Standards wahrt. Wir reflektieren, wie sich das Nutzerverhalten verändert, wenn Hilfswerkzeuge in die Beratungspraktiken integriert werden, und sprechen darüber, wie wichtig es ist, ethische Maßstäbe bereits bei der Einführung neuer Technologien zu setzen.

Diese Episode ist ein Aufruf zur kritischen Reflexion über die sich rasant verändernde Landschaft der Technologie und deren Einfluss auf unsere Arbeit in der Beratung, Mediation und Coaching. Wir plädieren für eine aktive Auseinandersetzung mit diesen Themen, um sicherzustellen, dass wir nicht nur die Innovationsgewinne, sondern auch die ethischen Herausforderungen der digitalen Gesellschaft anerkennen und adressieren.

Vollständige Transkription

[0:03]
Einführung in Ethik und KI
[0:00]Autonomie, Selbstbestimmung, das ist ein Riesen-, Riesenthema. Man muss immer Entscheidungen treffen, wenn man diese Systeme baut. Also die sind nicht neutral, die sind nicht objektiv…Herzlich willkommen zum Podcast «Gut durch die Zeit», der Podcast rund um Mediation, Konfliktcoaching und Organisationsberatungen. Podcast von INKOVEMA. Ich bin Sascha Weigel und begrüsse dich zu einem neuen Folge. Heute geht es um Künstliche Intelligenzen, also um neue Technologien und den ethischen Herausforderungen, die diese uns stellen.
[0:34]Denn ethische Aspekte können einerseits dazu führen, sich gar nicht erst mit neuen Technologien zu beschäftigen oder aber diese rundweg abzulehnen. Und um diesem Thema hier sich gebührend zu nähern, habe ich mir eine Expertin eingeladen, die sich seit Jahren mit diesem Thema schon beschäftigt. Frau Cornelia Diethelm von der Hochschule für Wirtschaft in Zürich, von Hause aus Betriebswirtschaftlerin, Politikwissenschaftlerin und Volkswirtin. Seit Jahren beschäftigt sie sich sowohl in privatwirtschaftlichen Kontexten als auch in staatlichen und auch in Nichtregierungsorganisationen mit diesem Thema.
[1:20]2018 hat sie ihr eigenes Unternehmen gegründet, die Shifting Society AG. Und dazu gehört vor allen Dingen die Plattform Center for Digital Responsibility. Und über diese habe ich sie in einer Weiterbildungsveranstaltung kennengelernt und gedacht, Die Frau Diethelm muss sich hier im Podcast unbedingt sprechen zu dem Thema Ethik und KI. Herzlich willkommen, Frau Diethelm. Ja, ganz herzlichen Dank für die Einigung. Ich freue mich sehr, hier zu sein. Vielleicht so der ausbilderische Rahmen. Nach diesem Abschluss bin ich für einen Studiengang zu digitaler Ethik verantwortlich und darf auch in verschiedenen Studiengängen quasi diese Aspekte einbringen. Also das macht natürlich Freude, wenn man eine Schule, die man als Studentin kennt, dass man da dann auch das Wissen der nächsten Generation weitergeben kann. Ich war schon früher selbstständig in grösseren Unternehmen, aber auch bei NGOs und in der Verwaltung kurz tätig und bin jetzt seit etwa sieben Jahren meine eigene Chefin, quasi ein Einfrau-Betrieb und gefällt mir wunderbar.
[2:22]Und in dem Zusammenhang habe ich Sie auch kennengelernt. Ich habe an Ihrer Online-Weiterbildungsreihe ethische Aspekte und künstliche Intelligenzen mit teilgenommen Und das war für mich auch der Ausgangspunkt zu sagen, da muss ich die Frau Dieter im Anfragen hier für den Podcast, um das nochmal auch zu konkretisieren für die Beratungswelt, für die Beratungswelt vor allen Dingen von Einzel- und Kleinunternehmen, also Coaches, Mediatoren, kleine Beratungsfirmen, auch in der Organisationsberatung etc. Weil mir da schien sowohl das Thema künstliche Intelligenzen sehr aussichtsreich und sehr sinnvoll, sich damit zu beschäftigen, aber auch die Stolpersteine sind enorm, dass dann auch so Einzelberatungsunternehmen oder kleiner Verbund von Kooperationspartnern ganz schön ins Strudeln kommen kann. Und das war der Punkt, wo ich sagte, da muss ich Sie anfragen. Sie haben dann auch glücklicherweise sofort zugesagt.
[3:25]Ich glaube, das ist ein wichtiger Punkt, diese Beratung, weil sehr viele suchen Orientierung. Und es ist ja meistens auch so, dass eine Aussensicht vielleicht frischere Ideen reinbringt oder unabhängigere Sichtweisen reinbringt. Und deshalb bin ich auch überzeugt, dass die gesamte Beratung auch im Bereich KI also damit konfrontiert werden wird und da aber eben auch einen Nutzen schaffen kann.
[3:51]
Die Bedeutung der ethischen Reflexion
[3:48]Was ist ein guter Ausgangspunkt, um sich dem Thema zu nähern? Gerade wenn ich als Berater ja in dem Falle hier auch Beratung in Anspruch nehme und sage, okay, was hat diese KI für mich für eine Bedeutung und vor allen Dingen mit Blick auf ethische Komponenten und ethische Fragestellungen, die in aller Regel ja auch für die Beratung in Coachings oder in Mediation, Konfliktberatungen eine Rolle spielen.
[4:15]Etwas vom Wichtigsten ist sicher ein Interesse, das Grundsätzliche zu verstehen. Also wie funktioniert künstliche Intelligenz? Und da muss man nicht technologisch interessiert sein, um das zu verstehen. Da kann man sich einmal mit diesem Thema beschäftigen und dann ist das eine Grundlage, die hat man. Und das Allerwichtigste finde ich so als Ausgangspunkt zu sagen, es geht nicht um die Technologie, sondern es geht immer noch um die Menschen, es geht um die Inhalte, was will ich tun? Und dann muss man aber einfach dieses Wissen beiziehen, um zu wissen, könnte da KI einen Beitrag leisten. Und um eben zu wissen, ob das einen Beitrag leisten kann, muss man sich dann auch mit den Chancen und Risiken auseinandersetzen. Und die sind eben nicht technischer Natur, sondern die haben mit unseren Wertvorstellungen zu tun.
[5:00]Ein klassisches Beispiel ist eben auch diese Vorstellung, die falsch ist, dass Technologien neutral sind oder dass sie objektiv sind. Also künstliche Intelligenz ist von A bis Z von Menschen gemacht. Sie sind angewiesen auf Daten und deshalb werden sie nie objektiv und nie neutral sein können. Und man kann jetzt auch sagen, ja, der Mensch hat ja auch so seine Defizite. Ja, aber das kann ja nicht sein, dass wir einen defizitären Mensch durch eine defizitäre Maschine einsetzen. Also ich glaube, wir müssen da schon etwas ambitionierter sein. Und können wir uns auf Erfahrungen mit anderen Technologien zurückgreifen? Besinnen, wo Technik Einfluss genommen hat und wo dann die Menschen ganz konkrete ethische Fragestellungen auch auf den Tisch bekommen haben. Auf die Erfahrung wir uns jetzt vielleicht beziehen können. Oder ist mit KI eine Technologie entwickelt worden, die es schwer macht, ohne überzuvereinfachen, Vergleiche mit anderen technologischen Entwicklungen zu riskieren?
[6:04]Grundsätzlich würde ich schon sagen, dass wir an die Erfahrungen früher anknüpfen können, auch wenn wir natürlich nicht genau wissen, wohin das fliesst. Aber ich glaube, wir sind uns sehr häufig gar nicht mehr bewusst, wie revolutionär zum Beispiel das Internet war. Vor etwa 20 Jahren kam das Internet. Und das hat natürlich massive Veränderungen mit sich gebracht, wie wir Menschen treffen können oder auch, wo wir unsere Informationen herbekommen. Also die Welt wurde plötzlich grösser. Wir haben uns vernetzt. Wir haben auch in Bereiche reingesehen, die eine andere Sprache haben, eine andere Kultur. Also das war schon sehr revolutionär. Oder auch das Mobile, also das Smartphone. Als ich Jugendliche war, hat es das Smartphone noch nicht gegeben. Also manchmal sehen wir eigentlich diese Revolution erst im Nachhinein. Und das zeigt schon auch sehr schön, das Internet wie eben auch das Smartphone, wie stark das unser Leben auch schon verändert hat. und genauso, wie wir es mit Daten hatten, wird es auch mit künstlicher Intelligenz der Fall sein. Und waren denn damals ähnliche Fragestellungen zu diskutieren, also wenn ich jetzt mal auf ethische Aspekte dieser Technologie zu sprechen komme, was so ein Kerninhalt heute sein soll, fällt es mir nicht gleich ein oder leicht, das mit dem Smartphone oder dem Internet als solchen zu verbinden, dass das unethisch sein könnte, sondern es war eher, wenn ich das so einseitig.
[7:26]Bezeichnen kann, ein Hurra-Erlebnis, jetzt wird Wissen demokratisiert und jetzt werden wir alle zu Sendern und nicht nur zu passiven Fernsehzuschauer-Empfängern. Vielleicht ist das, weil wir schon eine gewisse Distanz haben, weil sie das etabliert haben, dass wir nur noch die positiven Aspekte sehen, aber nicht alle haben Zugang zum Internet. Also wir haben da schon einen gewissen Digital Divide. Oder auch Personen, die natürlich nicht Englisch können, die haben sehr viele Informationen oder auch Weiterbildungsmöglichkeiten haben sie nicht. Oder beim Smartphone vielleicht ein Klassiker, ist wirklich diese manipulativen Praktiken bei Social Media zum Beispiel oder dieses ständige Scrollen, also dass wir dann nicht mehr loskommen, nicht zur Ruhe kommen oder bei Social Media auch diese ständigen Vergleiche. Also das kann auch zu psychischen Belastungen führen.
[8:25]
Herausforderungen und Risiken von Social Media
[8:21]Ich glaube, Social Media ist schon ein gutes Beispiel, wo sich diese ethischen Fragen stellen. Oder eben auch bei Social Media zum Beispiel die ganze Polarisierung, die wir haben.
[8:31]Aber das kann auch zum Beispiel, wenn wir das Internet denken, an die Digitalisierung, Preise. Wir wissen manchmal nicht, welcher Preis wird uns angezeigt und weshalb wird er uns angezeigt. Auch bei Empfehlungen wissen wir eigentlich nicht, wie kommen die zustande. Ich glaube, da gibt es ganz viele Punkte, die wir uns einfach im Moment nicht mehr so bewusst sind, weil künstliche Intelligenz im Moment natürlich sehr, sehr dominiert. Ja, das wären vor allen Dingen Aspekte, die aufkommen durch und während der Nutzung und durch die intensive Nutzung auch von vielen und den Massen. Bei KI scheint mir zu sein, ich kann mir das aber auch sehr begrenzt daran täuschen, dass schon die Nutzung als solches sofort einer ethischen Fragestellung unterworfen wird, gerade im Bereich der, sage ich mal, Humanberatung und der doch sehr humanistisch geprägten Beratung im Bereich des Coachings und der Mediation, dass da eher davor zurückgeschreckt wird oder dass die Antwort eher nein ist, braucht es nicht, wird nicht besser dadurch, als dass man mit Hoffnung und mit Sehnsucht diese Technik herbei wünscht, damit was ermöglicht wird. Während das beim Internet, aber so kann, wie gesagt, eine einseitige Erinnerung sein.
[9:51]Da schien mir vorher das einseitig bejahend, da wurde nicht die Frage gestellt, ist es ethisch, das zu nutzen, sondern es ging eher darum, möglichst schnell, möglichst alle in die Nutzung zu bekommen, weil es ein Nachteil ist, nicht angeschlossen zu sein am Internet.
[10:10]Vielleicht ist dieser Unterschied neben dieser Distanz eben auch, dass wir heute, wenn wir von KI sprechen, sehr häufig die generative KI meinen. Das heisst, wir werden zu Produzierenden. Und dann sind wir vielleicht mehr davon betroffen, als wenn es vielleicht bei Social Media zum Teil eben auch ist, was dann passiv passiert. Oder bei den Empfehlungsalgorithmen oder bei den Preisen. Es ist schon so, dass wir da bei den Daten oder bei dieser prädiktiven KI sind wir sehr häufig auch davon betroffen, aber wir nehmen es nicht direkt wahr, wo dann eben dieses Produzieren jetzt irgendwie einfach viel nahbarer ist. Aber dann nehme ich wirklich zum einen die EuphorikerInnen wahr.
[10:50]Also ich bin auch an vielen Anlässen, wo ich dann quasi so die Person, die dann sehr kritisch ist. Und dann gibt es aber auch andere, die sind wahnsinnig ängstlich und die sehen nur das Negative. Und da habe ich dann eher wieder die Rolle, die positiven Seiten hervorzustreichen. Also insgesamt bin ich schon überzeugt, dass alles seine positiven und negativen Seiten haben. Und deshalb müssen wir uns schlau machen, deshalb ist diese KI-Kompetenz auch so wichtig, um eben selbstbewusst zu entscheiden, wo kann es einen Mehrwert liefern und wo wollen wir eben sicher nicht, dass wir irgendwie Stereotypen weiterverbreiten, weil das einfach veraltete Daten sind. Wo müssen wir auch weiterhin Verantwortung tragen für das Ergebnis? Also die nimmt uns niemand ab. Man kann nicht sagen, ja, das ist jetzt halt nicht wahr, aber Chatschipiti hat es geschrieben, nicht ich, das geht nicht. Oder ein grosses ethisches Thema ist natürlich auch die Vermenschlichung. Also wer von uns sagt Danke und Bitte, wenn er mit Chatschipiti arbeitet, das ist menschlich verständlich, dass wir sofort etwas auf die Maschine projizieren. Das kann aber auch problematisch sein, weil wir dann einfach die Maschine behandeln, als ob es ein Subjekt wäre, ein lämendiger Mensch. Und das ist es nicht und da sollten wir vielleicht schon einen Unterschied machen.
[12:11]Also besser nicht Danke sagen? Ja, es gab eine Zeit lang auch so diesen Tipp, dass sie bessere Ergebnisse liefert. Aber aus einer ethischen Sicht sollte man das wirklich nicht machen, weil es entsteht dann einfach eine zusätzliche Vertrautheit. Und wir wissen nicht so genau, wie wirkt sich das aus, wenn wir immer mehr mit Maschinen kommunizieren, die dann sehr menschenähnlich sind. Das heisst, wir sollten einfach dieses Übertragen von menschlichen, Normen auf Maschinen sollten wir nicht zusätzlich verstärken. Wir sind emotionale Wesen, wir entwickeln eine Empathie, vor allem wenn etwas dann so empathisch rüberkommt. Aber wir sollten das einfach nicht zusätzlich verstärken, sondern mit unserem Menschenverstand wirklich auch einfach etwas eine Grenze ziehen.
[12:56]Also gerade weil wir Menschen sind, nicht zu einer Maschine Dankes sagen, ist angemessener als vielleicht auf einer naiven Ebene zu sagen, aber ich bin halt höflich. Und wenn mir da eine Antwort so entgegenkommt, dann muss ich einfach Danke sagen. Das sagen sie eher nicht, das ist naiv, sondern das ist eine Maschine und zu einer Maschine sagt man nicht Danke. Genau, es ist eigentlich wie, also klar, das ist eine eigene Konvention, aber man kann wie sagen, ich muss ja nicht freundlich zu einer Maschine sein wie zu einem Menschen. Ich kann einfach eine Maschine korrekt behandeln, aber es ist ein Werkzeug. Ich sollte auch sonst mit Maschinen sorgfältig umgehen. Ich sollte sie nicht einfach kaputt machen oder nach kurzer Zeit wieder auswechseln. Aber ich sollte diese Beziehung quasi oder diese Interaktion nicht mit einer Menscheninteraktion verwechseln. Das finde ich interessant, weil ich das in einem anderen Zusammenhang bei einem Kollegen gehört hatte, der so die Empfehlung gab, die besten Ergebnisse in der Konversation mit JGPT, also auch im Sprachlichen, sozusagen am Smartphone, erreicht man, wenn man sich vorstellt, es ist ein Mensch, dem man die Dinge ja auch erklärt, wie man das seinem Kollegen halt auch erklären würde. Und es ist für die Qualität der Ausgabe sinnvoll, sich sozusagen einen Menschen vorzustellen.
[14:18]Was eine Doppeldeutung drin hat, gerade weil es eine Maschine ist, das tun zu müssen. Das finde ich interessant, gerade in dem Respekt von Danke sagen, lieber nicht. Genau, vielleicht sind es zwei Aspekte. Das eine ist eigentlich das Technische, weil es auf Wahrscheinlichkeiten beruht und möglichst viel Kontext braucht, um gut zu funktionieren. Es ist durchaus möglich, dass wenn man so eine Dringlichkeit hat oder eine spezielle Höflichkeit, dass vielleicht das Ergebnis besser sein könnte. Aber aus einer ethischen Sicht machen wir immer einen Unterschied, ist es ein Mensch oder ist es eine Maschine. Und wenn wir dann eben aus einer ethischen Perspektive eine Maschine wie einen Menschen behandeln, dann überschätzen wir die Maschine. Dann bringen wir auch dem Ergebnis zu viel Vertrauen entgegen. Kann dann auch sein, dass Personen plötzlich das Gefühl haben, diese Maschine könnte jetzt ein Bewusstsein haben. Und es macht uns auch verletzlich. Und deshalb müssen wir vielleicht wie fast mit dem Verstand dafür sorgen, dass wir diese Maschine korrekt anwenden, nutzen.
[15:18]So wie wir auch auf die Umwelt Rücksicht nehmen, aber dass wir es einfach nicht auf die gleiche Ebene wie eine menschliche Beziehung stellen. Mal ganz praktisch rangegangen. Wie kommt man als Nutzer, der sich mit Datenschutz beschäftigt, damit er datenschutzrechtlich konform agiert, der technisch darauf achtet, dort gut angeschlossen zu sein, wie kommt man am besten dem Thema Ethik in der Nutzung von KI bei? Ist es etwas, was sich während der Nutzung ausformuliert und wo wir merken, ja, da muss man mal in die Richtung gehen und dann wieder zurückgehen und dann Standards entwickeln und merken, ja, das mit dem Danke, das ist vielleicht doch nicht angebracht und sozusagen bereit sein zu können. Einen ethischen Maßstab in der Nutzung und während der Benutzung zu entwickeln? Oder ist es eher sinnvoll, zu sagen, ich habe meine Ethik und die lasse ich
[16:16]
Umgang mit Datenschutz und Ethik
[16:13]mir von der KI nicht kaputt machen und eher nutze ich sie nicht oder so? Also wie kommt man dem Thema näher?
[16:20]Ja, es liegt wahrscheinlich an der einzelnen Person. Es gibt Personen, die haben eine ganz klare Vorstellung, zum Beispiel im Bereich Privatsphäre. Dann leitet das ihre Handlung an. Wie viel Daten gebe ich preis und was mache ich mit diesen Tools? Und es gibt vielleicht andere, die sind eher am Ausprobieren und kommen dann an gewisse Grenzen, merken dann plötzlich, ist das überhaupt richtig? Und googeln dann rasch oder fragen jemanden. Ich glaube, es sind beide Varianten möglich, aber grundsätzlich würde ich auch für die Erfahrung plädieren. Und dass man einfach auch vielleicht, wer jetzt mit dem Wort Ethik nicht so viel zu tun hat, dass man vielleicht einfach an die eigenen Werte denkt. Also was ist mir wichtig? Mir ist Privatsphäre wichtig, aber nicht allen ist es gleich wichtig.
[17:02]Oder mir ist es wichtig, dass ich ein modernes Verständnis habe, wenn ich ein Sujet generiere. Also ist es wichtig, dass ich da genügend Diversität habe oder dass ich keine veralteten Stereotypen da habe. Das heisst, es geht wirklich um die kritische Reflexion. Bin ich zufrieden mit dem, was rauskommt? Bin ich zufrieden, dass ich den Anbieter A oder B wähle? Das hat auch mit Präferenzen zu tun. Also möchte ich zum Beispiel ein europäisches Tool oder möchte ich von einer Organisation, bei der ich einfach das Gefühl habe, die Entscheidungsträger äussern sich relativ verantwortungsvoll. Das finde ich sympathisch, weil es ist ja auch so, gewisse Produkte sind ja dann etwas vergleichbar. Also dass man einfach immer sich da nähert, indem man überlegt, was möchte ich wirklich und was tut mir nicht gut oder was finde ich, möchte ich nicht unterstützen.
[17:55]Da sind ja so viele Aspekte drin, wo ich gar nicht so schnell einen rauswählen möchte, weil ich die anderen gar nicht liegen lassen will. Mir scheint es auf jeden Fall einer eigenen persönlichen Auswahl zu bedürfen, um sich dem Thema zu nähern. Also wenn ich mal aus der Beratungssituation, die ich jetzt so im Blick habe, weil auch viele Zuhörerinnen und Zuhörer in Form der Konfliktberatung, bei der Mediation oder im Coaching unmittelbar mit Menschen zu tun haben und das auch als Problemlösefolie sehen, das unmittelbare Gespräch mit der anderen Person Und die Fragestellung, wie nutze ich jetzt dort neue Technologien oder begehe ich da sogar gewissen Verrat an meinen Werten, ist ja die eine Sache. Wie nutze ich das? Aber ich gehe auch davon aus, dass in Zukunft die Personen, die zu uns kommen und Beratung wünschen, ähnlich wie mit Google, auf jeden Fall vorher sich schon mit neuen Technologien informiert haben oder reflektiert haben. Was bedeutet das für Anbieter solcher, sage ich mal, persönlichen Dienstleistungen, dass aller Vermutung nach in Zukunft Menschen KI-Dienstleistungen, infiziert, KI, kontaminiert, KI erfahren, in die Beratung kommen.
[19:14]Hey, du, der hier diesen Podcast hört, wenn er dir gefällt, dann drück doch fünf Sterne und hinterlass ein Feedback, damit auch andere, die den Podcast bisher noch nicht anhören oder gefunden haben, das tun können. Und jetzt geht es weiter mit der Episode im Podcast gut durch die Zeit.
[19:34]Da fällt mir natürlich gerade der Arzt ein, oder? Das wird wahrscheinlich eine ganz grosse Bandbreite sein. Die einen werden wirklich falsch informiert sein und es ist schwierig, das zu korrigieren. Deshalb eben diese KI-Kompetenz, um zu wissen, dieses Ergebnis kann falsch sein. Und das wird noch wichtiger, als wir es vielleicht von Google kennen oder von der Internetsuche generell. Dann gibt es Leute, die sind besser informiert und fordern mehr ein, sind vielleicht fast etwas auf Augenhöhe. Und dann gibt es sicher auch Personen, die helfen sich selber. Das gibt es auch, dass man für gewisse Dinge keine Fachperson mehr braucht. Ich bin da auch immer vorsichtig, aber dass es vielleicht Aspekte gibt, die dem Einzelnen nicht so wichtig sind oder die er nicht so komplex erachtet und bei denen er mit solchen Tools relativ weit kommen kann. Das denke ich mir schon. Das könnte eine Entlastung sein. Also es kann in verschiedenen Berufen dazu führen, dass man dann eigentlich wirklich mehr schwierige Fälle hat und weniger einfache Fälle. Kann aber auch sein, dass da ein Schaden angerichtet wird, weil man sich selber hilft und dann vielleicht noch mehr Beratung braucht als vorher.
[20:45]Also von dem her, glaube ich, ist es noch schwierig abzuschätzen, wie sich das auswirkt. Und es können natürlich vielleicht auch ergänzende Angebote sein. Also in der Psychotherapie ist das ein ganz grosses Thema, weil eben JGPT so empathisch wirkt, haben dann gewisse Personen das Gefühl, ich kann es ja mit dem machen. Und da sagen aber auch Fachleute, sie denken, dass es eher ergänzend sein wird für die Reflexion, für gewisse Aufgaben oder auch bevor man überhaupt zu einer Expertin gehen muss, dass man da etwas Inspiration hat. Wie geht es mir heute, dass man das aufschreibt? Das sind vielleicht sogar Methoden, die man früher halt einfach…
[21:25]Elektronisch gemacht hat oder von Hand, dass man die jetzt mit einer App abdecken kann. Und statt dass man schreibt, kann man es vielleicht mit einer Stimme machen.
[21:36]Sogar mit der eigenen. Genau. Manchmal sind das eigentlich, vielleicht nach einer gewissen Zeit, merkt man, dass das gar nicht so die wahnsinnige Revolution ist. Dass es mittel- bis langfristig eine grosse Veränderung hat, aber dass es eben eine Veränderung ist und nicht eine Revolution, die jetzt zack kommt und dann ist alles anders. Ja, da kommen mir sofort Bilder und Szenarien in den Kopf, wo ich das sofort nochmal ganz neu auch sehen kann, diese Einbettung, also gerade in Coaching und Therapieprozessen, die Einbettung in den therapeutischen Prozess, dass der eben nicht ersetzt wird, sondern er wird eher ergänzt mit einem, ich sag mal, besseren Tagebuch, das man früher ja auch schreiben sollte als Therapiepatienten. Dann schreiben Sie es auf. Machen Sie keine große Zensur draus. Das muss kein Roman werden. Das ist nur für Sie. Schreiben Sie es einfach auf. Und das war sehr hilfreich. Es wurde teilweise dann auch genutzt im therapeutischen Prozess. Und das könnte hier, wenn ich mir vorstelle, also ich habe eine App als Patient oder ich gebe Sie als Therapeut raus und sage, Sie können sich darauf einloggen. Sie können dort mit einer KI sprechen. Die hat sogar oder eben lieber nicht meine Stimme und ich habe meinetwegen beschränkten Zugriff oder ich kriege eine Zusammenfassung davon. Wir werden in der nächsten Sitzung da weiterarbeiten und damit arbeiten. Das heißt, eine Einbettung ist durchaus denkbar auf einer ganz evolutionären Entwicklung von Therapie.
[23:03]Genau, und dass man es eben zum Beispiel nicht schreiben muss, sondern dass man mit der Stimme das quasi dokumentieren muss. Oder dass man es auch im Dialog dokumentieren kann. Oder dass eben die Ärztin auch darauf Zugriff hat, um das dann anzuschauen, wenn man das möchte. Also es kann vielleicht sogar zu mehr Qualität führen, aber es löst wahrscheinlich das grundsätzliche Problem nicht. Sondern es kann wirklich einfach die Therapie insgesamt verbessern, individualisierter machen, vielleicht lustvoller machen.
[23:32]Zugänglicher machen und hier plädiere ich auch immer an die Fachleute aller professionen unbedingt sich daran zu beteiligen weil es gibt natürlich immer auch laien die sind die haben keine ahnung von den eigentlichen problemen und versuchen dann mit einer technologie etwas zu lösen das man gar nicht braucht also wenn in einer gewissen situation die fürsorge sehr wichtig ist die menschliche fürsorge der die einzelne personen wirklich zu verstehen in ihrer Einzigartigkeit oder wenn Körplichkeit wichtig ist, dann ist diese KI nicht das richtige Mittel. Und Fachleute wissen am besten, was die richtigen Mittel sind. Also wo ist der Mensch quasi ergänzbar durch eine KI und wo ist es eben wirklich
[24:21]
Die Rolle der Menschlichkeit in der KI
[24:16]ganz fundamental wichtig, dass der Mensch weiterhin diese Funktion macht. Gerade alles, was mit Beziehungsarbeit zu tun hat, das müssen wir nicht rationalisieren. Wir müssen das rationalisieren, was standardisierbar ist oder was langweilig ist, da müssten wir ansetzen. Das heißt, die Fokusfrage ist nicht so, die auch sehr befeuert ist, wann ist der Zeitpunkt gekommen, wo ich ersetzt werde durch eine KI, weil sie das besser kann.
[24:46]Sondern mein Fokus als Anwender sollte also sein, wo kann mich die KI unterstützen und sozusagen meine Kompetenzen erweitern oder fokussieren und erleichtert mir die Arbeit. Genau, das würde ich auch so sagen. Und genauso ist es vielleicht mit der einen oder anderen Person, die sagt, ich muss nicht zur Fachperson, aber die hätte man vielleicht vorher auch nicht bedienen können. Also ich glaube, das sind immer noch wenige, bei denen so etwas funktioniert. Aber ich bin auch überzeugt, dass in vielen Berufen wird es wirklich die Fachperson sein, die sagt, wo kann es meine Arbeitstätigkeit vereinfachen, verbessern, wo ist es ein zusätzliches Instrument. Und es kann auch sein, dass das nicht für alle dann eine, Bereicherung ist, sondern für gewisse ist das eine Riesenchance, dass sie das auch noch haben oder auf eine andere Art abdecken können. Und für gewisse Personen ist das nicht das Richtige.
[25:39]Es wird vielleicht einfach die Komplexität noch, die wird sehr häufig auch zunehmen, weil mehr möglich ist. Mehr Varianten stehen da zur Verfügung. Und wir müssen unbedingt als Fachpersonen immer schauen, dass das eben auch einer fachlichen Perspektive sinnvoll ist. Und deshalb sehe ich hier manchmal die Gefahr, dass jemand aus einer rein technologischen Sicht sagt, da müssen wir jetzt etwas ändern. Also so ein Beispiel ist die Pflege oder bei Lehrpersonen. Und das ist dann meistens am falschen Ort. Also ein Roboter muss nicht die Patientinnen bespassen, denn wer in der Pflege ist, möchte gern genügend Zeit mit den Patientinnen verbringen. Und auch die Patienten möchten diesen Kontakt. Also ist es dann vielleicht eher an anderen Bereichen der Pflege, wo solche Systeme eine Entlastung bringen können, zum Beispiel vielleicht bei der Bürokratie.
[26:28]Aber dann wäre es vielleicht sogar eine Idee, die Bürokratie etwas abzubauen, oder? Manchmal ist KI nicht die Lösung. Ich war letztens im Krankenhaus, da hatte sich der Sohn einmal den Fuss gebrochen, und da war ich fünf Stunden im Warteraum. Das hat sich angefühlt wie der Heilungsraum. Und das, glaube ich, könnte man schon auch mal anders organisieren, dass Patienten getakteter oder halt organisierter dann auch an der Stelle sind, wo dann der Arzt auch Angesicht zu Angesicht ist. Und dann ist es wieder gut. Also diese Organisierung und die Logistik dahinter, ich glaube, da könnte Technologie auf jeden Fall nochmal unterstützen, auch wenn das jetzt kein konkreter Vorschlag für Krankenhausmanagement ist. Ich finde das ein super Beispiel, weil ich glaube, was den grössten Nutzen schafft, ist das Unspektakuläre. Es sind nicht die humanoiden Roboter. Auf vier Beinen, die mir den Haushalt erledigen, sind die unspektakulären Dinge, die etwas verbessern. Und das können die Fachpersonen, wir in unserer Expertise am besten beurteilen, weil wir wissen ja, wo wir vielleicht unterfordert sind, wo wir die Zeit besser investieren könnten. Und da können uns diese Systeme wirklich einen Mehrwert liefern oder eben auch in einer gewissen Personalisierung, die bisher einfach nicht möglich war und die aber wünschbar wäre, wenn es geht.
[27:46]Ich selber finde es wahnsinnig spektakulär, aber formal gesehen ist es gar keine große Verbesserung. Aber Sie hatten das vorhin auch schon angesprochen, dieser Unterschied von der Schriftsprache, also vom Chatten hin zum Einsprechen. Chat-GPT kam auf und irgendwann habe ich dann entdeckt, ich kann das auf meinem iPhone direkt auch benutzen.
[28:06]Und das fand ich revolutionär, dass ich die Dinge einsprechen konnte. Und das war ein unspektakulärer Vorgang, weil wenn ich schreibe, nutze ich die gleiche Sprache und schreibe das da rein. Ich schreibe relativ häufig und schnell und viel, daher merke ich das gar nicht so. Aber Sprechen hatte für mich was völlig anderes. Von der Masse her und dann auch von der Qualität her. Wie beobachten Sie denn die Nutzung von KI-Tools jetzt, wo doch mehr und mehr auch die sprachliche Eingabe möglich ist und auch das Format, das Medium durchlässiger wurde von Schriftsprache, Bild und auch Ton? Ist das etwas, was eine nächste Generation oder Stufe von Technologieentwicklung ist? Ja, ich glaube schon, die ganze Interaktion mit der Maschine, die war halt früher wirklich einfach so, dass wir etwas reintippen und jetzt ist es eigentlich so, dass wir eher etwas sprechen und dass wir generell eigentlich Befehle erteilen. Wir geben permanent Anweisungen und die Maschine macht dann relativ viel mit dieser Anweisung. Vorher mussten wir quasi jedes Detail reintippen oder die Maschine hat nicht selber gemacht. Das ist schon eine grosse Veränderung, das denke ich mir auch und es entspricht halt auch unserer Kommunikationsform. Es ist viel spontaner, schneller. Es kann manchmal sicher dazu führen, dass wir dann vielleicht zu wenig genau sind. Aber es ist natürlich auch einfacher, weil das andere ist eine wahnsinnige Fleißarbeit.
[29:31]Und wir haben das gelernt und das ist wahnsinnig anstrengend. Und das ist auch eine wunderbare Entlastung für ganz viele Menschen, die Mühe haben zu wissen, Gross, Kleinschreibung, Komma und so. Viele Menschen haben darunter gelitten. Deshalb denke ich mir schon, diese Kommunikation mit der Maschine über unsere Sprache und im Dialog, das ist schon eine recht revolutionäre neue Etappe und eben einfach immer diese Anweisungen geben, also jetzt auch mit diesen KI-Assistenten, die kommen, auch da geben wir viel mehr Handlungsanweisungen und es wird dann ausgeführt, eben wie auch diese Recherchen zum Beispiel, dieses Deep Research, das es ja schon gibt, oder? Und ja, wir müssen dann einfach lernen, möglichst gute Aufgaben zu formulieren und relativ klar und umfassend zu formulieren. Und da gibt es dann natürlich auch mehr oder weniger Kompetenz, die man sich da aneignet. Ich greife mal den Punkt auf, weil der gerade wirklich so aktuell ist und ganz praktikabel. Von diesen KI-Agenten wird allseits gesprochen und jeder, der sozusagen mit dem Thema nur so ein bisschen in Berührung kommt, hört davon, Die werden jetzt kommen, das ist jetzt möglich. Und jetzt angenommen, die Zuhörer sagen, okay, dann steige ich jetzt in den Zug ein, muss ja nicht gleich aufspringen, sondern ganz normal, mit aller Geduld.
[30:53]Wie könnte ich mich da nähern, diesem Thema, KI-Agent, ich und mein Business, was kann ich da tun? Wie kann ich mich da schrittweise reinfinden, um mich möglichst ohne ethische
[31:14]
KI-Agenten im Business
[31:09]Unfälle fit zu machen oder mit dem Thema in Berührung zu kommen? Das eine ist, wenn ich in meinem Medienkonsumartikel sehe, dass ich die lese. Gleichzeitig denke ich mir aber gerade auch auf YouTube gibt es regelmässig sehr gute Videos, auch aktuelle Videos oder Vorträge, die das etwas erklären. Und mit der Zeit werden dann, so wie wir es von ChatGPT auch kennen, werden dann halt auch wirklich Tools auf den Markt kommen. Also Personen, die sich jetzt damit beschäftigen, ich denke, die sind dann eher so interessiert, dass sie sich etwas bauen. Also sie sagen, ich habe ein Bedürfnis, ich habe da in meiner Arbeitsweise ganz viele Schnittstellen, die sind noch nicht gut gelöst und die bauen sich dann wirklich so einen Agenten, der ihnen zum Beispiel die Mail sortiert oder Termine in die Agenda schreibt und so. Also wirklich eine gewisse Automatisierung. Aber ich denke, wir, die vielleicht nicht auf diese Ebene gehen.
[32:05]Wir warten vielleicht, bis wirklich ein einfaches Tool auf den Markt kommt. Und das kann dann vielleicht nicht so viel. Aber da merken wir vielleicht mal, ja genau, das mit dem Termin buchen oder Mail sortieren, das ist eigentlich ein Nutzen für mich. Andere Sachen brauche ich vielleicht nicht. Im Moment ist natürlich auch noch vieles unklar. Also was kann so ein Assistenzsystem? Und aus einer ethischen Perspektive stellt sich hier eben auch die Frage der Selbstbestimmung. Also wie kann ich sicher sein, dass dieser Agent dann auch das tut, was ich wirklich will? Weil auch Anbieter haben manchmal bewusst oder unbewusst auch eine Agenda. Also diese Systeme sind ja immer von Werten geprägt oder von kommerziellen Interessen. Und deshalb kann natürlich sein, dass.
[32:52]Ein Tisch buchen ist etwas anderes, als wenn jetzt so ein Assistent zum Beispiel mir direkt Ferien bucht, oder? Also ich denke, hier gibt es schon auch noch Sicherheitsmassnahmen, wo man wie sagen kann, was unbedenklich ist, sagt man vielleicht eher ja. Und bei anderen Sachen will man das nicht oder ist das sogar ja eben wirklich eher problematisch. Weil da werden wir sicher auch viele Fehler noch haben und werden das darüber lesen. Aber wo das sinnvoll ist und welche Menschen, welche Sachen einem Assistenten übergeben wollen, ich glaube, das steht im Moment noch wirklich ganz am Anfang. Ich habe das zum einen bei meinem eigenen Anbieter bekommen, dass ich jetzt plötzlich einen Mail-Sortieragenten habe und konnte das noch ein bisschen aussortieren und konnte die Regeln, die vorgegeben wurden.
[33:46]Anpassen zu meinen eigenen Bedürfnissen. Das fand ich sehr zufriedenstellend. Und ich habe aber auch gemerkt, das war bei der Deutschen Bahn zum Beispiel, ich bin Agenten ausgesetzt. Also mir wird aufgrund meiner Handhabung dieser fremden Applikation, also des DB-Navigators, werden mir jetzt Empfehlungen gegeben oder nächste Entscheidungen unterbreitet, die sozusagen automatisiert, agentenmäßig da waren. Und als klar wurde, ich habe den Zug verpasst, dann wurden mir Alternativen angeboten, ohne dass ich danach gesucht habe, sondern es war dann deutlich geworden, es brauchte das. Also das scheint mir auch ein Berührungspunkt zu sein, dass wir mit Agenten zusammenarbeiten, in Kontakt kommen, ohne dass uns das sofort vielleicht klar sein müsste. Genau, also das eine ist wirklich, dass man manchmal auch gar nicht mehr weiss, ja, ist es einfach ein Algorithmus, also ist es ein KI-Modell oder ist es wirklich schon ein Agent? Das ist manchmal nicht ganz klar, aber ich glaube auch, es kommt wie auf eine nächste Stufe, also dass uns dann vielleicht nicht basierend auf unseren Daten eine Auswahl angezeigt wird, sondern es wird uns eigentlich nur noch gesagt, willst du das als nächstes? Das ist eine Gefahr, oder?
[35:00]Das merken wir jetzt auch bei der Google-Suche. Also bei der Google-Suche hatten wir früher verschiedene Links und wir konnten überlegen, was möchte ich anklicken und was nicht. Wenn natürlich das alles dann nur noch zusammengefasst wird, ist schon auch die Gefahr einer Konzentration. Und das gibt den Anbietern natürlich eine wahnsinnige Macht. Also wir haben dann weniger Vielfalt. Vielleicht auch, wir verlernen dann vielleicht etwas kritisch zu reflektieren, was will ich anklicken, welche Quellen sind vielleicht vertrauenswürdiger und welche weniger. Und eben im schlimmsten Fall ist es nicht eine Unterstützung dieser Agents, sondern wir werden eigentlich gepusht, oder?
[35:40]
Autonomie und Selbstbestimmung in der Technologie
[35:41]Wir werden einfach in die richtige Richtung gepusht. Also ich glaube jetzt schon, diese Autonomie, Selbstbestimmung, das ist ein riesen, riesen Thema. Man muss immer Entscheidungen treffen, wenn man diese Systeme baut. Also die sind nicht neutral, die sind nicht objektiv. Und das war schon bei Empfehlungsalgorithmen bisher so. Also ich bekam nicht nur einfach Empfehlungen basierend auf meiner Datenspur, sondern ich bekam auch Empfehlungen, weil der Anbieter gewisse Bücher empfehlen haben wollte. Ich bekam einfach die, die am besten von denen gepasst haben. Es war da schon ein Mix zwischen meiner Datenspur und den Interessen des Anbieters. Den Punkt, den Sie ansprechen, die Leichtgängigkeit von Zusammenfassungen und von Widerspruchsfreiheiten kann mich dazu verführen.
[36:28]Dem den Vordergrund zu geben, denn der etwas anstrengenden Variante selber wählen zu müssen. Also wir haben das ja beim YouTube-Algorithmus ganz deutlich, auch die Gefahren genannt bekommen. Wenn wir nichts entschieden haben, wurde es immer radikaler und es wurde immer aufmerksamkeitsmagnetisierender, aber eben auch wirklich gewaltvoller. Und wir haben eben nicht mehr die eigene Entscheidung getroffen. Und das würde uns jetzt auch abgenommen werden, wenn wir die Perplexity suchen oder Chat-GPT. Es wird dann eher etwas angeboten, was schon sortiert wird. Das erleichtert. Und die Frage ist sozusagen, wo lege ich meinen eigenen Entscheidungsaufwand nochmal rein? Das ist ganz, ganz wichtig. Wir sind dem nicht ausgeliefert.
[37:13]Das ist nicht eine Welle und dann müssen wir nur noch mit KI-Agenten arbeiten.
[37:18]Wir können entscheiden, wo wir entlastet werden wollen und mit welchen Tools oder gegenüber welchem Anbieter und wo nicht. Ich denke, es wird auch in der Zukunft ein Mix sein. Ich glaube, das ist etwas, was sehr häufig zu kurz kommt. Man hat das Gefühl, wenn ich das nicht nutze, dann gehöre ich zu denen, die sich verweigern vor der Zukunft. Und das ist nicht so. Das sind alles Möglichkeiten, um unser Leben besser zu machen, um unseren Handlungsspielraum zu verbessern. Aber das ist nur in gewissen Lebensbereichen.
[37:47]Wir wollen nicht unser ganzes Leben automatisiert haben und geschubst werden. Das macht unser Leben nicht besser. Wir müssen entscheiden, welche Varianten möchten wir nutzen und welche machen uns einfach nicht besser. Und da ist es auch gut zu wissen, was mache ich gerne. Also wenn ich gerne von Hand einen Brief schreibe, warum soll ich darauf verzichten? Wenn ich gerne tippe, statt in eine Maschine reinspreche, dann sollte ich das doch behalten. Es wird ein Mix sein zwischen analogen und digitalen, zwischen Sachen, die ich selber bestimme, anderen, die ich einem System übergebe, weil ich damit auch gute Erfahrungen gemacht habe. Ich glaube, das ist auch noch etwas Wichtiges, diese Vertrauenswürdigkeit. Also wenn ich schlechte Erfahrungen mache, da werde ich den Anbieter wechseln. Wenn ich sage, doch, das entspricht eigentlich etwas dem, wie ich es handhaben möchte, dann habe ich auch kein Problem damit. Aber von dem her, ich bin wirklich überzeugt, dass das eine Veränderung ist, die jetzt noch schwierig abschätzbar ist. Man sagt ja auch, dass man kurzfristig sehr vieles überschätzt und langfristig aber eben auch unterschätzt. Und ich glaube, das Internet, das Smartphone, die haben das wahnsinnig gut gezeigt. Wir hätten nie gedacht, dass das Smartphone so viel auslöst, oder? Und genauso wird es mit KI sein. Es sind nicht die humanoiden Roboter, sondern es sind unspektakuläre Sachen, die sich mittel- bis langfristig als doch sehr prägend herausstellen werden.
[39:17]
Entscheidungsarbeit im Umgang mit KI
[39:17]Und dann wäre, und das finde ich auch einen guten Punkt, um den Abschluss zu finden, man mag zwar den Ausgangspunkt für die Beschäftigung mit KI in einem erleichternden Leben in bestimmten Aspekten sehen, aber die Beschäftigung damit und die Auswahl, was soll mich erleichtern, das ist schon Arbeit und das heißt Entscheidungsarbeit. Ich muss mich entscheiden, wie ich mich dem Thema näher und wie ich jeden Schritt setze. Und ich habe nach jedem Schritt unglaublich viele Möglichkeiten.
[39:51]Das scheint mir ja auch der Aspekt zu sein, weshalb das so schwer ist, da in Gang zu kommen. Ja, das kann viele, viele überfordern. Ich bin manchmal auch überfordert. Ich glaube, das Wichtige ist auch, etwas Abstand zu nehmen. Also nicht jede News, dass jetzt irgendwie ein Modell wieder etwas besser ist oder ein neues Tool und so. Also das vielleicht nicht zu stark an sich heranlassen, sondern etwas das Big Picture sehen und sagen, ich will etwas wissen, was läuft. Ah, jetzt kommen dann so K-Jugenten für die Organisation oder Ah, Textgenerator, ich kann da gewisse Sachen schreiben. Also ich plädiere wirklich dafür, das zu beobachten unbedingt. Dann aber auch gezielt Erfahrungen zu machen, um für mich zu entscheiden, was ist für mich das Richtige. weil es hat nichts mit Verweigerung zu tun, wenn gewisse Sachen für mich keinen Mehrwert liefern. Frau Diethelm, vielen Dank für das aufschlussreiche und informative Gespräch. Es hat mir grossen Spass gemacht. Herzlichen Dank. Ganz herzlichen Dank Ihnen. Bis zum nächsten Mal und eine gute Zeit für Sie. Mein Gespräch mit Cornelia Diethelm von der Hochschule für Wirtschaft in Zürich zum Thema Ethik und KI.
[41:05]Wenn dir diese Episode gefallen hat und der Podcast dir generell zusagt, dann hinterlass doch ein Feedback und eine Sternebewertung in deinem Podcast-Catcher, zum Beispiel auf Apple Podcast oder auch Google Business. Empfehle den Podcast weiter und abonniere ihn, wenn du das noch nicht getan hast. Für den Moment bedanke ich mich, dass du wieder mit dabei warst und verabschiede mich mit den besten Wünschen. Bis zum nächsten Mal. Kommt gut durch die Zeit. Ich bin Sascha Weigel, dein Host von INKOVEMA, dem Institut für Konflikt- und Verhandlungsmanagement in Leipzig.