INKOVEMA-Podcast „Gut durch die Zeit“

#204 – Künstliche Intelligenzen kennenlernen –

Auf dem Weg zu einer KI-kompetenten Gesellschaft?!

Neue Technologien für Mediation und Konfliktberatung. Teil 8

Im Gespräch mit Prof. Dr. Doris Weßels

Doris Wessels: Seit 2008 Professorin für Wirtschaftsinformatik an der Hochschule Kiel; Schwerpunkt ihrer Lehrtätigkeit liegt auf Projektmanagement und Natural Language Processing; seit 2018 forscht sie verstärkt im Bereich Natural Language Processing und dessen Auswirkungen auf den Bildungssektor;  Mitgründerin – im September 2022(!) – des virtuellen Kompetenzzentrums: Künstliche Intelligenz und wissenschaftliches Arbeiten (VK:KIWA). Eine der wichtigsten KI-kompetenten Stimmen in Deutschland.

Gut durch die Zeit.

Der Podcast rund um Mediation, Konflikt-Coaching und Organisationsberatung.

Kapitel

0:03 – KI-kompetente Gesellschaft
5:45 – Neue Technologien und ihre Auswirkungen
12:15 – Herausforderungen der KI-Kompetenz
23:13 – Datenschutz und rechtliche Rahmenbedingungen
31:45 – Nutzung von KI im Alltag
39:50 – Philosophische Fragen zur Menschlichkeit
44:30 – Abschied und Ausblick auf die Zukunft

Inhaltliche Zusammenfassung

In dieser Episode diskutiere ich mit Professorin Doris Wessels von der Kieler Hochschule über die dringend benötigte KI-kompetente Gesellschaft und die Herausforderungen, die die neuesten Entwicklungen in der künstlichen Intelligenz mit sich bringen. Wir beleuchten, dass es nicht notwendig ist, die technischen Details mächtiger KI-Systeme komplett zu verstehen, um ihre Auswirkungen auf unsere Gesellschaft, Kommunikation und Problemlösungskompetenz zu erkennen.

Doris Wessels teilt ihre Erfahrungen als Wirtschaftsinformatikerin sowohl in der Lehre als auch in der Industrie und erklärt, wie die rasante Entwicklung von KI-Technologien, insbesondere von generativen KI-Lösungen und Multi-KI-Agentensystemen, die Art und Weise beeinflusst, wie wir arbeiten und interagieren. Ein zentrales Thema ist die Notwendigkeit, eine Kollektivkompetenz im Umgang mit diesen Tools zu entwickeln, damit wir nicht nur Konsumenten dieser Technologien sind, sondern auch aktiv gestalten können.

Wir diskutieren die Ängste, die viele Menschen hinsichtlich der Nutzung von KI haben, und wie wichtig es ist, eine experimentierfreudige, neugierige Haltung einzunehmen, um diese neuen Werkzeuge effektiv zu nutzen. Dabei reflektieren wir auch über die potenziellen Risiken, die die Entwicklung von KI mit sich bringt, und die gesellschaftliche Verantwortung, die wir tragen, um diese Technologien sinnvoll zu steuern.

Ein weiterer Diskussionspunkt ist die Rolle der Bildung und Aufklärung in der schnelllebigen Welt der KI. Wir betrachten, wie wichtig es ist, dass sowohl Unternehmen als auch Bildungsinstitutionen Schulungsangebote bereitstellen, um eine informierte Nutzung und das Verständnis der Limitationen von KI zu fördern.

Doris hebt hervor, dass die Praxis in der beruflichen Kommunikation und im Bildungsbereich bereits massiv von KI profitiert, indem sie zeitintensive Aufgaben übernimmt und somit ein höheres Maß an Effizienz ermöglicht. Dabei zeigt sie auf, wie wichtig es ist, auch sensible Themen wie Datenschutz und die rechtlichen Rahmenbedingungen in den Blick zu nehmen, um ein verantwortungsvolles Arbeiten mit KI-Systemen zu gewährleisten.

Am Ende des Gesprächs bringt Doris Wessels interessante dialektische Fragen ins Spiel, die den Hörer zum Nachdenken anregen: Was macht uns als Menschen aus? Wie gehen wir mit der Herausforderung um, authentisch und menschlich zu bleiben, während wir zunehmend mit KI generierten Inhalten interagieren? Diese philosophischen Überlegungen verleihen der Diskussion eine tiefere Dimension und regen dazu an, unser Verständnis von Menschlichkeit und Technologie neu zu definieren.

 

Vollständige Transkription des Gesprächs

[0:00]Wir brauchen eine KI-kompetente Gesellschaft.
[0:03]
KI-kompetente Gesellschaft
[0:04]Das heißt nicht, dass man jetzt diese ganzen mächtigen KI-Systeme bis auf das letzte Detail verstanden haben muss. Herzlich willkommen zum Podcast Gut durch die Zeit. Der Podcast rund um Mediation, Konfliktcoaching und Organisationsberatung. Ein Podcast von INKOVEMA. Ich bin Sascha Weigel und begrüße dich zu einer neuen Folge. Und diese Folge hat gar nicht mal so direkt was mit Konfliktmanagement zu tun oder mit Coaching und Beratung, sondern sie beschäftigt sich mit künstlichen Intelligenzen bzw.
[0:36]Mit dem Kennenlernen, mit dem Begegnen und Kennenlernen dieser neuen Technologien. Und das haben wir ja hier im Podcast schon mehrmals aufgegriffen, weil es natürlich zum einen eine Bedeutung hat für die Art und Weise, wie wir das organisieren, dass wir dann mal auch in Mediation, in Coaching sind. Also die ganze Administration, das Backoffice, die ganze eigene Organisation, in denen mittlerweile Technologie Einzug gehalten hat. Als aber möglicherweise auch, dass es Auswirkungen hat auf die Art und Weise, wie wir miteinander sprechen, kommunizieren und damit auch glücklicherweise natürlich Konflikte bearbeiten und managen. Und weil das für Mediatorinnen und Coaches und Berater generell ein neues Feld ist, brauchen sie dort auch gute Beratung und jemanden, der davon Ahnung hat. Und so jemanden habe ich mir heute eingeladen. Ich begrüße hier Frau Professorin Doris Wessels von der Kieler Hochschule Punkt. Herzlich willkommen. Hallo Doris.
[1:38]Danke Sascha und herzlichen Dank, dass ich hier heute dein Gast sein darf. Ich bin froh. Wir haben uns ja vor, das ist jetzt auch schon wieder Monate her wahrscheinlich, auf einer kleinen Tagung von Mediatoren kennengelernt in Schleswig-Holstein. Genau, in Schleswig-Holstein. Und da hattest du auch schon das Thema natürlich, was dein Herzensthema ist und auch wahrscheinlich den Kern auch deiner Arbeit ausmacht. Aber da kannst du auch gleich nochmal was dazu sagen. Aufgegriffen, nämlich was… Auf uns zukommt, aber auch, was wir tun sollten, damit das gut wird, wenn sowas auf uns zukommt, wie neue Technologien. Und das ganze Thema natürlich rund um künstliche Intelligenzen, das jetzt auch, ich sage jetzt mal so, die Verbraucher erreicht hat. Du als Wirtschaftsinformatikerin bist dort schon viel länger im Kontakt mit diesen Entwicklungen, hast das auch noch die Zeit vor Chat-GPT professionell erlebt. Woran arbeitest du aktuell und was macht sozusagen den Kern deiner Arbeit aus?
[2:35]Ja, das ist eine gute Frage. Wenn ich so meinen Tagesablauf mir anschaue, dann tanze ich eben auf vielen Hochzeiten. Ich bin Professorin für Wirtschaftsinformatik an der Fachhochschule hier in Kiel. Aber ich habe im Laufe der Jahre eben auch unterschiedliche Tätigkeiten, Aufgaben übernommen und das sind Expertengremien für künstliche Intelligenz. Das ist in den letzten Jahren dann sehr stark mein Leben bestimmt. Also ich behaupte immer, Chet Chibitin hat ja morgen den zweiten Geburtstag und dass ich sozusagen seit der Veröffentlichung von ChatGPT ein neues Leben eingetaucht bin. Ich habe das so ganz freiwillig gemacht, aber ich fühle mich an vielen Stellen auch so in so einer Ecke geschubst, wo ich auch sehr stark immer gefordert werde, mich da natürlich auch gerne einbringe, diese Innovationsdynamik zu erleben bei diesem Thema der generativen KI. Das ist nochmal etwas, was ja mein Leben verändert hat, aber was ich in der Form auch noch nie erlebt habe, obwohl ich jetzt 30 Jahre lang in der IT-Branche tätig bin. Und das ist halt so, wenn man Fachhochschulprofessor in Deutschland ist.
[3:35]Dann muss man einige Jahre auch in der Wirtschaft außerhalb der Hochschule verbracht haben und Praxiserfahrung mitbringen. Also von daher, und das war bei mir relativ lange, sogar zwölf Jahre lang. Und ich habe noch live mitbekommen, wie das Internet über uns kam. Also auch diese Phase habe ich live miterlebt. Aber im Rückblick, wie im Schneckentempo hat das stattgefunden. Und das war auch eine Zäsur, hat unser Leben ganz stark verändert. Also auch eine heftige digitale Disruption. Und sie kommt jetzt nochmal in einer ganz anderen Dimension über uns. Und das, was wir gerade erleben, ist Eintritt nochmal in eine neue Ära und die beschäftigt mich aktuell sehr intensiv. Das ist eine weitere Entwicklung und das sind Multi-KI-Agentensysteme. Das ist genau so eine Stufe nochmal schärfer.
[4:18]Wie ChatGPT vor zwei Jahren. Genau, also ich behaupte immer etwas flapsig, dass ChatGPT im Vergleich dazu Kinderkram ist oder dass die KI-Bots, die Chatbots, die wir heute so erleben, die wir auch schon ganz faszinierend finden. Und es ist immer schrecklich schön, dass man immer denkt, oh, das ist irgendwie faszinierend, aber es hat eben auch die Kehrseite der Medaille, wo man über die Risiken sinniert, also viele Fragen hat, welche Auswirkungen das mit uns selber als Individuum hat, was das mit uns als Unternehmen, als Organisation macht. Und auch was es mit uns als Gesellschaft macht. Und das sind immer viel mehr Fragen als Antworten. Und jetzt kommt schon die nächste Welle und diese Agentensysteme in Form von KI-Lösungen sind eben autonom bis zu einem gewissen Grad und agieren dann wirklich eigenständig, wie so ein eigener Akteur der Entscheidung fällt, der Dinge plant. Das ist eine sehr große Unterstützungsfunktion, die wir erfahren können. Und gleichzeitig müssen wir aber auch die KI-Kompetenz mitbringen, solche mächtigen, viel mächtigere KI-Systeme, als es heute ein Chatbot ist, auch zu steuern. Wir müssen die designen sozusagen, konfigurieren und dann auch im Griff behalten. Und das ist eine völlig neue Führungsaufgabe, die wir hier haben, die wir natürlich noch nie gelernt haben. Wir haben da keine Erfahrungen. Also es ist weltweit eine große Entwicklung, die da gerade stattfindet. Und ich behaupte mal, dass wir das nächste Jahr bestimmen.
[5:45]
Neue Technologien und ihre Auswirkungen
[5:45]Herzlich willkommen 2025.
[5:47]Dieses Wir, was wir da steuern müssen, betrifft das diejenigen, die auf der anderen Seite des Greens sind und diese KI-Systeme entwickeln, produzieren und dann Verbrauchern anbieten? Oder meinst du auch wir in der Verbraucher- oder auch in der professionellen Rolle, die nicht direkt mit IT zu tun hat, dass wir da in die Steuerung kommen und nicht nur in der Konsumtion sind? Das wird sich zeigen und zwar von den Anbietern dieser Systeme. Also wie benutzerfreundlich werden wir die erleben? Nehmen wir das vielleicht gar nicht wahr, dass wir solche mächtigen Werkzeuge wirklich führen und leiten und lenken? Oder sind wir auch noch stärker gefordert in dieser gestalterischen Rolle? Also wäre das sinnvoll, dass wir stärker nötiger werden müssen, dass wir eben auch schon…
[6:33]Das, was hinter der Maschine passiert, verstehen müssen? Das auf jeden Fall. Das ist auch eine große gesellschaftliche Herausforderung. Jetzt schon bei den Chatbots, das haben wir schon gemerkt, bei ChatGPT, was ja ganz häufig von vielen Menschen, auch selbst den Studierenden, missinterpretiert wurde wie so eine Suchmaschine. Das zeigen ja viele Analysen, dass wenn man analysiert, wofür wurden diese Chatbots eingesetzt, dann ist immer ganz weit oben auch Recherche als Aufgabe angegeben. Und das war, bevor diese Chatbots mit einer Suchmaschine kombiniert wurden. Das ist heute meistens der Fall, aber auch nicht immer. Aber in der Ära davor, als solch ein Chatbot sich nur anhand seiner Trainingsdaten, die dann auch häufig ja noch veraltet waren, orientiert hat und dort nach statistischer Wahrscheinlichkeit Aussagen getroffen hat oder Ergebnisse nach außen gegeben hat, ging es nicht um Fakten. Das kann ein solcher Chatbot auch gar nicht unterscheiden, was Fakt ist und was nicht. Das heißt, wir hatten die sogenannten Halluzinationen, wo mal was Plausibles rauskam und mal totaler Witzel. Und das haben viele Menschen nicht verstanden, konnten sie eigentlich auch gar nicht verstehen, weil sie eben gar keine Ausbildung, keine Qualifizierung, keine Schulung erfahren haben. Und das ist ja bis heute das große Problem, dass selbst in Unternehmen viel zu wenig Schulungsangebote stattfinden, wobei es ja in Unternehmen tatsächlich auch um Potenziale geht. Da will man wirtschaftlich erfolgreich sein und man wird sich dieser Technologie auch nicht in den Weg stellen können und wollen. Aber selbst da klappt das nicht wirklich mit der Bildung.
[8:01]Also ich habe das immer so ein bisschen für mich verdeutlicht und verglichen, ich sage mal so ein bisschen wie mit dem Kunstmarkt. Das Bild malt zwar der Maler, aber was das bedeutet und wie man es handhabt, wie es einen bewegt, das ist halt im Auge des Betrachters. Und da sagt man so, das Produkt ist halt nicht nur vom Produzenten, sondern der Prosument, der Konsument macht da mit. Und bei diesen Chatbots war mir das ähnlich aufgefallen, auch als ich… Dann auch einen eigenen sozusagen bei mir auf der Webseite öffentlich gestellt hatte, dass die Nutzung tatsächlich ganz stark Google gefärbt ist und man das halt dachte wie so ein, das ist halt noch ein besseres Google, das kann vielleicht sogar jetzt reden und so und gibt halt eine Lösung raus. Man muss nicht mehr die ganze Seite durchklicken, die Google anbietet. Aber das war nicht deren ursprüngliche Aufgabe. Und da hast du ja auch, und das war ja noch vor, glaube ich, JetGPT, diesen KI-Campus, den ich wirklich auch jedem empfehle, entwickelt, wo sich Menschen weiterbilden können auf eine wirklich smarte und leicht zugängliche Art und Weise.
[9:03]Da schreibst du mir zu viel zu. Ich habe den KI-Campus nicht entwickelt, sondern bin durch den KI-Campus, also ich bin da auch im Beirat. Ich habe da den nicht mit aufgebaut, sondern bin eher Nutznießerin, beziehungsweise darf jetzt auch dort Rat geben und beraten. Aber das ist ein großes Projekt, was jetzt ohne meine Initiative stattgefunden hat. Aber natürlich müssen wir uns vernetzen in Deutschland und wir müssen in solchen Strukturen, Netzwerken, auf solchen Plattformen versuchen, gemeinsam auch die Kräfte zu bündeln. Und von da ist KI Campus eine ganz, ganz gute Geschichte und Plattform auch. Ja, vielleicht habe ich das auch verwechselt mit einer anderen Entwicklung deinerseits, aber wo mir deutlich wurde, wir müssen, und du hast das dann angepackt sozusagen.
[9:46]Die Nutzer befähigen, damit sie die Instrumente nicht nur, sage ich mal, abonnieren und dann auf ihre Art und Weise nutzen, sondern wirklich lernen, auch deren Mächtigkeit, naja, jetzt würde ich sagen, zu steuern oder überhaupt auch herauszukitzeln, das Potenzial. Also ich habe gegründet, und das meinst du vielleicht, ein virtuelles KI-Kompetenzzentrum, das VK Kiva, Künstliche Intelligenz und wissenschaftliches Arbeiten.
[10:11]Das habe ich mit diversen Mitstreitungen, wir waren so ungefähr zehn, damals zum Gründungszeitpunkt alles Hochschullehrende an unterschiedlichen Hochschulen in Deutschland und wir haben am 1. September 2022, also vor gut zwei Jahren, dieses virtuelle KI-Kompetenzzentrum gegründet, weil wir Aufklärungsarbeit leisten wollten, genau bei dem Thema. Aber insbesondere im Bildungsbereich, wie kann man und soll man umgehen? Was muss man wissen, um mit diesen KI-Sprachmodellen kompetent umzugehen? Und uns war klar zum Gründungszeitpunkt oder davor auch schon, wir waren eigentlich seit 2020 so als Netzwerk schon sehr aktiv, haben ganz viele Workshops gemacht, Vorträge, Veröffentlichungen und so weiter, dass das große Auswirkungen haben wird für den Bildungsbereich und natürlich nicht nur da. Und ja, dann hatten wir uns am 1. September 2022 gegründet, hatten die Webseite und dann kamen drei Monate später, am 30.11.2022, dann Chab-GPT um die Ecke. Das war dann ja wie so ein Paukenschlag. Und dann ist das auch ganz stark ins Bewusstsein aller möglichen Gruppen unserer Gesellschaft gerückt. Seit dieser Zeit haben wir eben eine so rasante Weiterentwicklung erlebt und das nächste Jahr passiert. Habe ich ja schon skizziert, da kommt nochmal eine ganz andere Liga an noch viel mächtigeren KI-Systemen daher. Und wir brauchen immer, und das ist die Basis und gleichzeitig Schlüssel zum Erfolg, wir brauchen eine KI-kompetente Gesellschaft.
[11:36]Das heißt nicht, dass man jetzt diese ganzen mächtigen KI-Systeme bis auf das letzte Detail verstanden haben muss. Das wird uns gar nicht gelingen, das benötigt man auch nicht. Man muss insbesondere auch die Limitationen erkennen. Also man muss so ein Gefühl dafür haben, was können die und was können die nicht, was sind sinnvolle Einsatzgebiete und was nicht. Wie uns das gelingt als Gesellschaft schnell genug mitzulernen mit dieser Geschwindigkeit der Entwicklung, das ist die große Frage. Und ich glaube, das gelingt uns nur dann, wenn wir das wie ein großes gemeinsames gesellschaftliches Projekt als konzertierte Aktion starten.
[12:15]
Herausforderungen der KI-Kompetenz
[12:11]Das haben wir in der Form noch nie gemacht und noch nie gehabt. Es gab auch gar nicht den Bedarf und das stellt uns so große Herausforderungen.
[12:18]Nehmen wir mal den Punkt und zonen das so ein bisschen runter auf wahrscheinlich Großteil der Zuhörenden und Zuhörer, die Kommunikationsarbeiter sind, im besten Sinne des Wortes. Dass viele von ihnen auch wahrscheinlich selbstständig, also durchaus auch sich als Machertypen und als Selbstständige verstehen. Der eine oder andere wahrscheinlich auch gewisse Affinität zu Computern hat, auf jeden Fall alles, Smartphone und Computer, alles da ist, aber dennoch den Eindruck gewinnt, auch durch solche Gespräche oder wenn er entsprechende andere Medien anschaut und sagt, das ist was ganz Neues, das war noch nie da. Das ist nicht etwas, worauf ich irgendwie zurückgreifen kann. Und trotzdem habe ich eine Lernbiografie. Was sind die größten Hürden, die man sozusagen selber zur Seite schaffen kann, wenn man sich dieser Welt nähern will? Wie könnte man loslegen, ohne sich zu überfordern und gleich wieder den Laptop zuzumachen und zu sagen, nee, ich kriege das jetzt auch noch so hin die letzten Jahrzehnte?
[13:16]Ich musste deshalb so schmunzeln, denn die größte Hürde ist die Angst, die viele Menschen haben und die Angst, wie ist geschirrt worden, ganz häufig auch durch Berichterstattungen, da kommt immer Fake News, da kommen immer eher die Risiken als die Chancen und dann wird das so weitergetragen, man hört das vom Bekannten und man liest etwas und man nimmt das vielleicht auch ein bisschen selektiv dann wahr, wenn man schon so ein Framing hat. Und deshalb denke ich immer, wir müssen eigentlich wie Kinder werden. Also wenn uns diese kindliche Freude am Ausprobieren auch mal hinfallen.
[13:49]So eine Resilienz auch zeigen, das benötigen wir eigentlich. Also wir brauchen Experimentierfreude, Neugierde, Offenheit, um uns dann auch eine eigene Meinung zu bilden, eine eigene Position zu finden. Und das ist auch bei vielen, die ich so erlebe, so, dass die haben gehört, Chat-GPT ist doof, kann nix und so weiter. Oder wir haben es vielleicht auch selber mal ausprobiert vor zwei Jahren und haben dann gesagt, nee, das ist es nicht und haben es danach auch nie wieder versucht. Und diese unglaubliche Geschwindigkeit, die sich zeigt bei der Entwicklung, die dann ja auch mit der Leistungsstärke einhergeht, das haben viele Menschen nicht verstanden, können das auch gar nicht glauben. Und ich sage immer, ja, wenn es gestern nicht geklappt hat, dann klappt es vielleicht morgen oder es klappt bei irgendeinem anderen. Also es gibt so Plattformen, da werden die weltweit populärsten Chatbots verglichen, lmarena.ai, wenn man das mal ausprobieren will. Und dort finden sich, also vorgestern waren es 169 solcher Chatbots. Das ist eben nicht nur ChatGPT, sondern das sind 167 oder 168 andere. Die gibt es dann auch in unterschiedlichen Varianten. Aber damit wollte ich nur klar machen, dass wir wirklich eine solche Flut auch an unterschiedlichen Chatbot-Varianten heute haben, weil der Markt ist einfach so attraktiv für die großen Anbieter, denn letztlich können alle Menschen, die ein mobiles Endgerät haben.
[15:13]Potenzielle Kunden sein dieser Technologie und das führt eben zu diesem unglaublichen Wettlauf. Also wenn man die Nachrichten verfolgt und ich mache das ja täglich, es vergeht kein Tag ohne irgendeine Ankündigung, ohne eine Weiterentwicklung, ohne ein neues Produkt, ein neues Einsatzgebiet, eine neue Studie. Das muss man eben auch berücksichtigen. Also wenn eine Chatbot nicht gefällt.
[15:33]Es gibt hunderte an Alternativen. Okay, da hat man sozusagen schon die Angst überwunden, weil man dann schon ins Testen kommt. Und ich bin ja wirklich eher ein Quereinsteiger und kann mich auch noch erinnern, wie ich vor dem Internet und den Viren und desgleichen da meine Ängste hatte und dann auch meine Arbeit nicht da drin gemacht habe, sondern eben noch schön an einem Laptop, der nicht angeschlossen war ans Netz. Ich rede hier vom Jahr 2006 fortfolgende. Wenn ich heute Vorträge in meiner Branche halte und einiges sind das, seitdem ChatGPT, veröffentlicht ist und ich frühzeitig dort mit dem auch ein Interview hier in diesem Podcast geführt habe. Und ihr auch dort, also wirklich eine Woche später noch, das war dann so im Januar, von Professoren, mit denen ich zu tun hatte, angerufen wurden, die mich gefragt haben, also IT-Professoren, was hast denn du da gemacht? Hat der das wirklich so gesagt? Also wenn das wahr ist, dass die so reden können. Und dann war ich überrascht, dass der mich das fragt. Ich dachte, das ist sein Arbeitsgebiet. Da habe ich den noch reden lassen mit Siri. Ich habe sozusagen den Chatbot Es vergeht kein Vortrag, wo nicht versucht wird oder wo nicht darauf hingewiesen wird, dass das, was ich da beispielhaft gemacht habe, gegen Gesetze verstößt. Dass ich einen Artikel dort hochgeladen habe oder dass ich das gemacht habe.
[16:47]Dass ich Daten preisgegeben habe von Fällen. Kann man sich diesem Thema nähern, ich sage mal so, auf eine eindeutig rechtmäßige Art und Weise? Erst recht, wenn man Angst hat, etwas falsch zu machen. Also das Testen und das Probieren auf der individuellen Ebene. Wie gehst du mit dieser Frage um, die ja in Deutschland doch immer sehr stark sofort auf den Tisch kommt?
[17:08]Regulieren, Datenschutz und dergleichen. Also ich finde das ein heikles Thema für jemanden, der sich dem nähern will. Das spiegelt eben auch unser digitales Mindset in Deutschland wieder. Man sagt uns die German Angst nach. Ich finde, die trug das tragischerweise bei dem Thema auch ganz gut. Es gibt dann die wunderbare Kategorisierung, also die Amerikaner innovieren, die Chinesen kopieren und wir in Deutschland regulieren. Also so werden wir häufig wahrgenommen. Da ist sicherlich ein bisschen was dran. Also wir sind sehr qualitätsbewusst. Das bedeutet eben auch, dass wir Prozesse einhalten wollen, die vorgegeben sind. Wir wollen keinerlei Regelverstöße begehen. Wir wollen uns absichern nach allen Seiten, insbesondere in so verantwortungsbewussten Rollen. Ich bin ja auch Lehrende einer staatlichen Hochschule, also da möchte man auf gar keinen Fall Studierende in irgendeine Bredouille bringen oder sie unnötigen Risiken aussetzen. Das finde ich auch ganz, ganz wichtig, dass wir dieses Verantwortungsbewusstsein zeigen. Ich glaube, es ist auch eine große Stärke, dass wir dieses Qualitätsbewusstsein zeigen. Wir haben jetzt den europäischen EUA-I-Act, der am 1. August in Kraft getreten ist und dann so in verschiedenen Phasen unterschiedliche Begründungen.
[18:17]Das heißt, wir haben hier schon ein sehr mächtiges Regelwerk. Die Frage ist, ob wir da schon wieder drohen, in Überregulierung abzudriften. Aber grundsätzlich haben wir uns ein Instrumentarium in Europa geschaffen, mit dem wir ganz, ganz vieles geregelt bekommen. Und in der Tat ist es so, das, was du auch geschrieben hast, ein großes Gefühl der Rechtsunsicherheit. Also man fühlt sich so wie auf Glatteis. An jeder Stelle könnte es irgendwie gefährlich werden. Also ich beschreibe mal so, wie ich damit arbeite. Und zwar habe ich den ChatGPT Plus Account. Das heißt, kann so ein bisschen mehr machen, kann ein bisschen andere Modelle aufwählen. Aber ich würde genauso arbeiten, wenn ich einen kostenlosen Zugang habe oder mit anderen Chatbots arbeite. Ich benutze das in meiner täglichen Arbeit und es ist für mich eine große Zeitersparnis. Wenn ich zum Beispiel einen Vortrag halten soll, ich habe keinen knackigen Titel zu dem Vortrag, dann sage ich bei ChatGPT gerne ein paar Stichworte zu dem und dem Thema, gebe mir eine Liste mit fünf unterschiedlichen Varianten für einen attraktiven Titel meines Vortrags. So, dann bekomme ich fünf und von denen gefällt mir meistens einer und von dem zweiten Titel vielleicht noch die zweite Hälfte oder so und dann gehe ich in die zweite Iterationen und lassen mir noch mal fünf dann aus diesen.
[19:28]Interessanten Bausteinchen, die ich dann schon habe, generiert und in der Regel habe ich ihn dann. Das ist für mich eine Arbeitsersparnis. Dann benötigt man ja ganz häufig Zusammenfassung. Man benötigt andere Formulierungen. Das heißt, man kann dann mit DeepL, ein Kölner Unternehmen, nicht nur übersetzen, man kann mit DeepL Write eben auch Texte umformulieren. Das benutze ich sehr häufig, wenn ich denke, ja, meine Formulierung, da geht noch was, aber ich habe jetzt keine schnelle Idee. Das Pfeilen und das Verbessern, dafür sind die auch super. Genau, dafür sind die super. Und das sind alles Aspekte, die aus meiner Sicht völlig unkritisch sind. Und wenn ich Texte hochlade und die Texte entweder zusammenfassen lasse oder überarbeiten lasse, dann sind das in der Regel meine eigenen Texte. Und dann entscheide ich selber, gehe ich das ein oder das Risiko ein oder nicht. Ich habe auch bei mir eingestellt, dass meine Eingaben nicht zu Trainingszwecken benutzt werden dürfen. Und das ist auch so eine Regel, die sich… Das widerspiegelt oder die Erfahrung, immer dann, wenn ich einen kostenpflichtigen Zugang habe zu diesen Anbietern mit ihren Tools, kann ich auch meine Daten besser schützen. Das heißt, wer also überall die kostenlose Variante wählt, der geht in der Regel dann auch das Risiko ein, dass die Eingaben für Trainingszwecke benötigt werden können. Aber auch das sind aus meiner Sicht völlig überzogene Ängste.
[20:48]Da haben Menschen so die Sorge, dass sie dann eins zu eins zurückverfolgt werden können. Das muss man sich mal überlegen. Also da sind jeden Tag oder im Monat sind hunderte von Millionen von Usern aktiv weltweit, dass man da in irgendeiner Form identifiziert und dass das, was wir dort eingeben, so spektakulär gefährlich ist, dass daraus ein Problem erwachsen könnte. Also da halte ich es für völlig überfordert.
[21:15]Ich wollte auf den Punkt raus, man müsste sozusagen, es hat sich so eine Wolke dann ergeben von zum Beispiel Datenschutz, dass nichts mehr sicher ist vom Datenschutz. Solche Themen wie, man muss jetzt die Klingelschilder an Mietshäusern abmachen, weil jeder sieht, wer dort wohnt und solche Sachen. Und dass es mittlerweile sozusagen so ein Geklaubt ist. Und man müsste jetzt zum Experten werden, zu sagen, nee, das stimmt einfach nicht, das gehört nicht drunter. Und diese, ich sag mal so, Atmosphäre, dass man potenziell, sobald man sich mit den Maschinen einlässt, auch auf rechtsunsicherem Terrain sich befindet, verstärkt die Angst oder ist wahrscheinlich auch eine Begründung der Angst. Denn das, was dann selber gemacht werden kann mit den KI-Tools, ist ja meist sehr faszinierend und sehr anregend und spannend und weckt im Grunde genommen Neugier.
[22:09]Hey, du! Der diesen Podcast hört. Vergiss nicht, ihn zu bewerten und eine Rückmeldung zu geben. Vielen Dank. Und jetzt geht’s weiter.
[22:22]Man muss das dann auch relativieren und wir müssen uns selber unser Verhalten auch bewusst machen. Was ich alles über WhatsApp bekomme und über WhatsApp verschicke, das bietet potenziellen Anbietern viel mehr Einblick in meine Person als das, was ich mit ChatGVT mache. Und vor allem den Eindruck, den man gegeben hat, wenn man WhatsApp auf seinem Telefon hat.
[22:43]Exakt. Oder ich bin seit vielen Jahren Kundin von Amazon. Alleine meine Einkäufe, das, was ich dort suche, meine Themen gibt, die mich interessieren, das bietet einem Anbieter wie Amazon viel mehr Einblicke als das, was OpenAI als Anbieter von ChatGPT heute über mich hat. Also da muss man auch mal ganz selbstkritisch reflektieren, welche Informationen man auf anderen Plattformen, bei anderen Tools über sich preisgibt. Aber ich möchte jetzt nicht den Eindruck erwecken, dass man jetzt völlig unbedarft
[23:13]
Datenschutz und rechtliche Rahmenbedingungen
[23:10]immer in so einem sicheren Gefühl alles Mögliche mit dem Chatbot machen soll. Soll es auf gar keinen Fall nichts urheberrechtlich geschütztes hochladen. Das sind ja insbesondere dann Dokumente von anderen Personen. Ich dürfte jetzt nicht von Studierenden einfach mal eine Arbeitsarbeit, Hausarbeiter einfach mal hochladen und die dann dort KI-Geschützt bewerten lassen. Und da greift auch der EU-AI-Act ganz, ganz deutlich, da gibt es ja unterschiedliche Risikostufen und so etwas wie KI-gestützt etwas bewerten, ist auf einer sehr hohen Risikostufe angesiedelt. Und wenn ich das machen würde, die Datenschutz-Grundverordnung erlaubt es mir gar nicht, personenbezogene Daten einfach hochzuladen. Und man braucht sich eigentlich auch nur die Policies der Anbieter anschauen. Also macht anscheinend niemand. Aber wenn man sich die Policies von OpenAI mal anschaut für die Nutzung von ShellGBT, da ist so vieles nicht erlaubt. Das wird seltenst thematisiert.
[24:00]Also auch da ist eigentlich klar geregelt, was erlaubt ist und was nicht erlaubt ist. Also da lohnt es sich sozusagen, die Dinge anzugucken. Ja, natürlich.
[24:08]Wir hatten vor uns den Punkt, du hast gesagt, wer bezahlt, ist schon mal auf einem festeren Grund und hat auch mehr Möglichkeiten. Ich finde, das ist eine Entwicklung, die tatsächlich sich so ein bisschen abhebt von den Tools, die wir bisher alle so zugespielt bekommen haben auf Computern und übers Internet, dass sie kostenfrei waren, allen voran Google. Die hatten ihren Preis. Bei KI habe ich den Eindruck, durch diese wirklich teure Rechenoperation, dass wir wieder ein Gefühl dafür bekommen, was das bedeutet, solche Tools zu haben und dass wir dafür bezahlen. Manchmal kann man ja genau sehen, auch wie viel man Energie oder wie viel Cent abgegangen ist durch eine einzelne Rechenoperation und durch einen einzelnen Prompt. Würdest du sagen, dass das eine gute Idee ist, beim Start auch wirklich drüber nachzudenken bzw. Zu sagen, okay, ich starte mit Investment, also ich nehme wirklich einen Bezahlaccount und nähere mich den ganzen Themen, auch auf die Gefahren, dass das dann also mehrere sind, da muss ich das wieder zurückfahren. Ist es eine Frage nur von Neugierde und Zeit, die ich investieren muss oder würdest du auch empfehlen, nehmt euch lieber ein Budget vor und das investiert ihr, um euch dieses Tool oder dieses Tool auch wirklich so anzugucken, wie es in der Bezahlversion angeboten wird? Ich würde für den Einstieg etwas ganz Niedrigschwelliges empfehlen. Und zwar, ich habe vorhin die lmarena.ai erwähnt. Das ist so eine Plattform, da muss man sich nicht einmal registrieren.
[25:36]Sondern man kann, da gibt es oben links so einen Reiter, der heißt Battle Arena. Und dort kann man, wenn man unten dann seinen Prompt, so heißt ja die Eingabe, die man macht bei diesen Bots, ich hätte ganz gerne fünf Ideen für das und das Thema oder gebe mir eine Gliederung zu dem und dem Thema oder was man so gerade an Bedarf hat, gibt man einfach in natürlicher Sprache ein und dann bekommt man immer so zwei Bots, die dann bereitgestellt werden, die die Antwort geben. Das heißt, man schnuppert da so ein bisschen, man kann sich schon mal ein bisschen orientieren, man kann sich eine Meinung bilden. Dann würde ich im zweiten Schritt dann den favorisierten Bot, den ich da gefunden habe oder entdeckt habe, da würde ich dann vielleicht so ein Einmonats-Abo erstmal abschließen. Und das ist auch eine schöne Variante, dass man in der Regel nicht gleich ein einjähriges Abo-Modell abschließen muss oder Adolf-Vertrag abschließen muss, sondern dass man auch da meistens so einen Monat erstmal probieren kann und dann steigt man halt aus, wenn es einem nicht gefällt. Es geht ja den Anbietern darum, den Markt zu erschließen. Das heißt, schnellstmöglich viele User auf die eigene Plattform zu bringen oder in das eigene System zu bringen. Und deshalb sind das immer Freemium-Modelle, das heißt am Anfang kostenlos und dann kommt meistens der hinterher, wenn man es dann intensiver nutzt, der kostenpflichtig geteilt. Man wird quasi geködert damit, gefüttert und in die zweite Phase ist die kostenpflichtige Phase. Das heißt, das Schnuppern, das wird uns direkt angeboten, eigentlich bei allen Anbietern und da muss man halt gucken, wann steigt man ein in die zweite Phase.
[27:05]Oder steigt man überhaupt ein? Es gibt ja auch durchaus Anwender, wir haben das auch bei Studierenden, die sagen, ich möchte gar nicht mit den Tools arbeiten, ganz bewusst nicht. Das finde ich auch okay. Die haben sich eine Meinung gebildet, haben eine Position und wenn sie das nicht nutzen möchten, dann ist das auch okay. Für viele so im Business-Kontext ist dann doch die Effizienzsteigerung beim Einsatz dieser Werkzeuge, die ist dann doch so groß, dass sie gar nicht anders können, als dann auch diese Tools zu benutzen. Bei dir ist ja ein starker Fokus auch auf Pädagogik oder Ausbildung. Also wie lernen wir das zu nutzen? Und ich habe häufig diesen Punkt, dass man ja die eigene Problematik oder die eigene, wo kann ich Effizienzen steigern, also wo spüre ich eigentlich einen Problemlöse-Druck, den ich dann vielleicht mit einer KI oder mit einer technologischen Anwendung überwinden kann, dass der ja zuweilen gar nicht groß sein muss. Man fühlt sich zufrieden, also man hat irgendwie sein Business aufgebaut, man ist vielleicht so 10, 20, 30 Jahre am Markt. Es läuft alles nach den Routinen, die man in den letzten Jahrzehnten aufgebaut hat.
[28:04]Wie kommt denn so jemand auf die Idee, dass das, was er macht, vielleicht ineffizient sein könnte? Also wo würdest du deiner Erfahrung nach auch mit den Menschen, mit denen du in Kontakt kommst, am ehesten sagen, da sind Lösungen da für Probleme, die vielleicht viele noch gar nicht gesehen haben? Also eine kurze Antwort, das sind Aufgaben, die sehr zeitintensiv sind, die wir als nervig empfinden, als Belastung empfinden, die wir gerne outsourcen möchten, wollten wir früher schon. Das ist zum Beispiel so etwas wie einen Text übersetzt in eine andere Sprache. Da musste man früher, wenn man sich selber konnte, ein Übersetzungsbüro beauftragen. Das war sehr teuer und man musste Angebote einholen und so weiter. Also es war auch ein schwieriger, langwieriger Prozess, der dann auch durchaus Kosten verursacht hat, die jetzt nicht im niedrigen Bereich angesiedelt waren. Das können wir heute in beliebigen Sprachen nahezu mit einem Klick und kostenlos verfrühen. Die PL macht es möglich, mehr als 30 Sprachen, glaube ich. Chat-GPT mehr als 90 Sprachen. Dann so etwas wie einen Text korrigieren oder redigieren lassen. Das heißt, ich habe etwas geschrieben, bin aber nicht sicher, wie viele Komma vielleicht da drin, Grammatik, also überhaupt, die Textqualität, bin ich mir bewusst, die ist noch nicht wirklich sehr gut. Und ich gebe die irgendwo hin in ein Lektorat, was auch immer. Diese Aufgabe entfällt heute auch. Das haben wir in den Textverarbeitungssystemen erlebt. Wir hatten dort Autokorrektur schon sehr früh. Und das hat sich immer weiterentwickelt. Und jetzt haben wir diese ganzen Werkzeuge, die…
[29:34]Nach Belieben einen Satz umstellen, uns alternative Formulierungsvorschläge anbieten, die per Knopfdruck einen Text zusammenfassen, sodass wir am Ende gar nicht mehr selber die Zusammenfassung, das Fazit schreiben müssen. Die können uns Gliederungsvorschläge erstellen. Wir bekommen einfach so viel Unterstützung. Das verändert, finde ich, auch viele Arbeitsprozesse. Also mir machen bestimmte Schritte, bestimmte Arbeiten einfach auch mehr Spaß, weil ich Freude an meiner neuen Produktivität habe.
[30:03]Und das erlebe ich eben auch bei Studierenden, gerade die, die eine Schreibblockade haben, also die sich wirklich schwer tun mit dem Schreiben, die sich so einsam und allein vor ihrem weißen Blatt fühlen. Die bekommen jetzt einen virtuellen digitalen Schreibtpartner an ihre Seite gestellt, wo sie sich auch nicht, und das ist auch etwas ganz Wichtiges, nicht schämen müssen, wenn sie das Gefühl haben, sie sind da sehr unbedarft, sie haben viele Defizite. Also auch diese Diskretion quasi, das ist ja wie so ein geschützter Raum, in dem ich mich mit meinem Chatbot bewege, wo keiner so von außen unmittelbar reinschauen kann. Das ist auch so ein Aspekt, den haben wir noch viel zu wenig untersucht. Aber das deutet sich doch in vielen Gesprächen an, dass so dieses Lernen, Wohlwissen, ich habe ganz viele Defizite in dem Bereich, aber jetzt traue ich mich, diese Fragen zu stellen, die ich ansonsten so in der Klasse, im Hörsaal nicht stellen würde, weil ich die Sorge habe, dass man mich völlig unbedarft hält. Das sind große Potenziale. Ja, da bauen wir sehr schnell Vertrauen auf zur Maschine. Das ist aber auch wieder gefährlich. Das, was du gerade sagst, dieses Vertrauen dann aufbauen, das ist eine Andropomorphisierung, die dann auch wieder gefährlich ist. Das erleben wir auf Plattformen wie dem Character AI und so weiter mit den virtuellen oder mit den Avataren, dass da wird auch ganz schnell Abhängigkeit und Liebe auch. Also auch so etwas entsteht da. Dass wirklich da Freunde gefunden werden, in Anführungsstrichen.
[31:32]Therapieanwendungen können schnell zu Abhängigkeiten führen. Aber es ist ein Aspekt davon, das hat auch positive Seiten, dass sich Menschen getrauen können.
[31:45]
Nutzung von KI im Alltag
[31:41]Sie haben einen Raum, wo sie loslegen können, was sie sonst bisher nicht hatten. Wenn ich das nochmal zurückspule, es wäre durchaus ein guter erster Schritt, sich nicht an die Maschine zu setzen, sondern erstmal hinzusetzen und zu gucken, was nervt mich eigentlich an meiner Routine, ob nun im Haushalt, für Privat oder aber auch im Business. Was nervt mich? Oder auch, das ist ja etwas, was ich häufig beobachte, was wurde bisher gar nicht mehr als Problem gesehen und gar nicht gemacht, weil es einfach zu aufwendig war. Stichwort Sichtbarkeit herstellen im Social-Media-Bereich. Also für viele war nicht nur die Nicht-Existenz auf YouTube, Facebook, LinkedIn, sonst wo eine rationale Entscheidung, sondern auch häufig mit dem Ausgangspunkt, das ist mir zu viel. Erst recht, wenn ich höre, ich soll da jetzt jeden Tag posten, dann mache ich es erst lieber gar nicht. Und dann wird das einfach nicht gemacht. was nervt oder was war bisher nicht möglich, wäre eine Ausgangsfrage, die man erstmal wirklich mit Zettel und Stift sich nähern kann. Und dann könnte man gucken, welche Lösungen werden angeboten. Ich würde das noch ergänzen um den Aspekt, was raubt mir jeden Tag ganz viel Zeit? Was sind so Zeitfresser? Und da mal schauen, könnte da KI sinnvoll eingesetzt werden?
[32:55]Doris, welche Frage habe ich nicht gestellt? Deren Antwort für heutige Kommunikationsarbeiter.
[33:03]Absolut wichtig sind. Ich habe gedacht, dass du damit gleich weitermachst, weil du hast einen Aspekt gerade sehr schön erläutert, der dann auch schnell in so einem ganz negativen Teil kippen kann. Und zwar hast du diese aufwendige Social-Media-Arbeit beschrieben. Also, dass man jetzt viel leichter Posts erstellen kann. Man lässt ja auch schreiben oder man schreibt mit irgendeinem Bot wie so in einer kollaborativen Art und Weise, hat seinen Schreibpartner. Aber das, was wir Menschen doch eigentlich möchten, ist Authentizität. Also ich möchte jetzt nicht jeden Tag einen Sascha-Weigel-Post lesen, den ein Chatbot für dich geschrieben hat, sondern ich möchte doch gerne. Und du würdest ihn erkennen auch. Ich möchte so Sascha Weigel mit seiner ganzen Seele spüren, übertrieben formuliert in seinen Posten. Da bin ich total gespannt, was die Zukunft bringt. Denn es gipfelt ja darin, dass wir uns Politikerreden anhören müssen, die KI generiert sind. Wenn wir in die Kirche gehen, laufen wir Gefahr, dass wir KI generierte Predigten uns anhören müssen. Ich denke immer, ist das okay? Also für mich, ich möchte das eigentlich nicht. Ich möchte Authentizität erleben. Ich möchte, wenn die Person da steht.
[34:12]Auch wirklich das hören, was diese Person denkt und dann eben auch sagt und nicht irgendwas, was ein KI-Bot vorproduziert hat und was dann nur abgelesen wird. Ich weiß nicht, wie sehr wir als Menschen das abstrafen werden, wenn wir entweder Beweise haben, dass das nicht von der Person kommt oder KI generiert ist. Wir haben inzwischen so erste Protestbewegungen, wo man sagt, nee, ich lese gar nicht mehr diese LinkedIn-Posts, die so nach ChachGPT aussehen, mit diesen vielen Emojis und so.
[34:38]Das ist so ein Style, da habe ich den Verdacht, das ist ChatGPT und das lese ich nicht mehr. Das finde ich sogar als unhöflich, als Affront strafe ich ab und dann würde ich einen Sascha Weigel. Blocken? Ja. Und zwar ganz persönlich, höchstpersönlich. Das wird nicht einer KI anstoßen. Das kann man demnächst sicherlich auch. Ich weiß nicht, wie es dir geht, aber hast du auch so an manchen Stellen so ein Störgefühl gesagt? Nee, gar nicht. Das habe ich schon und ich vermute, dass ich das in einem Jahr nicht mehr unterscheiden kann. Also das wird ja alles sofort musterhaft erkannt und dann wird das in die Maschinen gebaut, in die Algorithmen. Ich befürchte, wir werden das nicht mehr unterscheiden können. Das stimmt, das können wir auch nicht. Aber wir haben den Verdacht manchmal heute noch. Aber ich teile deine Meinung, das wird immer schwieriger. Aber wie gehen wir damit dann auf Dauer um? Gehen wir eine ganze Pause aus LinkedIn und sagen, das ist wahrscheinlich alles KI generiert und da ist nichts mehr echt und authentisch? Also ich nehme mal das Beispiel den Politikern, deren Sprachen ja nicht umsonst so sind, wie sie sind. Und daran sind meistens nicht die Politiker schuld, sondern diejenigen, die angesprochen werden, die sich entweder aufregen, Stichwort Trump, wenn der einfach loslegt, dann hat man auch versucht, den damit mundtot zu machen und sich darüber empört. Aber es klappte einfach nicht. Das war eine Ausnahmesituation. Aber man will eben nicht sozusagen jemanden auf die Füße treten, weil das wird sofort markiert.
[36:03]Und das wird im Social Media Bereich auch wirklich sofort markiert. Wenn jemand was Unerhörtes sagt, kann man darauf wetten, dass zehn Memes dazu entwickelt werden, wo jemand an Pranger gestellt wird damit. Also nehmen wir jetzt mal das gerade hochpolitisierte FDP-strategische Debakel oder wie man das auch immer nennt. Es gibt hunderte von Memes, wo ganz deutlich markiert wird, das darf nicht vergessen werden und das werden wir Christian Lindner nicht verzeihen und das soll der Untergang der FDP sein. Und leider, glaube ich, hat dieses authentische häufig eben auch Empörungspotenzial und nicht immer das wohlfühlige, ach, da kann ich jetzt die wahre Emotion sehen. Dann wird das im Bereich Social Media, und das ist ja ein politisches Instrument auch, glaube ich.
[36:49]Also wir werden ja über die Social Media Kanäle politisiert und emotionalisiert. Und leider, ich glaube, das ist vielleicht auch medial so vermittelt, dieses Authentische, wie wir es aus dem Fußball sozusagen immer hören. Da muss entweder jemand rumschreien oder es muss jemand rumheulen und dann erkennen wir nur Authentizität. Das ist eine tragische Verflachung. Da habe ich auch keine gute Lösung. Und selbst wenn jemand was schreibt, was er sozusagen aus sich rausgeholt hat, entscheidend ist, ob die Leserinnen und Leser sehen, ob das authentisch ist oder nicht. Ich finde, das ist ja auch ein ganz paradoxer Begriff Authentizität, dass jemand beansprucht Anerkennung dafür, dass er so ist, wie er ist oder zu sein glaubt. Und das ist ja eigentlich kulturell gesehen eine Revolte. Das ist ja der brotlose Künstler, der Bohemier, der einfach gemacht hat, was er will und sich damit außerhalb der Gesellschaft gestellt hat und gesagt hat, das mache ich einfach, könnt ihr mich mal. Und da will ich überhaupt nicht eure Anerkennung. Und das hat kulturell umgeschlagen in einen Anspruch auf Anerkennung. Insoweit würde ich sagen, da wird sich vielleicht nochmal was entwickeln. Aber das ist eher ein soziokulturelles Thema. Aber vielleicht hat KI dafür auch eine Lösung dann.
[38:04]Ja, finde ich sehr spannend, so deine Sichtweise zu hören bei diesem Begriff auch. Aber du hast recht, da habe ich noch nie drüber nachgedacht, dass es ein paradoxer Begriff ist. Es stammt auch nicht von mir. Also insoweit geht es mir jetzt so wie mit dir und dem KI-Campus. Also das ist Andreas Reckwitz, der das herausgearbeitet hat in seiner Habil-Schrift, die Subjektformen. Aber da ist es wirklich mir auch ganz deutlich geworden, was viele auch ja im Arbeitskontext heute erleben, dass Menschen, Arbeitnehmerinnen, Arbeitnehmer authentisch sein wollen und die Idee haben, das muss der Chef und das Team anerkennen. Und die manchmal vor den Kopf gestoßen sind, dass, Dass die sich heute nicht mehr, sage ich mal, wie ein guter Gast erstmal einordnen, sondern hier gleich in der ersten Stunde das Zepter in die Hand nehmen wollen. Und da claschen sozusagen Erwartungen aufeinander, die man an dem Begriff von Authentizität festmachen kann. Ja, interessant.
[39:01]Für mich hat der Begriff, oder ich habe gerade so eine Szene vor Augen und das war bei einer Veranstaltung im Frühjahr letzten Jahres in Berlin. Und da gab es hinterher so eine Fragerunde. Dann kam ein Schüler ans Mikro, sagte dann, er möchte nicht mit diesen KI-Lösungen etwas schreiben. Denn wenn er etwas schreibt, dann ist er das als Person. Und das ist Ausdruck seiner Persönlichkeit. Er fände es ganz, ganz schrecklich, wenn man diese KI-Lösungen schreibt, weil die einfach seelenlos seien. Und das ist so ein Thema, was ganz häufig so mitschwingt in Diskussionen, die Seelenlosigkeit, die man durch diese KI-Text dann transportieren würde, die so entfremdet sind
[39:50]
Philosophische Fragen zur Menschlichkeit
[39:47]von einem selbst und die uns so abkoppeln davon. Ich finde, das ist ein ganz, ganz wichtiger Aspekt. Und ich denke auch bei manchen Texten, wenn ich die so lese, bilde ich mir zumindest ein, dass da noch ein bisschen Seele drinsteckt des Autors oder der Autorin und bei anderen halt nicht. Aber ich gebe dir recht, die Unterscheidbarkeit, die wird abnehmen. Und die hat schon abgenommen, wenn man das in den letzten zwei Jahren Revue passieren lässt. Ich glaube, da werden wir auch nochmal die Dinge…
[40:14]Wie das bei guten und umwerfenden Erneuerungen der Fall auch ist, wir werden uns nochmal neu erkennen und weil du die Idee der Seele ja da benennst, die wir ja auch heute immer noch, auch sprachlich zumindest, kultivieren, die als solches ja im Grunde genommen der Wissenschaft zum Opfer gefallen ist. Also es gibt keine Seele. Das ist die romantische Vorstellung, die wir noch tragen. Und es kann ja sein, dass die KI deshalb so gut funktionieren, weil wir eben wirklich auch nur musterhafte Wesen sind, die gar keine Seele haben. Ja, aber das wollen wir nicht. Das wollen wir doch nicht akzeptieren. Genau, so weit will ich jetzt auch noch nicht gehen hier. So revolutionär will ich nicht im Podcast. Ich bin nicht da drin, uns zu imitieren in einer immer wieder erstaunlichen Art und Weise, aber dass wir auch nur solche Automaten sind, die irgendwie auch nur so eine Reizreaktionsmaschine sind oder Interaktionsmaschine, das ist nicht unser Selbstverständnis, das möchten wir nicht und damit hadern wir natürlich sehr und ich glaube das auch nicht, dass wir so sind.
[41:14]Also ich hänge auch dieser romantischen Vorstellung auf. Ja, und ich will dir das überhaupt nicht ausreden. Ich finde es ganz toll, dass du im Podcast bist und ich möchte auch nicht jetzt das Gespräch beenden und dann weiß ich nicht, was da in Kiel passiert, wenn dann das das Ergebnis ist. Und das ist ja auch schon eine längere Geschichte und nicht erst mit KI, dass diese technologische Entwicklung so eine neue große Kränkung der Menschheit sein kann nach Charles Darwin, Sigmund Freud, dass wir uns da nochmal völlig neu verstehen müssen. Da kommen wir jetzt tatsächlich ins Philosophische und ins absolut Grundsätzliche.
[41:53]Aber wir wollten ja auch… Das handwerklich, wie machen wir den ersten Schritt, bevor wir uns schon wieder das Ziel angucken, wohin der ganze Weg führen könnte? Doris, bei dem Thema, gibt es noch etwas Positives? Wenn ich dich trösten darf, diese Diskussion, also du hast gerade gesagt, dann sind wir schon wieder im Philosophischen gelandet, aber das ist bei diesem Thema total normal. Man landet sehr schnell im Philosophischen und man landet sehr schnell immer bei der Frage, was zeichnet uns als Mensch eigentlich aus? Also was sind wir? Das hatten wir ja auch vorhin schon, hast du sehr schön thematisiert. Und das beschäftigt uns sehr. Natürlich sind diese Tools auch eine große narzisstische Kränkung. Aber das Gute ist, wir beschäftigen uns sehr, sehr intensiv mit uns selbst und analysieren uns und reflektieren uns auch sehr selbstkritisch. Und so diese Frage, was zeichnet uns als Mensch aus im Vergleich zu diesen ganzen KI-Lösungen, finde ich eine sehr spannende Diskussion. Ich glaube, dass uns das als Menschheit auch ganz oder auch als Individuum sehr, sehr gut tut, sich auch auf seiner Stärken und Schwächen nochmal zuzuwenden. Und ich glaube, dass wir da auch bei den Stärken, noch wirkliche Stärken haben, uns auch dauerhaft erhalten bleiben. Und die müssen wir uns erstmal bewusst machen und die sollten wir dann auch stärker nutzen.
[43:19]Ja, das finde ich eine beruhigende Erkenntnis, dass das normal ist, dass es dann auch in diese Fragestellungen geht. Das geht hier auch mit anderen und ich sage mal auch internationalen Kollegen und Kolleginnen so, dass diese Themen sofort aufkommen. Das ist jetzt keine typisch deutsche Diskussion, schon wieder runter auf den Grund des Bodens zu wollen und noch nicht immer oben das Schwimmen gelernt zu haben. Egal mit welchen Gruppen. Es gibt Diskussionen, da ist das nach 15 Minuten schon philosophisch und sehr, sehr grundsätzlich. Das ist total normal. Dieses Thema ist ein sehr emotionales Thema, weil es uns als Menschen so sehr in unserem Menschsein berührt. Und von daher auch nicht verwunderlich, dass es gleich zu sehr grundsätzlichen Fragestellungen kommt. Thomas, vielen Dank für das hochinteressante Gespräch, für die Erkenntnisse sowohl im Handwerklichen als auch im Philosophischen und danke, dass du dir die Zeit genommen hast. Ich weiß, wie eng die gestrickt ist bei dir und ich wünsche dir ganz viel Erfolg, dass du Zuhörende und Umsetzer im Audience hast. Danke dir sehr für die Einladung, hat mir viel Spaß gemacht mit dir. Ein sehr, sehr schöner Wochenabschluss solch ein Podcast am Freitag.
[44:30]
Abschied und Ausblick auf die Zukunft
[44:30]Gute Zeit, bis bald. Danke, tschüss. Professorin Doris Wessels, Wirtschaftsinformatikerin und Expertin für künstliche Intelligenzen, hat uns darauf aufmerksam gemacht, dass die Welle der Chatbots, die losgetreten wurde mit ChatGPT, schon wieder überrollt wird von einer neuen Welle, den KI-Agenten. Und dass es Zeit ist, persönlich, aber auch gesellschaftlich sich mit diesen Instrumenten auseinanderzusetzen und eine KI-Kompetenz, eine kollektive KI-Kompetenz zu entwickeln, um wieder in eine Steuerungsposition zu kommen. Ich bedanke mich, dass du und ihr hier wieder mit dabei wart bei diesem Podcast und dieser kleinen Reihe auch zu den neuen technologischen Veränderungen. Für den Moment verabschiede ich mich mit den besten Wünschen. Bis zum nächsten Mal. Kommt gut durch die Zeit. Ich bin Sascha Weigel, dein Host von INKOVEMA, dem Institut für Konflikt- und Verhandlungsmanagement in Leipzig und Partner für professionelle Mediations- und Coaching-Ausbildungen.