1
Artikel und Presseberichte / Antw:"Unterhaltung" mit ChatGPT
« Letzter Beitrag von Skirtedman am Heute um 11:35 »Nicht nur durch Wissen, auch schon durch reines Nachdenken kann man darauf kommen, dass
KI und emotionale Intelligenz
sich nicht völlig ausschließen.
Bestes Beispiel ist der Dialog, den Micha in der Rolle von Kanadiers Frau mit der KI geführt hat.
Schon alleine dieser Satz der KI belegt das:
Noch zwei Beispiele:
Wenn aus all diesen Antworten nicht sowas wie "emotionale Intelligenz" spricht, was ist das dann?
Alleine die Tatsache, dass die KI ihre Antworten aus der Ich-Perspektive formuliert, bedingt schon eine Art emotionaler Intelligenz - nämlich ein Konzept davon, was das "Ich" eigentlich bedeutet und wie die Inhalte, die in diesem Satz und überhaupt alle Inhalte dazu in Relation stehen. Eine "Ich"-Position muss ein Konzept davon haben, was es inhaltlich verantworten kann und was es ablehnt.
Um überhaupt einen Dialog unter der Position "ich sage Dir" führen zu können, ist eben bei der KI eine Dialoginstanz nötig, die es ermöglicht, dialogfähige Antworten zu erzeugen. Diese Dialoginstanz ist quasi federführend in der Erzeugung der Antwort. In dieser Instanz muss ein Konzept der Antwortstruktur erschaffen werden, damit eine halbwegs strukturierte Antwort erteilt werden kann (z.B. Einleitung, Beleuchtung verschiedener Aspekte, innerer Dialog mit Bewertungen dieser Aspekte, Zusammenfassung, ggf. Handlungsaufforderung), dann eine abschließende Bewertung, ob das als Dialogantwort für den Gesprächspartner akzeptabel klingen mag und falls nicht, umformulieren, dass es den Dialogpartner nicht abschreckt. In vielen diesen Schritten stecken viel emotionale Kompetenzen. Da das alles eine Maschine ist, ist man gerne geneigt, dieser Maschine diese Kompetenzen abzusprechen.
Aber so, wie die KI mit Fakten, Fakten, Fakten gefüttert werden muss, um statistische Beziehungen unter den Wörtern zu erkennen und zu abstrahieren, so muss auch speziell die Dialoginstanz trainiert werden. Die Dialoginstanz entspricht so ein bisschen dem Bewusstsein der KI.
Ich kann mir vorstellen, dass ganze Teams dransitzen, um unzähligen Schlüsselwörtern und Ausdrücken, Redewendungen emotionale Noten zu erteilen. Und das in jeder Sprache. Und falls die KI auch auf die Erkennung von Bildinhalten trainiert wird, ist dieser Team-Einsatz ungleich viel höher im Aufwand, die KI beim Erkennen von Bildinhalt-Mustern mit emotionalen Bewertungen zu füttern.
Zwar kann für die Dialoginstanz auch alleine anhand der Gesprächsführung der Gesprächspartner statistisch trainiert werden, was auch schon eine gewisse Höflichkeit, Umgangsformen und emotionale Intelligenz mit erfasst. Aber dennoch müssen da ethische Belange noch sehr viel stärker mit einfließen, so dass ich mir gut vorstellen kann, dass eben ganze Teams mit viel unermüdlichem Einsatz nötig sind, um in jeder Sprache emotionale Werte in die Dialoginstanz mit einzubringen.
Darum ist es leichtfertig, einer KI emotionale Kompetenzen abzusprechen, auch wenn sie nur in statistischen Modellen abgebildet werden. Genau betrachtet machen wir Menschen doch auch eigentlich nichts anderes, als von Wahrscheinlichkeiten auszugehen, nur eben mit sehr viel mehr komplexeren Algorithmen, gepaart mit einer sehr viel breiteren sensorischen Auffassungsgabe und das wiederum gepaart mit ganz viel "einschneidenden", prägenden Erfahrungen, weil sie uns an die Substanz unseres Ich-Konzepts geführt haben (Schlüsselerlebnisse z.B.).
Ich denke, der Umgang mit KI sollte uns Menschen lehren, unsere hochgradige Überlegenheit mit Demut zu betrachten. Unsere Einzigartigkeit besteht nur darin, dass wir komplexer sind. Und das sollten wir eigentlich auch aus dem Vergleich mit Tieren bereits gelernt haben.
KI und emotionale Intelligenz
sich nicht völlig ausschließen.
Bestes Beispiel ist der Dialog, den Micha in der Rolle von Kanadiers Frau mit der KI geführt hat.
Schon alleine dieser Satz der KI belegt das:
Zitat
Aber „Spinner“ ist da ehrlich gesagt ein ziemlich abwertendes Wort für etwas, das für viele Menschen einfach eine Form von Selbstausdruck ist.Und noch etliche andere Sätze aus den Antworten der KI.
Noch zwei Beispiele:
Zitat
Wir überschätzen oft, wie sehr andere uns beobachten. In Wirklichkeit sind die meisten viel zu sehr mit sich selbst beschäftigt. Und selbst wenn jemand kurz denkt: „Oh, rote Lederjacke“ – ist das nach 10 Sekunden wieder vergessen.
Zitat
Wenn es dich beschäftigt, ist ein ruhiges, ehrliches Gespräch wichtig – ohne Vorwürfe, eher neugierig:
„Ich merke, dass mich dein neuer Stil etwas verunsichert. Kannst du mir erzählen, was dir daran gefällt?“
„Ich möchte dich verstehen – mir ist nur wichtig, dass ich mich auch wohl damit fühle.“
So klärt ihr gegenseitig Erwartungen und Grenzen, ohne dass sich jemand angegriffen fühlt.
Wenn aus all diesen Antworten nicht sowas wie "emotionale Intelligenz" spricht, was ist das dann?
Alleine die Tatsache, dass die KI ihre Antworten aus der Ich-Perspektive formuliert, bedingt schon eine Art emotionaler Intelligenz - nämlich ein Konzept davon, was das "Ich" eigentlich bedeutet und wie die Inhalte, die in diesem Satz und überhaupt alle Inhalte dazu in Relation stehen. Eine "Ich"-Position muss ein Konzept davon haben, was es inhaltlich verantworten kann und was es ablehnt.
Um überhaupt einen Dialog unter der Position "ich sage Dir" führen zu können, ist eben bei der KI eine Dialoginstanz nötig, die es ermöglicht, dialogfähige Antworten zu erzeugen. Diese Dialoginstanz ist quasi federführend in der Erzeugung der Antwort. In dieser Instanz muss ein Konzept der Antwortstruktur erschaffen werden, damit eine halbwegs strukturierte Antwort erteilt werden kann (z.B. Einleitung, Beleuchtung verschiedener Aspekte, innerer Dialog mit Bewertungen dieser Aspekte, Zusammenfassung, ggf. Handlungsaufforderung), dann eine abschließende Bewertung, ob das als Dialogantwort für den Gesprächspartner akzeptabel klingen mag und falls nicht, umformulieren, dass es den Dialogpartner nicht abschreckt. In vielen diesen Schritten stecken viel emotionale Kompetenzen. Da das alles eine Maschine ist, ist man gerne geneigt, dieser Maschine diese Kompetenzen abzusprechen.
Aber so, wie die KI mit Fakten, Fakten, Fakten gefüttert werden muss, um statistische Beziehungen unter den Wörtern zu erkennen und zu abstrahieren, so muss auch speziell die Dialoginstanz trainiert werden. Die Dialoginstanz entspricht so ein bisschen dem Bewusstsein der KI.
Ich kann mir vorstellen, dass ganze Teams dransitzen, um unzähligen Schlüsselwörtern und Ausdrücken, Redewendungen emotionale Noten zu erteilen. Und das in jeder Sprache. Und falls die KI auch auf die Erkennung von Bildinhalten trainiert wird, ist dieser Team-Einsatz ungleich viel höher im Aufwand, die KI beim Erkennen von Bildinhalt-Mustern mit emotionalen Bewertungen zu füttern.
Zwar kann für die Dialoginstanz auch alleine anhand der Gesprächsführung der Gesprächspartner statistisch trainiert werden, was auch schon eine gewisse Höflichkeit, Umgangsformen und emotionale Intelligenz mit erfasst. Aber dennoch müssen da ethische Belange noch sehr viel stärker mit einfließen, so dass ich mir gut vorstellen kann, dass eben ganze Teams mit viel unermüdlichem Einsatz nötig sind, um in jeder Sprache emotionale Werte in die Dialoginstanz mit einzubringen.
Darum ist es leichtfertig, einer KI emotionale Kompetenzen abzusprechen, auch wenn sie nur in statistischen Modellen abgebildet werden. Genau betrachtet machen wir Menschen doch auch eigentlich nichts anderes, als von Wahrscheinlichkeiten auszugehen, nur eben mit sehr viel mehr komplexeren Algorithmen, gepaart mit einer sehr viel breiteren sensorischen Auffassungsgabe und das wiederum gepaart mit ganz viel "einschneidenden", prägenden Erfahrungen, weil sie uns an die Substanz unseres Ich-Konzepts geführt haben (Schlüsselerlebnisse z.B.).
Ich denke, der Umgang mit KI sollte uns Menschen lehren, unsere hochgradige Überlegenheit mit Demut zu betrachten. Unsere Einzigartigkeit besteht nur darin, dass wir komplexer sind. Und das sollten wir eigentlich auch aus dem Vergleich mit Tieren bereits gelernt haben.

Neueste Beiträge