Chatbot

Vor kurzem habe ich mit einem Unternehmen eine Arbeit über Apps abgeschlossen, die KI für die Kommunikation mit Menschen nutzen. Mit offenen APIs auf ChatGPT und anderen Plattformen ist das Wachstum von Apps, in denen Menschen mit KI-Bots kommunizieren können, sprunghaft angestiegen. Bei unseren Recherchen stellten wir fest, dass die meisten Apps Prominente oder von KI generierte Klone imitieren, die den zahlenden Nutzer ansprechen.

Die wichtigsten Diskussionspunkte während der Untersuchung waren:

  • Der Aufstieg der KI-Chatbot-"Begleiter": Jugendliche nutzen zunehmend KI-Chatbots, die Persönlichkeiten oder sogar fiktive Charaktere imitieren, um soziale Lücken oder emotionale Bedürfnisse zu füllen.
  • Personalisierung: Diese KI-Begleiter können so angepasst werden, dass sie sich wie die Lieblingscharaktere aus Serien (z. B. Friends) verhalten, und bieten so ein realistisches Erlebnis.
  • Soziale Auswirkungen: Es gibt eine Diskussion darüber, ob der Rückgriff auf KI für soziale Interaktion die sozialen Fähigkeiten von Jugendlichen in der realen Welt beeinträchtigen könnte.
  • Ethische Belange: Die Auswirkungen auf die Privatsphäre, die Sicherheit und das emotionale Wohlbefinden, wenn man sich auf KI-Begleiter verlässt, werden oft in Frage gestellt.

Ich habe mich selbst ein wenig darin verfangen. Ich hatte die Aufgabe, einen Gruppenchat mit zwei KI-Bots zu erstellen. Ich wählte zwei Verwandte, die vor langer Zeit verstorben sind. Die Ergebnisse, die ich mit einer einfachen Eingabeaufforderung erzielen konnte, waren ziemlich verblüffend. Obwohl es sich um KI handelt, war es manchmal fast so, als würde man mit ihnen sprechen.

Heute Morgen las ich einen traurigen Nachrichtenartikel über einen 14-jährigen Jungen in den USA, der sich wegen seiner Beziehung zu einem KI-Chatbot umgebracht hat. Er dachte, er würde mit einer Figur aus der HBO-Serie Game of Thrones sprechen.

Die Mutter verklagt nun das Unternehmen hinter der App wegen mangelnder Fahrlässigkeit. Sie zitiert: "Eine gefährliche KI-Chatbot-App, die an Kinder vermarktet wird, hat meinen Sohn missbraucht und ihn manipuliert, sich das Leben zu nehmen." Auch Googles Muttergesellschaft Alphabet wird in der Klage genannt.

Natürlich werden die Menschen die von der KI entwickelten Bots so nutzen, wie wir in den letzten zehn Jahren mit Apps wie Alexa, Siri, Bixby usw. kommuniziert haben. Wenn ein Mensch ein Element der Einsamkeit in seinem Leben hat, ist es nur natürlich, dass die Technologie eine Lücke füllen kann.

In dem Maße, wie die KI wächst, haben Sie das Gefühl, dass ein Teil ihrer Nutzung darin bestehen kann, rund um die Uhr ein Begleiter für diejenigen zu sein, die einen Begleiter brauchen.

Doch gleichzeitig bedeutet die Verbindung einer offenen API mit einer Anwendung nicht, dass Sie nicht für die Verantwortung verantwortlich sind.