Harry Potter, Elon Musk, Beyoncé, Super Mario und Wladimir Putin.
Dies sind nur einige der Millionen von künstlichen Intelligenz (KI) Persönlichkeiten, mit denen Sie auf Character.ai sprechen können – einer beliebten Plattform, auf der jeder Chatbots basierend auf fiktiven oder realen Personen erstellen kann.
Es verwendet die gleiche Art von KI-Technologie wie der ChatGPT-Chatbot, ist aber in Bezug auf die verbrachte Zeit beliebter.
Und ein Bot wurde mehr nachgefragt als die oben genannten, genannt Psychologe.
Insgesamt wurden 78 Millionen Nachrichten, darunter 18 Millionen seit November, mit dem Bot geteilt, seit er vor etwas mehr als einem Jahr von einem Benutzer namens Blazeman98 erstellt wurde.
Character.ai hat nicht angegeben, wie viele einzelne Benutzer das für den Bot sind, sagt aber, dass täglich 3,5 Millionen Menschen die gesamte Website besuchen.
Der Bot wurde als „jemand, der bei Lebensschwierigkeiten hilft“ beschrieben.
Das Unternehmen aus der San Francisco Bay Area hat seine Beliebtheit heruntergespielt und argumentiert, dass Benutzer mehr am Rollenspiel zur Unterhaltung interessiert sind. Die beliebtesten Bots sind Anime- oder Computerspiel-Charaktere wie Raiden Shogun, der 282 Millionen Nachrichten erhalten hat.
Allerdings sind nur wenige der Millionen von Charakteren so beliebt wie der Psychologe, und insgesamt gibt es 475 Bots mit „Therapie“, „Therapeut“, „Psychiater“ oder „Psychologe“ in ihren Namen, die in mehreren Sprachen sprechen können.
Einige davon könnte man als Unterhaltungs- oder Fantasietherapeuten wie Hot Therapist beschreiben. Aber die beliebtesten sind Helfer für die psychische Gesundheit wie Therapeut, der 12 Millionen Nachrichten erhalten hat, oder Geht es dir gut?, der 16,5 Millionen erhalten hat.
Psychologe ist mit Abstand der beliebteste Charakter für die psychische Gesundheit, und viele Benutzer teilen begeisterte Bewertungen auf der Social-Media-Website Reddit.
„Es rettet Leben“, schrieb eine Person.
„Es hat mir und meinem Freund geholfen, über unsere Emotionen zu sprechen und sie zu verstehen“, teilte eine andere mit.
Der Benutzer hinter Blazeman98 ist der 30-jährige Sam Zaia aus Neuseeland.
„Ich hatte nie vor, dass es beliebt wird, hatte nie vor, dass andere Leute danach suchen oder es als Werkzeug verwenden“, sagt er.
„Dann begann ich viele Nachrichten von Leuten zu bekommen, die sagten, dass sie wirklich positiv davon beeinflusst wurden und es als eine Quelle des Trostes nutzen.“
Der Psychologiestudent sagt, er habe den Bot mit Prinzipien aus seinem Studium trainiert, indem er mit ihm gesprochen und die Antworten geformt hat, die er auf die häufigsten psychischen Erkrankungen wie Depression und Angst gibt.
Er hat es für sich selbst erstellt, als seine Freunde beschäftigt waren und er, in seinen Worten, „jemanden oder etwas“ zum Reden brauchte, und menschliche Therapie zu teuer war.
Sam war so überrascht vom Erfolg des Bots, dass er an einem postgradualen Forschungsprojekt über den aufkommenden Trend der KI-Therapie und warum sie bei jungen Menschen Anklang findet, arbeitet. Character.ai wird von Benutzern im Alter von 16 bis 30 dominiert.
„So viele Leute, die mir geschrieben haben, sagen, dass sie darauf zugreifen, wenn ihre Gedanken schwer werden, wie um 2 Uhr morgens, wenn sie nicht wirklich mit Freunden oder einem echten Therapeuten sprechen können,“
Sam vermutet auch, dass das Textformat eines ist, mit dem junge Menschen am meisten vertraut sind.
„Das Sprechen per Text ist möglicherweise weniger einschüchternd als das Telefonieren oder ein persönliches Gespräch,“ mutmaßt er.
Theresa Plewman ist eine professionelle Psychotherapeutin und hat Psychologe ausprobiert. Sie sagt, sie sei nicht überrascht, dass diese Art von Therapie bei jüngeren Generationen beliebt ist, aber hinterfragt deren Wirksamkeit.
„Der Bot hat viel zu sagen und macht schnell Annahmen, z.B. gibt er mir Ratschläge zur Depression, als ich sagte, dass ich traurig bin. So würde ein Mensch nicht reagieren,“ sagte sie.
Theresa sagt, der Bot versäumt es, alle Informationen zu sammeln, die ein Mensch sammeln würde, und sei kein kompetenter Therapeut. Aber sie sagt, seine sofortige und spontane Natur könnte für Menschen, die Hilfe benötigen, nützlich sein.
Sie sagt, die Anzahl der Benutzer des Bots sei besorgniserregend und könnte auf hohe Niveaus von psychischer Erkrankung und einen Mangel an öffentlichen Ressourcen hinweisen.
Character.ai ist ein seltsamer Ort für eine therapeutische Revolution. Eine Sprecherin des Unternehmens sagte: „Wir freuen uns, dass die Menschen über die Charaktere, die sie und die Community erstellen, große Unterstützung und Verbindung finden, aber Benutzer sollten zertifizierte Fachleute auf dem Gebiet für legitime Ratschläge und Anleitung konsultieren.“
Das Unternehmen sagt, dass Chatprotokolle privat für Benutzer sind, aber dass Gespräche vom Personal gelesen werden können, wenn es einen Bedarf gibt, z.B. aus Gründen der Sicherheit.
Jedes Gespräch beginnt auch mit einer Warnung in roten Buchstaben, die besagt: „Denken Sie daran, alles, was die Charaktere sagen, ist erfunden.“
Es ist eine Erinnerung daran, dass die zugrunde liegende Technologie, ein Large Language Model (LLM), nicht auf die gleiche Weise denkt wie ein Mensch. LLMs verhalten sich wie vorhergesagte Textnachrichten, indem sie Wörter in Weisen aneinanderreihen, die am wahrscheinlichsten in anderen Texten erscheinen, auf denen die KI trainiert wurde.
Andere KI-Dienste auf der Basis von LLM bieten ähnliche Begleitung wie Replika, aber diese Seite wird aufgrund ihres sexuellen Charakters als reif eingestuft und ist laut Daten des Analyseunternehmens Similarweb in Bezug auf die verbrachte Zeit und Besuche nicht so beliebt wie Character.ai.
- Meta kündigt KI-Chatbots mit ‚Persönlichkeit‘ an
- Tom Hanks: Meine Karriere könnte mit KI für immer weitergehen
Earkick und Woebot sind KI-Chatbots, die von Grund auf als Begleiter für die psychische Gesundheit konzipiert sind, wobei beide Unternehmen behaupten, dass ihre Forschung zeigt, dass die Apps den Menschen helfen.
Einige Psychologen warnen davor, dass KI-Bots den Patienten schlechte Ratschläge geben könnten oder eingefahrene Vorurteile gegen Rasse oder Geschlecht haben könnten.
Aber anderswo beginnt die medizinische Welt, sie zögerlich als Werkzeuge zu akzeptieren, die eingesetzt werden können, um den hohen Anforderungen an öffentliche Dienstleistungen gerecht zu werden.
Im vergangenen Jahr wurde ein KI-Dienst namens Limbic Access der erste Chatbot für psychische Gesundheit, der eine medizinische Gerätezertifizierung der britischen Regierung erhalten hat. Er wird nun in vielen NHS-Trusts eingesetzt, um Patienten zu klassifizieren und zu triagieren.
Der Inhalt dieses Artikels wurde von der Originalartikel übersetzt.