Das Forschungsteam des Dartmouth College ( hat einen AI-Chatbot namens Therabot entwickelt und seine Ergebnisse in der New England Journal of Medicine veröffentlicht. Die Forschung hat ergeben, dass der psychologische Beratungsansatz des AI-Chatbots signifikante Ergebnisse erzielt und das Problem des Mangels an Fachleuten im Bereich psychische Gesundheit lösen kann. Es wird jedoch auch anerkannt, dass die AI-Psychotherapie weiterhin Risiken birgt und die enge Überwachung und Beteiligung von Experten für psychische Gesundheit erfordert.
Der AI-Chat-Bot von Therabot zeigt signifikante Ergebnisse in der psychologischen Beratung.
In einer achtwöchigen Studie interagierten 106 Teilnehmer mit Depressionen, Angstzuständen oder Essstörungen über eine Smartphone-App mit Therabot, indem sie Hinweise zu ihren Gefühlen eingaben oder Gespräche initiierten, wenn sie das Bedürfnis hatten, zu sprechen. Die Ergebnisse zeigten:
Die Symptome von Depressionen bei Patienten verringern sich um 51%
Symptome von Angststörungen um 31% reduziert
Das Körpergewicht und die Körperbildangst von Risikopatienten für Essstörungen verringern sich um 19%.
Menschen sind bereit, mit Therabot befreundet zu sein, weil AI Bots sie nicht kritisieren.
Wenn Menschen mit der Anwendung ein Gespräch beginnen, antwortet Therabot basierend auf dem ursprünglichen Trainingssatz, der von Forschern gemäß den besten Praktiken der aktuellen evidenzbasierten Psychotherapie und kognitiven Verhaltenstherapie entwickelt wurde, in natürlichen, offenen Textdialogen.
Zum Beispiel, wenn eine ängstliche Person Therabot mitteilt, dass sie sich in letzter Zeit sehr nervös und überwältigt fühlt, könnte es antworten: „Lass uns einen Schritt zurücktreten und schauen, warum du dich so fühlst.“ Wenn Therabot während des Gesprächs mit dem Benutzer hochriskante Inhalte wie Suizidgedanken erkennt, wird es den Benutzer auffordern, 911 anzurufen oder eine Suizidpräventions- oder Krisenhotline zu kontaktieren, wobei der Benutzer einfach auf die Schaltfläche auf dem Bildschirm drücken kann.
Die Forschungsergebnisse zeigen, dass die Menschen nicht nur detailliert auf die Hinweise von Therabot reagierten, sondern auch häufig Gespräche initiierten. Die Interaktion mit der Software zeigt sich auch in der Zeit, die mit Unbehagen verbunden ist, ), zum Beispiel tritt ein Anstieg in der Nacht ( auf.
Der außerordentliche Professor für biomedizinische Datenwissenschaft und Psychiatrie Nicholas Jacobson sagte:
„Wir hätten nicht gedacht, dass die Menschen diese Software wie einen Freund behandeln würden. Das zeigt, dass sie tatsächlich eine Beziehung zu Therabot aufbauen. Mein Gefühl ist, dass die Menschen auch bereit sind, mit Bots zu sprechen, weil sie sie nicht kritisieren.“
KI-Psychotherapie kann den Mangel an Fachkräften ausgleichen.
Forscher sind der Meinung, dass, obwohl die KI-gestützte Therapie weiterhin dringend die Aufsicht von klinischen Ärzten benötigt, sie möglicherweise sofortige Unterstützung für viele bieten kann, die keinen regelmäßigen Zugang zu psychischen Gesundheitsfachleuten haben oder sofortige Hilfe benötigen.
Obwohl die persönliche Pflege nach wie vor unersetzlich ist, muss jeder Gesundheitsdienstleister in den USA im Durchschnitt 1.600 Patienten mit Depressionen oder Angstzuständen behandeln. AI-Therapie benötigt keine langen Wartezeiten oder persönliche Termine und kann ebenfalls Ergebnisse liefern, die mit traditioneller Psychotherapie vergleichbar sind.
Wir hoffen, dass generative künstliche Intelligenz dazu beitragen kann, den Menschen, die unter einem Mangel an persönlicher Pflege leiden, psychische Unterstützung zu bieten. Zudem sehen wir das Potenzial einer Kombination aus zwischenmenschlicher Therapie und softwarebasierter Therapie.
AI Psychotherapie birgt weiterhin Risiken
Obwohl diese Ergebnisse sehr vielversprechend sind, kann kein generativer KI-Agent im Bereich der psychischen Gesundheit vollständig autonom arbeiten, da er auf verschiedene hochriskante Szenarien stoßen könnte. Das Team äußerte Verständnis und quantifizierte die damit verbundenen Risiken bei der Verwendung generativer KI im Bereich der psychischen Gesundheit.
Seit 2019 wird Therabot im Labor für Künstliche Intelligenz und psychische Gesundheit in Dartmouth entwickelt und steht in kontinuierlicher Beratung mit Psychologen und Psychiatern der Dartmouth und der Dartmouth Medical School.
Die Forschungsergebnisse zeigen jedoch, dass die Entwicklung und klinische Prüfung dieses Systems strenge Sicherheits-, Wirksamkeits- und Beteiligungsstandards erfordern und eine enge Überwachung und Beteiligung von Fachleuten für psychische Gesundheit notwendig ist.
Das Forschungsteam muss über Interventionsfähigkeiten verfügen. Wenn Patienten schwerwiegende Sicherheitsbedenken äußern, wie z. B. Suizidgedanken, oder wenn die Reaktionsweise der Software nicht den besten Praktiken entspricht, muss das Forschungsteam möglicherweise sofort intervenieren.
Seit der Veröffentlichung von ChatGPT sind viele Menschen in dieses Gebiet geströmt, die leicht ein auf den ersten Blick großartiges Konzept beweisen können, dessen Sicherheit und Wirksamkeit jedoch noch nicht gut bestätigt sind. Und das ist einer der Fälle, die ernsthaft überwacht werden müssen.
Dieser Artikel über AI-Psychotherapeuten, die effektiv Depressionen reduzieren, zeigt, dass Menschen weniger Angst vor Kritik haben und eher bereit sind, mit AI Bots befreundet zu sein. Er erschien erstmals bei Chain News ABMedia.