ИИ как психотерапевт

· Команда по информации
Могут ли чат-боты стать психотерапевтами?
Только если вы хотите, чтобы они были психотерапевтами.
Недавно менеджер компании, занимающейся искусственным интеллектом OpenAI, написала, что у нее только что состоялся "очень эмоциональный и личный разговор" с чат-ботом ChatGPT, вирусным чат-ботом компании.
Лилиан Венг написала на форумах: "Никогда раньше не пробовала психотерапию, но, может быть, это оно и есть?"
Это вызвало ряд негативных комментариев, обвиняющих ее в преуменьшении серьезности психического заболевания.
Взаимодействие Венг с ChatGPT может быть объяснено эффектом плацебо, упомянутым в исследовании, опубликованном на этой неделе в журнале Nature Machine Intelligence.
Команда из Массачусетского технологического института (MIT) и Университета штата Аризона попросила более 300 участников взаимодействовать с программой искусственного интеллекта для психического здоровья и объяснила им, чего ожидать от этого взаимодействия.
Некоторым сказали, что чат-бот обладает эмпатическими способностями, другим сказали, что он манипулирует, а третьей группе сказали, что он нейтрален.
Те, кому сказали, что они общаются с чат-ботом, который заботится о людях, с большей вероятностью, чем другие группы, считали, что их чат-бот-терапевт заслуживает доверия.
Пэт Патаранутапорн, соавтор отчета, сказал: "Из этого исследования мы можем видеть, что в какой-то степени ИИ - это ИИ наблюдателя".
В последние годы несколько известных стартапов продвигают приложения с использованием искусственного интеллекта, которые обеспечивают психотерапию, общение и другую поддержку в области психического здоровья, что открывает огромные возможности для бизнеса. Но эта область остается предметом споров. Как и в случае с другими отраслями, которым угрожает искусственный интеллект, критики опасаются, что роботы в конечном итоге заменят людей, а не дополнят их.
В области психического здоровья есть опасения, что роботы вряд ли будут хорошо выполнять свою работу.
"Психотерапия нужна для поддержания психического здоровья, и это тяжелая работа", - написала программист Шер Скарлетт в ответ на первый пост Вана на X.
В дополнение к общим опасениям по поводу искусственного интеллекта, недавняя история некоторых приложений в области психического здоровья была несколько проблематичной.
Популярное приложение-компаньон для ИИ под названием Replica иногда рекламируется как полезное для психического здоровья, но пользователи уже давно жалуются, что бот может быть чрезмерно сексуализированным и оскорбительным.
Исследователи MISS Arizona говорят, что обществу необходимо разобраться с представлениями об ИИ.
"То, как ИИ преподносится обществу, важно, потому что это меняет восприятие ИИ", - утверждается в документе. "Возможно, потребуется побудить пользователей снизить негативные ожидания".