Сотрудница OpenAI вызвала активное обсуждении об ИИ в терапии
2023-09-28 Глобальные новости

Сотрудница OpenAI вызвала активное обсуждении об ИИ в терапии

OpenAI планирует внедрить новую голосовую функцию для ChatGPT, что позволит людям использовать бота для голосовых разговоров на глубокие темы. Однако это вызвало обеспокоенность среди ученых и экспертов по этике ИИ, которые опасаются, что использование чат-ботов в терапии может иметь непредсказуемые риски.

Laaks Moving banner

Руководитель отдела безопасности OpenAI, Лилиан Венг, поделилась своим эмоциональным разговором с ChatGPT о стрессе и балансе между работой и личной жизнью. Она заметила, что чувствовала себя поддержанной, но эксперты предупреждают, что такие модели могут убедить людей сделать вредное решение, и что антропоморфизация ИИ требует особого внимания к этическим аспектам.

Тимнит Гебру, один из экспертов, выразил беспокойство относительно безопасности и эффективности такого подхода. Он отметил, что пример чат-бота Eliza, созданного в 1960-х годах, вызывает опасения из-за его способности антропоморфизации и недостаточной способности предоставления качественной помощи в терапии.

Man on rooftop
В наши дни, разговор с искуственным интелектом становиться обычным делом.

Несмотря на пользу в использовании чат-ботов на начальных этапах, необходимо оценивать их ограничения, особенно при лечении структурированных методов, таких как когнитивно-поведенческая терапия.

Читайте также…

Искусственный интеллект противостоит пожарам в Калифорнии

Эксперты предупреждают OpenAI о потенциальных рисках и советуют тщательно рассмотреть опыт Eliza, чтобы избежать нежелательных последствий.

С учетом этих опасений, использование ChatGPT в качестве терапии вызывает сомнения, и необходимо подвергнуть тщательному анализу, чтобы определить, какие риски и преимущества могут быть связаны с этим подходом.

Подробно об этом здесь.

Image: unsplash.com