
Сотрудница OpenAI вызвала активное обсуждении об ИИ в терапии
OpenAI планирует внедрить новую голосовую функцию для ChatGPT, что позволит людям использовать бота для голосовых разговоров на глубокие темы. Однако это вызвало обеспокоенность среди ученых и экспертов по этике ИИ, которые опасаются, что использование чат-ботов в терапии может иметь непредсказуемые риски.
Руководитель отдела безопасности OpenAI, Лилиан Венг, поделилась своим эмоциональным разговором с ChatGPT о стрессе и балансе между работой и личной жизнью. Она заметила, что чувствовала себя поддержанной, но эксперты предупреждают, что такие модели могут убедить людей сделать вредное решение, и что антропоморфизация ИИ требует особого внимания к этическим аспектам.
Тимнит Гебру, один из экспертов, выразил беспокойство относительно безопасности и эффективности такого подхода. Он отметил, что пример чат-бота Eliza, созданного в 1960-х годах, вызывает опасения из-за его способности антропоморфизации и недостаточной способности предоставления качественной помощи в терапии.

Несмотря на пользу в использовании чат-ботов на начальных этапах, необходимо оценивать их ограничения, особенно при лечении структурированных методов, таких как когнитивно-поведенческая терапия.
Читайте также…
Эксперты предупреждают OpenAI о потенциальных рисках и советуют тщательно рассмотреть опыт Eliza, чтобы избежать нежелательных последствий.
С учетом этих опасений, использование ChatGPT в качестве терапии вызывает сомнения, и необходимо подвергнуть тщательному анализу, чтобы определить, какие риски и преимущества могут быть связаны с этим подходом.
Подробно об этом здесь.
Image: unsplash.com
Благодаря Вашему вкладу наша команда продолжает предоставлять актуальные новости и полезные статьи каждый день. Ваша поддержка для нас бесценна. Спасибо.
Поддержать Socium.NetworkЧИТАЙТЕ ТАКЖЕ
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |