Сотрудница OpenAI вызвала активное обсуждении об ИИ в терапии
2023-09-28 Глобальні новини

Співробітниця OpenAI викликала активне обговорення про ШІ в терапії

OpenAI планує впровадити нову голосову функцію для ChatGPT, що дасть змогу людям використовувати бота для голосових розмов на глибокі теми. Однак це викликало занепокоєння серед учених та експертів з етики ШІ, які побоюються, що використання чат-ботів у терапії може мати непередбачувані ризики.

Laaks Moving banner

Керівник відділу безпеки OpenAI, Ліліан Венг, поділилася своєю емоційною розмовою з ChatGPT про стрес і баланс між роботою та особистим життям. Вона зауважила, що почувалася підтриманою, але експерти попереджають, що такі моделі можуть переконати людей зробити шкідливе рішення, і що антропоморфізація ШІ вимагає особливої уваги до етичних аспектів.

Тімніт Гебру, один з експертів, висловив занепокоєння щодо безпеки та ефективності такого підходу. Він зазначив, що приклад чат-бота Eliza, створеного в 1960-х роках, викликає побоювання через його здатність до антропоморфізації та недостатню здатність надання якісної допомоги в терапії.

Man on rooftop
У наші дні, розмова зі штучним інтелектом стає звичайною справою.

Незважаючи на користь у використанні чат-ботів на початкових етапах, необхідно оцінювати їхні обмеження, особливо під час лікування структурованих методів, таких як когнітивно-поведінкова терапія.

Читайте також...

Штучний інтелект протистоїть пожежам у Каліфорнії

Експерти попереджають OpenAI про потенційні ризики і радять ретельно розглянути досвід Eliza, щоб уникнути небажаних наслідків.

З урахуванням цих побоювань, використання ChatGPT як терапії викликає сумніви, і його необхідно піддати ретельному аналізу, щоб визначити, які ризики і переваги можуть бути пов'язані з цим підходом.

Детально про це тут.

Image: unsplash.com