OpenAI оновила правила використання ChatGPT в Україні, заборонивши штучному інтелекту надавати медичні та юридичні консультації.
Українські користувачі на платформах, таких як Reddit, помітили, що тепер у відповідь на запити медичного чи юридичного характеру чат-бот надає лише загальну інформацію з відкритих джерел та настійно рекомендує звертатись безпосередньо до фахівців. Окрім цього, ChatGPT припинив аналізувати медичні знімки й фотографії тілесних ушкоджень.
Обговорення серед українських користувачів показали, що й спроби «обійти» це обмеження за допомогою «гіпотетичних» запитань не призводять до зміни відповіді — система продовжує надавати лише загальні поради і радить звертатися до дипломованих лікарів або юристів для конкретної допомоги. Користувачі також помітили, що чат-бот більше не продовжує раніше розпочаті діалоги, пов’язані з медичною або юридичною темою.
Поки що OpenAI не надала офіційних роз’яснень щодо причин змін у політиці, проте найбільш імовірною метою є зниження юридичних ризиків. Зростаюча кількість українських користувачів використовує ChatGPT для отримання медичних та юридичних порад, іноді навіть для підготовки матеріалів у судових справах, що створює ризик для компанії. Адже відповіді чат-бота не підпадають під традиційні стандарти конфіденційності, властиві медичній чи адвокатській таємниці.
Раніше засновник OpenAI Сем Альтман зазначав, що переписки з ChatGPT можуть бути використані як докази у суді, а чинне законодавство України й не тільки не визнає чат-боти як суб’єктів з особливим захистом інформації, як це є стосовно професійних консультантів.
До того ж, нагадаємо, минулого місяця OpenAI ввела нові функції для ChatGPT в Україні, дозволивши інтеграцію з популярними сервісами, завдяки чому користувачі можуть замовляти таксі, бронювати готелі, створювати персоналізовані плейлисти та виконувати інші дії прямо в чаті.
Як повідомляв УНІАН, останнім часом нейросіткові боти, зокрема ChatGPT, почали частіше допускати помилки в своїх відповідях — приблизно вдвічі більше, ніж раніше. Експерти пояснюють це тим, що боти стали формувати відповіді навіть у разі недостатньої інформації, тоді як раніше частіше визнавали свою неспроможність надати точну відповідь.

