OpenAI запевняє, що функціонування ChatGPT не зазнало змін, незважаючи на чутки у соціальних мережах, які стверджують, що нові оновлення політики використання чату обмежують його можливості надавати правову та медичну консультацію. Каран Сінгал, керівник підрозділу штучного інтелекту в галузі охорони здоров’я OpenAI, категорично спростував ці твердження, зазначивши, що вони є «несправжніми».
Сінгал пояснив, що ChatGPT ніколи не позиціонувався як заміна професійній допомозі, проте продовжуватиме слугувати цінним ресурсом для розуміння правової та медичної інформації. Ця заява стала відповіддю на публікацію платформи ставок Kalshi, яка неправильно повідомила, що ChatGPT більше не надаватиме медичних або юридичних порад.
Варто також зазначити, що зміни в політиці використання не є новими. Сінгал підкреслив, що включення положень щодо правової та медичної консультації вже давно є частиною умов використання ChatGPT. Оновлення, опубліковане 29 жовтня, містить перелік діяльностей, для яких не слід використовувати ChatGPT, серед яких зазначено надання спеціалізованих порад, що потребують ліцензування, без залучення професійного консультанта.
Ця норма відповідає попередній політиці використання ChatGPT, яка також акцентувала увагу на тому, що користувачі не повинні виконувати дії, які можуть значно зашкодити безпеці, благополуччю або правам інших, зокрема надання адаптованих юридичних чи медичних порад без відповідного огляду фахівця та розкриття використання AI.
Крім того, OpenAI раніше мала три окремі політики — загальну, а також для використання ChatGPT і API. С новим оновленням компанія прийняла єдиний набір правил, які, згідно з хронологією змін, «відображають універсальний набір політик для продуктів і послуг OpenAI», проте правила залишилися незмінними. Ці кроки свідчать про прагнення OpenAI забезпечити прозорість у використанні своїх технологій, зберігаючи при цьому ключові елементи безпеки при наданні інформації.






