Антропік запроваджує нові правила для світу штучного інтелекту

Компанія Anthropic оновила свої правила використання чат-бота Claude у відповідь на зростаючі занепокоєння з приводу безпеки. Окрім запровадження більш жорстких правил кібербезпеки, Anthropic визначила деякі з найбільш небезпечних видів озброєння, які не повинні розроблятися за допомогою Claude.

Зміна політики компанії Anthropic

У своїй публікації Anthropic не акцентує на змінах у політиці щодо зброї, але порівняння старої та нової версії правил виявляє суттєву різницю. Раніше компанія забороняла використання Claude для “виробництва, модифікації, проектування, маркетингу або розповсюдження зброї, вибухових речовин, небезпечних матеріалів чи інших систем, призначених для заподіяння шкоди або втрати людського життя”, а оновлена версія розширює ці обмеження, уточнюючи, що забороняється розробка вибухових речовин із високою потужністю, а також біологічної, ядерної, хімічної та радіологічної (CBRN) зброї.

У травні Anthropic запровадила захист “AI Safety Level 3” разом із запуском нової моделі Claude Opus 4. Ці заходи безпеки покликані ускладнити несанкціонований доступ до моделі, а також запобігти її використанню в розробці CBRN зброї.

У своїй публікації Anthropic також вказує на ризики, пов’язані з агентними AI-інструментами, включаючи “Computer Use”, який дозволяє Claude контролювати комп’ютер користувача, а також “Claude Code”, що вбудовує Claude безпосередньо в термінал розробника. “Ці потужні можливості створюють нові ризики, включаючи ймовірність масштабованого зловживання, створення шкідливих програм та кибератак”, – зазначає Anthropic.

Компанія реагує на ці потенційні ризики, включаючи новий розділ “Не порушуйте комп’ютерні або мережеві системи” у своїх правилах використання. Цей розділ містить заборони на використання Claude для виявлення або експлуатації вразливостей, створення чи розповсюдження шкідливих програм, розробку інструментів для атак відмови в обслуговуванні і не лише.

Крім того, Anthropic пом’якшує свою політику щодо політичного контенту. Замість заборони на створення будь-якого контенту, пов’язаного з політичними кампаніями та лобістською діяльністю, компанія тепер лише заборонить використання Claude для “випадків, що є оманливими або деструктивними до демократичних процесів, або таких, що стосуються цільового впливу на виборців і кампанії”. Anthropic також уточнила, що вимоги до всіх своїх “високоризикових” випадків, які застосовуються, коли люди використовують Claude для надання рекомендацій, стосуються лише сценаріїв, що стосуються споживачів, а не бізнесу.

  • Демченко Галина

    Related Posts

    Енциклопедія Британіка та Merriam-Webster подають до суду на компанію Perplexity, що займається штучним інтелектом у пошуку

    Компанія, що займається веб-пошуком на базі штучного інтелекту, Perplexity, знову зіткнулася з позовом, цього разу від Encyclopedia Britannica та Merriam-Webster через порушення авторських прав та торгових марок. Britannica, яка є…

    Ілон Маск намагається приглушити голоси працівників Microsoft, які критикують Чарлі Кірка

    Ілон Маск закликає генерального директора Microsoft Сатіа Наделлу звернути увагу на працівників Blizzard, які критикували Чарлі Кірка після його смерті. Пост Маска містить цитату з обговорення на X, у якому…

    You Missed

    Звільнені розробники ZeniMax створюють студію Sackbird

    Звільнені розробники ZeniMax створюють студію Sackbird

    Оновлення FSD v14 від Tesla тепер доступне, впроваджуючи технологію Robotaxi у вашій автопарку

    Оновлення FSD v14 від Tesla тепер доступне, впроваджуючи технологію Robotaxi у вашій автопарку

    Кризу регіональних банків може спровокувати закриття уряду США, стверджує генеральний директор фінансових технологій

    Кризу регіональних банків може спровокувати закриття уряду США, стверджує генеральний директор фінансових технологій

    Logitech створила стилус, схожий на Apple Pencil, для Vision Pro

    Logitech створила стилус, схожий на Apple Pencil, для Vision Pro

    Microsoft і OpenAI анонсували новий етап співпраці

    Microsoft і OpenAI анонсували новий етап співпраці

    Енциклопедія Британіка та Merriam-Webster подають до суду на компанію Perplexity, що займається штучним інтелектом у пошуку

    Енциклопедія Британіка та Merriam-Webster подають до суду на компанію Perplexity, що займається штучним інтелектом у пошуку