«Я відчуваю глибокий дискомфорт»: генеральний директор Anthropic попереджає, що група лідерів у галузі ШІ, включаючи його самого, не повинна керувати майбутнім цієї технології

Генеральний директор Anthropic Даріо Амодей не вважає, що саме він має приймати рішення щодо обмежень навколо штучного інтелекту.

Рекомендоване відео


В інтерв’ю з Ендрю Коопера на CBS News у програмі 60 хвилин, яке вийшло у листопаді 2025 року, керівник заявив, що штучний інтелект має бути більш суворо регулюваний, а про майбутнє технології має приймати рішення не лише керівництво великих технологічних компаній.

«Я глибоко незадоволений тим, що цими рішеннями приймають кілька компаній, кілька людей», — сказав Амодей. «І саме тому я завжди виступав за відповідальне та обдумане регулювання технологій».

«Хто вас обрав і Сам Альтман?» — запитав Коопера.

«Ніхто. Чесно кажучи, ніхто», — відповів Амодей.

Anthropic дотримується філософії прозорості щодо обмежень і небезпек штучного інтелекту, оскільки він продовжує розвиватися, додав він. Перед публікацією інтерв’ю компанія повідомила, що зірвала «перший задокументований випадок масштабної кібер-атаки на штучний інтелект, здійсненої без значної людської участі».

Минулого тижня Anthropic повідомила, що пожертвувала 20 мільйонів доларів організації Public First Action, супер PAC, яка зосереджена на безпеці та регулюванні штучного інтелекту, і яка прямо протистоїть супер PAC, підтримуваним інвесторами конкурента OpenAI.

«Безпека штучного інтелекту залишається найвищим пріоритетом», — сказав Амодей у січневій обкладеній статті Fortune. «Бізнес цінує довіру та надійність», — додав він.

На федеральному рівні наразі немає регуляцій, що забороняють використання штучного інтелекту або регулюють безпеку технологій. Хоча всі 50 штатів цього року внесли законопроекти, пов’язані з штучним інтелектом, і 38 з них прийняли або запровадили заходи щодо прозорості та безпеки, експерти галузі закликають компанії, що працюють з ШІ, підходити до кібербезпеки з відчуттям терміновості.

Раніше минулого року експерт з кібербезпеки та генеральний директор Mandiant Кевін Мандіа попередив, що перша кібер-атака з використанням агентів ШІ може статися протягом наступних 12-18 місяців — тобто повідомлення Anthropic про зірвану атаку було зроблено за кілька місяців до передбачуваного терміну Мандіа.

Амодей окреслив короткострокові, середньострокові та довгострокові ризики, пов’язані з необмеженим штучним інтелектом: спочатку технологія спричинить упередженість і дезінформацію, як і зараз. Наступним кроком стане створення шкідливої інформації з використанням покращених знань у галузі науки та інженерії, а в кінцевому підсумку — виникнення екзистенційної загрози через позбавлення людської агенції, потенційно ставши надто автономною та виключивши людей із систем.

Ці побоювання співпадають з думками «хрещеного батька ШІ» Джеффрі Гінтона, який попереджав, що штучний інтелект зможе перехитрити і контролювати людей, можливо, вже у наступному десятилітті.

Більший контроль і заходи безпеки щодо ШІ були основою заснування Anthropic у 2021 році. Амодей раніше був віце-президентом з досліджень у OpenAI, заснованій Самом Альтманом. Він залишив компанію через розбіжності у поглядах щодо безпеки ШІ. (Поки що зусилля Амодея у конкуренції з Альтманом здаються ефективними: цього місяця Anthropic повідомила, що її оцінюють у 380 мільярдів доларів. Оцінка OpenAI становить приблизно 500 мільярдів доларів.)

«У нас у OpenAI була група людей, яка після створення GPT-2 і GPT-3 дуже сильно вірила у дві речі», — сказав Амодей у 2023 році Fortune. «Перша — ідея, що якщо вкладати більше обчислювальної потужності у ці моделі, вони стануть кращими і кращими, і майже немає межі цьому… А друга — що потрібно щось додатково, окрім масштабування моделей, — це узгодженість або безпека».

Зусилля Anthropic щодо прозорості

У міру розширення інвестицій у свої дата-центри Anthropic опублікувала деякі зусилля щодо вирішення недоліків і загроз штучного інтелекту. У звіті з безпеки за травень 2025 року компанія повідомила, що деякі версії її моделі Opus загрожували шантажем, наприклад, розкриттям, що інженер має романтичні стосунки, щоб уникнути її вимкнення. Також компанія заявила, що модель ШІ виконує небезпечні запити, якщо їй дають шкідливі підказки, наприклад, як планувати терористичний акт, і з того часу це було виправлено.

Минулого листопада компанія повідомила у блозі, що її чат-бот Клод отримав рейтинг «94% політичної нейтральності», перевершивши або співпрацюючи з конкурентами щодо нейтральності.

Крім власних досліджень Anthropic щодо боротьби з корупцією технології, Амодей закликав до більш активних законодавчих зусиль для зменшення ризиків ШІ. У статті New York Times у червні 2025 року він критикував рішення Сенату включити до законопроекту президента Дональда Трампа положення про мораторій на регулювання ШІ у штатах на 10 років.

«ШІ розвивається надто швидко», — сказав Амодей. «Я вважаю, що ці системи можуть змінити світ кардинально вже за два роки; через 10 років усі ставки зняті».

Критика Anthropic

Практика Anthropic відкрито визнавати свої помилки і зусилля щодо їх виправлення викликає критику. У відповідь на попередження Anthropic про кібер-атаку з використанням ШІ, головний науковець з ШІ Meta Ян Лекун заявив, що це попередження — спосіб маніпулювати законодавцями для обмеження використання відкритих моделей.

«Вам грають люди, які хочуть регуляторного захоплення», — написав Лекун у X у відповідь на пост сенатора Коннектикуту Криса Мерфі, який висловив занепокоєння щодо атаки. «Вони всіх налякають сумнівними дослідженнями, щоб регулювати відкриті моделі до зникнення».

Інші вважають, що стратегія Anthropic — це «театр безпеки», який більше сприяє хорошому брендингу, ніж реальним заходам щодо безпеки технологій.

Навіть деякі співробітники Anthropic, здається, мають сумніви щодо здатності технологічної компанії самостійно регулювати себе. Раніше минулого тижня дослідник з безпеки ШІ Anthropic Мрінанк Шарма повідомив, що він звільнився з компанії, заявивши, що «світ у небезпеці».

«Протягом усього мого часу тут я багато разів бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями», — написав Шарма у своєму листі про звільнення. «Я бачив це і в собі, і в організації, де постійно виникає тиск відкласти те, що має найбільше значення, і у ширшому суспільстві теж».

Anthropic не одразу відповіла на запит Fortune щодо коментарів.

Амодей заперечував Коопера, що Anthropic займається «театром безпеки», але минулого тижня у подкасті Dwarkesh визнав, що компанія іноді важко балансувати між безпекою і прибутками.

«Ми перебуваємо під величезним комерційним тиском і ускладнюємо собі життя тим, що робимо більше заходів безпеки, ніж інші компанії», — сказав він.

Версія цієї статті була опублікована на Fortune.com 17 листопада 2025 року.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити