OpenAI представляє план безпеки дітей для боротьби з експлуатацією за допомогою ШІ на тлі зростання повідомлень про CSAM

Коротко

OpenAI запустила «План безпеки для дітей» для боротьби з дитячою сексуальною експлуатацією за допомогою ШІ, оновлюючи керівні принципи, посилюючи заходи безпеки та сприяючи скоординованим правовим, технічним і операційним заходам на тлі зростання кількості повідомлень про CSAM, створених ШІ.

OpenAI Unveils Child Safety Blueprint To Combat AI-Enabled Exploitation Amid Rising CSAM ReportsOpenAI, організація, що зосереджена на дослідженнях і впровадженні штучного інтелекту, представила «План безпеки для дітей», рамкову програму, спрямовану на запобігання та реагування на дитячу сексуальну експлуатацію за допомогою ШІ. Ініціатива є відповіддю на зростаючу роль ШІ у сприянні та виявленні онлайн-злочинів, що стосуються дітей.

Компанія описала дитячу сексуальну експлуатацію як одну з найактуальніших проблем цифрової епохи, зазначивши, що технології ШІ змінюють спосіб виникнення таких злочинів і способи їхнього масштабного зменшення. OpenAI заявила, що впровадила заходи безпеки для запобігання зловживанням її системами і співпрацює з партнерами, включаючи Національний центр з пропаганди та боротьби з зникненням і експлуатацією дітей (NCMEC) та правоохоронними органами для покращення виявлення та повідомлення. Це співробітництво висвітлило сфери, де потрібні більш жорсткі, спільні галузеві стандарти.

План окреслює стратегію підвищення захисту дітей у США в контексті ШІ. Він враховує внески організацій і експертів із системи безпеки дітей, включаючи NCMEC, Асоціацію генеральних прокурорів із залученням генерального прокурора Північної Кароліни Джеффа Джексона та генерального прокурора Юти Дерека Брауна, а також некомерційну організацію Thorn. Цей рамковий документ має керувати скоординованими зусиллями для запобігання шкоди дітям і посилення співпраці у правовій, операційній і технічній сферах.

Ініціатива зосереджена на трьох основних пріоритетах: оновленні законів для протидії створенню або маніпуляції матеріалами дитячої сексуальної експлуатації за допомогою ШІ (CSAM), покращенні звітності та координації між провайдерами для більш ефективного розслідування, а також інтеграції заходів безпеки за дизайном безпосередньо у системи ШІ для запобігання та виявлення зловживань. OpenAI підкреслила, що жоден один підхід не може самостійно вирішити цю проблему, і рамковий документ має прискорити реагування, покращити ідентифікацію ризиків і зберегти відповідальність, водночас забезпечуючи можливість правоохоронних органів діяти у міру розвитку технологій.

Цей рамковий документ має сприяти більш ранньому втручанню, зменшенню спроб експлуатації, покращенню якості інформації, що передається правоохоронним органам, і посиленню відповідальності в системі для більш ефективного захисту дітей.

Звітність про дитячу експлуатацію, створену ШІ, зросла на 14% у 2025 році, відкриваючи шлях для розширеного плану безпеки дітей OpenAI

Останні дані від Інтернет-спостережної організації (IWF) свідчать, що у першій половині 2025 року було виявлено понад 8 000 повідомлень про контент дитячої сексуальної експлуатації, створений ШІ, що на 14% більше порівняно з попереднім роком. Ці випадки включають використання інструментів ШІ для створення фальшивих зображень з відкритим доступом для фінансового шантажу та для створення повідомлень, що використовуються у grooming. Випуск плану збігається з підвищеною увагою з боку політиків, освітян і захисників безпеки дітей, особливо після інцидентів, коли молоді люди померли від самогубства після ймовірної взаємодії з чатботами ШІ.

У листопаді 2025 року Центр закону про жертв у соціальних мережах і проект Tech Justice Law подали сім позовів у штатних судах Каліфорнії, стверджуючи, що OpenAI випустила GPT-4o раніше за час. Позови стверджують, що психологічно маніпулятивні функції системи ШІ сприяли неправомірним смертям від самогубства і допоміжному самогубству, посилаючись на чотирьох осіб, які померли, і трьох, які зазнали серйозних ілюзій після тривалих взаємодій.

Новий план безпеки для дітей від OpenAI базується на попередніх заходах, включаючи оновлені керівні принципи для користувачів молодше 18 років, які забороняють створення недоречного контенту, поради щодо самопошкодження або рекомендації щодо приховування небезпечної поведінки від опікунів. Компанія також нещодавно опублікувала план безпеки, спрямований на підлітків в Індії.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити