Експерти виразили занепокоєння ШІ-матеріалами, що містять насильство над дітьми – ForkLog UA

Британська компанія з нагляду за інтернетом Internet Watch Foundation (IWF) повідомила про швидке поширення матеріалів із сексуальним насиллям над дітьми (CSAM), створених за допомогою штучного інтелекту.

Згідно зі звітом дослідників, лише за один місяць на одному з форумів даркнету було знайдено понад 20 254 зображень CSAM, створених штучним інтелектом. Понад половина з них порушувала закони Великобританії щодо захисту дітей та інші закони.

Аналітики попередили, що потік подібних матеріалів може «затопити» мережу. 

«Зловмисники можуть законно завантажувати всі необхідні дані для створення цих зображень, а потім створювати їх скільки завгодно в автономному режимі, без можливості відстеження. Існують різні інструменти для поліпшення та редагування таких матеріалів до тих пір, поки вони не виглядають саме так, як хоче злочинець», — підкреслили в IWF.

Більшість створених CSAM є «досить реалістичними», за словами експертів. Навіть досвідченому аналітику складно відрізнити найпереконливіші зображення. 

У IWF зауважили збільшену ймовірність «повторної віктимізації» відомих жертв сексуального насильства. Крім того, дослідники виявили багато зображень CSAM із дітьми-знаменитостями. 

У звіті говориться, що нові технології надали зловмисникам додатковий спосіб заробітку.

«Створення та поширення керівництва з ІІ CSAM наразі не є порушенням законодавства, але може стати таким. Правовий статус використовуваних для генерації зображень моделей — складніше питання», — зазначається в документі.

У вересні організація попередила, що групи педофілів обговорюють і обмінюються порадами щодо створення незаконних зображень за допомогою відкритих вихідних кодів II, які можна запускати локально на особистому комп’ютері. 

В IWF закликали до міжнародного співробітництва для боротьби з CSAM. Ініціатива передбачає зміну законодавства, вдосконалення підготовки працівників правоохоронних органів та встановлення нормативного нагляду за моделями штучного інтелекту.

Експерти також рекомендували розробникам заборонити використовування ШІ для створення матеріалів про жорстоке поводження з дітьми, внести зміни до відповідних мовних моделей і надати пріоритет видаленню подібного контенту.   

Проблема генерованих штучними нейронними мережами незаконних матеріалів обговорюється в спільноті протягом тривалого часу. Раніше президент Microsoft Бред Сміт запропонував використовувати систему KYC, створену на зразок фінансових установ, для виявлення злочинців, які використовують ШІ для поширення дезінформації та інших незаконних дій.

В липні штат Луїзіана було прийнято закон, який посилив покарання за продаж і зберігання дитячих фотографій, створених за допомогою алгоритмів. За порушення положень передбачено тюремне ув’язнення від 5 до 20 років і/або штраф у розмірі до $10,000.

В серпні Міністерство юстиції США оновило “Довідник для громадян про федеральний закон щодо дитячої порнографії”. У ньому зазначається, що зображення дитячої порнографії не захищені Першим поправкою та є незаконними.

Нагадаємо, в травні один із піонерів галузі Джеффрі Гінтон попередив про потенційні загрози, пов’язані з ШІ. Перед цим колишній глава Google Ерік Шмідт заявив, що технологія являє собою “екзистенційну загрозу”, через яку багато людей можуть “постраждати чи навіть загинути”.

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *