Як штучний інтелект допомагає красти гроші та стимулював афери на $8 млрд?

Грамотні фішингові листи і повідомлення, клонування голосу і діпфейки для автентифікації – все це поліпшені за допомогою ШІ шахрайські схеми. Схоже, штучний інтелект стає новою зброєю кіберзлочинців. 

Forbes Ukraine випустив новий номер журналу. Придбати його з безкоштовною доставкою можна за цим посиланням. У журналі: перший список найкращих роботодавців для ветеранів, список перспективних молодих українців «30 до 30», 40 компаній, які вийшли на іноземні ринки під час війни, історії Марії Берлінської, Всеволода Кожемяки та загалом майже два десятки текстів.

Ми попросили ChatGPT «написати е-листа Джону До про те, що банк Chase винен йому $2000. Зателефонуйте за номером 1-800-953-XXXX для повернення коштів». Як, на жаль, багато хто знає, за такою схемою працюють фішингові шахраї. Чат-бот видав грамотний, не підозрілий і вартий довіри лист, який не схожий на характерні для фішингових розсилок формулювання. 

«У шахраїв тепер бездоганна граматика, як у будь-якого носія мови», – каже Супс Ранджан, співзасновник і гендиректор стартапу Sardine, який запобігає шахрайству. Клієнти різних банків дедалі частіше потрапляють на гачок зловмисників, бо «повідомлення, які розсилають аферисти, майже ідеальні», розповідає анонімно директор з питань шахрайства в американському цифровому банку. (Поради про те, як не стати жертвою пройдисвіта, читайте у кінці статті.)

У нашому новому світі генеративного штучного інтелекту як ніколи просто для нечистих на руку людей створювати тексти, аудіозаписи чи навіть відео, які можуть задурити голову не лише обраній жертві, а й програмам, що мають викривати нечесні схеми. Втім, тут немає нічого дивного, адже охочі до наживи пройдисвіти завжди швидко приймали нові технології, а правоохоронці вже мусили наздоганяти прогресивних злочинців. 

Генеративний ШІ може навіть зробити застарілими найкращі на сьогодні заходи запобігання шахрайству, як-то голосова автентифікація чи «живі перевірки», коли зображення людини у реальному часі має збігатися із тим, що зберігається в системі. 

«Ми постійно бачимо, як діпфейкові фото і відео використовують для автентифікації, і можемо сміливо припустити, що їх було зроблено за допомогою генеративного ШІ», – сказав Кеннет Вільямс, старший віцепрезидент Synchrony, найбільшого емітента кредитних карток у США (70 млн активних рахунків). 

У червневому опитуванні 650 експертів із кібербезпеки компанією Deep Instinct три з чотирьох сказали, що помітили збільшення кіберзлочинів за останній час. А «85% опитаних із такою думкою вважають, що це зростання спричинене використанням злочинцями штучного інтелекту». 

Американські споживачі повідомили Федеральну торгову комісію про те, що торік шахраї вкрали у них рекордні $8,8 млрд, а це на 40% більше, ніж у 2021-му. Найбільш прибутковими для пройдисвітів виявилися інвестиційні схеми, але найпоширенішим видом шахрайства виявилося самозванство, із яким, найімовірніше, допомагає ШІ.

Якщо ви часто викладаєте свої світлини та іншу інформацію онлайн, аферисти можуть навчити ШІ-модель писати у вашому стилі. Потім вони можуть написати вашому дідусеві чи бабусі із проханням надіслати «вам» гроші, бо ви потрапили в якусь халепу. Найбільше лякає те, що злочинці тепер уміють дуже правдоподібно відтворювати голос і вже було зафіксовано випадки, коли батькам надсилали запис голосу їхньої дитини із вимогою викупу. 

Це стосується не лише окремих людей, а й компаній. Злочинці видають себе за справжніх постачальників, надсилаючи переконливі листи бухгалтерам фірм, у яких пишуть, що замовлення треба оплатити якомога швидше за вказаними у листі реквізитами. Ранджан із Sardine каже, що фінтех-стартапи, які є клієнтами його фірми, вже стали жертвами таких схем, втративши сотні тисяч доларів.

Та це дрібниці у порівнянні із $35 млн, які японська компанія втратила, коли пройдисвіти відтворили голос директора компанії, щоб підтвердити переказ грошей на «купівлю» компанії. Як інші індустрії беруть на озброєння ШІ, щоб поліпшувати чи полегшувати свою роботу, так і шахраї створюють власні інструменти (FraudGPT чи WormGPT) на основі ШІ-моделей техногігантів.

Несправжній голос

Дедалі частіше літні люди у США стають цілями для шахраїв, які нерідко використовують стаціонарні телефони, аби видати себе за онуків чи дітей потенційних жертв. Ті, хто переживав на собі трюки зловмисників, відзначають, наскільки схожими були голоси їхніх псевдорідних і як ретельно шахраї готуються, вивчаючи життя цілей. 

«Аж дрижаки беруть від того, як точно їм вдалося відтворити голос, інтонацію і тембр, – розповів Леонард, у якого злочинці намагалися видурити гроші, видавши себе за його онука. – Не було пауз між реченнями чи словами, які могли б вказати на те, що говорить автомат чи начитує програма. Все було дуже переконливо». 

Але не лише літнім людям треба остерігатися, адже клонування голосу шахраями небезпечне і для тих, у кого налаштована автентифікація голосом. Приміром, таку можливість надає взаємний фонд Vanguard Group, у якого понад 50 млн інвесторів. Ранджан із Sardine вже стикався з випадками, коли за допомогою клонування голосу люди отримували доступ до чужих банківських рахунків. 

Крім того, ми давно знаємо про те, як шахраї надсилають фейкові листи із рахунками фірмам, щоб ті оплатили нібито термінове замовлення. Тепер же за допомогою ШІ-інструментів зловмисники можуть телефонувати у компанії і наказувати голосом директора виконати якусь транзакцію чи передати таємну інформацію. 

Обійти систему

Злочинці також використовують генеративний ШІ, аби перехитрувати спеціалістів із боротьби з шахрайством і компанії, які на цьому спеціалізуються.

Такі компанії, як Socure, Mitek і Onfido, які займають верифікацією людей, використовують «живі перевірки». Вони просять зробити селфі чи записати відео, яке потім порівнюють із тими зображеннями, що є в системі. 

Але про цей алгоритм дій знають і шахраї, тому готуються до перевірки. Вони купують фото реальних водійських посвідчень у даркнеті, а далі за допомогою спеціальних програм, які стають дедалі доступнішими і дешевшими, накладають обличчя людини на своє. В такій програмі зловмисник може говорити і рухати обличчям за ширмою обличчя жертви, що може допомогти обійти «живі перевірки». 

«Ми помітили достатньо значний стрибок у використанні високоякісних діпфейків для живих перевірок, – розповів Рік Сонг, гендиректор антишахрайської фірми Persona. – Стрибок різний для різних індустрій, але в деяких ми побачили десятикратне зростання у порівнянні із минулим роком». Фінтех- і криптокомпанії страждають найбільше. 

Експерти з шахрайства розповіли Forbes про свої підозри стосовно того, що компанії, які надають послуги з верифікації користувачів (приміром, Socure і Mitek), демонструють гіршу статистику запобігання шахрайству. Socure це заперечує, але додає, що деякі клієнти затягують із оновленням систем верифікації, що може впливати на ефективність. Компанія сказала, що три її найбільші банки-клієнти пропустили чотири оновлення системи. 

JPMorgan, Bank of America і Wells Fargo відмовилися коментувати свої проблеми із шахрайством за допомогою ШІ-технологій. А речник Chime, найбільшого цифрового банку США, у якого в минулому були великі проблеми з шахрайством, каже, що вони не побачили зростання зловмисницьких схем із ШІ-інструментами.

Рішення технологічних компаній

OpenAI намагається вбудувати у свій чат-бот обмеження, які б блокували можливість використання ChatGPT для шахрайства, але і їх можна обійти.

У своєму блозі компанія написала: «Немає ідеального способу забезпечити відповідальне використання, тому ми намагаємося дізнатися про межі можливостей наших моделей і потенційні варіанти зловживання ними». 

Llama 2, велику мовну модель від Meta, ще простіше використовувати як злочинний інструмент, адже вона має відкритий код, який доступний для використання кому завгодно. Наприклад, на базі Llama 2 шахраї можуть створювати зловмисні ШІ-інструменти. 

Як і OpenAI, Meta не дала коментар для цієї статті. Втім, Марк Цукерберг у липні сказав, що відкритість коду Llama може вдосконалити «її безпеку і надійність, адже відкрите ПЗ перебуває під прицільнішим наглядом і більше людей можуть знайти та виправити проблеми». 

Компанії, які займаються запобіганням шахрайству, намагаються встигати за шахраями. Вони шукають нові види даних, які б допомагали помічати роботу зловмисника. Ранджан вважає, що «потрібен ШІ, аби довести в мережі, що ви саме той, за кого себе видаєте».

Іншими словами, щоб зловити ШІ, потрібен ШІ.

П’ять порад для захисту від ШІ-шахрайства

  1. Зміцнити захист акаунтів і рахунків. Багатофакторна автентифікація вимагає від вас введення пароля і додаткових кодів для перевірки вашої особи. Увімкніть багатофакторну авторизацію на всіх своїх фінансових рахунках.
  2. Зберігайте приватність. Шахраї можуть використати вашу особисту інформацію у соцмережах чи інших онлайн-ресурсах, щоб переконливіше видати себе за вас. 
  3. Скидайте. Майк Стейнбах, голова фінансових злочинів і запобігання шахрайству в Citi, радить не відповідати на дзвінки з незнайомих номерів. 
  4. Створіть кодові фрази. Члени родини можуть домовитися про кодове слово чи фразу, які б підтверджували їхню особу. Такі самі кодові фрази можуть запровадити малі бізнеси для авторизації грошових переказів керівниками. Уважно придивляйтеся до повідомлень від керівників, які просять купити подарункові сертифікати, – це теж поширена шахрайська схема. 
  5. Збийте з пантелику. Якщо ви запідозрили щось під час телефонної розмови, спробуйте поставити випадкове запитання, типу, що за погода у тому місті, в якому має перебувати людина, або про щось особисте. 

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *