+38 (067) 372 39 55

English site

Загроза діпфейків і як їх вчасно розпізнати

Загроза діпфейків і як їх вчасно розпізнати

Що таке Діпфейк (Deepfake)?

Діпфейк або дипфейк (англ. deepfake) — це технологія, яка за допомогою штучного інтелекту (ШІ) дозволяє створювати підроблені зображення, відео або аудіо, що виглядають і звучать максимально правдоподібно. Термін "deepfake" складається з "deep learning" (підгалузь машинного навчання) і слова "fake" ("фейк") - тобто підробка, що вказує на його штучний характер.

Діпфейки в основному використовуються для відтворення або імітації людей — їх облич, голосів і поведінки таким чином, щоб це могло обдурити як людей, так і машини. Розглянемо основні види дипфейк-технологій:

Діпфейк-відео

Діпфейк-відео дозволяє змінити обличчя людини, її міміку або навіть створити повністю штучне відео, де вона говорить або робить те, чого насправді не було. Алгоритми на основі генеративних змагальних мереж (GAN) замінюють риси обличчя, синхронізують рухи губ з текстом і створюють плавні анімації.

Приклад: Дипфейк може створити відео політика, який виголошує неправдиву промову, що може ввести громадськість в оману або викликати політичні заворушення. Результат може бути настільки переконливим, що лише інструменти судової експертизи на основі ШІ зможуть виявити підробку.

Ці відео часто використовуються в:

  • Кампаніях дезінформації
  • Політичних маніпуляціях
  • Створенні скандалів або наклепах

Клонування голосу (voice cloning)

Така технологія може з високою точністю імітувати тон, акцент і манеру розмови людини, використовуючи лише 10-30 секунд записаного мовлення. Застосовуються моделі, такі як Tacotron 2, Descript Overdub, ElevenLabs, які аналізують тембр, інтонацію та ритм голосу людини для його синтетичного відтворення. Вони можуть бути налаштовані за мінімальними даними для навчання, що робить їх небезпечними в неправильних руках.

Клонований голос може бути використаний для:

  • Дзвінків по телефону
  • Створення голосових повідомлень
  • Роботи чат-ботів або імперсонаційних шахрайств

Приклад: Зловмисники клонували голос CFO (фінансового директора) і наказали співробітнику компанії перевести мільйони доларів. Жертва виконала наказ, вірячи, що це був справжній голос.

Ці атаки належать до категорії вішинг (голосовий фішинг) і є дедалі поширенішими в:

  • Шахрайствах із бізнес-електронною поштою (BEC)
  • Шахрайських банківських транзакціях
  • Імперсонації родичів або керівників

Фейкові зображення людей

AI може створювати абсолютно нові обличчя, які виглядають реалістично, але не належать жодній реальній людині. Застосовується модель StyleGAN, яка поєднує риси облич з різних джерел, додаючи освітлення, тіні, текстуру шкіри тощо. 

Ці зображення використовуються для:

  • Фальшивих профілів у соціальних мережах
  • Онлайн-шахрайств або фішингових акаунтів
  • Маркетингових кампаній, керованих ботами, та кампаній з дезінформації

Приклад: Фальшивий профіль у LinkedIn "експерта з кібербезпеки" з переконливою AI-генерованою фотографією був використаний для зв’язку з реальними професіоналами, отримання інформації про компанії та поширення шкідливих посилань. 

Face swapping

Один з найпоширеніших видів дипфейків, коли обличчя однієї людини накладається на тіло іншої. ШІ аналізує ключові точки обличчя та автоматично "переносить" його в інше відео або фото.

Застосування:

  • Відео меми та розважальний контент
  • Порушення авторських прав або шкода репутації
  • Шахрайство з використанням Zoom-дзвінків

Аудіо-візуальні фішингові атаки (deepfake phishing)

Комбінування штучного голосу та відео для обману жертв — з метою отримання грошей, доступу до систем або конфіденційної інформації. Хакери використовують дані з соцмереж (відео, вебінари, подкасти), щоб створити реалістичне звернення нібито від керівника, клієнта чи члена родини.

Приклади:

  • Фальшиві дзвінки з проханням “терміново переказати кошти”
  • Відеоповідомлення з “дорученням” від CEO
  • Голосові інструкції в месенджерах
Що таке Діпфейк (Deepfake)?

Що таке Діпфейк (Deepfake)?

Де і чому використовуються діпфейки

Діпфейки — потужні інструменти, які можуть бути використані як в хорошому руслі, так і для маніпуляцій, залежно від намірів їх застосування. Нижче приводимо приклади легітимного використання технології дипфейків, та з метою здійснення зловмисних дій. 

Легітимні застосування технології дипфейків

Виробництво кіно та телебачення

Інструменти дипфейків дають змогу кінематографістам:

  • Реалістично зменшувати або збільшувати вік акторів без використання гриму чи CGI (наприклад, у фільмі "Ірландець" Мартіна Скорсезе).
  • Відтворювати покійних акторів для посмертних сцен або трибютів (наприклад, Керрі Фішер у "Зоряних війнах").
  • Замінювати акторів під час повторних зйомок без перезйомки цілих сцен, що дозволяє зекономити мільйони на витратах на виробництво.

Студії все частіше використовують ШІ для заміни облич та синтезу голосів, щоб оптимізувати творчі робочі процеси, зберігаючи художню цілісність.

Персоналізовані аватари для навчання

Освітні платформи та корпоративні навчальні системи використовують аватарів на основі ШІ для:

  • Проведення персоналізованих уроків на кількох мовах з використанням вигляду одного викладача.
  • Створення інтерактивних цифрових інструкторів, які мають природній реалістичний вигляд.
  • Моделювання історичних персонажів або рольових сценаріїв для більш залученого навчання.

Аватари на основі ШІ, такі як Synthesia або D-ID, зараз використовуються в процесах адаптації нових співробітників, навчаннях з дотримання норм і в умовах дистанційної освіти.

Технології доступності та допоміжні технології

Клонування голосу дипфейк використовується для допомоги людям з порушеннями мови або нейродегенеративними захворюваннями шляхом:

  • Створення персоналізованих синтетичних голосів, які близько відповідають їхньому оригінальному голосу.
  • Забезпечення комунікації через інструменти синтезу мовлення, що працюють на основі голосових аватарів.
  • Допомога людям з ALS або раком горла зберегти їхній “власний” голос у цифровому вигляді.

Компанії, такі як Lyrebird і ElevenLabs, пропонують інструменти, які зберігають голос людини на основі коротких записів, революціонізуючи цифрову доступність.

Використання технології дипфейків з метою шахрайства та завдання шкоди

Політична дезінформація та пропаганда

Зловмисники використовують дипфейки для:

  • Фальсифікації відео з політиками, які виголошують суперечливі заяви.
  • Дестабілізації виборів через маніпуляцію громадською думкою за допомогою фальшивих інтерв'ю або промов.
  • Розпалювання громадянських заворушень або поширення хибних наративів у зонах конфлікту.

У 2023 році в мережі короткий час "дипфейк" Президента України Володимира Зеленського, який закликав українських військових до капітуляції, що підкреслює потенціал для використання дезінформації як зброї.

Фінансові шахрайства та імперсонація

Кіберзлочинці використовують дипфейки для:

  • Клонування голосів керівників для обману співробітників і змусити їх перевести великі суми грошей (шахрайство з CEO).
  • Фальшування відеоконференцій для затвердження фальшивих угод або рахунків.
  • Мішенню для персоналізованих фішингових атак на високоприбуткових осіб.

Компанія Arup Group втратила 25 мільйонів доларів у 2024 році після того, як зловмисники імітували керівників через відеодзвінок з дипфейком.

Соціальна інженерія та крадіжка особистих даних

Атакувальники можуть:

  • Використовувати фальшиві профільні фотографії або голосові повідомлення для створення довіри на соціальних платформах.
  • Імітувати рекрутерів, журналістів або колег у дзвінках в реальному часі.
  • Використовувати особисті стосунки для отримання доступу до даних, облікових записів або конфіденційних активів.

Фальшиві профілі LinkedIn з AI-генерованими обличчями використовувались для проникнення в організації та збору розвідданих.

Фішингові шахрайства з використанням AI-генерованих голосів або відео

Відомі як дипфейк - фішинг, ці шахрайства включають:

  • Залишення голосових повідомлень від клонованого голосу для зміни платіжних реквізитів.
  • Запис фальшивих відео клієнтів або керівників, щоб інструктувати термінові переведення.
  • Надсилання фальшивих аудіо-відповідей через WhatsApp, Slack або Teams, щоб уникнути підозр.

У тесті 2025 року журналіст зумів успішно обійти голосову автентифікацію в 3 з 5 великих банків за допомогою AI-генерованих голосових кліпів.

Що таке діпфейк-фішинг?

Діпфейк-фішинг — це просунута форма соціальної інженерії, коли кіберзлочинці використовують AI-генеровані голоси, зображення або відео для імітації довірених осіб — таких як керівники, колеги, клієнти або члени сім'ї — щоб обдурити жертв і змусити їх вчинити шкідливі дії.

На відміну від традиційного фішингу, який зазвичай використовує фальшиві електронні листи або схожі сайти, фішинг з дипфейками додає гіперреалістичний аудіовізуальний шар до обману, роблячи шахрайство більш переконливим і терміновим.

Як це працює:

  • Зловмисник збирає публічно доступні дані: профілі LinkedIn, відео, подкасти або вебінари за участю цілі (наприклад, CEO або CFO).
  • Використовуючи програмне забезпечення для клонування голосу (таке як ElevenLabs, Resemble.ai) або інструменти для заміни облич, генерується синтетичне відео або аудіо повідомлення.
  • Жертва отримує фальшивий телефонний дзвінок, голосову пошту або відеодзвінок, який здається правдоподібним, з інструкціями: "Перевести гроші", "Розкрити чутливі дані", "Надати доступ до внутрішніх систем", "Оминути звичайні процедури безпеки через "терміновість".

Чому це небезпечно:

  • Більшість людей не можуть розрізнити "підроблений" голос чи обличчя в реальному часі.
  • Ці атаки часто обходять традиційні фільтри фішингу (наприклад, сканування електронної пошти).
  • Їх можна здійснити за низькою ціною і з мінімальними технічними знаннями, використовуючи безкоштовні або дешеві онлайн-інструменти.

Реальні випадки зловживань діпфейками

Випадок 1: Arup Group — Імперсонація керівників через відеодзвінок з дипфейком

У 2024 році Arup Group - багатонаціональна інженерна консалтингова компанія, стала мішенню для зловмисників, які використали відеодзвінок з дипфейком для імітації керівників вищого рівня. Співробітник на іншому кінці лінії повірив, що він розмовляє з реальним керівником і отримав інструкцію перевести 25 мільйонів доларів на зовнішній рахунок. Як результат - компанія зазнала значних фінансових втрат і репутаційного збитку.

Ключові тактики:

  • Реалістична симуляція обличчя і голосу за допомогою ШІ
  • Використання інсайдерських знань для створення контексту
  • Експлуатація норм віддаленої роботи (верифікація лише через відео)

Заходи реагування:

  • Введено біометричну перевірка “живості” (liveness detection) для всіх етапів схвалення керівниками
  • Введено обов’язкову аутентифікацію обличчя та усні паролі в сценаріях високого ризику
  • Переглянуто внутрішні робочі процеси фінансових схвалень і посилено пороги для великих транзакцій

Випадок 2: Неправомірне використання фейкового відео з південнокорейською знаменитістю — Карина з K-pop групи aespa

У 2025 році AI-генерований промо-контент з Кариною, учасницею K-pop групи aespa, був випущений без її відома та згоди. Її синтетичне обличчя та голос використовувались для просування віртуального інфлюенсера та модної кампанії.

Ключові проблеми:

  • Етичні та юридичні питання щодо використання образу без згоди
  • Громадське обурення та втрата довіри до медіаплатформ
  • Ризики шахрайства в піарі знаменитостей за допомогою AI

Випадок 3: Отримання доступу до банківських акаунтів через підробку голосу

У 2025 році журналіст створив AI-клони свого голосу за допомогою безкоштовних онлайн-інструментів і спробував отримати доступ до своїх акаунтів у п'яти великих банках через системи аутентифікації по голосу.

Результати:

  • Три з п’яти банків не змогли виявити синтетичний голос і дозволили пройти аутентифікацію.
  • Один банк зупинив процес через незначні відмінності в фразах.
  • Один виявив підозрілу активність після додаткових перевірок.

Цей тест довів, що аутентифікація за голосовим відбитком більше не є безпечною в світі доступних генераторів голосу дипфейків.

Заходи реагування:

  • Банки почали поступово відмовлятися від аутентифікації лише за голосом
  • Інтеграція систем багатофакторної аутентифікації (MFA)
  • Тестування реальних підказок на живість (наприклад, читання випадкових фраз)

Методи виявлення діпфейків: Як сучасні системи виявляють штучні підробки

З розвитком технологій дипфейків, які стають дедалі реалістичнішими та доступнішими, для їх виявлення необхідні просунуті та багатошарові підходи. Нижче наведені найпоширеніші та новітні методи виявлення дипфейків, розглянуті детальніше:

Зорово-мовні моделі (VLMs)

Ці моделі аналізують як візуальний контент (зображення або кадри з відео), так і супутню мову (транскрипти, аудіо або субтитри), щоб виявляти невідповідності та ненатуральні патерни.

Як це працює:

  • Моделі VLM порівнюють рухи губ, вирази обличчя та емоційний тон з вимовленим чи написаним текстом.
  • Вони використовують здоровий глузд для виявлення нелогічної поведінки (наприклад, посмішка на обличчі під час трагічних слів).

Застосування:

  • Перевірка новин (для виявлення фальшивих інтерв'ю)
  • Скринінг політичного контенту
  • Моніторинг соціальних медіа з допомогою ШІ

Недоліки:

  • Менш ефективні для тих відео, де відсутня мова
  • Можуть мати проблеми з виявленням у реальному часі

Візуальне виявлення на основі трансформерів

Моделі трансформерів, такі як Swin Transformers, призначені для оцінки зображень або відео з високим рівнем деталізації, виявляючи невідповідності в структурі, текстурі та контексті.

Як це працює:

  • На відміну від старіших моделей нейронних мереж (CNN), трансформери ефективніше обробляють глобальні особливості зображення.
  • Ці моделі можуть виявляти малопомітні артефакти, такі як аномалії освітлення, піксельні неточності або спотворення обличчя.

Застосування:

  • Відео із заміненими обличчями
  • AI-генеровані портрети
  • Дипфейк-профілі

Недоліки:

  • Потрібні великі позначені набори даних для навчання
  • Можуть бути ресурсомісткими

Судово-криміналістичний аналіз на рівні фрагментів

Замість того, щоб аналізувати все зображення або відео одночасно, цей метод розбиває контент на маленькі фрагменти, щоб дослідити кожну ділянку на наявність маніпуляцій.

Як це працює:

  • Алгоритми сканують кожен фрагмент (наприклад, око, кут рота) на наявність незвичних патернів, шуму стиснення або неконсистентних артефактів.
  • Якщо один фрагмент зазнав змін, а інші залишились без змін, система позначає це як маніпуляцію.

Застосування:

  • Фальшиві документи для посвідчення особи
  • Маніпуляція зображеннями в медіа
  • Маскування облич у дипфейках

Недолік - може пропустити підробки високої якості.

Біометричне виявлення "живості" (liveness detection)

Це додатковий рівень безпеки, який викорситовується у системах перевірки особистості, щоб переконатися, що особа, яка взаємодіє з камерою, є фізично присутньою та живою, а не статичним відео або дипфейком.

Як це працює:

  • Перевіряє природні реакції: кліпання, мікро-рухи, повороти голови або реакцію на зміни освітлення.
  • Деякі системи просять користувачів виконувати випадкові дії (наприклад, посміхнутися, повернутись наліво) під час відео-аутентифікації.

Застосування:

  • Процеси KYC в фінансових технологіях та банківській справі
  • Захищені відео-інтерв'ю
  • Захист входу для облікових записів високого ризику

Недоліки:

  • Деякі передові 3D дипфейки можуть обходити базові перевірки
  • Потрібно мати високу якість камери та стабільне підключення до Інтернету

Аудіо-криміналістика та аналіз голосових відбитків

Використовується для виявлення клонованих або синтетичних голосів у телефонних дзвінках, голосових повідомленнях або аудіоповідомленнях.

Як це працює:

  • Аналізує мовні патерни, ритм, паузи, висоту тону та фоновий шум.
  • Позначає невідповідності, такі як: монотонна подача, відсутність звуків дихання, відсутність емоційних інтонацій

Застосування:

  • Виявлення шахрайства в кол-центрах
  • Захист голосової аутентифікації
  • Перевірка публічних голосових записів

Недоліки:

  • Може не працювати з високоякісними AI-голосовими моделями
  • Ненадійний у шумних середовищах

Метадані та криміналістичний аналіз файлів

Аналізує цифровий відбиток та метадані медіафайлів, шукаючи невідповідності, що можуть вказувати на маніпуляції.

Як це працює:

  • Перевіряє дані EXIF (часові мітки, інформація про пристрій)
  • Аналізує підписи стиснення
  • Виявляє історію редагування (в професійному редагуванні)

Застосування:

  • Журналістські розслідування
  • Перевірка доказів у суді
  • Судово допустимий аналіз файлів

Недоліки:

  • Метадані можуть бути видалені або підроблені
  • Не ефективний для медіа, зібраних з соціальних мереж

Технологія блокчейн та походження контенту

Новий підхід, де оригінальний контент криптографічно підписується під час створення, що дозволяє переглядачам перевіряти його джерело.

Як це працює:

  • Творці контенту вбудовують цифрові водяні знаки або блокчейн хеші у свої відео/фото.
  • Глядачі або платформи можуть перевірити ці підписи, використовуючи захищені API.

Застосування:

  • Агенції новин для перевірки відеоматеріалів
  • Захист ідентичності бренду
  • Боротьба з дезінформацією в Інтернеті

Недолік - не виявляє діпфейків, лише підтверджує автентичність оригіналу.

 Які ризики у використанні технології діпфейк?

Фінансові втрати: компанії можуть втратити мільйони через підроблені розпорядження та накази.

Репутаційні наслідки: поширення фейкових заяв чи відео від імені бренду.

Порушення безпеки: зловмисники можуть отримати доступ до систем або даних.

Юридичні наслідки: використання чужого образу без згоди — порушення прав.

Як захистити свій бізнес і попередити загрози, пов’язані з діпфейками

Застосування багатофакторної автентифікації (MFA)

Багато атак із використанням дипфейків успішні через довіру до одного каналу підтвердження — наприклад, голосу у телефонному дзвінку.

Що робити:

  • Завжди вимагайте принаймні 2 способи підтвердження особи: пароль + одноразовий код, або голос + SMS.
  • Для фінансових операцій чи затвердження угод від керівництва додайте третій рівень — наприклад, біометричну перевірку або верифікацію другою особою.

Навчання співробітників виявляти ознаки діпфейків

Перша лінія захисту — це поінформовані працівники.

Що робити:

  • Включіть тренінги з виявлення дипфейків у програму інформаційної безпеки.
  • Навчайте розпізнавати такі ознаки:

          - Незвичний або "роботизований" голос

          - Затримки між рухами губ і звуком

          - Нереалістичні обличчя або міміку у відео

          - Невиправдана терміновість ("зроби це негайно")

Захист цифрової присутності керівництва

Достатньо кількох секунд відео чи аудіо, щоб створити переконливий дипфейк CEO або CFO.

Що робити:

  • Обмежуйте кількість публічних відео/аудіозаписів з керівниками.
  • Якщо публікуєте — використовуйте водяні знаки, низьку роздільну здатність, не прямі кадри.
  • Додавайте “пастки” у мову — внутрішні жарти або особливі слова, які буде складно зімітувати.

Інтеграція технології liveness detection

Зловмисники можуть використовувати фальшиві відео для проходження ідентифікації.

Що робити:

  • Замініть звичайну перевірку обличчя на живу верифікацію (реакція на світло, повороти голови, випадкові дії).
  • Використовуйте такі рішення під час онбордингу співробітників, виплат, віддалених інтерв’ю.

Створення плану реагування на інциденти з діпфейками

Швидкість реагування критично важлива у випадках фальсифікацій або шахрайств.

Що включити в план реагування:

  • Протокол перевірки — хто перевіряє підозрілий запит?
  • Зупинка транзакції — інструкція з негайного замороження переказу або доступу.
  • Відповідальні особи — окремо для комунікації з правоохоронцями та клієнтами.
  • Шаблони скарг — готові форми для YouTube, LinkedIn, TikTok у разі публікації фейкового контенту.

Регулярне тестування систем захисту

Поява нових технологій може зробити старі механізми недійсними.

Що робити:

  • Імітуйте фішингові атаки з елементами дипфейків під час пентестів.
  • Перевіряйте системи голосової автентифікації на стійкість до клонування.
  • Тримайте фокус на технологіях виявлення фальсифікацій (AI-аналітика відео, аудіо, метаданих).

Діпфейки — це не лише технологічний виклик, а й репутаційна та фінансова загроза. Діпфейк-технології стрімко розвиваються — і попри їхній потенціал у сфері освіти, кіно та інновацій, вони несуть серйозні ризики для бізнесу, приватних осіб та громад. Сучасний бізнес має поєднувати навчання людей, цифровий захист та чіткі процедури реагування, щоб залишатися захищеним у новій реальності. Розуміння основних видів діпфейків, принципів їхньої роботи та запобіжних заходів — критично важливе для безпеки у цифрову епоху.


Якщо ваша компанія шукає рішення для виявлення або протидії діпфейкам — звертайтесь до експертів з кібербезпеки ESKA