Кіберщит

>

>

Deepfake-атаки на померлих: цифрові аватари стають новою зброєю шахраїв і токсичного контенту

Deepfake-атаки на померлих: цифрові аватари стають новою зброєю шахраїв і токсичного контенту

Deepfake-відео дедалі частіше «оживляють» померлих — від історичних постатей до жертв злочинів. Родини шоковані, закони не встигають за технологіями, а платформи не завжди реагують

Технології штучного інтелекту досягли рівня, коли deepfake-відео можуть відтворити зовнішність, голос і манери будь-кого — навіть тих, кого вже немає в живих. Якщо раніше цифрові копії стосувалися здебільшого історичних постатей, то тепер «цифрові реінкарнації» дедалі частіше використовують образи жертв насильницьких злочинів, шокуючи їхні родини та ставлячи під сумнів етичні межі сучасного AI.

Мати впізнала в deepfake загиблу доньку — і була приголомшена

Мати побачила в TikTok відео, де її померла дочка «розповідає» про власну смерть — її вбили, скинувши з пірсу. Штучний інтелект згенерував десятки таких роликів, і всі вони імітували загиблих жертв злочинів.

Спершу TikTok відмовився видаляти відео, заявивши, що воно не порушує правил. Лише після розголосу в ЗМІ акаунт було заблоковано.

Подібні випадки стають дедалі частішими — люди, які щойно пережили втрату, змушені знову стикатися з «віртуальними привидами» своїх близьких.

Цифрові копії відомих людей: не тільки жертви, а й легенди

З проблемою зіштовхуються не лише родини загиблих.
Дочка Робіна Вільямса — Зельда — публічно просила фанів не надсилати deepfake-відео з участю її батька.

OpenAI навіть призупинила генерацію deepfake-роликів з Мартіном Лютером Кінгом після того, як соцмережі заполонили відео, де легендарного активіста зображали в принизливих і абсурдних ситуаціях.

Griefbots — «втіха» чи нова форма психологічної залежності?

Паралельно набирає популярності нова тенденція — griefbots, чат-боти та аватари, які імітують померлу людину. Розробники рекламують їх як «спосіб зберегти присутність близьких», однак психологи та етики попереджають:

  • griefbots можуть затримувати процес переживання втрати;

  • користувач може сформувати залежність від штучного аватара, як це стається з AI-бойфрендами;

  • смислові маніпуляції стають реальністю, адже людина вразлива під час горя.

Дехто, однак, свідомо погоджується на створення таких аватарів — наприклад, батьки, які хочуть залишити «цифрову пам’ять» для своїх маленьких дітей.

Правовий вакуум: у США немає загального закону, що захищає образ померлих

Одна з найбільших проблем — правова беззахисність померлих перед deepfake-технологіями.

Адвокати пояснюють:

  • у світі не існує федерального закону, що захищає образ померлих;

  • Данія та окремі штати США (Каліфорнія, Нью-Йорк) захищають образ лише від комерційної експлуатації;

  • тільки нові закони — як Digital Replica Law у Нью-Йорку чи ELVIS Act у Теннессі — починають враховувати deepfake-загрози.

У більшості країн образ померлої людини можна використовувати без згоди родини, якщо контент не переходить межу дефамації, порнографії або цілеспрямованої шкоди.

Навіть перемога в суді — майже недосяжна

Експерти пояснюють: родини загиблих можуть подавати позови за наклеп, маніпуляцію чи навмисне завдання емоційної шкоди — але ці справи дуже складні, дорогі й рідко завершуються успіхом.

Ще один варіант — DMCA-скарги, якщо deepfake прямо маніпулює конкретною фотографією. Але якщо AI створив «схожого» персонажа — юридичного механізму майже немає.

Тому юристи радять кожній людині вже зараз вказувати у заповіті, як можуть використовуватися:

  • зображення,

  • фотографії,

  • відео,

  • голос,

  • цифрові дані.

Що реально можуть зробити родини померлих зараз

Єдиний ефективний і доступний шлях — скарги на платформи за порушення правил про:

  • «синтетичний контент»,

  • «небажані маніпуляції»,

  • «переслідування».

Більшість соцмереж уже вводять окремі політики проти non-consensual deepfakes.

Однак це реактивний метод — він працює лише після того, як шкода вже завдана.

Висновок: технологія випереджає закон — а страждають живі

Deepfake-індустрія стрімко розвивається, і людські почуття виявилися беззахисними перед алгоритмами.
І поки законодавці тільки починають реагувати на нові ризики, родини померлих залишаються сам на сам із болючими «цифровими дублями» своїх близьких.

ГО «Центр протидії кіберзлочинності «Кіберщит» закликає:

  • посилити регулювання deepfake-контенту;

  • створити міжнародні стандарти захисту образів померлих;

  • інформувати громадян про їхні цифрові права;

  • вимагати від платформ швидкого реагування на етичні та психологічні загрози.

Штучний інтелект може бути корисним інструментом — але тільки тоді, коли він не перетворюється на зброю проти людської гідності.

Поділитись контентом

Поділитись контентом

Напрямки діяльності

Вас також зацікавить

У центрі уваги

У центрі уваги

5 груд. 2025 р.

/

Red Notice — це не ордер на арешт, а повідомлення для інших країн.

У центрі уваги

У центрі уваги

5 груд. 2025 р.

/

Red Notice — це не ордер на арешт, а повідомлення для інших країн.

У центрі уваги

У центрі уваги

5 груд. 2025 р.

/

Red Notice — це не ордер на арешт, а повідомлення для інших країн.

Актуальне

Актуальне

4 груд. 2025 р.

/

Wikipedia шукає справедливий баланс між відкритістю знань і зростаючими витратами через масове використання її контенту штучним інтелектом.

Актуальне

Актуальне

4 груд. 2025 р.

/

Wikipedia шукає справедливий баланс між відкритістю знань і зростаючими витратами через масове використання її контенту штучним інтелектом.

Актуальне

Актуальне

4 груд. 2025 р.

/

Wikipedia шукає справедливий баланс між відкритістю знань і зростаючими витратами через масове використання її контенту штучним інтелектом.

Рекомендовано

Рекомендовано

3 груд. 2025 р.

/

Оперативна робота Antifraud допомогла зупинити спробу шахраїв викрасти 500 тисяч гривень.

Рекомендовано

Рекомендовано

3 груд. 2025 р.

/

Оперативна робота Antifraud допомогла зупинити спробу шахраїв викрасти 500 тисяч гривень.

Рекомендовано

Рекомендовано

3 груд. 2025 р.

/

Оперативна робота Antifraud допомогла зупинити спробу шахраїв викрасти 500 тисяч гривень.

Актуальне

Актуальне

3 груд. 2025 р.

/

Europol знищив Cryptomixer.io — криптоміксер, що відмивав мільярди для кіберзлочинців.

Актуальне

Актуальне

3 груд. 2025 р.

/

Europol знищив Cryptomixer.io — криптоміксер, що відмивав мільярди для кіберзлочинців.

Актуальне

Актуальне

3 груд. 2025 р.

/

Europol знищив Cryptomixer.io — криптоміксер, що відмивав мільярди для кіберзлочинців.

Приєднуйтесь до нас у соціальних мережах!

Facebook

YouTube

TikTok

Приєднуйтесь до нас у соціальних мережах!

Facebook

YouTube

TikTok