Російські спецслужби планують запустити фальшиве відео із президентом України Володимиром Зеленським. “Змусити” людину говорити будь-які слова нині дозволяє штучний інтелект – технологія діпфейк.
Про це повідомляє Головне управління розвідки Міністерства оборони України.
“Росія вирішила використати технологію діпфейк у такий час, коли вона вважатиме, що Україна виснажена, й хоче здати свої державні інтереси. Але, по-перше, цього ніколи не станеться, а по-друге, ГУР володіє розвідданими, які кажуть про те, що у подібному відео може бути використано обличчя президента України Володимира Зеленського. Тому знайте: подібне відео буде фейком, мета якого посіяти паніку, дезорієнтувати, зневірити, схилити наші війська до капітуляції. Але як каже відоме прислів’я, “Хто володіє інформацією, той володіє світом”. Тому ми, українці, вже запаслись попкорном, й з нетерпінням чекаємо на цей “шедевр” від Росії. Слава Україні! Разом до перемоги!”, – ідеться в повідомленні.
Технологія діпфейк (англ. deepfake; поєднання слів deep learning (глибинне навчання) та fake (підробка) – методика синтезу зображення людини, яка базується на штучному інтелекті; її використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики. На практиці ж це означає, що комп’ютерні алгоритми навчилися “оживляти” фотографії, синтезувати голос людини, замінювати обличчя на певному відео. У результаті утворюється контент, зовні який майже не відрізняється від реального.
[b]124