Миттєва заміна обличчя на відео: у світі набула популярності нова технологія

Підміна особистості від обличчя до голосу ще кілька років тому була фантастикою, а вже сьогодні – це реальність.

Наразі завдяки комп’ютерним технологіям можна створити електронного клона будь-якої людини.

Про те, які можливості й водночас загрози інновація несе в усі сфери публічного життя дізнавалися журналісти.

Вірусні відео з Обамою та Цукербергом
В мережі сенсацією стало відео, де нібито Барак Обама називає Дональда Трампа “придурком”. Тим, чи міг би таке сказати про політичного опонента Барак Обама, переймалася ледь не уся інтернет-спільнота. Аж доки не виявилося – вірусне відео це фейк. Так само шокували YouTube кадри, де нібито Марк Цукерберг називає себе крадієм.

“Один чоловік з абсолютним контролем над викраденими даними мільярдів людей, з їхніми секретами, життям”, – говорив нібито він.

Однак насправді бізнесмен теж цього не казав. Такий технологічний тренд вчені вже прозвали “діпфейк”. За допомогою штучного інтелекту картинку та аудіозапис однієї людини можна підставити під матеріал з іншою.

Чтайте також:  Християни західного обряду сьогодні відзначають Великдень: традиції та заборони

Як цю технологію сприйняли в Україні
Пересічними українцями показали відео зі штучним інтелектом і спостерігали, чи зможуть вони з першого погляду відрізнити так званого техноклона від реальної людини. Спочатку вірили майже всі, однак згодом молодь здогадувалася, що це фейк, адже бачила вірусне відео.

Технологія відеозаміни облич базується на спеціальній нейромережі. В Україні ця функція є доступною у спрощеному форматі для звичайних користувачів. IT-розробники з Києва вперше у світі представили на ринку стартап миттєвої заміни обличчя будь-кого зі знаменитостей – Reface

“Сьогодні ми – єдина компанія у світі, яка може зробити таку якісну заміну обличчя на відео завдяки одному фото. Ми можемо робити це в реальному часі. Чекати довго не потрібно, потрібно лише 1 раз натиснути, завантажити фото і вже через 10 секунд ви отримаєте результат”, – розповів співзасновник RefaceAI Іван Алцибєєв.

Чим це може бути небезпечно
Окрім жартів та пародій, у подібних технологій вже є і перші жертви. У світі через шахрайські підробки відео та аудіофайлів нині постраждало понад 3 тисячі людей. Здебільшого, так виманюють гроші від імені іншої людини або створюють компромат, за який просять викуп. Однак українські спеціалісти розповіли, що звичайні користувачі в аматорському додатку такого не створять.

Чтайте також:  Вони мене не чують. Як говорити з дітьми і підлітками

Ми вирішили наразі обмежити доступ до цієї технології, тобто люди зможуть завантажувати тільки GIF-файли, якими важко завдати комусь шкоди,
– переконував співзасновник RefaceAI Роман Могильний.

Однак викрити навіть професійний фейк можливо завдяки незалежній експертизі. Адвокат Андрій Мазалов зазначив, що в експертів є можливості використання певних методик, які дозволяють зробити правдиві висновки.

ІТ-спеціалісти радять не розслаблятися, адже наразі на ринку є всі умови для появи програми ще більш природного моделювання людської поведінки. Це означає, що створити потужний фейк невдовзі стане ще легше.