Підміна особистості від обличчя до голосу ще кілька років тому була фантастикою, а вже сьогодні – це реальність.
Наразі завдяки комп’ютерним технологіям можна створити електронного клона будь-якої людини.
Про те, які можливості й водночас загрози інновація несе в усі сфери публічного життя дізнавалися журналісти.
Вірусні відео з Обамою та Цукербергом
В мережі сенсацією стало відео, де нібито Барак Обама називає Дональда Трампа “придурком”. Тим, чи міг би таке сказати про політичного опонента Барак Обама, переймалася ледь не уся інтернет-спільнота. Аж доки не виявилося – вірусне відео це фейк. Так само шокували YouTube кадри, де нібито Марк Цукерберг називає себе крадієм.
“Один чоловік з абсолютним контролем над викраденими даними мільярдів людей, з їхніми секретами, життям”, – говорив нібито він.
Однак насправді бізнесмен теж цього не казав. Такий технологічний тренд вчені вже прозвали “діпфейк”. За допомогою штучного інтелекту картинку та аудіозапис однієї людини можна підставити під матеріал з іншою.
Як цю технологію сприйняли в Україні
Пересічними українцями показали відео зі штучним інтелектом і спостерігали, чи зможуть вони з першого погляду відрізнити так званого техноклона від реальної людини. Спочатку вірили майже всі, однак згодом молодь здогадувалася, що це фейк, адже бачила вірусне відео.
Технологія відеозаміни облич базується на спеціальній нейромережі. В Україні ця функція є доступною у спрощеному форматі для звичайних користувачів. IT-розробники з Києва вперше у світі представили на ринку стартап миттєвої заміни обличчя будь-кого зі знаменитостей – Reface
“Сьогодні ми – єдина компанія у світі, яка може зробити таку якісну заміну обличчя на відео завдяки одному фото. Ми можемо робити це в реальному часі. Чекати довго не потрібно, потрібно лише 1 раз натиснути, завантажити фото і вже через 10 секунд ви отримаєте результат”, – розповів співзасновник RefaceAI Іван Алцибєєв.
Чим це може бути небезпечно
Окрім жартів та пародій, у подібних технологій вже є і перші жертви. У світі через шахрайські підробки відео та аудіофайлів нині постраждало понад 3 тисячі людей. Здебільшого, так виманюють гроші від імені іншої людини або створюють компромат, за який просять викуп. Однак українські спеціалісти розповіли, що звичайні користувачі в аматорському додатку такого не створять.
Ми вирішили наразі обмежити доступ до цієї технології, тобто люди зможуть завантажувати тільки GIF-файли, якими важко завдати комусь шкоди,
– переконував співзасновник RefaceAI Роман Могильний.
Однак викрити навіть професійний фейк можливо завдяки незалежній експертизі. Адвокат Андрій Мазалов зазначив, що в експертів є можливості використання певних методик, які дозволяють зробити правдиві висновки.
ІТ-спеціалісти радять не розслаблятися, адже наразі на ринку є всі умови для появи програми ще більш природного моделювання людської поведінки. Це означає, що створити потужний фейк невдовзі стане ще легше.
Важлива інформація для українців, які мають борги за комуналку Багато українців через важкий час не…
Відьма зробила прогноз Тарологиня та відьма Тетяна Гай спрогнозувала, що на росію чекає нещасливе майбутнє.…
Керівниця медичної служби 108-го окремого батальйону "Вовки Да Вінчі" 59-ї бригади, дівчина загиблого Героя України…
Складні погодні умови, що склалися 21 листопада майже по всій Україні, наприкінці тижня охоплять усі…
Реформа орієнтована не лише на встановлення статусу інвалідності, а й на підтримку реабілітації та відновлення…
На Калущині покарали батька за те, що він ставив сина на гречку У Калуському міськрайонному…