Согласно заявлению главного эксперта «Лаборатории Касперского» Сергея Голованова, мошенники в будущем смогут не только подделывать голосовые сообщения, но и атаковать россиян в социальных сетях в режиме реального времени через видеосвязь при помощи технологии дипфейков. Об этом пишет РИА Новости.

Злоумышленники будут использовать картинку с экрана и создавать изображение другого человека, которое будет повторять движения губ при общении в режиме реального времени. Голованов отметил, что это станет возможным через несколько лет и будет распространяться в мессенджерах. Также он напомнил о текущей схеме мошенничества, когда злоумышленники отправляют голосовые сообщения от якобы знакомых с просьбой перевести деньги, однако такие сообщения можно распознать благодаря роботизированной интонации.

Голованов считает, что единственный способ защититься — проверять аккаунты, так как на слух распознать ИИ будет сложно.

Накануне в США обеспокоились фейковым аудиосообщением Байдена перед праймериз в Нью-Гемпшире. По мнению экспертов, в этом году искусственный интеллект будет использоваться на выборах по всему миру ради достижения политической выгоды, и наибольшие опасения вызывают звуковые фейки. Их легко создавать и редактировать, но сложно отследить, отмечается в материале.

Ранее физиономист раскрыл, правда ли интервью Цыгановой Дудю (признан в РФ СМИ-иноагентом)* — дипфейк.

Adblock test (Why?)

Читать дальше новости технологий на нашем сайте

От hrigan