Что нового
  • Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

Китай хочет запретить «дипфейки» — поддельные видео, созданные при помощи нейросетей

Sascha

Заместитель Администратора
Команда форума
Администратор
Регистрация
9 Май 2015
Сообщения
1,071
Баллы
155
Возраст
51


В Сети все больше распространяются ролики, якобы записанные с участием известной личности — однако ей не известные. Поддельные ролики демонстрируют человека в ситуации, которой никогда не существовало, и отличить подделку порой кажется невозможным. Такие ролики создаются с участием нейросетей GAN (генеративно-состязательная сеть) практически из ничего: достаточно фотографии, скачанной в Интернете.

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

решил положить конец распространению таких «дипфейков» (deepfakes).


Китай запрещает поддельные ролики


Китай планирует законодательно запретить «дипфейки» — и это первая страна, которая серьезно отнеслась к манипуляциям искусственного интеллекта с видео и рассматривает их как угрозу. В субботу высший законодательный орган Китая предложил объявить незаконными «искажения изображения другого человека или имитацию голоса с использованием технологий», говорится в материале, опубликованном в государственной газете China Daily.

Газета цитирует старшего законодателя Шэня Чуньяо, который говорит, что «неправильное использование технологии искусственного интеллекта не только наносит вредит правам человека на изображение, но также вредит национальной безопасности и общественным интересам».

«Глубокие подделки», или «дипфейки», становятся все более изощренными — вместо того, чтобы просто заменять человеку лицо, кодеры научились заменять целое тело. Это значит, что любой, владеющий техническим ноу-хау, может преобразовать кого угодно в цифровую марионетку.

Если вам непонятно, чем это может быть опасно, в 2018 году появился поддельный ролик с выступлением бывшего президента США Барака Обамы, где он предупредил, что «мы вступаем в эпоху, в которой наши враги могут сделать так, чтобы кто угодно сказал что угодно в любой момент времени». Само видео с этим заявлением является подделкой, в этом и казус.

Только вот Китай расценил это предупреждение как вполне реальное. А вам эта технология кажется опасной? Расскажите

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

.
 
Вверх