В Госдуме предложили сажать за обман с использованием дипфейков

Изменения предлагают внести в несколько статей

09 августа 2024, 15:25, ИА Амител

Тюремный забор / Фото: pxhere.com/ru/photo/744273
Тюремный забор / Фото: pxhere.com/ru/photo/744273

Глава комитета Госдумы по труду, социальной политике и делам ветеранов Ярослав Нилов (ЛДПР) разработал законопроект о введении в несколько статей Уголовного кодекса нового квалифицирующего признака — использование дипфейк-технологии. Об этом сообщает ТАСС.

Изменения предлагается внести в статьи "Клевета", "Мошенничество", "Кража", "Вымогательство", "Мошенничество в сфере компьютерной информации", "Причинение имущественного ущерба путем обмана или злоупотребления доверием". Так, за клевету с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего наказывается штрафом до 1,5 млн рублей или лишением свободы до двух лет. За мошенничество с использованием такой технологии может грозить штраф до 400 тыс. рублей либо лишение свободы до шести лет.

В пояснительной записке отмечается, что современные программно-аппаратные комплексы и использование нейросетей и искусственного интеллекта позволяют создавать подделки, которые практически невозможно отличить от реальности. 

Нилов отмечает, что изображение и голос гражданина могут относиться к биометрическим персональным данным.

"Учитывая, что голос и изображение гражданина используются чаще всего для обмана, предлагаем выделить их в отдельную категорию", — подчеркнул депутат.

Правительство в отзыве на законопроект отметило, что в отраслевом законодательстве не отрегулированы вопросы использования технологий дипфейк. 

В правительстве уточнили, что пояснительная записка к законопроекту не содержит статистических данных, свидетельствующих об общественной опасности криминализуемых деяний. В связи с этим невозможно сделать вывод о повышенной степени общественной опасности указанных деяний.

Комментарии 4

Avatar Picture
Гость

15:54:15 09-08-2024

которые практически невозможно отличить от реальности -- ну в принципе логика есть, раньше такого не было

  1 Нравится Ответить

Avatar Picture
Гость

17:41:11 09-08-2024

- " нейросетей и искусственного интеллекта позволяют создавать подделки, которые практически невозможно отличить от реальности" Смотришь телевизор, говорит он, а слова - ничего Божеского.

  5 Нравится Ответить

Avatar Picture
Гость

19:22:53 09-08-2024

А ещё можно предложить сажать за использование англицизмов - например, за "дипфейки "...

  1 Нравится Ответить

Avatar Picture
Гость

10:20:54 10-08-2024

А давайте сразу как в северной Корее сделаем. Чего мелочиться?

  1 Нравится Ответить

Лента новостей

Новости партнеров