В ЛДПР предложили ввести уголовное наказание за использование технологии дипфейк в мошеннических целях. Сегодня сделать дипфейк и использовать его для привлечения внимания жертвы может каждый злоумышленник на своем компьютере, в то время как законодательство пока не успело адаптироваться к новым вызовам. Кроме того, сегодня дипфейки используют и в культурной сфере, где также могут быть нарушены права актеров и других деятелей. Необходимость более четкого регулирования новых технологий на фоне бума их развития особенно очевидна, считают эксперты.
Фракция ЛДПР занимается подготовкой законопроекта, который предлагает признать дипфейки отягчающим обстоятельством при совершении преступлений в сети. Речь идет о поправках в ст. 63 «Обстоятельства, отягчающие наказание», ст. 159 «Мошенничество», ст. 158 «Кража», ст. 163 «Вымогательство», ст. 160 «Присвоение или растрата чужого имущества» УК РФ. «Мы предлагаем добавить к отягчающим обстоятельствам использование технологии дипфейки, то есть подмены лица и голоса на фото, видео или во время виртуального общения в интернете. Это дает право вынести максимальное наказание по видам преступлений, которых оно касается», — пояснил один из авторов законопроекта, зампред фракции ЛДПР Ярослав Нилов.
В качестве примере в ЛДПР привели случаи, когда мошенники крадут аккаунты в мессенджерах, а затем рассылают ролик, на котором человек с лицом и голосом владельца аккаунта просит деньги в долг. Дипфейк также позволяет звонить россиянам по телефону с использованием голоса известного человека и предлагать от его имени сделать пожертвование или приобрести какой-либо товар. В связи с этим представители фракции решили, что по статье «Мошенничество» при таких обстоятельствах виновному должно грозить лишение свободы до пяти лет или штраф, по статье «Кража» — до двух лет, а в случае вымогательства — до четырех лет.
Член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин отметил, что технология дипфейк сегодня набирает все большую популярность и распространение, однако законодательное регулирование в значительной степени отстает от темпов ее развития. «К сожалению, сегодня создать дипфейк может каждый на персональном компьютере, что делает технологию удобной и доступной не только для людей, которые заинтересованы в создании нового интересного контента, но и для злоумышленников. Использовать можно и видеоизображения, и звук — это позволяет убедить жертву, что перед ней не злоумышленники и отдать им, например, все свои сбережения. Сегодня наши граждане нередко верят мошенникам и без применения социальной инженерии, поэтому сложно представить, как далеко может зайти дело на фоне развития технологий. Нельзя оставлять это без внимания, поэтому инициатива коллег выглядит своевременной. Привлекая к своим преступлениям новые технологии, мошенники должны понимать, что и наказание их будет ждать — новое», — считает он.
В грамотном регулировании при этом нуждается и сфера развлекательного контента, где дипфейки также активно используются, уверен Немкин. Так, в мае 2022 года Первый канал показал необычную премьеру нового сезона сериала «Диверсант» — в нем на экраны вернулся виртуальный образ скончавшегося 12 лет назад актера Владислава Галкина. При этом семья актера позже говорила, что не давала согласия на использование образа Галкина в проекте.
«Мы выяснили с юристами, что на законодательном уровне использование образов актеров для создания дипфейк-контента не запрещает, однако норм регулирования работы с ними также нет. Более того, в том случае, если образы актеров используются для создания дипфейков без их согласия, они могут обратиться в суд. Сейчас широкое применение искусственного интеллекта сдерживается, в первую очередь, несовершенством этих технологий, однако уже в ближайшем будущем они абсолютно точно выйдут на новый уровень, а значит на новый уровень должно выйти и законодательство, которое будет четко регулировать использование нейросетей в искусстве. Для того, чтобы привести этот процесс в порядок, мы сегодня также работаем над законопроектом в этом направлении — хотим разработать дополнения к законодательству об авторском праве для ситуаций, когда часть произведения искусства создана с помощью программного обеспечения. В новом законодательстве должны быть учтены все возможности и угрозы, связанные с искусственным интеллектом, который сегодня так активно входит в нашу жизнь. Мы считаем, что должны быть ясные, удобные и понятные правила работы, которые в том числе будут помогать защититься и от мошенничества», — добавил он.
Как подчеркнула глава Лиги безопасного интернета Екатерина Мизулина, все технологии, созданные с применением искусственного интеллекта, могут использоваться как во благо, так и во вред человеку. И речь идет не только о дипфейках, но и о других технологиях, которые могут использовать злоумышленники. «Многие страны сейчас думают над регулированием этой сферы. Если говорить о дипфейках, то здесь в разных целях могут такого рода человека использоваться. Никто не гарантирует, что изображение человека, или видео, сгенерированное с помощью изображения человека, не будет использоваться для совершения преступлений. И от имени этого человека будут делаться какие-то заявления, например, террористического, экстремистского характера. Конечно, такого рода действия и возможности очень много вопросов ставят перед законодателями и правоохранительной системой в целом», — пояснила она.
Появление технологий, которые создаются при помощи искусственного интеллекта, заставят впоследствии серьезно реформировать законодательство и вносить изменения в целый ряд законов, добавила Мизулина. «Речь идет не только об уголовном кодексе. Хорошо, что депутаты начинают думать в этом направлении, но важно изучать конкретные законопроекты, которые будут вноситься на рассмотрение Госдумы, чтобы избежать каких-то ошибок при их применении», — заключила она.
Источник: IT Channel
В качестве примере в ЛДПР привели случаи, когда мошенники крадут аккаунты в мессенджерах, а затем рассылают ролик, на котором человек с лицом и голосом владельца аккаунта просит деньги в долг. Дипфейк также позволяет звонить россиянам по телефону с использованием голоса известного человека и предлагать от его имени сделать пожертвование или приобрести какой-либо товар. В связи с этим представители фракции решили, что по статье «Мошенничество» при таких обстоятельствах виновному должно грозить лишение свободы до пяти лет или штраф, по статье «Кража» — до двух лет, а в случае вымогательства — до четырех лет.
Член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин отметил, что технология дипфейк сегодня набирает все большую популярность и распространение, однако законодательное регулирование в значительной степени отстает от темпов ее развития. «К сожалению, сегодня создать дипфейк может каждый на персональном компьютере, что делает технологию удобной и доступной не только для людей, которые заинтересованы в создании нового интересного контента, но и для злоумышленников. Использовать можно и видеоизображения, и звук — это позволяет убедить жертву, что перед ней не злоумышленники и отдать им, например, все свои сбережения. Сегодня наши граждане нередко верят мошенникам и без применения социальной инженерии, поэтому сложно представить, как далеко может зайти дело на фоне развития технологий. Нельзя оставлять это без внимания, поэтому инициатива коллег выглядит своевременной. Привлекая к своим преступлениям новые технологии, мошенники должны понимать, что и наказание их будет ждать — новое», — считает он.
В грамотном регулировании при этом нуждается и сфера развлекательного контента, где дипфейки также активно используются, уверен Немкин. Так, в мае 2022 года Первый канал показал необычную премьеру нового сезона сериала «Диверсант» — в нем на экраны вернулся виртуальный образ скончавшегося 12 лет назад актера Владислава Галкина. При этом семья актера позже говорила, что не давала согласия на использование образа Галкина в проекте.
«Мы выяснили с юристами, что на законодательном уровне использование образов актеров для создания дипфейк-контента не запрещает, однако норм регулирования работы с ними также нет. Более того, в том случае, если образы актеров используются для создания дипфейков без их согласия, они могут обратиться в суд. Сейчас широкое применение искусственного интеллекта сдерживается, в первую очередь, несовершенством этих технологий, однако уже в ближайшем будущем они абсолютно точно выйдут на новый уровень, а значит на новый уровень должно выйти и законодательство, которое будет четко регулировать использование нейросетей в искусстве. Для того, чтобы привести этот процесс в порядок, мы сегодня также работаем над законопроектом в этом направлении — хотим разработать дополнения к законодательству об авторском праве для ситуаций, когда часть произведения искусства создана с помощью программного обеспечения. В новом законодательстве должны быть учтены все возможности и угрозы, связанные с искусственным интеллектом, который сегодня так активно входит в нашу жизнь. Мы считаем, что должны быть ясные, удобные и понятные правила работы, которые в том числе будут помогать защититься и от мошенничества», — добавил он.
Как подчеркнула глава Лиги безопасного интернета Екатерина Мизулина, все технологии, созданные с применением искусственного интеллекта, могут использоваться как во благо, так и во вред человеку. И речь идет не только о дипфейках, но и о других технологиях, которые могут использовать злоумышленники. «Многие страны сейчас думают над регулированием этой сферы. Если говорить о дипфейках, то здесь в разных целях могут такого рода человека использоваться. Никто не гарантирует, что изображение человека, или видео, сгенерированное с помощью изображения человека, не будет использоваться для совершения преступлений. И от имени этого человека будут делаться какие-то заявления, например, террористического, экстремистского характера. Конечно, такого рода действия и возможности очень много вопросов ставят перед законодателями и правоохранительной системой в целом», — пояснила она.
Появление технологий, которые создаются при помощи искусственного интеллекта, заставят впоследствии серьезно реформировать законодательство и вносить изменения в целый ряд законов, добавила Мизулина. «Речь идет не только об уголовном кодексе. Хорошо, что депутаты начинают думать в этом направлении, но важно изучать конкретные законопроекты, которые будут вноситься на рассмотрение Госдумы, чтобы избежать каких-то ошибок при их применении», — заключила она.
Источник: IT Channel