г. Нижний Новгород,
ул. Костина, 2 офис 131
(правое крыло здания, 1-й этаж)

Телефон: 430-68-42.
E-mail: journ.nn@xmail.ru

В РФ появится выявляющая фейки нейросети платформа

A A= A+ 20.03.2024

 

В России обсуждают возможность создания единой платформы, выявляющей недостоверную информацию, сгенерированную нейросетью, рассказали «Известиям» в Минцифры.

Ранее премьер-министр Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ). В пресс-службе ведомства также ранее говорили «Известиям», что проработка такого механизма уже ведется, а по итогу документ будет представлен правительству.

«Обсуждается возможность создания единой платформы, которая будет выявлять недостоверную информацию, сгенерированную в том числе с помощью технологий искусственного интеллекта», — сообщили в ведомстве.

Там добавили, что на данном этапе предложено предварительно провести научно-исследовательские работы по обозначенной тематике.

Количество информации, сгенерированной с использованием нейросетей, в интернете непрерывно растет, и причина этому ― доступность способов создания такой информации, считает старший исследователь данных в «Лаборатории Касперского» Дмитрий Аникин. По его мнению, важно разделить применение генераторов картинок и текста без злого умысла и их применение в мошеннических целях.

«Если говорить о текстах, которые создают с помощью больших языковых моделей, то пока нет надежных способов автоматизированного определения вариантов, написанных нейронными сетями. Особенно это касается коротких текстов, например, в соцсетях. Несмотря на то что сейчас рано говорить о наличии надежных способов распознавания сгенерированных текстов, в этом направлении в мире ведутся активные исследования», — сказал эксперт.

Что же касается классических дипфейков, то эта область продолжает развиваться, но не так стремительно, потому что создание качественной подделки ― трудоемкий процесс, считает Дмитрий Аникин. Он требует вычислительных ресурсов, большого объема данных и определенных технических навыков.

«Для задачи распознавания визуальных фейков существуют открытые решения, качество которых можно назвать удовлетворительным. Стоит отметить заметный рост числа методов и сервисов для создания голосовых дипфейков, но так как это направление относительно молодое, пока существует недостаточное количество исследований в этой области», — пояснил он.

На данном этапе главным средством распознавания дипфейков пока остается здоровый скептицизм пользователя к получаемой им информации, резюмировал эксперт.

В июне прошлого года глава комитета Госдумы по информационной политике, информационным технологиям и связи Александр Хинштейн заявил, что в российском правовом поле появится официальный термин «дипфейк» — соответствующую инициативу готовят в комитете ГД по информполитике совместно с Роскомнадзором.

Источник: Известия
Заметили ошибку? Выделите её и нажмите CTRL+ENTER