В России обсуждают проект государственного регулирования искусственного интеллекта. Эксперты и депутаты хотят запретить системы с «неприемлемым уровнем риска», ввести маркировку контента и установить ответственность разработчиков за вред, нанесенный нейросетями. Об этом сообщило радио Sputnik. Руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов» МИФИ Роман Душкин объяснил, что под «неприемлемым уровнем риска» подразумевается использование разнообразных моделей ИИ при разработке информационных систем в критических областях, связанных с жизнью и здоровьем граждан, национальной безопасностью и экономикой.
Душкин также подчеркнул, что генеративная модель не должна советовать пользователю противоправные действия или нанесение вреда самому себе. Кроме того, он отметил важность маркировки контента, соответствующего законодательству.
Свежие комментарии