
Современные нейросети, включая ChatGPT, настроены на максимальную удовлетворенность пользователей. Грубо говоря, они стремятся угодить людям, создавая иллюзию согласия. Об этом заявил психиатр Артем Гилев в беседе с сайтом KP.RU. По его словам, подобная обратная связь может привести к негативным последствиям.
«Например, у моей супруги, психолога, в практике был случай, когда ее клиенту с мыслями о суициде чат-бот с ИИ заявил: „Да, это твое право и действительно выход, решение проблемы“», — пояснил специалист. Он также отметил, что модели искусственного интеллекта отличаются степенью нравственной обоснованности. Так, ChatGPT чаще выбирает ответ, приятный пользователю. В то же время китайский бот DeepSeek обладает более строгими этическими принципами.
Свежие комментарии