На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

360

162 286 подписчиков

Свежие комментарии

  • Tania Еременко
    Не оставлять без внимания ни одного подлого случая в школе  или на площадке. Лично я бы за своего сына  оттаскала бы ...Мигрантка в Мытищ...
  • Владимир Моргунов
    Баба Меркель, а кто провозгласил политику открытых дверей в Гейропу ??? В которую и хлынули черные плотным потоком с ...Меркель: миграцио...
  • Nik
    Ублюдочное отродье никогда не изменится и потому что глист, он и в Африке глист. И потому что это генетика, Карл!!! В...Shot: Александр Р...

Ассоциация по фактчекингу GFCN запустила конкурс по выявлению подделок

Международная ассоциация по фактчекингу Global Fact-Checking Network объявила о запуске конкурса Deepfake Detection Contest. Разработчики систем обнаружения дипфейков со всего мира смогут оценить эффективность своего программного обеспечения. На III форуме «Технологии доверенного искусственного интеллекта» в рамках сессии «Генеративный контент: искусство или подделка?

» объявили о запуске соревнования. Прием заявок стартует в конце мая 2025 года. Конкурс позволит определить уровень развития систем по выявлению дипфейков, используемых в разных странах. Кроме того, он поможет изучить новые методы противодействия поддельному контенту. «Результаты будут объявлены на международном форуме „Диалог о фейках 3.0“ в ноябре этого года», — сообщил руководитель направления креативных проектов управления по противодействию недостоверной информации АНО «Диалог Регионы» Иван Серов. Согласно последнему исследованию GFCN, с начала года выявлено на 13% больше дипфейков, чем за весь 2024 год. Замдиректора по развитию продуктов VisionLabs Татьяна Дешкина рассказала, какой подход к определению дипфейков в медиа и при фактчекинге эффективнее — искусственный интеллект или человек. По ее словам, это зависит от постановки задач, но лично она выступает за взаимодействие человека и нейросети. «Человек может ошибиться, поскольку не ожидает атаку и его можно спровоцировать на импульсивные действия. В этом случае нейросеть может стать мощным „помогатором“, тем более, что сегодня мы имеем дело с таким качеством подделок, что люди уже не могут отличить их от реальных изображений, видео или голоса», — резюмировала Дешкина.

 

Ссылка на первоисточник
наверх