Подлинные фото и видео предложили маркировать на фоне распространения ИИ-контента

ИИ, дипфейки, доверие, видео, аутентификация

Главная угроза искусственного интеллекта — потеря доверия к реальным доказательствам. Поэтому сейчас важно маркировать не дипкейки, а подлинные фото и видео, чтобы сохранить к ним общественное доверие. Такое мнение выразил обозреватель Poynter Адам Роуз.

Он отмечает, что генеративный ИИ уже породил поток реалистичных, но вымышленных изображений, а в соцсетях участились случаи, когда пользователи ставят под сомнение даже настоящие записи из-за страха манипуляции. Это явление называют «дивидендом лжеца»: реальность отвергают, как будто она подделка.

Роуз предлагает внедрить систему цифровой аутентификации оригинального контента — например, с помощью криптографических «отпечатков» (хешей), записываемых в момент съемки. Такая цепочка подтверждений, по его словам, позволит отличать подлинные изображения от измененных и восстановить доверие к фото- и видеодоказательствам в публичных спорах.