Генеральный секретарь ООН Антониу Гутерриш на заседании Совета Безопасности выразил тревогу по поводу угроз, связанных с быстрым развитием ИИ. Гутерриш обратил внимание на то, что стремительное развитие этой области происходит быстрее, чем создание адекватных механизмов регуляции.
Среди основных опасений, озвученных генсеком ООН, – использование ИИ в военных целях, включая катастрофические последствия его применения в системах управления ядерным оружием. Он также указал на угрозу дестабилизации международных отношений из-за распространения реалистичных «дипфейков» и негативное влияние на экологию, связанное с высоким энергопотреблением.
Чтобы предотвратить негативные сценарии, Гутерриш призвал к активному глобальному взаимодействию и разработке общей стратегии управления. Он предложил сформировать международный научный совет по вопросам ИИ и инициировать дискуссии по его регулированию. В дополнение к этому, генеральный секретарь поддержал идею запрета автономных систем вооружения к 2026 году.
На встрече присутствовали известные эксперты в области, обсуждавшие как положительные аспекты, так и вызовы, связанные с технологическим прорывом. Профессор Фэй-Фэй Ли из Стэнфорда подчеркнула важность борьбы с алгоритмической предвзятостью и распространением ложной информации, отметив необходимость межгосударственного сотрудничества для снижения подобных рисков. Ян Лекун из компании Meta* провел аналогию между воздействием ИИ и изобретением печатного пресса, акцентируя внимание на потенциале нейронных технологий для трансформации общества.
Гутерриш подытожил свое выступление, заявив, что решения, которые международное сообщество примет сегодня, определят будущее всего человечества.
* Признана в России экстремистской организацией и запрещена
Чтобы предотвратить негативные сценарии, Гутерриш призвал к активному глобальному взаимодействию и разработке общей стратегии управления. Он предложил сформировать международный научный совет по вопросам ИИ и инициировать дискуссии по его регулированию. В дополнение к этому, генеральный секретарь поддержал идею запрета автономных систем вооружения к 2026 году.
На встрече присутствовали известные эксперты в области, обсуждавшие как положительные аспекты, так и вызовы, связанные с технологическим прорывом. Профессор Фэй-Фэй Ли из Стэнфорда подчеркнула важность борьбы с алгоритмической предвзятостью и распространением ложной информации, отметив необходимость межгосударственного сотрудничества для снижения подобных рисков. Ян Лекун из компании Meta* провел аналогию между воздействием ИИ и изобретением печатного пресса, акцентируя внимание на потенциале нейронных технологий для трансформации общества.
Гутерриш подытожил свое выступление, заявив, что решения, которые международное сообщество примет сегодня, определят будущее всего человечества.
* Признана в России экстремистской организацией и запрещена