Руководитель отдела искусственного интеллекта компании Meta*, Ян Лекун, в недавнем интервью TIME поделился своими взглядами на развитие общего искусственного интеллекта (ОИИ), подход компании к открытому исходному коду и потенциальные риски, связанные с нейросетями. Лауреат премии TIME100 Impact Award за вклад в мир ИИ обсудил препятствия на пути к достижению интеллекта уровня человека и объяснил, почему считает утверждения об экзистенциальной угрозе со стороны ИИ абсурдными.
Ограничения современных больших языковых моделей
Многие специалисты в сфере технологий полагают, что обучение больших языковых моделей (LLM) на огромных объемах данных с использованием мощных вычислительных ресурсов может привести к появлению ОИИ. Однако Лекун не разделяет эту точку зрения.
«Конечно, поражает, как работают LLM при масштабном обучении. Но они всё ещё очень ограничены. Сегодня мы видим, что эти системы много галлюцинируют, не понимая реальный мир. Им требуются огромные объёмы данных, чтобы достичь уровня интеллекта, который в конечном итоге не так уж велик. И они не могут по-настоящему рассуждать. Они не могут планировать ничего, кроме того, чему их обучили. Так что это не путь к тому, что люди называют ОИИ», — отметил он.
Лекун подчеркнул, что термин «общий искусственный интеллект» ему не по душе, поскольку человеческий интеллект не является общим. По его мнению, прежде чем достичь интеллекта уровня человека, необходимо пройти через более простые формы искусственного интеллекта.
«Когда у нас появятся методы изучения „моделей мира“, просто наблюдая за происходящим, и мы сможем объединить это с методами планирования, а возможно, и с системами кратковременной памяти, тогда у нас появится путь — не к общему интеллекту, а, скажем, к интеллекту уровня кошки. То есть, прежде чем мы доберёмся до человеческого уровня, нам придётся пройти через более простые формы интеллекта. И мы всё ещё очень далеки от этого».
Понимание мира и здравый смысл
Лекун отметил, что подавляющая часть человеческих знаний не выражена в тексте, а усваивается через опыт восприятия мира, особенно в раннем детстве.
«Большая часть знаний связана с нашим опытом восприятия мира и тем, как он устроен. Это то, что мы называем здравым смыслом. У LLM его нет, потому что у них нет к нему доступа. Поэтому они могут совершать очень глупые ошибки — отсюда и галлюцинации. То, что мы полностью принимаем как должное, оказывается чрезвычайно сложным для воспроизведения компьютерами. Так что ОИИ или искусственный интеллект человеческого уровня потребует довольно глубоких изменений восприятия».
Открытый исходный код и будущее ИИ
Будучи сторонником открытых исследований, Лекун поддерживает политику Meta* по открытию исходного кода своих моделей, включая Llama 2. Он считает, что такой подход будет актуален и в будущем по мере развития более мощных систем ИИ.
«В будущем взаимодействие каждого человека с цифровым миром и миром знаний в целом будет связано с нейросетями. По сути, они станут человеческими помощниками, которые всегда рядом. Мы не будем пользоваться поисковыми системами. Мы будем просто задавать вопросы нашим помощникам, и это поможет нам в повседневной жизни».
Лекун подчеркнул, что для учета мирового многообразия языков, культур и ценностей системы ИИ должны быть открытыми.
«Это всё равно, что некая коммерческая организация начнёт делать Википедию. Нет. Википедия — краудсорсинговая платформа, поэтому она и работает. То же самое будет с системами ИИ — их придётся обучать или, по крайней мере, настраивать с помощью людей по всему миру. И люди будут это делать только в том случае, если смогут внести свой вклад в общедоступную платформу».
Риски и преимущества открытого ИИ
Отвечая на критику о том, что открытый исходный код может позволить мощным инструментам попасть в руки злоумышленников, Лекун выразил уверенность, что опасения преувеличены.
«Многое из того, что об этом говорят, — фантазии. На самом деле, есть отчёт об исследовании, проведённом недавно корпорацией RAND. Она изучала, насколько при нынешних нейросетях людям с плохими намерениями проще придумывать рецепты биологического оружия? Ответ был — не проще! Причина в том, что нынешние системы ИИ на самом деле не настолько умны. Они обучаются на общедоступных данных, так что, по сути, не могут изобрести что-то новое».
Лекун считает, что стратегия должна заключаться в ускорении прогресса технологий и их широком распространении.
«Преимуществ много. И тут возникает вопрос соотношения риска и выгоды. Продуктивно ли пытаться держать технологию в секрете, надеясь, что она не попадёт в руки плохих парней? Или стратегия, наоборот, в том, чтобы открыть её как можно шире, чтобы прогресс был более быстрым, и чтобы плохие парни всегда оставались позади? Я придерживаюсь второй категории мышления. Нужно сделать так, чтобы общество в целом и хорошие парни были впереди, и тогда мой хороший ИИ будет против вашего плохого».
Отсутствие экзистенциальной угрозы
Лекун отвергает идею о том, что ИИ представляет экзистенциальную угрозу для человечества, называя такие утверждения абсурдными.
«Здесь есть ряд заблуждений. Первое заключается в том, что, поскольку система разумна, она хочет всё взять под свой контроль. Это полная чушь. Это ложно даже на примере человеческого вида. Самые умные не хотят доминировать над другими».
Он пояснил, что стремление к доминированию не коррелирует с интеллектом и что системы ИИ будут подчиняться поставленным перед ними целям.
«Системы ИИ, какими бы умными они ни были, будут нам подчиняться. Мы ставим им цели. А у них нет никакой внутренней цели, которую мы бы встроили в них, чтобы доминировать. Было бы очень глупо это делать».
Ожидания от Llama 3
В заключение Лекун поделился своими ожиданиями от следующей версии модели Llama:
«Скорее всего, [стоит ожидать] лучшей производительности. Мультимодальность и тому подобные вещи. Но модель всё ещё в процессе обучения».
*Meta признана экстремистской организацией в Российской Федерации.