Ученые пытаются понять, как сделать процесс мышления ИИ более глубоким и эффективным. Последние исследования показывают: будущее искусственного разума не в линейных вычислениях, а во внутреннем диалоге, имитирующем человеческую дискуссию.
Исследователи обнаружили поразительную закономерность. Модели, обученные мыслить в стиле диалога, достигают высокой точности значительно быстрее, чем их «линейные» собратья. В эксперименте с моделью Qwen-2.5-3B искусственный интеллект, использующий структуру внутреннего обсуждения, достиг 38% точности всего за 40 шагов обучения. В то же время модели, настроенные на монотонный, последовательный процесс мышления (монолог), застряли на отметке 28%.
Диалоговый подход оказался универсальным. Модели, которые обучались решать математические задачи через симуляцию дискуссий между разными точками зрения, внезапно начали лучше справляться и с совершенно другими задачами. Например, с определением токсичного контента. Это говорит о том, что навык «рассуждения» является фундаментальным и переносимым.
Ученые проводят прямые параллели между работой ИИ и теорией человеческого познания. В частности, упоминается концепция Мерсье и Спербера из книги «Загадка разума», согласно которой человеческое мышление эволюционировало прежде всего как социальный процесс. Мы думаем лучше, когда нам нужно аргументировать свою позицию перед другими.
Другой важный источник вдохновения — идея «диалогического Я» Михаила Бахтина. Согласно ей, человеческая мысль — это внутренний разговор между разными аспектами личности. Исследование предполагает, что современные модели рассуждения становятся вычислительным аналогом этого процесса. Разнообразие «внутренних голосов» позволяет ИИ эффективнее находить ошибки в собственных выводах.
Однако не все в индустрии настроены оптимистично. Летом 2025 года исследователи из Apple поставили под сомнение саму природу «мышления» современных нейросетей. Их данные показывают, что некоторые модели, например, DeepSeek-R1, начинают ломаться при росте сложности задач. Парадоксально, но чем сложнее становится проблема, тем меньше модель склонна к реальному рассуждению.
В Apple называют это «фундаментальным пределом масштабирования». По их мнению, то, что мы принимаем за глубокую логику, может быть лишь очень сложной имитацией, которая теряет эффективность, как только задача выходит за рамки привычных паттернов.




