Бывшие сотрудники Google Аза Кай и Хираку Янагита запустили стартап InfiniMind, который позволяет компаниям анализировать большие объемы видеоданных и извлекать из них бизнес-аналитику.
По словам Кая, большинство компаний годами накапливают петабайты видео — от архивов телеэфиров до записей с камер наблюдения — но почти не используют этот контент. Раньше ИИ мог лишь распознавать объекты в отдельных кадрах, но не умел понимать причинно-следственные связи, сюжет и контекст. В результате даже на простые вопросы о собственных видеоархивах компании не могли получить ответов.
Прорыв стал возможен благодаря скачку в развитии визуально-языковых моделей между 2021 и 2023 годами. Именно это, по словам основателей, позволило ИИ выйти за рамки простого тегирования объектов и начать «понимать» происходящее в кадре.
Платформа InfiniMind не требует кода: клиент загружает видео, а система сама находит в нем сцены, спикеров, ключевые события и превращает это в структурированные данные. Анализировать можно даже сотни часов видеоматериала, при этом решение остается масштабируемым и доступным по стоимости в отличие от существующих решений на рынке, которые либо слишком узкие, либо слишком дорогие.
В Японии уже работает первый продукт стартапа — TV Pulse, который помогает медиа- и ритейл-компаниям отслеживать появление брендов в эфире, эмоциональную реакцию зрителей и влияние PR-активностей. Весной 2026 года компания выведет на рынок флагманскую платформу DeepFrame, способную обрабатывать до 200 часов видео за раз.
Стартап уже привлек $5,8 млн инвестиций и готовится к выходу на рынок США, сохраняя при этом инженерный центр в Токио.




