Moltbot: что стоит за вирусным AI-ассистентом

Персональный AI-ассистент Moltbot (ранее Clawdbot) быстро набрал популярность. Анализируем, что стоит за технологией, в чем его отличие от продуктов OpenAI и Google, и какие риски приватности он несет.

Moltbot: что стоит за вирусным AI-ассистентом

Персональный AI-ассистент Moltbot, еще месяц назад известный как Clawdbot, успел наделать шума, собрав первый миллион пользователей и закрыв посевной раунд на $50 млн. Причина виральности проста: разработчики обещают не очередной чат, а проактивного агента, который сам организует вашу почту, календарь и задачи. Рынок устал от универсальных моделей и ждал именно такого нишевого решения, способного приносить реальную пользу, а не только генерировать текст.

Под капотом у Moltbot не гигантская языковая модель, а связка из более легковесных систем, заточенных под конкретные задачи и объединенных собственным движком для распознавания намерений пользователя. Вместо погони за бенчмарками, стартап сделал ставку на глубокую интеграцию со сторонними сервисами — от Gmail до Notion. Однако именно здесь и кроется главный нюанс: для эффективной работы ассистент требует почти полного доступа ко всем вашим данным. Это не просто API-ключ, а разрешение читать, анализировать и действовать от вашего имени.

Появление Moltbot — это четкий сигнал, что гонка AI переходит из плоскости «у кого больше параметров» в плоскость «кто найдет лучший продукт». Пока гиганты вроде OpenAI и Anthropic соревнуются в мощности своих флагманских моделей, небольшие команды ищут прикладные сценарии. Этот подход бьет в слабое место Google, которая годами не может превратить свой Assistant в по-настоящему полезный инструмент. Вопрос лишь в том, готова ли аудитория пожертвовать приватностью ради удобства, которое обещает Moltbot.