Как Swann научила 12 млн камер не спамить и сократила расходы на AI в 350 раз

Кейс Swann: как умная архитектура на Amazon Bedrock и каскад AI-моделей помогли обработать данные с 12 млн камер, снизив затраты с $2.1 млн до $6 тыс.

Как Swann научила 12 млн камер не спамить и сократила расходы на AI в 350 раз

Каждый, кто хоть раз ставил себе умную камеру, знает эту боль: первые пару дней радуешься технологиям, а потом начинаешь ненавидеть шквал уведомлений о голубе на подоконнике или тени от дерева. Компания Swann, один из пионеров рынка DIY-безопасности, столкнулась с этой проблемой в промышленных масштабах. Их флот из почти 12 миллионов устройств генерировал такой поток «информационного мусора», что пользователи массово отключали уведомления, сводя на нет всю суть системы безопасности. Это была не просто техническая, а экзистенциальная угроза для бизнеса. Решение нашлось в облаках Amazon и, что более интересно, в прагматичном и даже скупом подходе к использованию генеративного AI.

Проблема «усталости от оповещений» стара как мир, но с приходом AI она обрела новые краски. Старые системы Swann умели отличать «человека» от «питомца», но на этом их интеллект заканчивался. Курьер с посылкой и грабитель с монтировкой для системы были равнозначны. Пользователи получали по 20 бессмысленных пушей в день и, естественно, вырабатывали «баннерную слепоту», игнорируя и реальные угрозы. Swann поняла, что нужны не просто улучшения, а полная пересборка логики. Партнером выступила AWS со своим сервисом-супермаркетом AI-моделей Amazon Bedrock, который позволил реализовать то, что является, пожалуй, самой здравой стратегией внедрения AI в массовый продукт на сегодняшний день.

Вместо того чтобы взять одну самую мощную и дорогую модель а-ля GPT-4o или Claude 3 Opus и пытаться ею анализировать каждый чих, инженеры Swann построили многоуровневую систему фильтрации. Это как воронка продаж, только для событий с камер. На первом, самом широком уровне, трудится дешевый и быстрый Amazon Nova Lite. На его долю приходится 87% всех запросов — рутинная отбраковка очевидного шума вроде проезжающих машин и котиков. Если Nova Lite замечает что-то подозрительное, эстафета передается модели Nova Pro (8% запросов), которая уже способна на более детальный анализ. Для кастомных, пользовательских запросов в стиле «сообщи, когда ребенок подойдет к бассейну» используется сверхбыстрый Claude Haiku (2%). И только для самых запутанных и неоднозначных сценариев, требующих сложной логики (например, анализ взаимодействия нескольких людей), в бой вступает тяжеловес Claude Sonnet (3%).

Именно эта каскадная архитектура и привела к ошеломляющим финансовым результатам. По предварительным расчетам, использование одной лишь мощной модели Claude Sonnet для всех 275 миллионов ежемесячных событий обошлось бы Swann в $2.1 миллиона в месяц. После внедрения многоуровневой системы и целого ряда других оптимизаций ежемесячный чек сократился до... $6 тысяч. Это падение затрат на 99.7%, или в 350 раз. Дьявол, как всегда, в деталях: перед отправкой кадра на анализ в Bedrock, система на мощностях EC2 проводит предварительную фильтрацию, отсекая 65% ложных срабатываний. А благодаря жесткой инженерии промптов их удалось сократить с 150 до 18 токенов, заменив размытые формулировки на машиночитаемый формат вроде `threat:LOW|type:person|action:delivery`.

Этот кейс — отличная иллюстрация текущей стадии битвы облачных гигантов за AI-рынок. Пока OpenAI и Google продвигают свои флагманские модели как универсальное решение всех проблем, AWS играет в долгую, позиционируя себя как нейтральную платформу, «Швейцарию для AI». Bedrock дает доступ к моделям от Anthropic (Claude), Cohere, AI21 Labs, Stability AI и собственным разработкам Amazon (Titan, Nova). Для бизнеса это означает свободу выбора и возможность строить вот такие гибридные, экономически эффективные системы, не привязываясь к одному проприетарному «мозгу». Swann могли бы потратить месяцы на интеграцию с API нескольких вендоров, а получили все из одной коробки, с единым биллингом и управляемостью.

В итоге пользователи получили то, чего хотели: количество уведомлений упало на 25%, а их релевантность выросла на 89%. Удовлетворенность клиентов, по данным компании, подросла на 3% — не бог весть что, но для зрелого рынка и это результат. Система обрабатывает данные с 11.74 млн устройств со средней задержкой (p95) менее 300 миллисекунд, что доказывает: сложный генеративный AI можно рентабельно развернуть даже в потребительском IoT-сегменте.

Наш вердикт: это не столько прорыв в «интеллекте» AI, сколько в инженерной и экономической прагматичности его применения. История Swann — это не футуристическая сказка о всемогущем ИскИне, а суровый производственный роман о том, как умная архитектура, жесточайшая оптимизация токенов и каскадное использование моделей разной стоимости позволяют решить реальную бизнес-задачу, не обанкротившись в процессе. Хайп вокруг новых моделей — это прекрасно, но деньги зарабатываются на вот такой, местами скучной, но дьявольски эффективной инженерии. Это дорожная карта для всех, кто хочет встроить AI в свой продукт и не проснуться с многомиллионным счетом от облачного провайдера.

Read more