AI-фильтр для камер Swann: как сэкономить $2 млн в месяц на паранойе
Как Swann снизила расходы на AI-анализ видео с 12 млн камер с $2.1 млн до $6 тыс. в месяц. Разбор архитектуры и экономной стратегии на базе AWS Bedrock.
Каждый владелец «умной» камеры знает эту боль: телефон разрывается от уведомлений о проехавшей машине, соседском коте или качающейся на ветру ветке. В итоге либо отключаешь оповещения к черту, либо пропускаешь реальную угрозу в потоке спама. Компания Swann, один из пионеров рынка DIY-видеонаблюдения, столкнулась с этой проблемой в масштабе 12 миллионов устройств. Их клиенты тонули в 20 бесполезных уведомлениях в день с каждой камеры. Решение нашлось в облаках Amazon, и дело тут не столько в магии AI, сколько в холодной экономической прагматике. Swann внедрила систему интеллектуальной фильтрации на базе AWS Bedrock, которая не просто поумнела, а сделала это с ошеломляющей эффективностью, сократив прогнозируемые расходы с $2.1 миллиона до $6 тысяч в месяц. Да, вы не ослышались, экономия составила 99.7%.
Это история не про создание всемогущего AGI, а про умную инженерную жадность. Вместо того чтобы направлять весь поток видеоданных на самую мощную и дорогую нейросеть, Swann и AWS выстроили многоуровневую систему. В ее основе — «зоопарк» из четырех разных моделей (Nova Lite, Nova Pro, Claude Haiku, Claude Sonnet), каждая из которых хороша для своей задачи. Самая простая и дешевая, Nova Lite, обрабатывает 87% всех запросов — это рутинная работа по отсеиванию очевидного мусора вроде теней и проезжающих авто. Если система замечает что-то подозрительное, в дело вступают модели посерьезнее: Nova Pro для верификации угроз, Claude Haiku для кастомных срочных алертов (вроде «сообщить, если ребенок подошел к бассейну»), и тяжелая артиллерия в лице Claude Sonnet для анализа сложных сценариев с участием нескольких людей. Получился эдакий AI-конвейер, где дорогая экспертиза привлекается только в самых необходимых случаях.
Но и это еще не все. До того, как кадры вообще попадут на анализ к большим языковым моделям, они проходят через предварительную обработку. Специальные GPU-инстансы на Amazon EC2 (G3 и G4) нарезают видео, отбрасывают дубликаты и с помощью более простых CV-моделей отфильтровывают до 65% ложных срабатываний еще на первом этапе. Инженеры Swann также провели колоссальную работу по оптимизации промптов: сократили их со 150 до 18 токенов, сжали разрешение изображений без потери качества и перевели ответы моделей в машиночитаемый формат «ключ-значение». Эти, казалось бы, скучные технические трюки в сумме дали 88% экономии на API-вызовах. В итоге система не только стала дешевле в тысячи раз, но и быстрее: 95% запросов обрабатываются менее чем за 300 миллисекунд.
За сухими цифрами скрывается фундаментальный сдвиг в подходе к внедрению AI. Если раньше компании, ослепленные хайпом, пытались решать любую задачу самой навороченной моделью от OpenAI или Google, то теперь наступает эра прагматизма. AWS со своим Bedrock предлагает не «лучшую модель», а «супермаркет моделей», где можно подобрать инструмент под конкретную задачу и кошелек. Этот кейс — холодный душ для тех, кто думал, что AI — это всегда заоблачно дорого. Оказывается, умная архитектура и оптимизация на уровне бизнес-логики значат для итоговой стоимости больше, чем выбор конкретного семейства нейросетей. Это победа не столько искусственного интеллекта, сколько системной инженерии.
Наш вердикт: это не революция в возможностях AI, а революция в его доступности. Swann и AWS показали всему рынку, что «умные» функции в массовых IoT-продуктах могут быть не только эффективными, но и рентабельными. История про сокращение расходов с двух миллионов до шести тысяч долларов — это мощнейший сигнал для тысяч компаний: эпоха бездумного сжигания денег на GPU-мощностях подходит к концу. Настоящая игра теперь идет на поле экономической эффективности. И это, пожалуй, самая важная новость для индустрии за последнее время, пусть и завернутая в маркетинговую упаковку AWS. Это blueprint для тех, кто хочет делать на AI реальный бизнес, а не красивые демо.