Чат-боты ставят диагнозы не лучше Google. Но с опасной уверенностью
Новое исследование показало, что медицинские советы от AI не лучше, чем поиск в Google. В чем главная опасность чат-ботов и почему они вводят в заблуждение?
Ну что, дождались. очередной «прорыв» в мире искусственного интеллекта оказался предсказуемым пшиком. Группа медицинских исследователей решила проверить, насколько хороши современные чат-боты в роли карманного доктора Хауса. Результат оказался удручающим, но совершенно не удивительным для тех, кто наблюдает за индустрией дольше полугода: нейросетевые советчики оказались ничуть не лучше старого доброго поисковика. А в некотором смысле — даже опаснее.
Суть эксперимента была проста: взять ряд стандартных медицинских запросов — от описания симптомов простуды до более сложных случаев, требующих дифференциальной диагностики, — и «скормить» их популярным чат-ботам и поисковой системе. Затем ответы оценила комиссия из настоящих, живых врачей. Вердикт был однозначен: точность и полнота советов, сгенерированных AI, в лучшем случае соответствовала тому, что можно найти на первой странице Google. То есть мешанине из статей с сайтов клиник, отрывков с форумов и вечно оптимистичных прогнозов от WebMD, где любой чих может быть признаком редкой тропической лихорадки.
Но дьявол, как всегда, в деталях. Если Google дает вам выбор из десятка источников, оставляя финальное решение и ответственность на вас, то чат-бот ведет себя иначе. Он синтезирует информацию и выдает ее в виде единственно верного, авторитетного ответа. У него нет сомнений. Он не скажет: «Вот несколько вероятных причин, но лучше обратитесь к специалисту». Он сгенерирует гладкий, структурированный и пугающе уверенный текст, который легко принять за чистую монету. Именно эта ложная авторитетность и превращает полезный инструмент в потенциальную угрозу для здоровья.
Исследование вскрыло и вторую проблему, на этот раз — на стороне пользователя. Оказалось, что люди совершенно не умеют правильно описывать свои симптомы машине. Мы используем расплывчатые формулировки, забываем о важных деталях и невольно подталкиваем AI к желаемому диагнозу. Классическая ошибка выжившего, перенесенная в цифровую эпоху. Если вы не можете четко и структурированно изложить анамнез, то на выходе получите мусор, пусть и красиво упакованный. «Доктор, у меня что-то колет в боку» — на такой запрос и человек-то не сразу ответит, а мы ждем чуда от большой языковой модели, которая и тела-то своего никогда не имела.
За всем этим стоит не столько забота о нашем здоровье, сколько банальная гонка вооружений между техногигантами. Google со своим специализированным Med-PaLM 2 и OpenAI, чей GPT-4 пытаются интегрировать в медицинские системы по всему миру, ведут войну за триллионный рынок здравоохранения. Для них это новый «фронтир», новая нефть. Продать подписку на AI-ассистента для клиник, встроить чат-бота в приложение для самодиагностики — вот их истинные цели. А безопасность и клиническая валидация... ну, они где-то в дорожной карте, сразу после пункта «масштабирование прибыли». Старый принцип Кремниевой долины «двигайся быстро и ломай все» вступает в опасное противоречие с врачебной заповедью «не навреди».
Наш вердикт: это не провал технологии как таковой, а оглушительный провал ее применения и маркетингового позиционирования. Идея использовать всемогущий AGI для диагностики кашля — это стрельба из пушки по воробьям, причем с завязанными глазами. Настоящее будущее медицины не за универсальными чат-ботами, которые сегодня пишут стихи, а завтра ставят диагнозы. Оно за узкоспециализированными, обученными на выверенных медицинских данных и многократно протестированными моделями для конкретных задач: анализа снимков МРТ, расшифровки кардиограмм, поиска паттернов в генетических данных. А доверять свое здоровье публичному чат-боту сегодня — это как просить совета у случайного прохожего, который прочитал «Википедию». Может, повезет. Но скорее всего — нет.