S.A.R.A.H. и риск превращения идеологии здравоохранения в алгоритм
S.A.R.A.H., помощник в области здравоохранения на основе генеративного искусственного интеллекта, представленный ВОЗ, обещает надежную и доступную информацию о здоровых привычках. Но его дизайн открывает ключевой вопрос: какие доказательства он включает, какие противоречия он признает и какие варианты исключает, особенно в областях, где консенсус оспаривается, таких как никотин, вейпинг и альтернативы без сжигания.
Источник: The Vaping Today
Всемирная организация здравоохранения (ВОЗ) представила S.A.R.A.H. как шаг к обеспечению равного доступа к достоверной, чуткой и основанной на фактических данных информации. На бумаге это предложение кажется неоспоримым. Кто может выступить против инструмента, который обещает помочь людям принимать более правильные решения в отношении своего здоровья?
По данным самой ВОЗ, S.A.R.A.H. (Smart AI Resource Assistant for Health) — это прототип цифрового помощника в области здравоохранения на базе генеративного искусственного интеллекта, предназначенный для изучения того, как эта технология может усилить укрепление общественного здравоохранения. Организация утверждает, что система может предоставлять надежную и доступную медицинскую информацию, постоянно взаимодействовать на нескольких языках и вести беседы о здоровых привычках — таких как питание, физическая активность, психическое здоровье и отказ от курения и вейпинга — с целью снижения барьеры для доступа к информации. ВОЗ подчеркивает, что S.A.R.A.H. — это не клиническая услуга и не замена профессиональной консультации, а скорее экспериментальный инструмент для широкомасштабной пропаганды здоровья.
Проблема не в технологиях. Проблема в том, что решено, что эта технология может — и не может — сказать. Потому что, когда учреждение, занимающее жесткую позицию в отношении никотина и курения, делегирует свою речь искусственному интеллекту, вопрос перестает быть техническим. Это становится политическим. ИИ, который не может не согласиться, не обучает: он направляет. И в общественном здравоохранении руководство без нюансов также имеет последствия.
ИИ, который не может не согласиться
S.A.R.A.H. не ставит диагноз, не назначает и не заменяет врача. Это ясно. Но он выполняет гораздо более тонкую — и более мощную — функцию: нормализует единый нарратив в области здравоохранения, как если бы он был научным консенсусом.
Проблема не в том, что ВОЗ использует доказательства. Проблема в том, как вы решаете, какие доказательства имеют значение, а какие не учитываются. Институциональный дискурс тщательно избегает объяснения того, какие исследования способствуют развитию этого ИИ, как решаются реальные научные споры и что происходит в тех областях, где консенсус далек от существования.
В таких областях, как никотин, курение и альтернативы, не связанные с горением, это упущение не является анекдотическим: оно носит структурный характер. Сегодня есть убедительные доказательства того, что не все продукты, содержащие никотин, представляют одинаковый уровень риска и что горение является основным переносчиком вреда. Это понимание позволило спасти жизни с помощью стратегий снижения вреда во многих странах.
Однако S.A.R.A.H. действует в рамках, в которых этого нюанса просто не существует. ИИ не взвешивает, не сравнивает, не раскрывает научный конфликт: он стирает его. И когда инакомыслие исчезает из системы, остается не медицинская информация, а автоматизированное направление поведения.
Молчание как политика здравоохранения
Язык S.A.R.A.H. говорит о здоровье, отказе от курения и профилактике. Но то, что он не упоминает, столь же показательно. Не существует концепции континуума рисков. Снижение вреда не признается законной стратегией. Взрослый курильщик не считается курильщиком, который не может — или не хочет — отказаться от никотина, но может бросить курить: профиль, широко задокументированный в литературе по общественному здравоохранению и снижению вреда.
Этот предмет существует. Это задокументировано. И он был центром эффективной политики общественного здравоохранения во многих странах. Его отсутствие в автоматизированном дискурсе ВОЗ — это не упущение: это решение.
Потому что признание этого нюанса означало бы принятие чего-то неудобного для исторического подхода организации: что полное воздержание работает не для всех и что снижение вреда также является действительной формой успеха в области здравоохранения. Вместо того, чтобы противостоять этим дебатам, S.A.R.A.H. нейтрализует их молчанием.
В общественном здравоохранении молчание также означает вмешательство. И когда институциональный ИИ замалчивает варианты, которые могут снизить ущерб и спасти жизни, это молчание перестает быть разумным и превращается в политику в области здравоохранения.
Очеловечить форму, скрыть силу
Присвоение имени инструменту S.A.R.A.H. — это не мелочь и не простое эстетическое решение. Хотя ВОЗ искажает значение с помощью аббревиатур (Smart AI Resource Assistant for Health), первое, что получает пользователь, — это не техническая аббревиатура, а собственное, общее и близкое имя: Сара.
Гуманизация не невинна. В институциональной коммуникации присвоение имени технологии — эффективный способ принизить восприятие власти и заменить ее близостью. Вы не разговариваете с многосторонней организацией; вы разговариваете с “Сарой”. И это радикально меняет отношения.
Опросить учреждение относительно просто. Задавать вопросы “чуткому помощнику”, который говорит сочувственным тоном и, кажется, хочет вам помочь, гораздо сложнее. Авторитет перестает быть явным и становится аффективным. Не навязывает: сопровождает. Он не приказывает: он направляет. Но всегда в рамках, которые уже определены заранее.
Под этим гуманизированным интерфейсом нет ни реального диалога, ни возможности для несогласия, ни второго мнения. Существует автоматизированная система, которая воспроизводит единый институциональный нарратив, похожий на разговор. Форма смягчается, но сила не исчезает: она становится менее заметной.
Гуманизация S.A.R.A.H. не делает ее более человечной. Это делает его менее сомнительным. И когда политику в области здравоохранения становится трудно оспаривать, потому что она преподносится как сопутствующая, проблема становится уже не технологической, а глубоко политической.
Реальный риск — это не ИИ, а его политическое использование
S.A.R.A.H. не является прорывным достижением в области общественного здравоохранения. Он представляет собой стратегическую корректировку: адаптацию институционального органа власти к эпохе, когда вертикальный дискурс больше не убеждает, а технологическое посредничество убеждает.
Риск не в искусственном интеллекте, а в том, кто определяет его границы, его молчание и его приемлемые ответы. Автоматизация повествования делает его не более научным, а более эффективным. И когда это повествование исключает нюансы, альтернативы и законное несогласие, результатом становится не санитарное просвещение, а подчинение, смягченное по замыслу.
Делегирование сложных решений системе, которой нельзя противоречить, но которая может оказаться эмоционально надежной, не расширяет автономию гражданина. Это снижает его. Потому что выбор существует только тогда, когда есть видимые, сопоставимые и спорные варианты.
Искусственный интеллект не сделал общественное здравоохранение более Moderna. Это сделало ее более элегантной в своем патернализме.
Когда учреждению нужен искусственный интеллект, чтобы избежать споров, проблема не в технологии: это хрупкость его повествования. И вопрос неизбежен: если доказательства так убедительны, как утверждается, зачем нужен ИИ, устраняющий нюансы, а не профессионалы, способные их объяснить?
Когда инакомыслие исчезает из системы, мы не сталкиваемся с автоматизированной наукой. Мы сталкиваемся с догмой в коде.

