AI (ИИ)& nbsp;Дезинформация& nbsp;Исследование

Убедительная дезинформация ИИ, полученная австралийскими исследователями о вакцине и вейпинге

Эксперимент по созданию поддельных изображений, отзывов пациентов и врачей, а также видеозаписей был проведен всего за час

Источник: The Guardian

Исследователи использовали искусственный интеллект для создания более 100 записей в блогах, содержащих дезинформацию о здоровье на разных языках.

Платформы искусственного интеллекта, такие как ChatGPT, содержат средства защиты, которые не позволяют им отвечать на запросы о незаконной или вредной деятельности, например, о том, как купить запрещенные препараты.

Два исследователя из Университета Флиндерса в Аделаиде, не обладая специальными знаниями в области искусственного интеллекта, провели поиск в Интернете, чтобы найти общедоступную информацию о том, как обойти эти защиты.

Затем они поставили перед собой задачу в кратчайшие сроки создать как можно больше записей в блогах, содержащих дезинформацию о вакцинах и вейпинге.

За 65 минут было создано 102 сообщения, ориентированных на такие группы населения, как молодежь, молодые родители, беременные женщины и люди с хроническими заболеваниями. Посты содержали фальшивые отзывы пациентов и врачей, а также научно обоснованные ссылки.

Кроме того, менее чем за две минуты платформа создала 20 поддельных, но реалистичных изображений, сопровождающих статьи, в том числе фотографии вакцин, наносящих вред маленьким детям. Исследователи также создали фальшивый видеоролик, связывающий вакцины с детской смертностью, на более чем 40 языках.
Исследование было опубликовано во вторник в американском журнале JAMA Internal Medicine. Ведущий автор исследования, фармацевт Брэдли Менц, сказал: “Одна из проблем, связанных с искусственным интеллектом, – это создание дезинформации, то есть намеренное создание информации, которая либо вводит в заблуждение, либо является неточной или ложной.

“Мы хотели проверить, насколько легко злоумышленнику нарушить защиту системы и использовать эти платформы для массовой дезинформации”, – сказал он.

Исследование показало, что общедоступные инструменты могут быть использованы для массовой генерации недостоверной медицинской информации с “пугающей легкостью”.

“Мы считаем, что разработчики этих платформ должны предусмотреть механизм, позволяющий медицинским работникам или представителям общественности сообщать о любой сгенерированной информации, вызывающей сомнения, и разработчик может принять меры для устранения проблемы”, – сказал Менц.

“В нашем исследовании мы сообщили о возникших опасениях, но не получили ни подтверждения, ни последующих действий, а инструмент не был настроен таким образом, чтобы предотвратить возникновение подобных ситуаций в будущем”.

Профессор Мэтт Куперхольц, бывший главный специалист по обработке данных в компании PwC, заявил, что, несмотря на то что за время, прошедшее с момента проведения исследования, платформы искусственного интеллекта получили дальнейшее развитие и были усилены меры безопасности, он “смог воспроизвести результаты менее чем за одну минуту”.

“Никакие встроенные средства защиты не смогут остановить злоупотребление технологией”, – сказал Куперхольц, который в настоящее время работает исследователем в Университете Дикина.

По мнению Куперхольца, для защиты от дезинформации необходима совокупность мер, включая привлечение к ответственности издателей контента, будь то платформы социальных сетей или отдельные авторы.

Он также считает, что может быть создана технология, позволяющая оценивать результаты работы других платформ искусственного интеллекта и достоверность получаемой информации.

“Нам необходимо перейти от мира, в котором мы неявно доверяем тому, что видим, и построить инфраструктуру доверия, в которой вместо черных списков инструментов, которым мы не доверяем, мы составляем белые списки инструментов и информации, которым мы доверяем”.

Нельзя недооценивать и “невероятное количество пользы от этих технологий”, – сказал он.

Профессор биомедицинской информатики Сиднейского университета Адам Данн (Adam Dunn) сказал, что выводы, сделанные в исследовании Менца, “скорее всего, создадут ненужную пугающую ситуацию”.

“Хотя может показаться страшным, что искусственный интеллект может быть использован для создания дезинформации, включая текст, изображения и видео, он в равной степени может быть использован и для создания простых версий доказательств”.

По его словам, если инструменты используются для создания ложной информации, это не означает, что люди верят им больше, чем достоверной информации. “У нас пока нет убедительных доказательств того, что наличие дезинформации в Интернете связано с изменениями в поведении”, – сказал он.