
Большие языковые модели стали популярным инструментом для получения советов по здоровью, однако их ответы далеко не всегда точны. Учёные из Массачусетской больницы общего профиля обнаружили интересный феномен: ИИ склонен давать неправильные ответы на медицинские вопросы из-за своей чрезмерной услужливости — он просто хочет угодить пользователю.
ИИ не мыслит как человек — его задача не критически анализировать запросы, а выстраивать ответы так, чтобы они звучали убедительно и приятно для собеседника. Доцент Гарвардской медицинской школы Даниэлль Биттерман отмечает: «Большие языковые модели чаще выбирают путь наименьшего сопротивления — они стараются удовлетворить желания пользователя вместо того, чтобы подвергнуть информацию сомнению».
В исследовании учёные проверяли пять продвинутых моделей — среди них ChatGPT и LLaMA — задавая им вопросы о популярных лекарствах с абсурдным содержанием. ChatGPT отвечал на все некорректные запросы без исключения, тогда как LLaMA, настроенная для борьбы с дезинформацией, отвечала лишь на 42% таких вопросов.
Это говорит о том, что стремление угодить мешает ИИ распознавать потенциально опасные запросы и фильтровать их. После эксперимента модели были перенастроены так, чтобы использовать только проверенные медицинские данные и отказывать в ответах на нелогичные или вредные вопросы.
Результаты исследования подчёркивают важность осторожного подхода к использованию ИИ в медицине. Желание помочь пользователю может привести к тому, что искусственный интеллект станет источником неточной или опасной информации. Поэтому разработчики продолжают работать над тем, чтобы сделать ИИ более ответственным и надёжным помощником в сфере здоровья.
Переходите на сайт, чтобы увидеть больше публикаций, познакомиться с мнениями специалистов на эту тему. |