FT: медицинский ИИ недооценивает симптомы у женщин и некоторых этнических групп

Инструменты искусственного интеллекта (ИИ), разработанные для помощи врачам, могут недооценивать симптомы различных заболеваний у женщин, а также у некоторых расовых и этнических групп. Это, в свою очередь, может вести к тому, что представителям этих групп будет оказываться менее качественное лечение. Об этом пишет Financial Times (FT) со ссылкой сразу на несколько научных исследований.

Как отмечает FT, многие врачи уже используют как обычные чат-боты, такие как Gemini и ChatGPT, так и специализированные медицинские ИИ-инструменты, помогающие заполнять карты пациентов, выделять в них важные симптомы, делать краткие обзоры историй болезни и т. д.

В июне группа ученых Массачусетского технологического института (MIT) проанализировала несколько таких чат-ботов и ИИ-инструментов, в том числе GPT-4 и Palmyra-Med. Исследователи пришли к выводу, что многие из них рекомендовали врачам намного более низкий уровень ухода за женщинами, а самим пациенткам чаще предлагали самолечение. Авторы другого исследования MIT обнаружили те же закономерности при выдаче рекомендаций чернокожим и азиатам.

Еще одно исследование MIT свидетельствует о том, что пациентам, допускавшим много опечаток и ошибок из-за того, что английский не был для них родным языком, чат-боты на 7–9% реже рекомендовали обратиться к врачу в сравнении с теми, кто писал грамотнее. Ученые из Лондонской школы экономики также пришли к выводу, что ИИ-модель Gemma от Google, которую применяют во многих социальных учреждениях в Великобритании, недооценивала физические и психические проблемы у женщин при составлении и обобщении историй болезни.

Яна Рождественская