Исследователи подчеркнули важность мер, направленных на защиту медицинских знаний
Исследователи из Пекинского и Вашингтонского университетов показали, что большие языковые модели (LLM) могут быть использованы для отравления биомедицинских графов знаний (KG). Они показали, как LLM могут создавать сфабрикованные научные статьи, подрывая доверие к KG и влияя на медицинские исследования.
Цель исследования — изучить возможность искажения KG и оценить его влияние на биомедицинские открытия. Исследователи разработали конвейер Scorpius для создания вредоносных аннотаций, которые повышают релевантность между парами «лекарство — заболевание».
Они смешали эти аннотации с реальными научными статьями и обнаружили, что один вредоносный список может повысить рейтинг 71,3% пар «лекарство — заболевание». Это подчеркивает критическую уязвимость KG и необходимость мер по защите медицинских знаний.
© 2015-2024 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.