Большие языковые модели могут навредить науке заявили учёные Оксфордского университета

Большие языковые модели могут навредить науке, заявили учёные Оксфордского университета


"Питерские заметки", 20.11.2023:

Большие языковые модели (LLM) известны своими неверными ответами. Учёные призывают ограничить использование LLM, чтобы защитить науку.

Исследователи из Оксфордского интернет-института объясняют, что люди часто воспринимают LLM как источник достоверной информации. Вместе с тем, LLM, созданные для предоставления убедительных ответов, не всегда гарантируют точность или соответствие фактам. Их обучение происходит на основе больших объёмов текстовых данных, часто взятых из онлайн-источников, где могут встречаться ложные утверждения и творческая литература.

Соответствующая статья была опубликована в журнале Nature Human Behavior.

Авторы работы признают потенциальную полезность технологии в научных задачах. Но при этом они подчёркивают, что внимательное изучение результатов необходимо для защиты науки и образования.

Профессор Сандра Вахтер отметила, что в научном сообществе жизненно важно доверять фактической информации, поэтому LLM нужно использовать ответственно.


Внимание! Информация на сайте представлена исключительно в ознакомительных целях, не является призывом к действию. Перед применением любых рекомендаций обязательно проконсультируйтесь со специалистом. Могут иметься противопоказания или индивидуальная непереносимость.