Автор: Дарья Колмина
"Питерские заметки", 20.11.2023:
Большие языковые модели (LLM) известны своими неверными ответами. Учёные призывают ограничить использование LLM, чтобы защитить науку.
Исследователи из Оксфордского интернет-института объясняют, что люди часто воспринимают LLM как источник достоверной информации. Вместе с тем, LLM, созданные для предоставления убедительных ответов, не всегда гарантируют точность или соответствие фактам. Их обучение происходит на основе больших объёмов текстовых данных, часто взятых из онлайн-источников, где могут встречаться ложные утверждения и творческая литература.
Соответствующая статья была опубликована в журнале Nature Human Behavior.
Авторы работы признают потенциальную полезность технологии в научных задачах. Но при этом они подчёркивают, что внимательное изучение результатов необходимо для защиты науки и образования.
Профессор Сандра Вахтер отметила, что в научном сообществе жизненно важно доверять фактической информации, поэтому LLM нужно использовать ответственно.
Исследователи из Оксфордского интернет-института объясняют, что люди часто воспринимают LLM как источник достоверной информации. Вместе с тем, LLM, созданные для предоставления убедительных ответов, не всегда гарантируют точность или соответствие фактам. Их обучение происходит на основе больших объёмов текстовых данных, часто взятых из онлайн-источников, где могут встречаться ложные утверждения и творческая литература.
Соответствующая статья была опубликована в журнале Nature Human Behavior.
Авторы работы признают потенциальную полезность технологии в научных задачах. Но при этом они подчёркивают, что внимательное изучение результатов необходимо для защиты науки и образования.
Профессор Сандра Вахтер отметила, что в научном сообществе жизненно важно доверять фактической информации, поэтому LLM нужно использовать ответственно.