Автор: Дарья Колмина
"Питерские заметки", 16.03.2023:
Журнал Patterns опубликовал статью, в которой ученые из нескольких университетов США обсуждают потенциальные риски, связанные с продвинутыми языковыми моделями, включая ChatGPT.
По информации: https://www.cell.com/patterns/
Исследователи пишут о возможности использования таких моделей мошенниками для создания поддельных научных работ. Для демонстрации этой гипотезы, они сами создали фиктивную научную работу при помощи ChatGPT.
Эта работа была оформлена профессионально, но содержала ложные данные, вымышленных участников клинических испытаний и бессмысленные результаты. По словам исследователей, любой мошенник может создать подобную работу и отправить ее на публикацию в научное издание.
Исследователи провели аналог теста Тьюринга, в котором эксперты должны были определить, написана ли статья человеком или машиной. Эксперты ошибочно распознали 32% научных статей, созданных языковыми моделями, и 14% статей, написанных людьми.















