ChatGPT создание фальшивых научных исследований

ChatGPT: создание фальшивых научных исследований


"Питерские заметки", 16.03.2023:

Журнал Patterns опубликовал статью, в которой ученые из нескольких университетов США обсуждают потенциальные риски, связанные с продвинутыми языковыми моделями, включая ChatGPT.

Исследователи пишут о возможности использования таких моделей мошенниками для создания поддельных научных работ. Для демонстрации этой гипотезы, они сами создали фиктивную научную работу при помощи ChatGPT.

Эта работа была оформлена профессионально, но содержала ложные данные, вымышленных участников клинических испытаний и бессмысленные результаты. По словам исследователей, любой мошенник может создать подобную работу и отправить ее на публикацию в научное издание.

Исследователи провели аналог теста Тьюринга, в котором эксперты должны были определить, написана ли статья человеком или машиной. Эксперты ошибочно распознали 32% научных статей, созданных языковыми моделями, и 14% статей, написанных людьми.

По материалам: www.cell.compatterns

Внимание! Информация на сайте представлена исключительно в ознакомительных целях, не является призывом к действию. Перед применением любых рекомендаций обязательно проконсультируйтесь со специалистом. Могут иметься противопоказания или индивидуальная непереносимость.

Свежее:

Сенсорные нейроны помогают в процессе регенерации тканей, проинформировали исследователи ARMI

Общение с домашними питомцами — собаками повышает физическую активность у детей с ОВР, проинформировали эксперты OSU

Клетчатка помогает справиться с синдромом раздражённого кишечника, выяснили эксперты UMMS

МРТ не помогает визуализировать нейронную активность, заявили специалисты MIT

Комбинация лекарств помогает при лечении колоректального рака, сообщили исследователи VARI