Песочница ChatGPT открывает доступ к конфиденциальной информации


"Питерские заметки", 18.11.2024:

Открытие, сделанное экспертом Mozilla Марко Фигероа, касающееся недокументированных возможностей песочницы ChatGPT, привлекло внимание к потенциальной уязвимости ИИ-систем. В ходе эксперимента, когда Фигероа запрашивал список файлов с помощью команды, аналогичной Linux-команде ls (list files), бот предоставил список директорий и файлов, характерных для Linux-системы, таких как /bin, /dev, /tmp, /sys. Это указывает на то, что ChatGPT может иметь доступ к файловой системе хост-системы, несмотря на работу в изолированной среде.

Особое внимание привлекла директория /home/sandbox/.openai_internal/, где могли храниться конфигурационные файлы и другие данные, относящиеся к внутренней работе ChatGPT.

Хотя доступ к этим данным был ограничен в пределах изолированной среды и не выходил за её пределы, подобные уязвимости в песочнице могут не только раскрывать информацию о системе, но и представлять угрозу для конфиденциальности данных. В ответ на отчет разработчики OpenAI приняли его к сведению, однако ограничений по доступу или изменений в безопасности не было введено.

Эксперимент Фигероа поднимает вопросы о безопасности и конфиденциальности в системах ИИ, особенно в контексте обработки данных и возможности раскрытия конфиденциальной информации, даже если она остаётся внутри контролируемой среды.

Внимание! Информация на сайте представлена исключительно в ознакомительных целях, не является призывом к действию. Перед применением любых рекомендаций обязательно проконсультируйтесь со специалистом. Могут иметься противопоказания или индивидуальная непереносимость.