Учёные заявили что ИИ нужно научить забывать информацию

Учёные заявили, что ИИ нужно научить забывать информацию


"Питерские заметки", 02.11.2023:

Научные исследователи поднимают проблему, связанную с технологией искусственного интеллекта - необходимостью обучения её забывать. Учёные из Университета Уорвика в сотрудничестве с Google DeepMind разрабатывают новые методы, которые позволят удалить из моделей глубоких нейронных сетей (DNN) данные, представляющие угрозу для общества. Возможность "машинного забывания" может быть важным инструментом для снижения рисков использования ИИ. Новый алгоритм позволяет DNN забывать данные, не нарушая его общую производительность.

Саммит искусственного интеллекта находится в разгаре, и исследователи стремятся привлечь внимание к довольно серьёзной проблеме, связанной с этой технологией - обучением её забывать. Современное общество оживлено современным искусственным интеллектом и его удивительными возможностями. Нам постоянно напоминают о его потенциальных выгодах, охватывающих практически все сферы нашей жизни, но также и о его опасностях.

В новом исследовательском направлении учёные выделяют важное средство по смягчению рисков искусственного интеллекта. Они разрабатывают новые способы заставить искусственные нейронные сети (DNNs) забывать данные, которые представляют опасность для общества.

Проблема заключается в том, что переобучение программ искусственного интеллекта для "забывания" данных - это очень дорогостоящая и трудоёмкая задача. Современные DNNs, такие как те, которые основаны на "больших языковых моделях" (как ChatGPT, Bard и др.), требуют огромных ресурсов для обучения. Кроме того, для каждой программы обучения требуется десятки гигаватт-часов энергии, что, по некоторым оценкам, соответствует энергопотреблению тысяч домохозяйств в течение года.

"Разучивание машин" - это новое направление исследований, которое может позволить быстро, дёшево и с меньшими затратами удалять проблемные данные из DNNs. Цель - сделать это, сохраняя высокую точность.

Профессор Питер Триантафиллоу сказал, что DNNs - это крайне сложные структуры, состоящие из миллионов параметров. Часто нет чёткого понимания того, как и почему они достигают своих целей. Из-за своей сложности и масштаба наборов данных DNNs могут быть вредными для общества. DNNs могут содержать данные с "ошибочными метками", например, неправильной маркировкой элементов, такой как маркировка изображения как глубокого фейка или нет.

DNNs могут обучаться на данных, которые нарушают конфиденциальность личности. Разучивание машин - это направление исследований, которое может стать важным инструментом в борьбе с рисками искусственного интеллекта.

Ранее мы писали о том, что собственнику выдано уже третье предписание об устранении нарушений, но ситуация на опасном замусоренном участке на Зелёной, 26 в Великом Новгороде не меняется месяцами.

Есть тема для новости по Великому Новгороду? Ждём Вас здесь!

По этой ссылке вы можете добавить наш сайт в избранные на Дзен, чтобы видеть "Питерские заметки" чаще!

Внимание! Информация на сайте представлена исключительно в ознакомительных целях, не является призывом к действию. Перед применением любых рекомендаций обязательно проконсультируйтесь со специалистом. Могут иметься противопоказания или индивидуальная непереносимость.


Свежее:

Работа уличного освещения на Завокзальной в Великом Новгороде восстановлена

Полуфинал фестиваля «Профи-старт» прошёл в Великом Новгороде

Работы по ремонту тротуаров завершены в Великом Новгороде

Центральный вход Старорусского ЗАГСа украсили цветочные вазоны

Развитие музея-заповедника обсудили Андрей Никитин и Максим Орешкин

Рост туристического потока в регион открывает возможности - Андрей Никитин

Специалисты в Новгородской области восстанавливают повреждённые штормом ЛЭП

Две территории благоустроят в Поддорском поселении

«Бумажные журавлики» снова появились на фасаде школы в Боровичах

Фермер выиграла грант на выращивание малины в Новгородской области