Сильный ИИ мораторий на разработку

«Сильный ИИ»: мораторий на разработку


"Питерские заметки", 30.03.2023:

Известные ученые и бизнесмены считают, что искусственный интеллект может привести к серьезным угрозам для всего человечества.

Они предлагают запретить разработку новых моделей ИИ, пока не будет создана эффективная система регулирования. Это мнение поддерживают известные личности, включая Илона Маска, Стива Возняка и руководителей компаний Stability AI и Conjecture.

Предлагается ввести полугодовой мораторий на разработку новых моделей ИИ, в течение которого власти должны создать специальные ведомства для контроля за этой сферой. Некоторые считают, что это поможет создать "золотой век" искусственного интеллекта, когда машины будут работать на благо людей, а не против них.

В противном случае, по их мнению, появление мощного ИИ может привести к негативным последствиям.

Главный аналитик Центра искусственного интеллекта МФТИ Игорь Пивоваров отмечает, что большие модели искусственного интеллекта становятся все более масштабными, и понимание того, что происходит внутри них, уменьшается.

По материалам: www.bfm.runews

Внимание! Информация на сайте представлена исключительно в ознакомительных целях, не является призывом к действию. Перед применением любых рекомендаций обязательно проконсультируйтесь со специалистом. Могут иметься противопоказания или индивидуальная непереносимость.

Свежее:

У пожилых людей с делирием чаще развивается деменция, рассказали эксперты Университета Квинсленда

Плавание на открытой воде помогает при депрессии, выяснили учёные Портсмутского университета

Сенсорные нейроны помогают в процессе регенерации тканей, проинформировали исследователи ARMI

Общение с домашними питомцами — собаками повышает физическую активность у детей с ОВР, проинформировали эксперты OSU

Клетчатка помогает справиться с синдромом раздражённого кишечника, выяснили эксперты UMMS