Автор: Дарья Колмина
"Питерские заметки", 30.03.2023:
Известные ученые и бизнесмены считают, что искусственный интеллект может привести к серьезным угрозам для всего человечества.
Они предлагают запретить разработку новых моделей ИИ, пока не будет создана эффективная система регулирования. Это мнение поддерживают известные личности, включая Илона Маска, Стива Возняка и руководителей компаний Stability AI и Conjecture.
Предлагается ввести полугодовой мораторий на разработку новых моделей ИИ, в течение которого власти должны создать специальные ведомства для контроля за этой сферой. Некоторые считают, что это поможет создать "золотой век" искусственного интеллекта, когда машины будут работать на благо людей, а не против них.
В противном случае, по их мнению, появление мощного ИИ может привести к негативным последствиям.
Главный аналитик Центра искусственного интеллекта МФТИ Игорь Пивоваров отмечает, что большие модели искусственного интеллекта становятся все более масштабными, и понимание того, что происходит внутри них, уменьшается.
Они предлагают запретить разработку новых моделей ИИ, пока не будет создана эффективная система регулирования. Это мнение поддерживают известные личности, включая Илона Маска, Стива Возняка и руководителей компаний Stability AI и Conjecture.
Предлагается ввести полугодовой мораторий на разработку новых моделей ИИ, в течение которого власти должны создать специальные ведомства для контроля за этой сферой. Некоторые считают, что это поможет создать "золотой век" искусственного интеллекта, когда машины будут работать на благо людей, а не против них.
В противном случае, по их мнению, появление мощного ИИ может привести к негативным последствиям.
Главный аналитик Центра искусственного интеллекта МФТИ Игорь Пивоваров отмечает, что большие модели искусственного интеллекта становятся все более масштабными, и понимание того, что происходит внутри них, уменьшается.
По информации: https://www.bfm.ru/news/