Искусственный интеллект против человечества: Маск, Хокинг и Возняк предостерегают, что пора остановиться — Finance.ua
0 800 307 555
0 800 307 555

Искусственный интеллект против человечества: Маск, Хокинг и Возняк предостерегают, что пора остановиться

Технологии&Авто
5801
Элон Маск, Стивен Хокинг, Стив Возняк и ведущие мировые ученые в области развития искусственного интеллекта (ИИ) считают, что человечество может зайти слишком далеко в гонке вооружений и призывают сделать все возможное, дабы мир не настигла катастрофа.
Волонтерская организация Future of Life Institute опубликовала открытое письмо, в котором призывает отказаться от «гонки ИИ-вооружений» (AI Arms Race).
Письмо подписали более тысячи ученых и ведущих представителей информационного бизнеса. Суть сводится к тому, что гонка вооружений выходит на новый уровень: разработку и внедрение оружия с собственным искусственным интеллектом.
ИИ-вооружение может контролироваться издалека без непосредственного присутствия живого человека в зоне боевых действий.
«Автономное оружие станет «автоматом Калашникова» будущего. В отличие от ядерного оружия, оно не требует дорогостоящих или труднодоступных материалов, так что оно станет вездесущим и дешевым для массового производства. То, как скоро это оружие появится на черном рынке – лишь вопрос времени. Автономное оружие идеально подходит для заказных убийств, дестабилизации жизни наций, подчинения населения и выборочного истребления отдельных этнических групп», — говорится в письме.
Авторы сообщения указывают и на явные преимущества данного вида вооружения, которые включают сохранение человеческих жизней. Но, в то же время, приходят к однозначному выводу, что ИИ-вооружение будет нести собой катастрофическую опасность для человечества и новый виток гонки вооружений следует немедленно прекратить.
Под открытым письмом подписались выдающиеся ученые в сфере разработки искусственного интеллекта из множества стран мира. Помимо этого, Элон Маск, Стивен Хокинг, Стив Возняк и другие известные IT-предприниматели высказались в поддержку остановки гонки ИИ-вооружения.
«Искусственный интеллект может стать полезен человечеству во множестве аспектов (…) Но запускать гонку ИИ-вооружений – плохая идея, которая должна быть предотвращена за счет запрета развития автономного вооружения», — резюмируют ученые.
По материалам:
Ain.Ua
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.

Поделиться новостью

Подпишитесь на нас