Ученые спрогнозировали, когда искусственный интеллект будет угрожать мировой безопасности — Finance.ua
0 800 307 555
0 800 307 555

Ученые спрогнозировали, когда искусственный интеллект будет угрожать мировой безопасности

Технологии&Авто
689
Ученые спрогнозировали, когда искусственный интеллект будет угрожать мировой безопасности
Ученые спрогнозировали, когда искусственный интеллект будет угрожать мировой безопасности
Экс-работник OpenAI Леопольд Ашенбреннер опубликовал эссе, в котором выразил обеспокоенность, связанную с быстрым развитием всеобщего искусственного интеллекта (AGI). Работа составлена ​​в рамках инициативы Situational Awareness («Ситуативная осведомленность») и посвящена ушедшему в отставку соучредителю OpenAI Илье Суцкеверу.
«Гонки AGI начались. Мы строим машины, которые могут думать и размышлять. К 2025−2026 годам эти машины обгонят многих выпускников колледжей. Далее вмешаются органы национальной безопасности. Правительство США пробудится, и в 2027—2028 году мы получим некую форму правительственного проекта AGI. Ни один стартап не сможет справиться с сверхинтеллектом. Где-то у SiFi наступит финал», — пишет Ашенбреннер.

Читайте также: Как заработать с помощью искусственного интеллекта

Сотрудники ИИ-корпораций составили обращение с требованием расширить права на разглашение потенциально опасной корпоративной информации.
«Компании, занимающиеся искусственным интеллектом, обладают закрытой информацией о возможностях и ограничениях своих систем, их защитных мерах и уровнях риска [технологий]. Пока у них есть лишь несущественные обязательства по предоставлению части этой информации правительствам, но не общественности», — говорится в документе.
Среди подписавших письмо 13 бывших и действующих сотрудников OpenAI, Google DeepMind и Anthropic, некоторые пожелали остаться анонимными. Авторы считают, что пока за ИИ-гигантами не установят эффективный государственный надзор, их работники «единственные, кто может привлечь их к ответственности».
Однако у таких компаний есть «сильные финансовые стимулы, чтобы избежать надзора». По словам авторов документа, чаще всего их ограничивают соглашения о конфиденциальности и другие корпоративные процедуры:
«Обычных мер защиты информаторов недостаточно, поскольку они завязаны на незаконной деятельности, тогда как многие беспокоящие нас риски еще не регулируются. Некоторые не без оснований опасаются разных форм возмездия, учитывая историю подобных случаев в отрасли».
В качестве смягчающей меры, авторы предложили корпорациям придерживаться нескольких принципов:
  • Не заключать соглашения, запрещающие «унижение» или критику компании.
  • Обеспечивать анонимность и беспристрастность по отношению к сотруднику, который сообщил о риске.
  • Поддерживать «культуру открытой критики» и признать возможные опасения от манипуляций с ИИ до потери контроля над ним, известной как «сингулярность».
  • Не принимать ответных мер в отношении работников, которые опубликовали связанную с опасениями конфиденциальную информацию.
При этом ведущие национальные компании-разработчики рассматривают безопасность как второстепенную задачу. В настоящее время исследовательские учреждения «подносят на блюдечке AGI для Коммунистической партии Китая».
«Суперинтеллект даст решающее экономическое и военное преимущество. КНР еще не вышла из игры. В гонке за созданием AGI на карту будет поставлена ​​именно выживание свободного мира. Сможем ли мы сохранить наше превосходство над авторитарными государствами? Удастся ли нам избежать самоуничтожения на этом пути?», — размышляет Ашенбреннер.
Он считает, что только определенный круг лиц, связанных с разработкой ИИ-технологии, могут повлиять на будущее человечества.
По материалам:
noworries
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.

Поделиться новостью

Подпишитесь на нас