Ученые призвали разработать план на случай выхода ИИ из-под контроля — Finance.ua
0 800 307 555
0 800 307 555

Ученые призвали разработать план на случай выхода ИИ из-под контроля

Технологии&Авто
379
Ученые призвали разработать план на случай выхода ИИ из-под контроля
Ученые призвали разработать план на случай выхода ИИ из-под контроля
Группа ученых, специализирующихся на технологиях искусственного интеллекта, призвала власти разных стран разработать алгоритм действий на случай потери контроля над ИИ. Они написали открытое письмо с соответствующим предложением.
По словам экспертов отрасли, их беспокоит вероятность развития подобного сценария. Выход ИИ из-под контроля человека может привести к катастрофическим последствиям, считают они. По этой причине правительства стран по всему миру должны объединить усилия и действовать на опережение, говорится в послании.
«К сожалению, мы еще не разработали необходимую науку для контроля и защиты использования такого передового интеллекта. Глобальный характер этих рисков требует признания безопасности ИИ как мирового общественного блага и работы над управлением этими рисками», — говорится в заявлении.

Читайте также: Как заработать с помощью искусственного интеллекта

Ученые пришли к выводу, что первым шагом должно стать создание специализированных органов для выявления и реагирования на инциденты с ИИ. Эти службы будут координировать между собой действия по разработке плана чрезвычайных ситуаций, связанных с искусственным интеллектом.
В долгосрочной перспективе эксперты ожидают, что государства создадут международные принципы управления разработкой ИИ моделей. По их мнению, это позволит избежать создания технологий, которые могут представлять катастрофические риски.
«Необходимо провести глубокие фундаментальные исследования, обеспечивающие безопасность передовых систем ИИ. Эта работа должна начаться быстро, чтобы гарантировать, что они будут разработаны и проверены до появления инновационных ИИ», — отмечают авторы послания.
Ученые предложили правительствам стран сосредоточить усилия на трех ключевых аспектах:
  • соглашения и институты по обеспечению готовности к чрезвычайным ситуациям;
  • схемы обеспечения безопасности, требующие от разработчиков создания специальных мер перед развертыванием ИИ-моделей;
  • независимые глобальные исследования безопасности и проверки искусственного интеллекта.
Под открытым письмом оставили подписи более 30 специалистов ИИ-сферы из США, Канады, Китая, Сингапура, Великобритании и других стран.
По материалам:
incrypted
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.

Поделиться новостью

Подпишитесь на нас