Учені закликали розробити план на випадок виходу ШІ з-під контролю — Finance.ua
0 800 307 555
0 800 307 555

Учені закликали розробити план на випадок виходу ШІ з-під контролю

Технології&Авто
384
Учені закликали розробити план на випадок виходу ШІ з-під контролю
Учені закликали розробити план на випадок виходу ШІ з-під контролю
Група вчених, що спеціалізуються на технологіях штучного інтелекту, закликала владу різних країн розробити алгоритм дій на випадок втрати контролю над ШІ. Вони написали відкритого листа з відповідною пропозицією.
За словами експертів галузі, їх турбує ймовірність розвитку подібного сценарію. Вихід ШІ з-під контролю людини може призвести до катастрофічних наслідків, вважають вони. З цієї причини уряди країн по всьому світу повинні об’єднати свої зусилля і діяти на випередження, йдеться в посланні.
«На жаль, ми ще не розробили необхідну науку для контролю і захисту використання такого передового інтелекту. Глобальний характер цих ризиків вимагає визнання безпеки ШІ як світового суспільного блага і роботи над управлінням цими ризиками», — йдеться в заяві.

Читайте також: Як заробити за допомогою штучного інтелекту

Науковці дійшли висновку, що першим кроком має стати створення спеціалізованих органів для виявлення та реагування на інциденти з ШІ. Ці служби координуватимуть між собою дії з розроблення плану для надзвичайних ситуацій, пов’язаних зі штучним інтелектом.
У довгостроковій перспективі експерти очікують, що держави створять міжнародні принципи управління розробкою ШІ-моделей. На їхню думку, це дасть змогу уникнути створення технологій, які можуть становити катастрофічні ризики.
«Необхідно провести глибокі фундаментальні дослідження, щоб забезпечити безпеку передових систем ШІ. Ця робота має розпочатися швидко, щоб гарантувати, що їх буде розроблено та перевірено до появи інноваційних ШІ», — зазначають автори послання.
Вчені запропонували урядам країн зосередити зусилля на трьох ключових аспектах:
  • угоди та інститути щодо забезпечення готовності до надзвичайних ситуацій;
  • схеми забезпечення безпеки, які вимагають від розробників створення спеціальних заходів перед розгортанням ШІ-моделей;
  • незалежні глобальні дослідження безпеки та перевірки штучного інтелекту.
Під відкритим листом залишили підписи понад 30 фахівців ШІ-сфери зі США, Канади, Китаю, Сінгапуру, Великої Британії та інших країн.
За матеріалами:
incrypted
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Підпишіться на нас