Науковці спрогнозували, коли штучний інтелект загрожуватиме світовій безпеці — Finance.ua
0 800 307 555
0 800 307 555

Науковці спрогнозували, коли штучний інтелект загрожуватиме світовій безпеці

Технології&Авто
689
Науковці спрогнозували, коли штучний інтелект загрожуватиме світовій безпеці
Науковці спрогнозували, коли штучний інтелект загрожуватиме світовій безпеці
Експрацівник OpenAI Леопольд Ашенбреннер опублікував есе, в якому висловив занепокоєння, пов’язане зі швидким розвитком загального штучного інтелекту (AGI). Робота складена в рамках ініціативи Situational Awareness («Ситуативна обізнаність») і присвячена співзасновнику OpenAI Іллі Суцкеверу, який пішов у відставку.
«Перегони AGI почалися. Ми будуємо машини, які можуть думати й міркувати. До 2025−2026 року ці машини обженуть багатьох випускників коледжів. Далі втрутяться органи національної безпеки. Уряд США прокинеться, і у 2027−2028 році ми отримаємо якусь форму урядового проекту AGI. Жоден стартап не зможе впоратися з надінтелектом. Десь у SiFi настане фінал», — пише Ашенбреннер.

Читайте також: Як заробити за допомогою штучного інтелекту

Працівники ШІ-корпорацій склали звернення з вимогою розширити права на розголошення потенційно небезпечної корпоративної інформації.
«Компанії, що займаються штучним інтелектом, володіють закритою інформацією про можливості та обмеження своїх систем, їхні захисні заходи та рівні ризику [технологій]. Наразі у них є лише несуттєві зобов’язання з надання частини цієї інформації урядам, але не громадськості», — йдеться в документі.
Серед тих, хто підписав лист, 13 колишніх і чинних співробітників OpenAI, Google DeepMind і Anthropic, деякі побажали залишитися анонімними. Автори вважають, що поки за ШІ-гігантами не встановлять ефективний державний нагляд, їхні працівники є «єдиними, хто може притягнути їх до відповідальності».
Однак у таких компаній, є «сильні фінансові стимули, щоб уникнути нагляду». За словами авторів документа, найчастіше їх обмежують угоди про конфіденційність та інші корпоративні процедури:
«Звичайних заходів захисту інформаторів недостатньо, оскільки вони зав’язані на незаконній діяльності, тоді як багато ризиків, які нас турбують, ще не регулюються. Деякі обґрунтовано побоюються різних форм відплати, враховуючи історію подібних випадків у галузі».
Як пом’якшувальний захід, автори запропонували корпораціям дотримуватися кількох принципів:
  • Не укладати угод, які забороняють «приниження» або критику компанії.
  • Забезпечувати анонімність і неупередженість щодо співробітника, який повідомив про ризик.
  • Підтримувати «культуру відкритої критики» і визнати можливі побоювання — від маніпуляцій з ШІ до втрати контролю над ним, відомої як «сингулярність».
  • Не вживати заходів у відповідь щодо працівників, які опублікували пов’язану з побоюваннями конфіденційну інформацію.
При цьому провідні національні компанії-розробники розглядають безпеку як другорядне завдання. Наразі дослідницькі установи «підносять на блюдечку AGI для Комуністичної партії Китаю».
«Суперінтелект дасть вирішальну економічну і військову перевагу. КНР ще не вийшла з гри. У перегонах за створенням AGI на карту буде поставлено саме виживання вільного світу. Чи зможемо ми зберегти нашу перевагу над авторитарними державами? І чи вдасться нам уникнути самознищення на цьому шляху?», — роздумує Ашенбреннер.
Він вважає, що лише певне коло осіб, хто пов’язаний з розробкою ШІ-технології, можуть вплинути на майбутнє людства.
За матеріалами:
noworries
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Підпишіться на нас