Засновник SpaceX і Tesla Motors профінансує 37 проектів щодо забезпечення безпеки штучного інтелекту


Засновник SpaceX і Tesla Motors профінансує 37 проектів щодо забезпечення безпеки штучного інтелекту

Засновник і глава SpaceX і Tesla Motors Ілон Маск раніше вже ділився з громадськістю своїми побоюваннями з приводу штучного інтелекту, закликаючи світових світил науки, дослідницькі інститути і компанії з області робототехніки першим ділом задуматися про безпеку.

Він, зі свого боку, пожертвував $10 млн до фонду некомерційної організації Future of Life Institute (FLI), головна місія якої – «пом’якшення ризиків, які загрожують людству в майбутньому».

Дана організація, в числі іншого, займається дослідженням потенційних загроз, які несе в собі штучний інтелект. Днями Інститут назвав 37 науково-дослідних груп, відібраних серед 300 претендентів, які отримають гранти на власні проекти по забезпеченню безпеки штучного інтелекту.

Повний список одержувачів грантів, а також докладний опис їх проектів можна знайти на офіційному сайті Інституту. Між дослідними командами буде розподілено в цілому близько $7 млн, надані Маском та організацією Open Philanthropy Project. Роботи по більшості проектів почнуться вже у вересні і будуть фінансуватися Інститутом протягом трьох років. Решту $4 млн будуть розподілені пізніше, як тільки організація виділить найбільш перспективні проекти.

Хоча дана «ініціатива» підносилася багатьма тематичними ресурсами в якості створення інструменту запобігання втілення в життя сценарію такої культової стрічки, як «Термінатор», в даний час Інститут намагається перевести обговорення в інше, більш правильне, русло.

«Небезпеки з втіленням сценарію «Термінатора» не те щоб не існує, це просто відволікає від реальних проблем, які несе в собі штучний інтелект», – йдеться в заяві президента FLI Макса Тегмарк. – «Ми сконцентровані на реальних проблемах, вирішенням яких займуться 34 кращих команд дослідників».

Це абсолютно справедливе твердження: керівництво Інституту мислить дуже практично – оптимізація впливу ШІ на економіку (зростання рівня безробіття і подальше збільшення нерівності доходів) та рішення ряд етичних дилем (вибір найбільш оптимального «варіанту» в неминучій автокатастрофі). Тим не менш, чимало проектів присвячені потенційної проблеми повстань машин і знищення людства роботами. Раніше Ілон Маск зазначив, що у ІІ є потенціал стати «небезпечніше ядерної зброї». Основна мета FLI – запобігти цей сценарій, упевнившись, що ІІ перебуває під повним контролем і діє в інтересах людства.

  • i

    Якшо Ви помітили помилку, виділіть необхідну частину тексту й натисніть Ctrl+Enter, щоб повідомити про це нам.

Дивись також
Сервіс підбору кредитів
  • Надішліть заявку
  • Дізнайтесь про рішення банку
  • Підтвердіть заявку та отримайте гроші
грн
Замовити кредит онлайн
Топ новини
Обговорюють

Читають

В Контексті Finance.ua