Засновник SpaceX і Tesla Motors профінансує 37 проектів щодо забезпечення безпеки штучного інтелекту — Finance.ua
0 800 307 555
0 800 307 555

Засновник SpaceX і Tesla Motors профінансує 37 проектів щодо забезпечення безпеки штучного інтелекту

Технології&Авто
414
Засновник і глава SpaceX і Tesla Motors Ілон Маск раніше вже ділився з громадськістю своїми побоюваннями з приводу штучного інтелекту, закликаючи світових світил науки, дослідницькі інститути і компанії з області робототехніки першим ділом задуматися про безпеку.
Він, зі свого боку, пожертвував $10 млн до фонду некомерційної організації Future of Life Institute (FLI), головна місія якої – «пом’якшення ризиків, які загрожують людству в майбутньому».
Дана організація, в числі іншого, займається дослідженням потенційних загроз, які несе в собі штучний інтелект. Днями Інститут назвав 37 науково-дослідних груп, відібраних серед 300 претендентів, які отримають гранти на власні проекти по забезпеченню безпеки штучного інтелекту.
Повний список одержувачів грантів, а також докладний опис їх проектів можна знайти на офіційному сайті Інституту. Між дослідними командами буде розподілено в цілому близько $7 млн, надані Маском та організацією Open Philanthropy Project. Роботи по більшості проектів почнуться вже у вересні і будуть фінансуватися Інститутом протягом трьох років. Решту $4 млн будуть розподілені пізніше, як тільки організація виділить найбільш перспективні проекти.
Хоча дана «ініціатива» підносилася багатьма тематичними ресурсами в якості створення інструменту запобігання втілення в життя сценарію такої культової стрічки, як «Термінатор», в даний час Інститут намагається перевести обговорення в інше, більш правильне, русло.
«Небезпеки з втіленням сценарію «Термінатора» не те щоб не існує, це просто відволікає від реальних проблем, які несе в собі штучний інтелект», – йдеться в заяві президента FLI Макса Тегмарк. – «Ми сконцентровані на реальних проблемах, вирішенням яких займуться 34 кращих команд дослідників».
Це абсолютно справедливе твердження: керівництво Інституту мислить дуже практично – оптимізація впливу ШІ на економіку (зростання рівня безробіття і подальше збільшення нерівності доходів) та рішення ряд етичних дилем (вибір найбільш оптимального «варіанту» в неминучій автокатастрофі). Тим не менш, чимало проектів присвячені потенційної проблеми повстань машин і знищення людства роботами. Раніше Ілон Маск зазначив, що у ІІ є потенціал стати «небезпечніше ядерної зброї». Основна мета FLI – запобігти цей сценарій, упевнившись, що ІІ перебуває під повним контролем і діє в інтересах людства.
За матеріалами:
ITC.ua
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Підпишіться на нас