Google разработал «красную кнопку» для экстренного отключения искусственного интеллекта — Finance.ua
0 800 307 555
0 800 307 555

Google разработал «красную кнопку» для экстренного отключения искусственного интеллекта

Технологии&Авто
863
Тема безопасности разработок искусственного интеллекта тревожит умы Элона Маска, Стивена Хокинга и других известных личностей, который заявляют о потенциальной угрозе человечеству со стороны машин. Чтобы избежать потенциальной опасности, исследовательская компания Google DeepMind объединилась с учеными Оксфордского университета для разработки системы аварийного отключения ИИ, сообщает Business Insider со ссылкой на работу, опубликованную на сайте Института изучения машинного интеллекта (MIRI).
«Если такой агент [искусственный интеллект] работает в реальном времени под надзором человека, сейчас и в дальнейшем у оператора может возникнуть необходимость нажать на большую красную кнопку, чтобы предотвратить исполнение агентом опасных для него или окружения действий», — говорится в работе ученых.
Исследователи утверждают, что им удалось разработать «фреймворк», который позволяет оператору многократно и безопасно прерывать работу ИИ. В то же время цель работы ученых — также удостовериться, что ИИ не сможет найти способов обойти и предотвратить собственное аварийное отключение.
Целью компании DeepMind, купленной Google в 2014 году за сумму около $580 млн, является создание сильного искусственного интеллекта (способного выполнять любые задачи, с которыми справляется человек). Одной из условий покупки компании корпорацией было создание совета по этике искусственного интеллекта, так как его создание может потенциально нести опасность для человечества.
Исследованием именно таких опасностей и занимается Институт изучения машинного интеллекта. Его возглавляет известный специалист в области ИИ философ Ник Бостром, который утверждает, что машины превзойдут человека в ближайшие 100 лет.
По материалам:
Business Insider
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.

Поделиться новостью

Подпишитесь на нас