ИИ не несет угрозы человечеству, ведь он не способен к самообучению — исследование — Finance.ua
0 800 307 555
0 800 307 555

ИИ не несет угрозы человечеству, ведь он не способен к самообучению — исследование

Технологии&Авто
350
ИИ не несет угрозы человечеству, ведь он не способен к самообучению — исследование
ИИ не несет угрозы человечеству, ведь он не способен к самообучению — исследование
Искусственный интеллект часто изображают как угрозу человечеству, как в фильме «Терминатор» с восстанием Skynet. Однако новое исследование утверждает, что такой угрозы пока нет. Возглавлявшая это исследование украинский профессор компьютерных наук Ирина Гуревич отмечает, что больше стоит сосредоточиться на том, как именно используют искусственный интеллект.
Об этом сообщает Neuroscience News.
Исследование, проведенное совместно Университетом Бата и Техническим университетом Дармштадта, представленное на 62-й ежегодной встрече Ассоциации компьютерной лингвистики (ACL 2024), выявило, что большим языковым моделям (LLM) не хватает возможности самостоятельного обучения.
Хотя LLM способны следовать инструкциям и решать задачи, они не могут самостоятельно осваивать новые знания.
Исследователи пришли к выводу, что LLM в том состоянии, в каком они сейчас находятся, можно выпускать без опасений по поводу безопасности. Единственная угроза, которую может нести искусственный интеллект, заключается в злонамеренном применении реальными людьми.
В рамках исследования проводили эксперимент, в котором проверяли возможность ИИ выполнять сложные задачи, которые эти модели раньше никогда не выполняли.
Результатом стало то, что искусственный интеллект смог ответить на вопросы о социальных ситуациях, не будучи специально обученными или запрограммированными для этого.
Однако исследователи говорят, что ИИ не знает об этих ситуациях, вместо этого он использует контекстуальное обучение на основе нескольких примеров, которые ему представляли.
Доктор Хариш Тайяр Мадабуши, компьютерный ученый из Университета Бата и соавтор нового исследования отметил, что опасения заключались в том, что по мере того, как модели становятся все больше и больше, они смогут решать новые проблемы, которые мы не можем предугадать, что создает угрозу того, что эти более крупные модели могут приобрести опасные способности, включая рассуждения и планирование.
«Это вызвало много дискуссий — например, на Саммите по безопасности ИИ в прошлом году в Блетчли-Парке, где нас попросили прокомментировать, — но наше исследование показывает, что опасения, что модель пойдет и сделает что-то совершенно неожиданное, инновационное и потенциально опасное, не есть обоснованными», — сказал он.
Еще одним выводом исследователей стало то, что пытаться использовать искусственный интеллект для выполнения сложных задач, требующих сложных соображений без четких инструкций, будет ошибкой.
Если пользователи хотят получить наилучший результат, они должны как можно шире и со всеми подробностями расписывать поставленную задачу.
Ирина Гуревич говорит, что вместо того, чтобы беспокоиться о том, что искусственный интеллект будет представлять угрозу, нужно переживать из-за его злонамеренного использования.
«Наши результаты не означают, что ИИ вообще не представляет угрозы. Скорее мы показываем, что предполагаемое появление сложных навыков мышления, связанных с конкретными угрозами, не подтверждается доказательствами, и что мы можем очень хорошо контролировать процесс обучения LLM в итоге. Поэтому будущие исследования должны сосредоточиться на других рисках, которые несут в себе модели, например на их потенциале для создания фейковых новостей», — рассказала Гуревич.
По материалам:
mezha.media
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.

Поделиться новостью

Подпишитесь на нас