ШІ не несе загрози людству, адже він не здатний до самонавчання — дослідження
Штучний інтелект часто зображають як загрозу для людства, як у фільмі «Термінатор» з повстанням Skynet. Однак нове дослідження стверджує, що така загроза наразі не існує. Українська професорка комп’ютерних наук Ірина Гуревич, яка очолювала це дослідження, зазначає, що більше варто зосередитися на тому, як саме використовують штучний інтелект.
Про це повідомляє Neuroscience News.
Дослідження, проведене спільно Університетом Бата і Технічним університетом Дармштадта та представлене на 62-й щорічній зустрічі Асоціації комп’ютерної лінгвістики (ACL 2024), виявило, що великим мовним моделям (LLM) не вистачає можливості самостійного навчання.
Хоча LLM здатні виконувати інструкції та розв’язувати задачі, вони не можуть самостійно освоювати нові знання.
Дослідники дійшли до висновку, що LLM у тому стані, в якому вони є зараз, можна випускати без занепокоєнь щодо безпеки. Єдина загроза, яку може нести штучний інтелект, полягає у зловмисному застосуванні реальними людьми.
У межах дослідження проводили експеримент, у якому перевіряли можливість ШІ виконувати складні задачі, які ці моделі раніше ніколи не виконували.
Результатом стало те, що штучний інтелект зміг відповісти на запитання про соціальні ситуації, не бувши спеціально навченими чи запрограмованими для цього.
Однак дослідники кажуть, що ШІ не знає про ці ситуації, натомість він використовує контекстуальне навчання на основі кількох прикладів, які йому представляли.
Доктор Харіш Тайяр Мадабуші, комп’ютерний науковець з Університету Бата і співавтор нового дослідження зазначив, що побоювання полягало у тому, що в міру того, як моделі стають все більшими й більшими, вони зможуть розв’язувати нові проблеми, які ми не можемо передбачити, що створює загрозу того, що ці більші моделі можуть набути небезпечних здібностей, включаючи міркування і планування.
«Це викликало багато дискусій — наприклад, на Саміті з безпеки ШІ минулого року в Блетчлі-Парку, де нас попросили прокоментувати, — але наше дослідження показує, що побоювання, що модель піде і зробить щось абсолютно несподіване, інноваційне і потенційно небезпечне, не є обґрунтованими», — сказав він.
Ще одним висновком дослідників стало те, що намагатися використати штучний інтелект для виконання складних завдань, які вимагають складних міркувань без чітких інструкцій, буде помилкою.
Натомість якщо користувачі хочуть отримати найкращий результат, вони повинні якомога ширше та з усіма подробицями розписувати поставлену задачу.
Ірина Гуревич каже, що замість того, щоб переживати за те, що штучний інтелект буде становити загрозу, треба переживати через його зловмисне використання.
«Наші результати не означають, що ШІ взагалі не є загрозою. Скоріше, ми показуємо, що передбачувана поява складних навичок мислення, пов’язаних з конкретними загрозами, не підтверджується доказами, і що ми можемо дуже добре контролювати процес навчання LLM у підсумку. Тому майбутні дослідження повинні зосередитися на інших ризиках, які несуть у собі моделі, наприклад, на їхньому потенціалі для створення фейкових новин», — розповіла Гуревич.
За матеріалами: mezha.media
Поділитися новиною