Тренди ШІ: які етичні загрози несе використання штучного інтелекту — Finance.ua
0 800 307 555
0 800 307 555

Тренди ШІ: які етичні загрози несе використання штучного інтелекту

Технології&Авто
16949
Питання етики ШІ дискутуються вже багато років. У 2021 році ЄС та Китай випустили свої рекомендації (guidelines), які мають забезпечувати етичний розвиток та запровадження систем штучного інтелекту. Лавиноподібне запровадження великих мовних моделей ще більше привернуло увагу до питань етики ШІ.
Про це пише speka.media.

Де ШІ використовувати етично, а де не дуже

Є фундаментальні чинники етичних ризиків застосування штучного інтелекту, які засновані на загрозах основним правам людини. Тож є галузі, де, залежно від застосування, ШІ може спричиняти істотніші ризики і потребуватиме обмежень глибини застосування та додаткового контролю.
Можна виділити кілька рівнів глибини застосування ШІ. На поверхні не надто важливі рішення, як-от запис до лікаря. Це ті рішення, які ми вже зараз готові делегувати штучному інтелекту.
Складніші рішення можуть ухвалюватися з попереднім контролем людини. Наприклад, заява на отримання громадянства: штучний інтелект може агрегувати та аналізувати анкетні дані заявника і готувати попередній висновок. Але остаточне рішення буде ухвалювати державний службовець.
Наступний рівень — коли штучний інтелект отримує автономію і потребує тільки постконтролю від людини. Тут глибина застосування штучного інтелекту і залежить від галузі. Це може бути той самий міграційний контроль, правосуддя (спочатку адміністративне, наприклад, штрафи за паркування), рішення про прийняття людини на роботу тощо. Тут є високі ризики неетичного застосування штучного інтелекту.
Окремі застосування ШІ, як-от дистанційна біометрична ідентифікація — технології ідентифікації за обличчям, ходою, поставою людини тощо, будуть високоризиковими, бо можуть порушувати права людини або загрожувати її безпеці та здоров’ю.

Основні ризики, які постають з появою таких інструментів, як ChatGPT:

Перша група — це ризики для особистих даних і приватності. Мовні моделі, по-перше, можуть робити дуже багато узагальнень, поєднань інформації і висновків з отриманих даних, які можуть бути недоступними для людини, що аналізує інформацію.
Наприклад, з наборів даних про поведінку людини у соцмережах та інтернеті загалом, тих же запитів до чатботів великих мовних моделей, можна робити глибокі висновки щодо її психічного стану, звичок, розкладу дня тощо. Поєднання великих масивів даних та їх аналіз ШІ створюють додаткові загрози приватності, які не очевидні для користувачів, бо окремо ці дані не створюють загроз.
Наступна група — це ризики сегрегації. Мовні моделі, за рахунок того, як саме і на основі яких даних навчаються, можуть надавати перевагу окремим соціальним групам. Вони будуть краще працювати з цими групами, а іншим приділяти менше уваги і маргіналізувати їх, вилучати певні меншини (етнічні або інші) та відтворювати людські упередження щодо цих меншин.
Третя група ризиків — це неточність і неправдивість інформації. Це, наприклад, некоректна медична чи правова допомога. Мовні моделі не дуже добре відрізняють факти від вигадок, але при цьому створюють враження, що вони є достовірними співрозмовниками. Це може створювати багато загроз.

Як заробити за допомогою штучного інтелекту

За матеріалами:
Speka
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Підпишіться на нас