Чат-боти на основі ШІ стануть ще більш схожими на людей: у чому ризики — Finance.ua
0 800 307 555
0 800 307 555

Чат-боти на основі ШІ стануть ще більш схожими на людей: у чому ризики

Технології&Авто
24
Чат-боти на основі ШІ стануть ще більш схожими на людей: у чому ризики
Чат-боти на основі ШІ стануть ще більш схожими на людей: у чому ризики, Фото: freepik
Чат-боти на базі штучного інтелекту скоро досягнуть такого рівня, що їх буде складно відрізнити від людей. Однак ця технологія несе в собі певні ризики.
Про це пише The Sun.

У чому ризики

Один з провідних експертів з кібербезпеки Роджер Граймс розповів, що, чат-боти, такі як ChatGPT від OpenAI або Gemini від Google, можуть значно полегшити виконання нудних завдань. Компанії впроваджують їх для вирішення простих (а іноді й складних) проблем підтримки клієнтів.
Частиною цього є створення чат-ботів на основі штучного інтелекту, які говоритимуть більш природно, як людина, і відрізнити їх від реальних людей буде великою проблемою.
Багато експертів попереджають про небезпеки, які несе в собі передовий штучний інтелект, і про те, як кіберзлочинці можуть використовувати його для обману потенційних жертв.
Однак Роджер сказав, що, на його думку, той факт, що чат-боти стають дедалі більше схожими на людей, загалом є позитивним явищем.
Крім того, у більшості смартфонів тепер є вбудовані елементи штучного інтелекту, а такі сервіси, як Google, видають відповіді навіть під час виконання простих пошукових запитів в інтернеті.
Щодо небезпек, пов’язаних з обманом і ШІ, йдеться про ризики, починаючи з діпфейків і закінчуючи кібератаками, в яких злочинці використовують ШІ.
Крім того, відомо, що чат-боти «галюцинують» і видають абсолютно неправдиву інформацію. Цих помилок не допустила б людина.

Як заробити за допомогою штучного інтелекту

За матеріалами:
Фокус
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Підпишіться на нас