12371
Розробники ChatGPT відстежуватимуть ризики штучного інтелекту, щоб врятувати людство
— Технології&Авто

Компанія-розробник найвідомішого чат-бота у світі OpenAI впроваджує нові заходи безпеки для боротьби з можливими загрозами штучного інтелекту. Спеціалісти створили «консультативну групу з безпеки», яка контролюватиме роботу технічних команд та даватиме рекомендації керівництву.
Раді директорів OpenAI надано право вето щодо рішень гендиректора. Ці заходи, як вважає Сем Альтман, що повернувся до управління OpenAI, дозволять компанії зняти питання прозорості та безпеки роботи над передовими системами ШІ. Одним із ключових компонентів нової системи безпеки є використання «оцінювальних карток» ризиків для моделей ШІ, які відстежують різні показники потенційної шкоди, такі як можливості моделі, вразливості та наслідки.
Читайте також: Як заробити за допомогою штучного інтелекту
Передбачаються різні заходи для пом’якшення наслідків, наприклад, стриманість ChatGPT в описі процесу виготовлення напалму або саморобних бомб. Якщо після вживання заходів щодо зниження ризику, модель, як і раніше, оцінюється як така, що має «високий ризик», її не запускатимуть.
Декількома днями раніше компанія Anthropic, заснована колишніми дослідниками OpenAI, опублікувала свою політику відповідального масштабування ШІ. Розробники представили структуру, що визначає конкретні рівні безпеки ШІ та відповідні протоколи для розробки та впровадження моделей.
За матеріалами: noworries
Поділитися новиною
Також за темою
10 найкращих доступних смартфонів, які можна купити восени 2025 року (фото)
У Китаї презентували оновлений Zeekr 001 (фото)
Google дозволяє звернутися до друзів, якщо забули пароль
Найпопулярніші дизельні автівки серед українців за підсумками вересня
Названо ТОП-5 кросоверів, якими найбільше задоволені власники (фото)
Time назвав найкращі винаходи 2025 року (відео)