ChatGPT навчився «бачити»: відео аналізуються в реальному часі
OpenAI почала розгортати анонсовану понад пів року тому функцію бачення, яка дозволяє чат-боту ChatGPT надавати інформацію, аналізуючи відео з камери або екрана в реальному часі.
Як це працює
Голосовий режим Advanced Voice Mode в ChatGPT тепер дозволяє користувачам взаємодіяти з чат-ботом, демонструючи ШІ, що відбувається довкола них, просто наводячи камеру смартфона на об’єкти.
Так само можна отримати допомогу чат-бота з тим, що відбувається на екрані комп’ютера, за допомогою спільного доступу до екрана.
Наразі функція зору доступна лише для користувачів з підпискою ChatGPT Plus, Team або Pro й не у всіх країнах.
«Всі користувачі Team і більшість користувачів Plus і Pro отримають доступ протягом наступного тижня в новій версії мобільного додатку ChatGPT. Ми надамо цю функцію користувачам Plus і Pro в ЄС, Швейцарії, Ісландії, Норвегії та Ліхтенштейні якнайшвидше. Користувачі Enterprise та Edu отримають доступ на початку 2025 року», — повідомляє OpenAI.
Як скористатися функцією
Для того, аби скористатися функцією зору, потрібно відкрити голосовий режим чат-бота, натиснувши відповідну кнопку внизу, а потім почати транслювати відео, натиснувши на кнопку з камерою.
Після цього чат-бот почне аналізувати зображення з камери смартфона, щоб використовувати отриману інформацію для відповідей на запитання.
На короткій демонстрації в X команда розробників показала принцип роботи цього режиму за допомогою простого завдання. Розробник показав чат-боту своїх колег, кожен з них представився.
Потім розробник запропонував чат-боту тест: він питав, як звати колегу, що одягла оленячі роги, і як звати колегу в капелюху Санти. Чат-бот з легкістю впорався з цим завданням.
Конкуренти OpenAI, як Google і Meta, працюють над подібними можливостями для своїх продуктів з ШІ.
Google представила свою функцію розмовного штучного інтелекту Project Astra, що працює в реальному часі та аналізує відео, для групи тестувальників.
За матеріалами: НВ
Поділитися новиною