0 800 307 555
0 800 307 555

ChatGPT может ошибаться чаще, чем кажется — новое исследование

Финтех и Карты
834
ChatGPT может ошибаться чаще, чем кажется — новое исследование
ChatGPT может ошибаться чаще, чем кажется — новое исследование
Чат-бот ChatGPT часто выглядит уверенным, но его ответы не всегда точны. Исследование Университета штата Вашингтон показало, что система может давать разные ответы на одинаковые запросы. Это свидетельствует о нестабильности работы алгоритмов и зависимости от формулировки вопроса.
Исследователь Месут Чичек проверил это, повторяя те же научные вопросы до десяти раз. В результате ChatGPT иногда менял ответ с «правда» на «неправда» без изменений в запросе. Только около 73% ответов оставались стабильно правильными, что указывает на проблемы с последовательностью.
Хотя общая точность модели в 2025 году оценивалась в 80%, после учета случайных угадываний она снижалась до примерно 60%. Особенно слабо система работает с неподтвержденными гипотезами — в таких случаях она редко определяет ошибки и часто соглашается с пользователем. Это объясняется тем, что ИИ прогнозирует слова, а не проверяет факты, из-за чего могут возникать так называемые галлюцинации.
Ученые отмечают: по состоянию на 2026 год искусственный интеллект следует использовать только как вспомогательный инструмент. Для точных выводов рекомендуется проверять информацию в надежных источниках и сравнивать несколько ответов. Окончательное решение должно оставаться за человеком, ведь ИИ не гарантирует полную достоверность.
По материалам:
itechua
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.

Поделиться новостью

Подпишитесь на нас