572
ChatGPT може помилятися частіше, ніж здається — нове дослідження
— Фінтех і Картки

Чат-бот ChatGPT часто виглядає впевненим, але його відповіді не завжди точні. Дослідження Університету штату Вашингтон показало, що система може давати різні відповіді на однакові запити. Це свідчить про нестабільність роботи алгоритмів і залежність від формулювання питання.
Дослідник Месут Чічек перевірив це, повторюючи ті самі наукові запитання до десяти разів. У результаті ChatGPT іноді змінював відповідь із «правда» на «хиба» без змін у запиті. Лише близько 73% відповідей залишалися стабільно правильними, що вказує на проблеми з послідовністю.
Хоча загальна точність моделі у 2025 році оцінювалась у 80%, після врахування випадкових вгадувань вона знижувалася до приблизно 60%. Особливо слабко система працює з непідтвердженими гіпотезами — у таких випадках вона рідко визначає помилки й часто погоджується з користувачем. Це пояснюється тим, що ШІ прогнозує слова, а не перевіряє факти, через що можуть виникати так звані «галюцинації».
Науковці наголошують: станом на 2026 рік штучний інтелект варто використовувати лише як допоміжний інструмент. Для точних висновків рекомендується перевіряти інформацію в надійних джерелах і порівнювати кілька відповідей. Остаточне рішення має залишатися за людиною, адже ШІ не гарантує повної достовірності.
За матеріалами: itechua
Поділитися новиною
Також за темою
IBAN-сканер у Приват24: ПриватБанк запустив нову фічу
Банківські картки для пенсіонерів: що пропонують банки клієнтам 2026 року
Google пише все, що ви говорите: як убезпечитись
Visa запустила нову систему авторизації платежів
ChatGPT може помилятися частіше, ніж здається — нове дослідження
Кешбек без компромісів: топ-5 цікавих кредитних карток 2026 року
