0 800 307 555
0 800 307 555

Claude, ChatGPT и Gemini проверили на точность при освещении горячих новостей

Фондовый рынок
550
Claude, ChatGPT и Gemini проверили на точность при освещении горячих новостей
Claude, ChatGPT и Gemini проверили на точность при освещении горячих новостей
Популярные чат-боты Claude, ChatGPT и Gemini проверили на точность при освещении горячих новостей о войне в Иране. Тест провело издание Tom’s Guide. Результаты показали тревожную тенденцию: чем увереннее искусственный интеллект формулирует ответы, тем выше риск, что часть информации может быть выдумана.
Самый худший результат показал Gemini. Хотя бот давал детальные и уверенные объяснения, он чаще всего допускал так называемые «галлюцинации». Исследователи обнаружили вымышленные имена иранских должностных лиц, неверные даты и неточные цифры. Фактически система пыталась восполнять пробелы в знаниях правдоподобной, но недостоверной информацией.
ChatGPT показал средний результат. Он правильно выстраивал общую картину событий и подавал структурированную информацию, но иногда добавлял детали, не подтвержденные официальными источниками. В некоторых случаях предположения или аналитические оценки подавались так, будто это уже установленные факты.
Лучше всего во время теста показал себя Claude. Этот чат-бот четко отделял подтвержденные факты предположений, часто ссылался на источники и отказывался комментировать вопросы о закрытых военных операциях. Эксперты отмечают, что во время войны, когда информация быстро меняется, способность ИИ признавать пределы своих знаний становится критически важной.
По материалам:
itechua
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.

Поделиться новостью

Подпишитесь на нас