ЖЕНЕВА, 22 октября. /ТАСС/. ИИ-помощники дают искаженные ответы на запросы пользователей почти в половине случаев. Это выявили авторы исследования, проведенного Европейским вещательным союзом (EBU) при содействии вещательной корпорацией Би-би-си.
Согласно заявлению союза, профессиональные журналисты из 22 организаций общественных СМИ 18 стран, работающие на 14 языках, оценили более 3 тыс. ответов чат-ботов ChatGPT, Copilot, Gemini и Perplexity на точность, выбор источника информации, способность отделять мнение от фактов и предоставление контекста. Эксперты пришли к выводу о том, что "ИИ-помощники, которые уже являются ежедневным информационным порталом для миллионов людей, регулярно искажают новостной контент независимо от языка, региона или платформы ИИ, на которой проводится тестирование".
В 45% всех ответов ИИ, по их данным, содержится "как минимум одна значимая ошибка". В 31% ответов выявлены "серьезные проблемы с поиском источника: отсутствующие, вводящие в заблуждение или неверные атрибуции". Пятая часть всех ответов имеет серьезные проблемы с точностью, включая неверные детали и устаревшую информацию. Худшие результаты отмечены у Gemini, который сделал серьезные ошибки в 76% ответов, что более чем вдвое превышает показатели других помощников. Они в основном связаны с низкой эффективностью поиска источника.
ИИ-помощники уже заменяют поисковые системы для многих пользователей, говорится в докладе. В соответствии с отчетом Института Reuters о цифровых новостях за 2025 год, 7% от общего числа онлайн-потребителей новостей используют помощников с ИИ для получения информации, а среди пользователей младше 25 лет этот показатель достигает 15%.
"Данное исследование убедительно показывает, что эти недостатки - не единичные случаи", - заявил медиадиректор и заместитель генерального директора EBU Жан Филип де Тендер. "Они носят системный, трансграничный и многоязычный характер, и мы считаем, что это подрывает общественное доверие. Когда люди не знают, чему доверять, они в конечном итоге теряют доверие ко всему, что может препятствовать демократическому участию", - подчеркнул де Тендер.
OpenAI и Microsoft ранее заявляли, что конфабуляции (необоснованно сгенерированный контент), когда модель ИИ генерирует неверную или вводящую в заблуждение информацию, зачастую связаны с недостатком данных, и они пытаются эту проблему решить.