Исследование: Чат-боты на основе искусственного интеллекта (ИИ) ошибаются в 40% (!) случаях. Но почему?

Исследование: Чат-боты на основе искусственного интеллекта (ИИ) ошибаются в 40% (!) случаях. Но почему?Иллюстративное изображение.

Новое исследование Европейского вещательного союза (European Broadcasting Union, EBU) выявило, что чат-боты на основе искусственного интеллекта (ИИ) ошибаются в целых 40% (!) случаях. Причина в самой технологии ИИ: чат-боты на самом деле не понимают, что говорят. Они вычисляют, какие слова наиболее вероятно совпадут, основываясь на огромных объёмах текста, и не могут проверить истинность утверждения, полученного в результате таких расчётов. Они не знают фактов, а знают только статистические закономерности. Подробности обо всём этом в сообщении немецкого государственного иновещания «Deutsche Welle» («Немецкая волна») от 28 октября 2025 г. Далее указанная заметка южноевропейской редакции станции в нашем переводе:

«Новое исследование Европейского вещательного союза выявило тревожный уровень ошибок в популярных чат-ботах на основе искусственного интеллекта (ИИ). Системы регулярно фальсифицируют информацию и даже ссылаются на ложные источники.

Только ChatGPT еженедельно используют 800 миллионов человек по всему миру. Для многих эти цифровые помощники уже стали заменой традиционного поиска Google. Однако, как показывает упомянутое исследование Европейского вещательного союза, такое доверие рискованно. Европейский вещательный союз, эта ассоциация из 68 общественных вещателей из 56 стран систематически проверяла надежность самых популярных систем искусственного интеллекта.

Результат исследования пугает: ChtGPT, Claude, Gemini и другие чат-боты придумывают до 40 процентов своих ответов и выдают их за факты.

Галлюцинации: искусственный интеллект убедительно лжет

Популярный чат-бот ChatGPT твёрдо утверждает, что Папа Франциск жив. Microsoft Copilot , интегрированный в офисные программы Word и Excel, не знает, что Швеция входит в НАТО. А Google Gemini считает переизбрание Дональда Трампа «возможным», хотя оно и произошло очень давно.

«Чат-боты выглядят убедительно, хотя они постоянно утверждают совершенно ложные вещи», — предупреждает экономист Петер Пош (Peter N. Posch) из Технического университета Дортмунда (Technische Universität Dortmund, в Дортмунде, земля Северный Рейн-Вестфалия, Германия).

И продолжает:

«Это делает их особенно опасными для неопытных пользователей, поскольку ошибки часто не сразу бросаются в глаза».

Существует явление, которое специалисты называют «галлюцинацией» ИИ: искусственный интеллект фантазирует об информации, которая кажется связной, но не имеет под собой никакой фактической основы. Это особенно часто встречается в случае региональных событий, текущих событий или когда необходимо связать воедино множество фрагментов информации.

Угроза обществу

Но что это означает для общества, где всё больше людей получают информацию от чат-ботов? Последствия уже заметны: ложная информация быстро распространяется в социальных сетях, поскольку пользователи делятся «фактами», сгенерированными искусственным интеллектом, без их проверки.

Учащиеся и студенты используют в своих работах сфабрикованную информацию. Граждане могут принимать решения о том, за кого голосовать, основываясь на ложных утверждениях.

Особую проблему представляет то, что многие пользователи даже не подозревают о существовании галлюцинаций у чат-ботов. Они полагают, что технология действует объективно и фактически, что является опасным заблуждением.

Системы искусственного интеллекта при своих ответах предупреждают о возможных ошибках в условиях использования, но — кто это сейчас читает?

Ущерб репутации СМИ

Другая проблема касается доверия к традиционным СМИ. Чат-боты регулярно утверждают, что их сфабрикованная информация получена из таких источников, как, например, немецкие общественные телерадиокомпании ARD или ZDF, хотя они никогда не сообщали об этом или сообщали об этом совершенно иначе.

Пользователи теряют доверие к авторитетным источникам, когда искусственный интеллект неправомерно использует их имена для распространения ложной информации.

В исследовании Европейского вещательного союза чат-ботам задавались сотни вопросов, основанных на фактах: об исторических событиях, научных открытиях и текущих новостях. В зависимости от темы уровень ошибок варьировался от 15 до 40 процентов. Ни один из протестированных искусственных интеллектов не работал безупречно.

Почему искусственный интеллект совершает ошибки?

Проблема в системе: чат-боты на самом деле не понимают, что говорят. Они вычисляют, какие слова наиболее вероятно совпадут, основываясь на огромных объёмах текста, и не могут проверить истинность утверждения, полученного в результате таких расчётов. Они не знают фактов, а знают только статистические закономерности.

Технологические компании знают об этих недостатках и работают над их решением. Они интегрируют базы данных, улучшают систему цитирования и переобучают системы. В разработки инвестируются миллиарды. Тем не менее, галлюцинации остаются фундаментальной нерешённой проблемой технологий ИИ.

Что могут сделать пользователи?

Европейский вещательный союз (EBU) рекомендует использовать чёткие правила взаимодействия с чат-ботами: никогда не доверять слепо, всегда проверять важную информацию и полагаться на проверенные СМИ в поисках новостей и фактов, а не на искусственный интеллект. Особенно осторожными следует быть, когда речь идёт о политических темах, проблемах со здоровьем или финансовых решениях.

В школах и университетах необходимо обучать медиаграмотности: как распознать дезинформацию, генерируемую искусственным интеллектом, и какие источники достоверны? Правительство Германии планирует информационные кампании для просвещения населения, но они запаздывают. Миллионы людей уже давно и ежедневно используют эту технологию — чат-боты на основе искусственного интеллекта.

Однако пока ИИ не станет более надёжными,  чат-боты ИИ могут быть полезны только для творческих задач или как помощники при написании текстов, но они не подходят для проверки фактов или источников новостей. И не стоит полагаться на них на все 100 %.

Любой, кто хочет быть в курсе событий, не может обойти стороной авторитетные СМИ, в штате которых работают редакторы-люди, проверяющие источники и оценивающие заявления и доказательства. Цифровая революция может многое изменить, но необходимость тщательного исследования и проверки фактов остаётся», передавала «Deutsche Welle».

Исследование: Чат-боты на основе искусственного интеллекта (ИИ) ошибаются в 40% (!) случаях. Но почему?

Иллюстративное изображение.

 

А что думаете вы? Оставляйте свои комментарии, участвуйте в обсуждениях на нашей странице ВКонтакте, делайте перепосты, ставьте лайки, подписывайтесь на рассылку и вступайте в группу!

Ваш комментарий будет первым

Leave a comment

Your email address will not be published.


*