pixabay.com

Владимир Бебех: «Галлюцинации» поиска»

В своей предыдущей статье я упомянул о проблемах, которые могут доставлять пользователям «галлюцинации» поисковых систем на основе LLM.*

Важно отметить, что первым, кто оснастил свой поисковик Bing более совершенной технологией искусственного интеллекта (ИИ), стал Microsoft.

Этот шаг был сделан еще весной 2023 года, когда ИТ-гигант начал тестировать обзоры ИИ с небольшой группой пользователей.

Позднее чат-бот получает название Microsoft Copilot, а компания начинает агрессивно встраивать свой ИИ в широкодоступные в Европе сервисы, включая поиск Bing, Microsoft Word и даже операционную систему Windows.

Лидеру поисковых систем Google (принадлежит Alphabet Inc.) уже тогда становится очевидным, что одну из самых серьезных угроз его позициям несут такие алгоритмы ИИ, как ChatGPT и другие модели LLM.

Ровно год спустя, в мае 2024 года, Google запускает обновленную поисковую систему, которая отдает предпочтение ответам, созданным искусственным интеллектом, а не ссылкам на веб-сайты.

Тут же Google начинает внедрять Bard — именно так зовут его чат-бота — в свой поисковик не только на английском, но и на других распространенных языках.

По данным издания Associated Press, к концу текущего года Google ожидала, что Bard будет доступен всем желающим в более чем 180 странах и на других языках, помимо английского, а повторяющиеся обзоры ИИ станут частью результатов поиска примерно для одного миллиарда человек.

Но конкуренты Google не остались в стороне и приняли ответные меры.

В конце октября 2024 года уже компания OpenAI, разработчик известного генеративного искусственного интеллекта ChatGPT, представляет нового конкурента поисковикам Google и Microsoft — ChatGPT Search.

Однако при всем многообразии ИИ еще ни одна технология LLM не избавилась от проблем «галлюцинации» — «придумывания» алгоритмом несуществующих фактов.

Например, исследование европейских некоммерческих организаций AI Forensics и AlgorithmWatch, которым они поделились с The Washington Post, только подтвердило факты возможных недостоверных интерпретаций получаемой искусственным интеллектом информации.

Анализ двух избирательных циклов 2023 года в Германии и Швейцарии показал, что чат-бот от Microsoft (Bing) давал неточные ответы на один из каждых трех основных вопросов о кандидатах, опросах, скандалах и голосовании. К тому же во многих случаях чат-бот неверно цитировал свои источники.

Тестирование GPT-4 от OpenAI выявило те же типы неточностей.

Bard от Google не участвовал в исследовании, поскольку тогда еще не был доступен в Европе.

Результаты проведенных тестов усиливают опасения экспертов, что сегодняшние чат-боты на основе ИИ могут способствовать путанице и дезинформации населения.

Мы продолжаем следить за развитием событий в отрасли, а информацию, получаемую с использованием ИИ, перепроверяем.

* LLM — большие языковые модели.