Владимир Бебех: «Галлюцинации» поиска»
В своей предыдущей статье я упомянул о проблемах, которые могут доставлять пользователям «галлюцинации» поисковых систем на основе LLM.*
Важно отметить, что первым, кто оснастил свой поисковик Bing более совершенной технологией искусственного интеллекта (ИИ), стал Microsoft.
Этот шаг был сделан еще весной 2023 года, когда ИТ-гигант начал тестировать обзоры ИИ с небольшой группой пользователей.
Позднее чат-бот получает название Microsoft Copilot, а компания начинает агрессивно встраивать свой ИИ в широкодоступные в Европе сервисы, включая поиск Bing, Microsoft Word и даже операционную систему Windows.
Лидеру поисковых систем Google (принадлежит Alphabet Inc.) уже тогда становится очевидным, что одну из самых серьезных угроз его позициям несут такие алгоритмы ИИ, как ChatGPT и другие модели LLM.
Ровно год спустя, в мае 2024 года, Google запускает обновленную поисковую систему, которая отдает предпочтение ответам, созданным искусственным интеллектом, а не ссылкам на веб-сайты.
Тут же Google начинает внедрять Bard — именно так зовут его чат-бота — в свой поисковик не только на английском, но и на других распространенных языках.
По данным издания Associated Press, к концу текущего года Google ожидала, что Bard будет доступен всем желающим в более чем 180 странах и на других языках, помимо английского, а повторяющиеся обзоры ИИ станут частью результатов поиска примерно для одного миллиарда человек.
Но конкуренты Google не остались в стороне и приняли ответные меры.
В конце октября 2024 года уже компания OpenAI, разработчик известного генеративного искусственного интеллекта ChatGPT, представляет нового конкурента поисковикам Google и Microsoft — ChatGPT Search.
Однако при всем многообразии ИИ еще ни одна технология LLM не избавилась от проблем «галлюцинации» — «придумывания» алгоритмом несуществующих фактов.
Например, исследование европейских некоммерческих организаций AI Forensics и AlgorithmWatch, которым они поделились с The Washington Post, только подтвердило факты возможных недостоверных интерпретаций получаемой искусственным интеллектом информации.
Анализ двух избирательных циклов 2023 года в Германии и Швейцарии показал, что чат-бот от Microsoft (Bing) давал неточные ответы на один из каждых трех основных вопросов о кандидатах, опросах, скандалах и голосовании. К тому же во многих случаях чат-бот неверно цитировал свои источники.
Тестирование GPT-4 от OpenAI выявило те же типы неточностей.
Bard от Google не участвовал в исследовании, поскольку тогда еще не был доступен в Европе.
Результаты проведенных тестов усиливают опасения экспертов, что сегодняшние чат-боты на основе ИИ могут способствовать путанице и дезинформации населения.
Мы продолжаем следить за развитием событий в отрасли, а информацию, получаемую с использованием ИИ, перепроверяем.
* LLM — большие языковые модели.