Чем сложнее становятся языковые модели искусственного интеллекта, тем возрастает риск того, что искусственный интеллект начинает лгать, предоставляя недостоверную информацию. Это подтверждают исследователи в своих исследованиях
В августе 2024 года под руководством Амрита Кирпалани из Западного университета в Онтарио была проведена оценка способностей ChatGPT, связанная с методами обмана и ИИ, в диагностике медицинских случаев. Одна из ключевых находок исследования заключалась в том, что искусственный интеллект обманывал, предоставляя ответы, которые выглядели логичными и грамотно составленными, однако часто оказывались неверными. Другая исследовательская группа изучала, как ИИ лжет, сосредоточившись на определении причин, почему такие языковые модели, как ChatGPT, склонны к недостоверности. Выводы были опубликованы в журнале Nature, где ученые отметили, что с ростом масштаба и обучаемости языковых моделей их надежность иногда уменьшается. В процессе исследования специалисты стремились выяснить, как ИИ и манипуляции с данными могут объяснить подобные ошибки ИИ. Они выявили, что стремление моделей к укоренению сомнительных данных может быть связано с алгоритмическими особенностями и сложностью обработки многообразия информации, сопровождающей обучающие данные. Это подчеркнуло необходимость более тщательной настройки и контроля языковых моделей, чтобы минимизировать обман ИИ и повысить точность предоставляемой информации.
Размышления о том, насколько человечество одержимо пустыми разговорами, часто приводят к осознанию важности истинных знаний. Как отмечает исследователь ИИ Воут Шеллаерт из Университета Валенсии, способность болтать без понимания — это серьёзный вызов для нас. Большие языковые модели, стремящиеся имитировать человеческое общение, часто доказывают это. Их ранние версии, включая GPT-3, сталкивались с трудностями уже при простых вопросах из географии или науки. Программы испытывали немало проблем с решением элементарных математических уравнений, например, «сколько будет 20 плюс 183», что подчеркивало их ограниченность и способность ИИ лгать. Часто, когда модели не могли найти верный ответ, они, как и человек, уклонялись от прямого ответа, стараясь скрыть свою неосведомлённость. Это отражает человеческую склонность демонстрировать уверенность там, где её, в сущности, нет. Примеры технологических ошибок служат напоминанием о необходимости внимательности и тщательного подхода к знаниям.
Проблема уклончивых или недостоверных ответов связана с особенностями создания больших языковых моделей. Основная задача разработчиков — генерировать релевантные ответы на вопросы пользователей, избегая манипуляций и обмана ИИ
Модель, которая в более чем половине случаев ограничивается фразой «я не знаю», не считается удовлетворительной