Почему ИИ ошибается выполняя задания

головоломка с картиной

Почему ошибаются диалоговые ИИ, отвечая на запросы и выполняя задания?

Текст от команды Pitch Avatar , который поможет избежать “недопонимания” при работе с искусственным интеллектом.

 

Каждый из тех, кто общается с разговорными ИИ, сталкивался с тем, что этот инструмент далеко не всегда справляется с поставленной перед ним задачей. Иногда они могут давать неполный ответ, или вообще не находить ту или иную информацию. Их речь, порой, становится стилистически некрасивой – с громоздкими конструкциями, логическими нестыковками и многочисленными повторами. Но, пожалуй, самая большая проблема – машинные галлюцинации или, иначе говоря, “машинный бред”. Так, обычно, называют ситуации, при которых ИИ выдает заведомо ошибочную информацию, упоминая выдуманных людей, произведения, цитаты и ссылки.

 

Почему это происходит? Попробуем, для удобства, изложить основные причины ошибок диалоговых ИИ при общении с человеком в виде списка:

 

  • Ограничения, связанные с информацией, на которой учится ИИ. Искусственный интеллект обучается на больших наборах данных, однако, при этом, он не обладает знаниями в человеческом смысле. Он учится воспроизводить типы связей и структур, которые видит в полученной им информации. Исходя из этого, он старается предсказывать, какие слова или фразы скорее всего следуют за другими. Как бы велики ни были объемы данных, использованных для обучения диалогового ИИ, они все равно содержат солидные пробелы. Даже теоретически невозможно сделать так, чтобы ИИ обладал знаниями обо всем на свете. “База данных” человечества пополняется слишком быстро.

 

  • Отсутствие функции проверки фактов. ИИ не умеет критически анализировать факты или подтверждать/опровергать информацию так, как это делают люди. Он генерирует ответы на основе полученных данных. Это означает, что если в данных была неверная информация, ИИ может ее воспроизвести. При этом заметим, что, по понятным причинам, различные факты и сведения, полученные ИИ, могут вступать в противоречие друг с другом. Для исправления ошибок диалоговому ИИ, как правило, нужно пройти дообучение на новых данных.

 

  • Ограничения конкретных моделей ИИ. Практически все разговорные ИИ имеют изначально заложенные пределы возможностей. Самый распространенный пример – обучение только на данных, доступных до определенного момента времени, и отсутствие возможности учиться или адаптироваться в реальном времени.

 

  • Сложность естественного языка. Естественный язык – невероятно сложная система, мало приспособленная для отражения абсолютной истины. Слишком многое зависит от контекста беседы и мировозрения собеседников. Большие трудности для ИИ составляет также многогранность и постоянная изменчивость человеческого языка. Множество нюансов, которые могут быть поняты только в определенном контексте, нередко приводят к генерации ошибочной информации. Из-за неоднозначности естественного языка ИИ может неправильно интерпретировать запрос пользователя. Самое время повторить один из самых часто встречающихся советов для общения с разговорным ИИ: Формулируйте задания максимально кратко и однозначно, исключая сленг, двусмысленности и подтекст.

 

  • Отсутствие мировоззрения. В отличие от людей, ИИ не имеет общего понимания мира, полученного благодаря воспитанию, культуре социума и жизненному опыту. Соответственно, он не может опираться на мировоззрение, когда формулирует свои ответы. Это довольно часто приводит к тому, что пользователь получает информацию “не в тему”. Особенно ярко это проявляется на широких, общих запросах.

 

  • Стремление к заполнению пробелов в знаниях (“машинный бред”). Одна из главных причин появления так называемых “машинных галлюцинаций” заключается в том, что получая запрос пользователя, диалоговый ИИ старается сгенерировать ответ, который наиболее вероятно соответствует этому запросу на основе его обучения. Если ИИ сталкивается с нехваткой информации для формирования полного ответа, он может попытаться “заполнить пробел” основываясь на том, что он видел в данных. Это может привести к генерации информации, которая является своего рода допущением. Она кажется правдоподобной, но на самом деле является вымышленной. К сожалению, в отличие от людей, современные ИИ пока не обладают навыком проверять свои допущения, основываясь на личном опыте, интуиции или понимании всех нюансов контекста.

 

Надеемся, этот текст поможет вам более эффективно использовать инструменты на базе искусственного интеллекта. Например, нашего ассистента для работы с онлайн-контентом Pitch Avatar.

 

Всем удачи, успехов и высоких доходов!