Pourquoi l'intelligence artificielle fait des erreurs lors de l'exécution de tâches

puzzle de peinture

Pourquoi les IA conversationnelles fournissent-elles parfois des réponses incorrectes ou ne parviennent-elles pas à accomplir des tâches avec précision ?

Texte du Pitch Avatar équipe pour éviter les « problèmes de communication » lorsque vous travaillez avec l’intelligence artificielle.

 

Quiconque interagit avec l’IA conversationnelle a probablement constaté qu’elle est loin d’être toujours à la hauteur. Il peut parfois fournir des réponses incomplètes, ne pas parvenir à récupérer des informations spécifiques ou produire des réponses stylistiquement maladroites avec une formulation lourde, des incohérences logiques et des éléments répétitifs. Un problème important est celui des « hallucinations mécaniques », dans lesquelles l'IA génère des informations délibérément erronées, notamment des noms, des œuvres, des citations et des références fictifs.

 

Pourquoi cela arrive-t-il ? Pour plus de clarté, décrivons les principales raisons des erreurs dans les interactions conversationnelles de l'IA sous la forme d'une liste :

 

  • Limitations liées aux données d'entraînement. L’intelligence artificielle apprend à partir de vastes ensembles de données, mais manque de compréhension humaine. Il apprend à reproduire les types de relations et de structures qu'il voit dans les informations qu'il reçoit. À partir de là, il essaie de prédire quels mots ou expressions sont les plus susceptibles d’être suivis par d’autres. Aussi importante que soit la quantité de données utilisée pour entraîner l’IA de dialogue, elle contient toujours de solides lacunes. Il est théoriquement impossible pour l’IA d’avoir une connaissance complète de tout ce qui se passe dans le monde, car la « base de données » de l’humanité se développe trop rapidement.

 

  • Manque de capacité de vérification des faits. L’IA n’a pas la capacité d’analyser de manière critique les faits ou de vérifier les informations comme le font les humains. Il génère des réponses basées sur les données sur lesquelles il a été formé, ce qui signifie que si les données de formation contiennent des inexactitudes, l'IA peut reproduire ces erreurs. De plus, des informations contradictoires dans les données peuvent conduire à des réponses incohérentes. Pour résoudre ces problèmes, l’IA conversationnelle doit généralement être recyclée avec des données mises à jour et corrigées.

 

  • Limites de modèles d'IA spécifiques. Pratiquement toute IA conversationnelle a des limites inhérentes à ses capacités. L’exemple le plus courant est l’apprentissage uniquement à partir des données disponibles jusqu’à un certain moment et l’incapacité d’apprendre ou de s’adapter en temps réel.

 

  • La complexité du langage naturel. Le langage naturel est un système incroyablement complexe, mal équipé pour refléter la vérité absolue. Trop de choses dépendent du contexte de la conversation et de la vision du monde des interlocuteurs. La nature multiforme et en constante évolution du langage humain constitue un défi de taille pour l’IA. De nombreuses nuances qui ne peuvent être comprises que dans un certain contexte conduisent souvent à la génération d'informations erronées. En raison de l’ambiguïté du langage naturel, l’IA peut mal interpréter la requête d’un utilisateur. C'est le bon moment pour réitérer l'un des conseils les plus courants pour communiquer avec l'IA conversationnelle : gardez les tâches aussi courtes et sans ambiguïté que possible, en évitant l'argot, l'ambiguïté et les sous-textes.

 

  • Manque de vision du monde. Contrairement aux humains, l’IA manque d’une compréhension commune du monde façonné par l’éducation, la culture sociétale et l’expérience personnelle. En conséquence, l’IA ne peut pas s’appuyer sur une vision du monde cohérente pour générer des réponses. Cela conduit souvent à des informations hors sujet ou non pertinentes, en particulier en réponse à des demandes de renseignements vastes ou générales.

 

  • Désir de combler les lacunes dans les connaissances (« illusions des machines »). L’une des principales raisons de ce que l’on appelle les « hallucinations de la machine » est que lorsqu’une IA de dialogue reçoit une requête d’un utilisateur, elle essaie de générer une réponse la plus susceptible de correspondre à cette requête en fonction de son apprentissage. Si l’IA manque d’informations pour générer une réponse complète, elle peut essayer de « combler le vide » en fonction de ce qu’elle a vu dans les données. Cela peut conduire à générer des informations qui sont une sorte d’hypothèse. Cela semble plausible, mais c’est en réalité fictif. Malheureusement, contrairement aux humains, l’IA moderne n’a pas encore la capacité de tester ses hypothèses sur la base de son expérience personnelle, de son intuition ou de sa compréhension contextuelle.

 

Nous espérons que ces informations vous aideront à utiliser plus efficacement les outils basés sur l'IA, tels que notre assistant de contenu en ligne, Pitch Avatar.

 

Je vous souhaite bonne chance, succès et profits élevés !