L'adoption de l'IA générative (GenAI) ne cesse de s'accélèrer dans le monde de l’entreprise au cours des dernières années. En conséquence, les dépenses en IA dans l'ensemble devraient plus que doubler d'ici 2028, lorsqu'elles devraient atteindre 632 milliards de dollars, selon IDC, avec un plan d'investissement "InvestAI" pour l'UE de 200 milliards d'euros. Les dépenses en IA générative (GenAI), spécifiquement, devraient atteindre 202 milliards de dollars au cours des trois prochaines années, représentant 32% des dépenses globales en IA. L'argent sera largement dépensé dans des applications, services et infrastructures alimentés par l'IA, y compris le stockage logiciel optimisé pour l'IA destiné aux entreprises.

Une façon notable dont les entreprises adoptent de plus en plus la GenAI est d'améliorer les expériences client personnalisées. Le développement de grands modèles de langage (LLM), tels que ChatGPT, et de petits modèles de langage (SLM) a ouvert un nouveau royaume de possibilités, notamment l'utilisation de chatbots infusés d'IA pour répondre aux requêtes soumises par les clients d'une organisation. Le stockage de données joue un rôle.

"Je suis un modèle d'IA. Puis-je vous aider ?"

Le scénario est familier à pratiquement tout consommateur averti en technologie. Vous allez sur le site web d'une entreprise, et un chatbot piloté par l'IA s'engage avec vous pour "l'expérience client personnalisée" dans un jeu d'interaction humain-machine qui est censé être fluide et fiable, offrant de répondre à vos questions sur un produit ou service que vous êtes intéressé à acheter. Vous soumettez votre question dans le champ actif et attendez ensuite une réponse du "représentant" du service client IA.

Disons que vous posez une question qui n'est pas la question typique et simple. Vous voulez que le bot IA creuse plus profondément pour trouver des informations précises pour vous, afin que vous puissiez prendre une meilleure décision d'achat. En réponse, le chatbot IA revient vers vous avec une explication merveilleuse avec des tonnes d'options et de calendriers. Vous êtes ravi. C'est mieux que ce que vous attendiez. Et le ton du chatbot IA est si convaincant.

Cependant, il y a un problème. L'information que le chatbot piloté par GenAI a fournie est complètement fausse.

L'IA l'a inventée parce qu'elle n'avait pas accès à l'information exacte que vous recherchiez et au volume d'informations pour apprendre. Elle est partie en chasse au trésor virtuelle et a assemblé des morceaux de données qui n'avaient pas le contexte approprié. Ces options et calendriers ne sont en fait pas disponibles. L'IA, qui a été entraînée comme un LLM sur des données publiquement disponibles, vous a induit en erreur - même si ce n'était pas intentionnel.

Cela s'appelle une "hallucination IA". C'est quand une IA fait des connexions entre des points d'information (reconnaissance de motifs), juste pour fournir une réponse qui semble crédible. Néanmoins, l'information erronée n'est pas acceptable dans un monde infusé d'IA. Pas quand l'argent, le temps, les efforts, les relations et les résultats des gens sont en jeu.

Que pensez-vous que cela fait à la réputation d'une entreprise avec ses clients ? Comment l'information inexacte peut-elle conduire à une tonne de confusion, de temps perdu et d'argent perdu ? L'extension IA de la fonction de support client de l'entreprise inspire-t-elle confiance dans sa base de clients ?

Il va sans dire que je pense que vous connaissez déjà les réponses à ces questions. Les chatbots hallucinent jusqu'à 27% du temps, avec des erreurs factuelles présentes dans 46% des textes générés, selon une étude publiée dans le Natural Language Processing Journal. C'est stupéfiant. Cela introduit un risque élevé pour les projets d'IA au sein des entreprises qui essaient de tirer parti de l'IA pour tous ses avantages perçus. Simplement donner à une IA des invites plus directes ne suffit pas.

Beaucoup de facteurs différents entrent en jeu quant aux raisons pour lesquelles les hallucinations IA se produisent. Il pourrait s'agir de données d'entraînement insuffisantes ; bien que ce soit intensif en ressources de devoir re-entraîner l'ensemble du LLM à chaque fois. Le modèle IA peut avoir fait des suppositions erronées dues à un manque de contexte ou pas assez de sources de données à examiner pour comprendre la bonne réponse. De plus, il peut aussi y avoir des biais présents dans les données qui ont été utilisées pour entraîner le LLM en premier lieu. Donc, quand une entreprise obtient un modèle IA à utiliser dans son business, les dirigeants doivent inévitablement faire face à ce dilemme.

Dans certains marchés verticaux, tels que la santé, les services financiers, la fabrication et l'éducation, les hallucinations IA peuvent être sévèrement préjudiciables dans des situations critiques. En GenAI nous faisons confiance ?

Un modèle IA pourrait amener les médecins à effectuer une procédure médicale qui n'avait pas réellement besoin d'avoir lieu. Une IA pourrait induire les consommateurs en erreur pour prendre de mauvaises décisions sur les produits financiers et perdre de l'argent - et la confiance. Une usine pourrait ruiner la chaîne d'approvisionnement d'une entreprise parce qu'une IA a halluciné qu'une certaine pièce de sécurité vitale n'était plus nécessaire dans un produit. Les étudiants pourraient perdre foi dans l'institution éducative si une IA invente des choses sur l'histoire ou fournit un contexte complètement inexact. La liste des implications potentiellement terribles continue.

Cette réalité appelle des questions de suivi pointues :

• Que peut-on faire à propos de ces hallucinations IA ? • Comment une entreprise peut-elle résoudre le problème ? • Les LLM peuvent-ils être fiables dans le monde réel ? • Que devraient faire les CIO et les équipes IT ?

Les actions pratiques qu'une équipe IT peut prendre

Vous n'hallucinez pas si vous croyez voir un moyen d'adresser ce problème d'IA. Mais ce qui peut vous surprendre c'est qu'au centre d'une entreprise réduisant dramatiquement les hallucinations IA se trouve l'infrastructure de stockage d'entreprise. Une vision menée par le stockage pour la GenAI dans les environnements d'entreprise change la façon dont les CIO et leurs équipes IT voient les solutions de stockage haute performance qui stockent toutes les données privées.

Une clé pour rendre l'IA plus précise et pertinente est l'information propriétaire et à jour qu'une entreprise a dans ses bases de données vectorielles situées sur un système de stockage. Cette information privée qui est unique à toute entreprise est ce qui permet au chatbot IA - en utilisant notre exemple de "service client" du début de cet article - d'affiner et valider sa réponse à une requête d'un client ou prospect.

Ceci est rendu possible par une architecture de déploiement de workflow de Génération Augmentée par Récupération (RAG), comme partie d'une infrastructure de stockage d'entreprise. Une équipe IT est intelligente de déployer une architecture RAG menée par l'infrastructure de stockage pour améliorer la précision et la vitesse de l'IA. RAG permet aux entreprises de s'assurer que les réponses des modèles IA restent pertinentes, à jour, dans le bon contexte, et cherchent les sources de données à travers l'entreprise qui peuvent avoir des informations pertinentes. Ultimement, RAG réduit la prévalence des "hallucinations IA" et élimine même le besoin de re-entraîner continuellement les modèles IA.

Les CIO seront heureux d'apprendre qu'une entreprise peut utiliser les systèmes de stockage existants comme base pour optimiser la sortie des modèles IA, sans le besoin d'acheter un équipement spécialisé. Cela signifie que chaque projet IA au sein d'une organisation peut adopter RAG comme partie standard de sa stratégie IT.

Une autre action qu'une équipe IT devrait prendre est de s'assurer que leur entreprise a l'infrastructure de stockage la plus performante et la plus résiliente cyber qui délivre 100% de disponibilité, automatisation et économies de coûts, à l'échelle. En ayant un système de stockage fournissant haute performance, latence faible leader de l'industrie, et technologie d'automatisation autonome unique, une entreprise peut assurer un mécanisme de livraison pour des réponses rapides et hautement précises pour les charges de travail GenAI.

Simplifier l'infrastructure de stockage est aussi une bonne stratégie pour l'utilisation à long terme de la GenAI, en sélectionnant des baies de stockage qui ont excellé pour la facilité d'utilisation. Vous pouvez consolider 10, 20, 30 ou plus de baies de stockage existants en un ou deux systèmes de stockage à l'échelle pétaoctet qui sont optimisés pour RAG et GenAI. Cette simplification de l'infrastructure de stockage se prête à une meilleure gestion des applications pilotées par l'IA.

Avoir une infrastructure de stockage qui est optimisée pour tirer parti de données de qualité supérieure qui sont régulièrement mises à jour depuis les bases de données de l'entreprise met votre entreprise en position d'atténuer l'impact des hallucinations IA - et c'est bon pour votre business.

A propos de l’auteur

Eric Herzog est le directeur marketing d'Infinidat. Avant de rejoindre Infinidat, Eric Herzog était CMO et VP Global Storage Channels chez IBM Storage Solutions. Il bénéficie également d’une bonne expérience de manager : CMO et vice-président senior des alliances pour le fournisseur de stockage Violin Memory, et vice-président senior de la gestion et du marketing des produits pour la division des systèmes d'entreprise et de milieu de gamme d'EMC.