IA agentique : la nouvelle ère de l’IA d’entreprise, entre autonomie maîtrisée et gouvernance des données

IA agentique : la nouvelle ère de l’IA d’entreprise, entre autonomie maîtrisée et gouvernance des données

Si l’IA générative traverse aujourd’hui une phase de consolidation, marquée par l’industrialisation des cas d’usage, une nouvelle étape s’est désormais ouverte dans la révolution de l’intelligence artificielle : celle de l’IA agentique. Contrairement aux modèles génératifs, qui se limitent à répondre à une requête ou à produire un contenu, les nouveaux agents sont capables de prendre des décisions, exécuter des tâches et travailler en autonomie dans des environnements IT complexes. Avec eux, l’IA n’est plus un simple assistant mais elle devient opérationnelle, proactive et capable de gérer des flux de travail de bout en bout. L’enthousiasme du marché est considérable. Pourtant, les conditions réelles du succès restent sous-estimées. Un agent autonome mal encadré ne génère pas seulement une mauvaise réponse, mais il peut prendre une mauvaise décision, avec des lourdes conséquences financiers, opérationnelles ou réglementaires. Pour…

L’enjeu n’est plus de déployer des modèles ou des agents d’IA, mais de leur fournir un contexte fiable, maintenable et industrialisable

L’enjeu n’est plus de déployer des modèles ou des agents d’IA, mais de leur fournir un contexte fiable, maintenable et industrialisable

L’essor de l’intelligence artificielle agentique transforme en profondeur les architectures data des entreprises : les agents ne se contentent plus d’analyser, ils doivent interpréter et agir sur la donnée. La fiabilité du “trusted context” qui inclut qualité de la data, lignage, règles métier et gouvernance, est donc un prérequis critique pour éviter les décisions erronées ou non conformes. On parle beaucoup de “trusted context” dans l’IA d’entreprise. De quoi s’agit‑il concrètement ? Le trusted context correspond à l’ensemble des informations qui fournissent un contexte et un sens aux données et permettent à une IA de fonctionner correctement : provenance des données, qualité, relations entre les entités, règles métier, traçabilité des données, ainsi que politiques de sécurité et de conformité. Dans le cas des agents d’IA, ce contexte est critique car sans lui, un agent peut interpréter les données de manière erronée, générer…

Precisely fait progresser les données « Agentic-Ready » avec un nouvel agent d’IA, une Data product marketplace et des API compatibles MCP

Les dernières améliorations de la Data Integrity Suite aident les organisations à créer, partager et exploiter des données de confiance au sein de workflows et d’analyses pilotés par l’IA Precisely, leader mondial de l’intégrité des données, annonce de nouvelles fonctionnalités au sein de sa Data Integrity Suite afin d’aider les organisations à créer, partager et exploiter des Agentic‑Ready Data : des données de très haute qualité, intégrées, gouvernées et enrichies pour soutenir les initiatives d’IA, d’automatisation et d’analytique à l’échelle de l’entreprise. Cette nouvelle version introduit un Data Integration Agent venant compléter l’assistant IA Gio™, une Data Product Marketplace intégrée à la Data Integrity Suite grâce à un partenariat avec Huwise, ainsi que des API étendues, désormais accessibles via un serveur MCP (Model Context Protocol) hébergé par Precisely. La plupart des entreprises souhaitent passer de…

Suadeo déploie des agents IA on-premise à chaque étape du cycle de la donnée

Alors que l’intelligence artificielle s’impose dans les entreprises, elle reste souvent limitée à des usages ponctuels, production de contenus ou réponses à des requêtes, déconnectés de la chaine des processus métiers et du patrimoine data dans son ensemble. Suadeo fait le choix d’une approche radicalement différente : une connexion permanente entre IA, Data temps réel, Gouvernance et Métier. Présente nativement dans sa plateforme data, à chaque étape du cycle de la donnée, l’IA devient un assistant expert continu, qui comprend l’entreprise dans toute sa complexité : historique, processus, stratégie, et métiers. Chaque utilisateur est augmenté au quotidien par un assistant expert de l’entreprise dans toutes ses dimensions. Entre silos data et IA fragmentée : un modèle à réinventer Dans de nombreuses organisations, l’usage de l’IA reste encore expérimental ou fragmenté. Si les modèles permettent d’obtenir rapidement des réponses, leur…

SAP rachète Dremio : le lakehouse ouvert entre dans la galaxie SAP Business Data Cloud

SAP rachète Dremio : le lakehouse ouvert entre dans la galaxie SAP Business Data Cloud

Annoncée le 4 mai 2026, l'acquisition de Dremio par SAP illustre la course que se livrent les grands éditeurs pour contrôler la couche de données sur laquelle reposera l'IA agentique d'entreprise. En quelques semaines, SAP aura mis la main sur Reltio, Dremio et Prior Labs, trois acquisitions qui dessinent une stratégie de plateforme données cohérente et offensive. Une réponse également aux stratégies de Snowflake et Databricks qui visent la collecte des données opérationnelles. SAP ne compte pas se laisser marcher sur les pieds sans réagir. SAP et Dremio ont annoncé le 4 mai 2026 que SAP a acquis Dremio, une plateforme de data lakehouse ouverte, conçue pour accélérer l'IA agentique et étendre la capacité de SAP Business Data Cloud à combiner données SAP et non-SAP pour de l’analytique et de l’IA en temps réel. Le montant de la transaction n'a pas été divulgué. La finalisation est attendue au troisième trimestre 2026, sous réserve des approbations…

Étude Snowflake : une forte maturité data pour accélérer l’adoption de l’IA et générer du ROI pour les entreprises françaises

Plus de la moitié des organisations françaises utilisent l’IA générative, avec 32 % déclarant un ROI positif Une maturité data plus élevée, associée à moins de freins liés à la gouvernance, favorise l’adoption de l’IA en France par rapport aux organisations internationales Un tiers des organisations françaises utilisent déjà l’IA agentique, et un autre tiers prévoit d’y investir dans les 12 prochains mois Snowflake, le Data Cloud AI, a publié une nouvelle étude révélant que 52 % des entreprises françaises ont déjà adopté l'IA, ce qui témoigne d'une forte dynamique initiale et met en évidence une base solide sur laquelle développer des cas d'utilisation et tirer davantage de valeur de l'IA dans les années à venir. Le rapport intitulé, « Le ROI radical de l’IA générative », réalisé en collaboration avec la société Omdia d’Informa TechTarget. Menée auprès de 2 050 décideurs IT et métiers dans dix pays, l’enquête met en évidence…

Veilleurs stratégiques : des ingénieurs de l’information au cœur des transformations technologiques

Veilleurs stratégiques : des ingénieurs de l’information au cœur des transformations technologiques

À l’occasion de la Journée mondiale de l’ingénierie pour l’avenir, le 13 mai, la lumière se porte sur des métiers scientifiques souvent peu connus. Parmi eux, les veilleurs stratégiques occupent une place singulière, à la croisée de la technologie, de l’analyse et de la décision. Créée pour encourager les vocations scientifiques dans un contexte de désaffection croissante pour les filières techniques, la Journée mondiale de l’ingénierie pour l’avenir rappelle une réalité essentielle : l’innovation repose avant tout sur des compétences humaines. Parmi elles, le métier de veilleur stratégique, encore trop souvent méconnu, s’inscrit pleinement dans cet écosystème. Veilleur : un métier de plus en plus technique et spécialisé Derrière les dispositifs de veille qui sont actuellement déployés au sein des organisations (publiques comme privées), les profils qui opèrent sont ceux d’ingénieurs, de data analysts ou de spécialistes sectoriels.…

Une nouvelle étude révèle que les entreprises françaises sont confrontées à une « taxe de latence » pouvant atteindre 5 % de leur chiffre d'affaires

Dans un contexte économique marqué par l’instabilité et la nécessité d’une efficacité accrue, une étude récente réalisée par Anaplan, Incisiv et le World Retail Congress révèle un coût souvent sous-estimé : une « taxe de latence » sur le chiffre d'affaires, due à la lenteur des processus décisionnels. Bien que l’étude se soit concentrée sur le secteur ultra-concurrentiel de la vente au détail, ses résultats mettent en évidence un défi commercial universel : l’incapacité à réagir rapidement aux données peut entraîner pour une entreprise une perte de revenus allant jusqu’à 5 %, ce qui représente une perte considérable pour les grandes entreprises. Selon l’étude, un écart considérable se creuse entre les « leaders », qui ont amélioré leurs opérations pour gagner en rapidité, et le reste du marché. Voici quelques-unes de ses principales conclusions, qui sont pertinentes pour tous les secteurs : Le déficit d’exécution : la…

Comment les industriels peuvent passer de l’impasse à une approche pilotée par la donnée

Comment les industriels peuvent passer de l’impasse à une approche pilotée par la donnée

Plongeant à plus de quatre kilomètres sous la surface terrestre, la mine d’or de Mponeng en Afrique du Sud est la plus profonde au monde. Il faut plus d’une heure pour atteindre son fond, et avec des températures pouvant atteindre 60°C, un système de refroidissement massif est indispensable pour permettre l’extraction de l’or. La quête de la donnée présente un défi similaire. Souvent décrite comme le nouvel or, elle constitue une ressource essentielle pour connecter le terrain et soutenir des opérations intelligemment automatisées. Pourtant, pour de nombreuses organisations, cet “or” reste enfoui dans une couche numérique difficile d’accès et encore plus difficile à exploiter. Une récente étude indique que les organisations qui parviennent à franchir ce cap optimisent leurs workflows de contrôle qualité et améliorent le travail au quotidien. Les données existent déjà : il est temps d’en libérer la valeur. Pour autant, cette promesse reste encore…

Agents IA : la main-d’œuvre invisible hors de contrôle

Agents IA : la main-d’œuvre invisible hors de contrôle

L’incident OpenClaw survenu récemment constitue un cas d’école des dérives possibles liées aux agents IA autonomes. Un agent IA, chargé de gérer une boîte mail, a supprimé des centaines d’emails malgré une instruction explicite d’attendre validation. En cause : une perte de contexte qui l’a conduit à réinterpréter son objectif et à agir de manière autonome. Rien de spectaculaire. Mais une réalité dérangeante : une fois les permissions accordées, aucune instruction ne constitue un garde-fou fiable. Ce constat transforme radicalement la nature du risque et pose une question que les dirigeants ne peuvent plus esquiver. L’IA n’est plus un outil, c’est un opérateur Ce qui change aujourd’hui, ce n’est pas seulement la puissance de l’IA, mais sa place dans l’entreprise. Pendant des années, elle a été perçue comme un simple outil : elle suggérait, analysait, optimisait… toujours sous supervision humaine. Ce cadre est dorénavant dépassé.…

MyUnisoft structure l’exploitation de la donnée avec MyU Datalake, son socle dédié au pilotage et à la Business Intelligence

MyUnisoft, acteur incontournable auprès des cabinets d’expertise comptable, dévoile MyU Datalake dans un contexte où la valorisation des données s’impose comme un enjeu stratégique, tant sur le plan opérationnel que souverain. Cette solution a été pensée pour centraliser, sécuriser et exploiter efficacement l’ensemble des données issues de son écosystème en garantissant une maitrise complète de leur hébergement et de leur traitement. Conçu comme un socle de pilotage, MyU Datalake permet de transformer des volumes importants de données en informations claires et directement exploitables pour l’analyse et la prise de décision. « Avec MyU Datalake, nous avons conçu un socle qui permet de rassembler l’ensemble des données dans un espace unique et sécurisé, pour les transformer en informations claires et directement exploitables. L’objectif est de donner aux cabinets une lecture globale et cohérente de leur activité à partir de leurs propres données.…

Arrow distribuera les solutions d’informations en temps réel de Dataminr dans l’ensemble de la région EMEA

Arrow a annoncé la conclusion d’un contrat de distribution avec Dataminr, l’un des leaders mondiaux dans le domaine de l’information en temps réel sur les événements, les menaces et les risques basée sur l’IA. Le contrat vient compléter la gamme de produits de sécurité et d’informations d’Arrow pour la région EMEA. Dans le cadre de ce contrat, Arrow distribuera les solutions d’information en temps réel, alimentées par l’IA de Dataminr, permettant ainsi à ses partenaires de distribution de fournir des informations exploitables sur des événements majeurs, des menaces émergentes et des risques inattendus dans tous les domaines physiques, numériques et cyberspatiaux. La plateforme de Dataminr met à disposition des informations en temps réel collectées parmi les signaux de données publics. Elle permet aux entreprises de renforcer leurs mesures de sécurité, de protéger les personnes et les biens matériels et d’améliorer la résilience dans les…

Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA

Ce nouveau benchmark sectoriel montre comment les limites d’API, du débit et les frais de sortie restreignent l’accès des entreprises aux données pour l’IA à grande échelle. Fivetran, au cœur de la fondation de données pour l’IA, annonce l’Open Data Infrastructure (ODI) Data Access Benchmark, un benchmark sectoriel pour évaluer la manière dont les fournisseurs de logiciels d’entreprise permettent ou restreignent l’accès aux données clients. Disponible sur https://www.opendatainfrastructure.com/, ce benchmark apporte une nouvelle transparence sur les difficultés techniques et commerciales qui façonnent la manière dont les entreprises utilisent les données pour l’analytique, les opérations et l’IA. L’infrastructure de données ouvertes (ODI - Open Data Infrastructure) est une approche architecturale visant à garantir que les entreprises puissent accéder à leurs données, les déplacer et les utiliser entre différents systèmes sans restriction.…

L’IA atteint ses limites opérationnelles à mesure que les entreprises accélèrent son déploiement, selon un rapport de Datadog

En production, près d’1 requête sur 20 échoue, la capacité devenant le principal frein à un passage à l’échelle fiable Alors que l’adoption de l’IA s’accélère, la complexité opérationnelle — et non l’intelligence des modèles — devient le principal obstacle à une IA fiable à grande échelle, selon de nouvelles données de Datadog, Inc. (NASDAQ : DDOG), fournisseur de la plateforme d’observabilité et de sécurité leader, pilotée par l’IA. Le rapport State of AI Engineering 2026 de Datadog, fondé sur des données réelles issues de milliers d’organisations exploitant l’IA en production, met en évidence une complexité croissante à mesure que les systèmes passent à l’échelle. Près de 7 entreprises sur 10 (69 %) utilisent désormais trois modèles ou plus, associés pour alimenter des workflows d’agents de plus en plus complexes. Environ 5 % des requêtes vers les modèles d’IA échouent en production, dont près de 60 % à cause de…

« IA & Data for Industrial Engineering » - Création d’une chaire de recherche entre l’École nationale des ponts et chaussées et Scalian pour accélérer l’innovation en Intelligence artificielle et data au service de l’ingénierie industrielle

L’École nationale des ponts et chaussées (ENPC) et Scalian annoncent la création d’une chaire de recherche commune d’une durée de 5 ans, intitulée « IA & Data for Industrial Engineering ». Ce partenariat stratégique vise à développer une recherche technologique de pointe à l’interface de l’intelligence artificielle, de la science des données et de l’ingénierie industrielle. La signature officielle de cette chaire a eu lieu le lundi 20 avril dans les locaux de l’ENPC, en présence de William Rozé, président du groupe Scalian et d’Anthony Briant, directeur de l’ENPC. Portée par l’équipe « Data Science for Complex Systems » du Co-Innovation Lab et par le département de Génie Industriel de l’ENPC, en étroite collaboration avec les équipes de Scalian, cette chaire s’inscrit dans une dynamique de recherche technologique à fort impact. Placée sous la responsabilité scientifique de Mohamed Saâd El Harrab, maître de conférences à…

Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA

Ce nouveau benchmark sectoriel montre comment les limites d’API, du débit et les frais de sortie restreignent l’accès des entreprises aux données pour l’IA à grande échelle. Fivetran, au cœur de la fondation de données pour l’IA, annonce l’Open Data Infrastructure (ODI) Data Access Benchmark, un benchmark sectoriel pour évaluer la manière dont les fournisseurs de logiciels d’entreprise permettent ou restreignent l’accès aux données clients. Disponible sur https://www.opendatainfrastructure.com/, ce benchmark apporte une nouvelle transparence sur les difficultés techniques et commerciales qui façonnent la manière dont les entreprises utilisent les données pour l’analytique, les opérations et l’IA. L’infrastructure de données ouvertes (ODI - Open Data Infrastructure) est une approche architecturale visant à garantir que les entreprises puissent accéder à leurs données, les déplacer et les utiliser entre différents systèmes sans restriction.…

Étude Denodo : 66 % des organisations jugent les données en temps réel indispensables, mais relèvent des obstacles majeurs

Un déficit de confiance qui freine l’adoption à l’échelle de l’IA agentique. Alors que l’intelligence artificielle évolue vers des modèles capables d’agir de manière autonome, une nouvelle étude menée par Denodo, leader mondial de la gestion des données, met en lumière un important déficit de confiance dans les données, ce qui entrave une adoption à grande échelle de l’IA agentique dans les entreprises. Basée sur une enquête menée auprès de 850 dirigeants et décideurs impliqués dans des projets d’IA à travers le monde, cette recherche montre comment les organisations peinent encore à réunir les conditions nécessaires pour rendre l’IA réellement opérationnelle et fiable dans les processus métiers. Des exigences inédites en matière de données Contrairement aux chatbots ou aux outils traditionnels d’aide à la décision, l’IA agentique marque une rupture en ne se limitant plus à formuler des recommandations : elle déclenche des actions,…

Agence Spatiale Européenne : Une exploitation souveraine et autonome des données avec Suadeo

Suadeo, éditeur de logiciel français spécialisé dans le traitement massif, la valorisation et l’exploitation des données, annonce le déploiement de sa plateforme au sein de l’Agence Spatiale Européenne (ESA = European Space Agency) pour accélérer la transformation de son pilotage administratif et opérationnel interne vers un modèle data-driven. L’ESA gère désormais ses données de manière unifiée, sécurisée, dans un environnement souverain, à la main des utilisateurs métiers. Alors que l’économie spatiale mondiale pourrait atteindre 1 800 milliards de dollars d’ici 2035, les missions se multiplient et la concurrence s’intensifie. Dans ce contexte, la donnée devient un enjeu stratégique : sa collecte, sa gestion et son exploitation conditionnent directement l’efficacité de la coordination autour des missions spatiales, la qualité des analyses et la sécurité des opérations. Une Data factory au service des équipes support, administratives et des…

La Plateforme des données de santé engage sa migration vers un cloud souverain avec Scaleway

La Plateforme de Données de Santé (PDS) annonce le choix de Scaleway comme futur hébergeur de sa plateforme technologique. La migration vers un cloud souverain marque une étape importante dans l’évolution de son offre de services pour accélérer la mise à disposition des données de santé aux acteurs de la recherche et de l’innovation La concrétisation d'une stratégie de réversibilité initiée dès 2019 Depuis sa création, la plateforme technologique de la PDS a été conçue pour prévoir une réversibilité1 en anticipation d’un changement d’hébergeur, en suivant avec attention l’évolution de l’offre de services cloud en France et en Europe. Pour accueillir des projets de pointe utilisant les données de santé, la plateforme technologique doit s’appuyer, compte tenu de la sensibilité et des volumes de données hébergées, sur une infrastructure élastique garantissant un très haut niveau de sécurité. Pour offrir à la fois cette élasticité et…

Avec Stargate, Starburst fait du multicloud une réponse à la conformité

Starburst, acteur de référence des plateformes data et IA, annonce le renforcement de son approche de lakehouse hybride et fédéré pour répondre aux défis critiques de souveraineté des données auxquels font face les entreprises européennes. Chaque jour, plus de 403 millions de téraoctets de données sont créés dans le monde. Une grande partie de ces données appartient à des entreprises européennes, mais une part significative n'est pas stockée en Europe. Selon l'IFRAP, environ 70 % des données des Français étaient encore hébergées hors du territoire national en 2023. Même si ce chiffre a partiellement évolué depuis, la structure du marché du cloud, dominé à plus de 65 % par AWS, Microsoft Azure et Google Cloud, maintient une dépendance structurelle à des fournisseurs soumis au Cloud Act américain et expose concrètement les entreprises à des risques d'accès non autorisé à leurs données. Dans ce contexte, Starburst propose une approche lakehouse…

Snowflake renforce Snowflake Intelligence et Cortex Code pour devenir le plan de contrôle de l’entreprise agentique

Snowflake fournit une IA agentique à destination des utilisateurs métiers et des développeurs sur une plateforme unique avec Snowflake Intelligence et Cortex Code. Snowflake Intelligence aide les métiers grâce à un agent IA contextualisé et fondé sur les données de l’entreprise. Cortex Code accélère le passage du développement à la production avec des capacités d’IA intégrées aux outils, systèmes et environnements existants. Snowflake (NYSE: SNOW), le Data Cloud AI, annonce d’importantes évolutions de ses solutions Snowflake Intelligence et Cortex Code, faisant progresser sa vision de devenir le plan de contrôle de l’entreprise agentique. À mesure que les systèmes d’IA évoluent, passant de simples réponses à des questions et à de véritables capacités d’exécution, les organisations peuvent connecter plus largement leurs sources de données, leurs systèmes d’entreprise et leurs modèles d’IA à leurs données Snowflake, le tout au sein d’une…

Podcast : Découvrons le context engineering avec Dataloma

Podcast : Découvrons le context engineering avec Dataloma

Si vous voulez vous aussi participer à une émission du podcast Decideo, envoyez moi un email à philippe.nieuwbourg@decideo.com. Et si vous avez aimé cet épisode, mettez lui quelques étoiles et un petit commentaire dans votre application de podcasting.

Data spaces : l'Europe entre dans une « Saison 2 »

Data spaces : l'Europe entre dans une « Saison 2 »

Après cinq ans de structuration, les espaces de données européens passent du concept au déploiement industriel. La huitième plénière du Hub France Gaia-X, réunie à Bercy le 9 avril 2026, en donne la mesure. Il y a encore deux ans, parler de data spaces dans un comité de direction générait des regards perplexes voir ironiques. Le 9 avril dernier, au centre de conférences Pierre Mendès-France du ministère de l’Économie, à Bercy, le sujet a réuni près de 200 participants issus de l’industrie, de la recherche et de l’administration publique. L’événement organisé par le Hub France Gaia-X a confirmé que les espaces de données ont quitté la sphère des experts pour entrer dans l’agenda stratégique des industriels. C’est le signe d’une bascule du concept à la réalité. Et sa mise en place devrait être un élément clef d’une stratégie de gouvernance des données. Un événement qui faisait écho au Data Spaces Symposium 2026, organisé en février

L'Île de Man invente le bilan comptable de la donnée : révolution ou coup de communication ?

L'Île de Man invente le bilan comptable de la donnée : révolution ou coup de communication ?

Une loi adoptée par le Tynwald, nom donné au parlement bicaméral de l’île de Man, crée un cadre juridique inédit pour valoriser les données comme des actifs financiers. Une première mondiale qui suscite autant d'enthousiasme que de questions. Dans la mer d'Irlande, entre Liverpool et Dublin, un territoire de 90 000 habitants vient de faire ce que l'Union européenne, les États-Unis et les grandes puissances économiques mondiales n'ont pas encore osé : donner aux données un statut juridique d'actif à part entière, inscriptible au bilan d'une entreprise. L'Île de Man est devenue la première juridiction à reconnaître légalement la donnée comme un actif, à la suite de l'adoption du Foundations (Amendment) Bill 2025 par le Tynwald La loi, passée discrètement au début de l'année 2025 mais dont les effets commencent à se faire sentir en ce printemps 2026, crée une structure inédite : la Data Asset Foundation (DAF). Qu'est-ce qu'une Data Asset Foundation ? Il…