Les systèmes d'IA contextuels remodèlent le fonctionnement des entreprises en utilisant des signaux du monde réel tels que l'emplacement, l'heure et le comportement des utilisateurs pour prendre des décisions adaptées à des situations spécifiques. Contrairement aux anciens modèles d’IA qui reposent sur des entrées statiques, ces systèmes mettent continuellement à jour leur compréhension, offrant des réponses plus précises et dynamiques. Alimentés par de grands modèles de langage (LLM), ils excellent dans le traitement du contexte grâce à des mécanismes tels que les couches d'attention, les fenêtres contextuelles et la génération augmentée par récupération (RAG).
Points clés à retenir :
L'adoption de stratégies telles que le réglage fin, la génération augmentée par récupération et les systèmes de mémoire peuvent aider les entreprises à améliorer les processus de prise de décision et à rationaliser les flux de travail. À mesure que le domaine évolue, l'ingénierie contextuelle et les systèmes multi-agents sont des tendances émergentes, offrant des solutions plus avancées et plus flexibles.
La création de systèmes d'IA contextuels efficaces nécessite un cadre sophistiqué qui va au-delà des configurations de base de réponse rapide. Ces systèmes doivent intégrer différents composants pour traiter et utiliser les informations contextuelles en temps réel. Comprendre cette architecture est essentiel pour créer des solutions d’IA fiables.
Les systèmes LLM (Large Language Model) contextuels s'appuient sur un ensemble de composants interconnectés pour générer des réponses intelligentes et adaptatives. Les éléments clés incluent des fenêtres contextuelles, qui déterminent la quantité d'informations que le système peut traiter en même temps. Par exemple, Gemini 1.5 Pro prend en charge jusqu'à 2 millions de jetons, tandis que Claude 3.5 Sonnet en gère 200 000 et GPT-4 Turbo gère 128 000 jetons.
Les mécanismes de récupération extraient les données pertinentes pour la tâche à accomplir, tandis qu'un encodeur de contexte organise ces informations dans un format que le LLM peut traiter. Le modèle de génération utilise ensuite ce contexte structuré pour élaborer des réponses. Pendant ce temps, des systèmes de mémoire dédiés stockent différents types d’informations, permettant à l’IA d’apprendre des interactions antérieures et d’appliquer ces connaissances dans des scénarios futurs.
A context router or memory manager ensures that the right data flows to the correct processes at the right time. Additionally, a memory-aware prompt builder integrates historical context into prompts, and the main agent interface serves as the user’s primary interaction point.
Interestingly, companies that optimize their memory systems often reduce LLM API costs by 30–60% by cutting down on redundant context processing.
Des plates-formes comme MaxKB combinent des LLM avec une récupération de connaissances externe à l'aide d'outils tels qu'une interface basée sur Vue.js et PostgreSQL avec pgvector pour le stockage de l'intégration de documents. MaxKB s'intègre à des fournisseurs comme Llama 3, Qwen 2, OpenAI et Claude. De même, Continue, un assistant de codage pour VSCode, indexe les bases de code du projet dans des bases de données vectorielles, enrichissant les invites utilisateur avec des extraits de code pertinents.
Ces composants constituent l’épine dorsale d’une gestion efficace du contexte, ouvrant la voie à l’exploration de méthodes avancées pour gérer efficacement le contexte.
Gérer efficacement le contexte consiste à trouver un équilibre entre le besoin d'informations pertinentes et les performances du système. Les organisations doivent souvent faire des compromis entre la conservation d'informations détaillées, la garantie de temps de réponse rapides et la gestion de la complexité du système.
Certaines des techniques les plus efficaces incluent le chaînage d’invites et l’intégration de mémoire, qui aident à maintenir le contexte sans surcharger le système.
Le réglage fin est une autre approche, dans laquelle les modèles pré-entraînés sont personnalisés pour des tâches spécifiques en les reformant avec de nouvelles données. Bien que cette méthode soit très efficace pour les applications spécialisées, elle nécessite un recyclage à chaque fois que les données changent, ce qui la rend moins flexible pour les contextes dynamiques.
Retrieval-Augmented Generation (RAG) stands out as a strategy that improves accuracy and relevance by incorporating external knowledge at inference time. Unlike fine-tuning, RAG doesn’t require retraining the model.
Other practical strategies include context compression, which can reduce token usage by 40–60%, and memory buffering, which focuses on short-term context. For lengthy documents, hierarchical summarization is often used, though it carries the risk of cumulative errors.
Le choix de la bonne méthode dépend de l'application. Par exemple, les outils interactifs nécessitant des réponses rapides peuvent donner la priorité à une faible latence, tandis que des systèmes plus analytiques pourraient favoriser la conservation d'un contexte complet, même si cela augmente le temps de traitement.
Des plates-formes telles que prompts.ai intègrent ces stratégies dans des flux de travail rationalisés, garantissant à la fois efficacité et évolutivité.
En tirant parti d'une architecture avancée et de stratégies de gestion du contexte, prompts.ai crée des flux de travail unifiés adaptés aux systèmes d'IA contextuels. La plate-forme met l'accent sur la sécurité, l'évolutivité et la conformité, en déplaçant l'accent de l'ingénierie rapide traditionnelle vers l'ingénierie contextuelle.
"Context engineering is the delicate art and science of filling the context window with just the right information for the next step." – Andrej Karpathy
"Context engineering is the delicate art and science of filling the context window with just the right information for the next step." – Andrej Karpathy
Ce concept implique l'assemblage de divers composants, tels que des invites, des systèmes de mémoire, des sorties RAG, des résultats d'outils et des formats structurés, dans des solutions cohérentes.
Pour une utilisation en entreprise, prompts.ai prend en charge plus de 35 principaux LLM, notamment GPT-4, Claude, LLaMA et Gemini. En centralisant ces outils, il aide les organisations à réduire la prolifération des outils tout en maintenant la gouvernance et le contrôle des coûts.
The platform’s architecture is designed to handle complex memory management needs. With detailed APIs and configuration options, companies can fine-tune memory behavior to optimize context management while reducing computational strain and latency.
For example, a Fortune 100 healthcare provider cut proposal iteration times by 60% by embedding metadata into prompts for an AI assistant tasked with system refactoring. Additionally, context-aware systems that remember user preferences have been shown to boost user retention rates by 40–70%.
Transformer les données brutes en informations exploitables est au cœur d’un processus décisionnel efficace. Ces pipelines constituent la base des systèmes d'IA capables de saisir le contexte, de naviguer dans des scénarios complexes et de fournir des recommandations significatives.
Un pipeline de décision contextuel bien structuré se déroule généralement en quatre étapes. Cela commence par la collecte de contexte, où les données sont collectées à partir de sources telles que des bases de données, des documents, des interactions utilisateur et des flux en temps réel.
L'étape suivante, le raisonnement, exploite les grands modèles linguistiques (LLM) pour traiter ces données, découvrir des modèles, identifier les relations et générer des conclusions logiques. Cette étape produit des recommandations exploitables, souvent accompagnées de scores de confiance.
Les boucles de rétroaction jouent un rôle essentiel dans le perfectionnement du système. En capturant les réponses des utilisateurs, les résultats et les mesures de performances, ces boucles aident le système à améliorer sa précision et son adaptabilité au fil du temps. Par exemple, une entreprise de taille moyenne développant un agent de support client basé sur l'IA pourrait traiter les tickets en extrayant le contenu via une API, en supprimant les signatures, en dédupliquant les données et en divisant les informations en morceaux sémantiques enrichis de métadonnées à des fins de surveillance.
Retrieval-Augmented Generation (RAG) pipelines take decision-making a step further by linking LLMs to external knowledge bases during the reasoning phase. This dynamic access to relevant information eliminates the need for model retraining, making the process more flexible and efficient. Next, let’s explore how multiple LLM agents collaborate to refine decisions.
L’essor des systèmes multi-agents marque le passage des modèles d’IA autonomes aux cadres collaboratifs. Dans ces systèmes, plusieurs agents basés sur LLM travaillent ensemble pour résoudre des problèmes complexes. Ils se connectent, négocient, prennent des décisions, planifient et agissent collectivement, le tout guidé par des protocoles de collaboration clairement définis.
La collaboration peut se produire à différents niveaux :
Real-world examples highlight the benefits of these collaborative systems. In April 2024, Zendesk incorporated LLM agents into its customer support platform, enabling automated responses through partnerships with Anthropic, AWS, and OpenAI, making GPT-4o accessible to users. GitHub Copilot showcases this in action by offering real-time code suggestions, allowing engineers to code up to 55% faster. Additionally, McKinsey estimates that generative AI could contribute $2.6 trillion to $4.4 trillion in global business value across 63 use cases. Studies also show that workflows using multiple agents with GPT 3.5 often outperform single-agent setups with GPT 4. NVIDIA’s framework further demonstrates how LLM agents can interact with structured databases, extract financial data, and handle complex analyses.
Les cadres collaboratifs ne sont qu’une pièce du puzzle. L’optimisation de la gestion du contexte au sein des pipelines de décision est tout aussi importante. Différentes stratégies ont leurs propres forces et limites, comme indiqué ci-dessous :
Among these, context compression stands out for cutting token usage by 40–60% while maintaining processing speed. When paired with RAG, it ensures accurate, sourced answers by dynamically retrieving relevant context. Memory buffering is particularly useful for conversational applications requiring short-term context, while hierarchical summarization excels in managing lengthy documents despite potential error accumulation.
Le choix de la bonne stratégie dépend de votre application. Pour des réponses précises, RAG est idéal. Pour les conversations longues et multisessions, la mise en mémoire tampon fonctionne mieux. Le résumé hiérarchique brille lors du traitement de textes étendus, tandis que la compression contextuelle permet de réaliser des économies. Pour les scénarios où la vitesse est critique, combiner RAG avec compression est une décision judicieuse. Des outils comme LiteLLM et des plateformes comme Agenta facilitent l'expérimentation et le basculement entre ces stratégies, vous aidant ainsi à trouver la meilleure solution pour vos besoins spécifiques.
Les systèmes d'IA contextuels alimentés par de grands modèles de langage (LLM) remodèlent les industries en offrant des solutions intelligentes et adaptables. Ces applications mettent en évidence à quel point les techniques avancées de gestion du contexte font une différence tangible.
L’architecture avancée de l’IA contextuelle stimule l’innovation dans divers secteurs, prouvant sa valeur dans des scénarios réels.
Healthcare has emerged as a leader in adopting context-aware AI. These systems are being used to predict disease progression and assist in clinical decision-making. For instance, LLMs are analyzing computed tomography reports to predict cancer metastasis across multiple organs. By 2025, India’s AI healthcare investment is projected to hit $11.78 billion, with the potential to boost the economy by $1 trillion by 2035.
Les services financiers exploitent ces systèmes pour améliorer l'analyse des données, les prévisions, les calculs en temps réel et le service client. Les chatbots financiers sont désormais capables de traiter des requêtes complexes et multilingues, améliorant ainsi l'expérience de support client. Notamment, GPT-4 a atteint un taux de précision de 60 % dans les prévisions, surpassant les analystes humains et permettant des décisions d'investissement plus éclairées.
Le service client a connu une transformation avec des assistants basés sur l'IA qui gèrent des tâches telles que le traitement des demandes de renseignements, le traitement des retours et la réalisation de contrôles d'inventaire. Ces systèmes reconnaissent également l'intention du client, permettant ainsi des opportunités de vente incitative. Au Royaume-Uni, l’IA traite désormais jusqu’à 44 % des demandes des clients des fournisseurs d’énergie.
Retail and e-commerce are benefiting from personalized experiences driven by AI. McKinsey estimates that generative AI could add $240–$390 billion annually to the retail sector, potentially increasing profit margins by up to 1.9 percentage points. By analyzing customer behavior and preferences, these systems deliver tailored recommendations that enhance shopping experiences.
Le traitement et l’analyse des documents sont un autre domaine dans lequel l’IA a un impact. Dans tous les secteurs, les entreprises automatisent l'extraction, l'analyse et la synthèse de grands volumes de documents, tels que des contrats, des rapports et des e-mails. Cela réduit les efforts manuels et accélère les flux de travail.
L’éducation et la formation adoptent l’IA grâce à l’intégration de pipelines d’IA générative avec des avatars virtuels. Ces outils créent du contenu d'apprentissage en temps réel accessible à la fois sur le Web et dans des environnements de réalité virtuelle, rendant l'éducation plus interactive et plus engageante.
L’augmentation de productivité apportée par les systèmes d’IA contextuels est frappante. Par exemple, EY a investi 1,4 milliard de dollars dans une plateforme d’IA et déployé un LLM privé (EYQ) auprès de 400 000 employés. Cela a abouti à une augmentation de productivité de 40 %, avec des prévisions de doublement en un an. Une enquête mondiale McKinsey de 2024 a également révélé que 65 % des organisations utilisent activement l'IA, avec des taux d'adoption doublant depuis 2023 grâce aux progrès de l'IA générative.
L'automatisation permise par ces systèmes permet aux employés de se concentrer sur des tâches à plus forte valeur ajoutée. Les équipes de support client constatent des temps de réponse plus rapides, le traitement des documents passe de quelques heures à quelques minutes et l'analyse financière devient plus précise et efficace. Cependant, comme le souligne Nigam Shah, PhD, MBBS, scientifique en chef des données à Stanford Health Care :
__XLATE_32__
"Nous appelons cela 'LLM bingo', où les gens cochent ce que ces modèles peuvent et ne peuvent pas faire. 'Peut-il réussir les examens médicaux ? Vérifiez. Peut-il résumer les données et l'historique d'un patient ? Vérifiez.' Même si la réponse est peut-être oui en apparence, nous ne posons pas les questions les plus importantes : « Quelles sont ses performances ? » Cela a-t-il un impact positif sur les soins aux patients ? Est-ce que cela augmente l’efficacité ou diminue les coûts ? »
Des plates-formes telles que prompts.ai interviennent pour rationaliser l'intégration de l'IA contextuelle dans les flux de travail de l'entreprise. prompts.ai simplifie le processus en connectant les utilisateurs aux meilleurs modèles d'IA tels que GPT-4, Claude, LLaMA et Gemini via une interface unifiée, éliminant ainsi le besoin de jongler avec plusieurs outils. Cette approche réduirait les coûts de l'IA de 98 % et décuplerait la productivité des équipes grâce à des comparaisons de modèles côte à côte.
Des exemples concrets mettent en évidence la polyvalence de la plateforme :
The platform also offers enterprise-grade features, including full visibility and auditability of AI interactions, ensuring compliance and scalability. Dan Frydman, an AI thought leader, notes that prompts.ai’s built-in "Time Savers" help companies automate sales, marketing, and operations, driving growth and productivity with AI.
L'intégration avec des outils tels que Slack, Gmail et Trello améliore encore sa convivialité, permettant aux équipes d'intégrer l'IA de manière transparente dans leurs flux de travail existants. Avec une note moyenne de 4,8/5, la plateforme est saluée pour sa capacité à rationaliser les opérations, à améliorer l'évolutivité et à centraliser la communication sur les projets.
Cette évolution de l’intégration de l’IA souligne le potentiel croissant des systèmes contextuels, ouvrant la voie aux avancées futures évoquées dans les sections suivantes.
Implementing context-aware AI systems comes with its fair share of technical and operational challenges. Addressing these obstacles, adopting effective strategies, and staying ahead of emerging trends are essential to making the most of AI investments. Let’s dive into the hurdles, best practices, and future developments shaping the field of context-aware AI.
La gestion du contexte dans les systèmes d’IA, en particulier lors de la coordination de plusieurs agents d’IA, n’est pas une mince affaire. Cela nécessite une synchronisation précise, une communication claire et des protocoles solides pour garantir le bon fonctionnement de tout. Lorsque plusieurs grands modèles de langage (LLM) sont impliqués, maintenir un contexte cohérent devient de plus en plus complexe.
Un problème majeur est la surcharge d’informations. Ces systèmes doivent traiter de grandes quantités de données tout en équilibrant les interactions à court terme et la mémoire à long terme. En outre, ils doivent garantir une interprétation cohérente des informations partagées tout au long des flux de travail.
Un autre défi est le décalage contextuel, qui se produit lorsque les systèmes d’IA ne disposent pas d’une base adéquate. Il est donc difficile de distinguer des points de données presque identiques ou de déterminer si des mesures spécifiques correspondent aux besoins de l'entreprise. Des obstacles spécifiques au domaine entrent également en jeu. Les LLM à usage général manquent souvent des connaissances spécialisées requises pour les applications de niche. Par exemple, une étude de l’Université de Stanford a révélé que les LLM produisaient des informations inexactes ou fausses dans 69 à 88 % des cas lorsqu’ils étaient appliqués à des scénarios juridiques. Sans connaissance adaptée du domaine, ces modèles peuvent halluciner ou fabriquer des réponses, conduisant à des résultats peu fiables.
Pour relever ces défis, les organisations doivent se concentrer sur quelques stratégies clés :
Des exemples concrets illustrent l’impact de ces pratiques. Amazon, par exemple, utilise l'IA contextuelle pour analyser le comportement des utilisateurs, tel que l'historique de navigation et les modèles d'achat, afin de fournir des recommandations de produits personnalisées. De même, Woebot applique l'IA contextuelle pour fournir un soutien en temps réel en matière de santé mentale en analysant les entrées des utilisateurs et en proposant des stratégies d'adaptation personnalisées.
L’évolution de l’IA contextuelle remodèle la manière dont les organisations mettent en œuvre et optimisent ces systèmes. L’un des changements les plus notables est la transition de l’ingénierie rapide à l’ingénierie contextuelle. Cette approche se concentre sur la fourniture des bonnes informations et des bons outils au bon moment, plutôt que sur la création d'invites parfaites.
Tobi Lütke, CEO of Shopify, describes context engineering as:
__XLATE_44__
"C'est l'art de fournir tout le contexte pour que la tâche puisse être résolue de manière plausible par le LLM."
Andrej Karpathy, ancien directeur de Tesla AI, fait écho à ce sentiment en déclarant :
__XLATE_47__
"+1 pour "l'ingénierie de contexte" par rapport à "l'ingénierie rapide"."
La normalisation gagne également du terrain, avec l’émergence de cadres tels que le Model Context Protocol (MCP) pour structurer plus efficacement les informations contextuelles. Ces normes améliorent l’interopérabilité entre les systèmes d’IA et simplifient l’intégration.
D’autres développements passionnants incluent :
Les rôles spécialisés, comme les ingénieurs contextuels, deviennent également plus importants. Christian Brown, technologue juridique, souligne leur importance :
__XLATE_52__
"L'ingénierie contextuelle transforme les LLM en véritables partenaires agents."
La sécurité est une autre préoccupation croissante. Par exemple, des chercheurs de l'Université de Toronto ont découvert des vulnérabilités dans les GPU NVIDIA en juillet 2025, soulignant la nécessité de mesures de protection plus strictes dans les systèmes contextuels.
Les normes d'interopérabilité évoluent pour prendre en charge une intégration transparente entre diverses plates-formes d'IA. Des plates-formes telles que prompts.ai, qui permettent d'accéder à plusieurs LLM via une interface unique, démontrent la valeur de l'unification des flux de travail.
Ces tendances laissent présager un avenir dans lequel l’IA contextuelle sera plus automatisée, plus sécurisée et capable de gérer des scénarios complexes du monde réel avec une plus grande fiabilité.
Les systèmes d'IA contextuels, alimentés par de grands modèles de langage, remodèlent la manière dont les entreprises abordent la prise de décision et l'automatisation. Contrairement aux robots traditionnels basés sur des règles, ces systèmes apportent une intelligence dynamique, s’adaptant à des scénarios complexes du monde réel et fournissant des résultats mesurables.
Le fondement de ces systèmes réside dans leur capacité à véritablement comprendre le contexte unique d’une entreprise. Comme le dit si bien Aakash Gupta :
__XLATE_59__
"L'ingénierie contextuelle représente la prochaine évolution dans le développement de l'IA, allant au-delà des invites statiques vers des systèmes dynamiques et sensibles au contexte, capables de véritablement comprendre et répondre à toute la complexité des interactions du monde réel."
Des secteurs tels que la santé et la finance connaissent déjà des gains de productivité et des réductions de coûts notables, soulignant l’impact de ces systèmes avancés. En fait, plus de 67 % des organisations dans le monde utilisent désormais des outils d’IA générative optimisés par les LLM, les experts prévoyant des contributions encore plus importantes dans divers secteurs.
L’adoption de l’ingénierie contextuelle devient une nécessité pour les organisations qui souhaitent surmonter les problèmes de fiabilité et d’évolutivité qui tourmentent depuis longtemps l’IA traditionnelle. Cette approche répond à ces défis persistants, conduisant à des performances plus cohérentes et à moins de pannes système.
Pour transformer ces informations en stratégies concrètes, les entreprises doivent commencer par des projets pilotes qui mettent en valeur la valeur des capacités contextuelles. En se concentrant sur un aspect essentiel de l'ingénierie contextuelle qui répond à leurs besoins les plus urgents, les entreprises peuvent créer des systèmes qui sont non seulement efficaces aujourd'hui, mais également suffisamment flexibles pour évoluer à mesure que les exigences évoluent.
Les solutions centralisées sont essentielles pour gérer les complexités de l’IA contextuelle. Des plates-formes telles que prompts.ai simplifient ce processus en donnant accès à plus de 35 LLM de premier plan via une interface unique. Ces plates-formes incluent également des contrôles de coûts et des outils de gouvernance intégrés, aidant les organisations à éviter les inefficacités liées à la gestion de plusieurs outils. Grâce à un modèle de paiement à l'utilisation et à un suivi transparent des jetons, les entreprises peuvent contrôler les dépenses en IA tout en gardant une surveillance claire des modèles d'utilisation.
L’orientation du marché met en évidence l’importance stratégique de l’intégration transparente du contexte et de l’IA. Les systèmes d'IA contextuels ne sont plus facultatifs : ils deviennent une infrastructure essentielle pour les entreprises qui cherchent à garder une longueur d'avance. Investir dans une ingénierie contextuelle robuste garantit désormais que les organisations peuvent exploiter tout le potentiel de l’IA et obtenir un avantage concurrentiel durable. Il ne s’agit pas simplement d’une mise à niveau technologique ; c'est la base des entreprises du futur.
Les systèmes d'IA contextuels utilisent des données en temps réel et une compréhension de situations spécifiques pour prendre des décisions plus intelligentes dans des domaines tels que la santé et la finance. En analysant des modèles de données complexes et en adaptant leurs réponses à des scénarios uniques, ces systèmes améliorent la précision, l'efficacité et la personnalisation.
Take healthcare, for example. These AI tools can help with diagnosing illnesses, crafting treatment plans, and managing broader population health. They do this by taking into account factors like a patient’s medical history, the clinical setting, and current health conditions. Over in finance, context-aware AI plays a key role in detecting fraud, evaluating risks, and keeping up with market shifts, enabling quicker and more precise financial insights.
En équipant les professionnels de meilleurs outils pour prendre des décisions éclairées, ces systèmes font gagner du temps, minimisent les erreurs et conduisent à de meilleurs résultats pour les individus et les organisations.
Les entreprises sont confrontées à de nombreux obstacles lorsqu’elles tentent de mettre en œuvre des systèmes d’IA contextuels. Ces défis incluent la gestion d’informations contextuelles fragmentées ou incomplètes, la garantie d’un accès à des données pertinentes et de haute qualité, la gestion des coûts souvent élevés liés au déploiement de technologies avancées d’IA, la résolution des pénuries d’expertise en IA et la résolution des complexités liées à l’intégration de ces systèmes aux infrastructures existantes.
Pour surmonter ces obstacles, les entreprises doivent se concentrer sur quelques stratégies clés. Commencez par établir des pratiques robustes de gestion des données pour garantir que les informations sont exactes et accessibles. Investissez dans une infrastructure à la fois évolutive et adaptable pour répondre aux besoins changeants. Établissez des politiques de gouvernance claires pour guider la manière dont l’IA est utilisée de manière responsable. En plus de cela, mettez l’accent sur les programmes de formation continue pour les employés afin de combler les écarts de compétences et d’encourager la collaboration entre les départements. Ces étapes peuvent ouvrir la voie à une mise en œuvre plus fluide et à un succès durable.
L'ingénierie du contexte implique la création d'un environnement d'information complet pour un système d'IA. Cela signifie doter l’IA de toutes les connaissances et ressources de base dont elle a besoin pour fonctionner efficacement. D’un autre côté, l’ingénierie rapide consiste à élaborer des instructions précises pour une seule interaction avec l’IA.
Pour les entreprises, l’ingénierie contextuelle joue un rôle essentiel dans l’amélioration des performances de l’IA. Cela aide à minimiser les erreurs, comme les hallucinations, et prend en charge une prise de décision plus précise et plus fiable. En créant un contexte plus riche et plus pertinent, les entreprises peuvent obtenir de meilleurs résultats et exploiter toutes les capacités des systèmes d’IA.

