L’évolution du paysage des assistants numériques. Depuis plus d’une décennie, le paysage technologique grand public est défini par un duopole axé sur la commodité. Siri d’Apple et Assistant de Google ont dominé l’expérience mobile, s’appuyant sur des API rigides et des intégrations prédéfinies pour traiter des requêtes simples. Cependant, un changement fondamental est en train de se produire dans le monde de l’intelligence artificielle, qui passe de systèmes de réponse passive à des flux de travail actifs et proactifs. Anthropic, la société spécialisée dans la sécurité de l’IA, se positionne non seulement comme un concurrent, mais aussi comme un troisième pilier distinct de l’intelligence qui remet en question les écosystèmes fermés de l’axe Apple-Google.

Au cœur de ce défi se trouve le concept d’« IA constitutionnelle », une méthodologie qui intègre un ensemble de principes directement dans le processus décisionnel du modèle. Alors que Gemini et Siri sont optimisés pour la collecte de données et le verrouillage de l’écosystème, l’approche d’Anthropic privilégie la sécurité, l’interprétabilité et, surtout, le raisonnement approfondi.
Cette distinction devient essentielle pour les utilisateurs professionnels qui ont besoin d’un partenaire IA capable de traiter des données sensibles sans les conflits d’intérêts inhérents aux modèles basés sur la publicité. Avec l’émergence de fonctionnalités telles que Cowork, l’écart entre un « assistant intelligent » et un « collègue agentique » se réduit rapidement.
Le bond agentique d’Anthropic : au-delà des simples invites
L’évolution des grands modèles linguistiques (LLM) a atteint un point d’inflexion. Nous nous éloignons du paradigme du « chatbot » – où un utilisateur pose une question et reçoit une réponse unique et statique – pour nous diriger vers un paradigme « agentique ». Dans ce nouveau modèle, l’IA ne se contente pas de répondre, elle agit. Anthropic est à la pointe de cette évolution grâce à des capacités qui permettent à ses modèles de percevoir, de raisonner et d’exécuter des tâches complexes en plusieurs étapes.
L’essor de Cowork et de l’utilisation de l’ordinateur
Au cœur de cette stratégie se trouve l’évolution de fonctionnalités telles que « Computer Use » (utilisation de l’ordinateur) et la fonctionnalité « Cowork » récemment introduite. Selon la documentation d’Anthropic, Cowork est un aperçu de recherche qui apporte la puissante architecture agentique de Claude Code directement à l’environnement de bureau. Contrairement aux interactions traditionnelles avec l’IA qui se limitent à une fenêtre de chat, Cowork permet au modèle d’interagir avec le système de fichiers local de l’utilisateur.
Les implications sont profondes. Au lieu de télécharger manuellement des documents ou de copier-coller du texte, l’utilisateur peut autoriser Claude à accéder à un dossier spécifique. Une fois l’accès accordé, Claude peut lire, analyser, organiser et réécrire directement les fichiers. Cette fonctionnalité imite le flux de travail d’un assistant administratif humain plutôt que celui d’un outil logiciel. Elle représente une avancée significative par rapport aux limites de Siri ou Gemini, qui sont largement confinés aux environnements sandboxés de leurs systèmes d’exploitation respectifs, à moins que des API spécifiques ne soient disponibles.
Exécution de tâches complexes et de longue durée
L’une des principales frustrations liées aux assistants IA actuels est leur incapacité à maintenir le contexte sur de longues durées ou à effectuer des tâches en arrière-plan. Cowork résout ce problème en fonctionnant dans un environnement de machine virtuelle. Lorsqu’un utilisateur décrit un résultat, tel que « organiser tous les reçus dans ce dossier et créer un rapport de dépenses trimestriel », Claude ne se déconnecte pas.
Le système analyse la demande, élabore un plan, divise le travail en sous-tâches et les exécute en parallèle. Cette « coordination des sous-agents » permet de générer des résultats professionnels, tels que des feuilles de calcul Excel avec des formules fonctionnelles ou des présentations PowerPoint formatées, qui sont directement livrés au système de fichiers. Ce flux de travail est essentiel pour les professionnels qui considèrent l’IA non pas comme une nouveauté, mais comme un multiplicateur de productivité.
In Cowork, you give Claude access to a folder on your computer. Claude can then read, edit, or create files in that folder.
— Claude (@claudeai) January 12, 2026
Try it to create a spreadsheet from a pile of screenshots, or produce a first draft from scattered notes. pic.twitter.com/GEaMgDksUp
IA constitutionnelle : le facteur de confiance des entreprises
À une époque où la confidentialité des données est une préoccupation primordiale, l’architecture d’un modèle d’IA est tout aussi importante que ses performances. Anthropic a bâti sa marque sur l’« IA constitutionnelle », une méthode de formation qui guide le modèle vers un comportement utile, inoffensif et honnête en adhérant à une constitution de principes. Cela crée un avantage concurrentiel distinct par rapport à la nature « boîte noire » de certains concurrents.
Confidentialité ou collecte de données
Les modèles commerciaux d’Apple et de Google sont fondamentalement liés respectivement à la vente de matériel informatique et aux écosystèmes de données. Bien qu’ils aient fait des progrès en matière de traitement sur appareil, leurs services d’IA sont souvent conçus pour alimenter une boucle de données plus large à des fins de personnalisation et de publicité. Anthropic, fortement soutenu par Amazon, fonctionne selon un modèle différent. Son objectif est de fournir un moteur de raisonnement sécurisé pour les applications d’entreprise.
Pour les entreprises qui traitent des codes propriétaires, des documents financiers ou juridiques, la possibilité d’utiliser une IA qui n’est pas conçue pour exploiter les données des utilisateurs à des fins publicitaires est un argument de vente important. L’angle « intelligence indépendante » n’est pas seulement un argument marketing, c’est une réalité structurelle qui reflète la manière dont Anthropic conçoit ses protocoles de sécurité et de confidentialité.
Surmonter les limites des API
L’évolution de l’« utilisation des ordinateurs » met en évidence une faiblesse critique du duopole Apple-Google : les limites des API. Siri et Google Assistant sont puissants lorsqu’ils interagissent avec des applications qui les prennent explicitement en charge. Cependant, ils ont beaucoup de mal avec les « données obscures », c’est-à-dire les informations non structurées qui se trouvent dans des dossiers, des bases de données locales ou des interfaces web complexes qui ne disposent pas d’API.
L’approche d’Anthropic permet au modèle de naviguer dans les interfaces graphiques utilisateur (GUI) comme le ferait un être humain. En exploitant l’extension Claude dans Chrome avec Cowork, l’IA peut effectuer des tâches qui nécessitent de naviguer dans des interfaces web, de cliquer sur des boutons et de lire du contenu dynamique. Cette capacité « visuelle » signifie que l’IA n’est pas limitée par les API qu’un développeur a choisi de mettre en œuvre ; elle peut effectuer toutes les tâches qu’un opérateur humain pourrait accomplir, à condition de disposer des autorisations nécessaires.

L’alliance stratégique : AWS et l’écosystème ouvert
L’IA ne peut exister dans le vide ; elle nécessite une puissance de calcul considérable. La course à la suprématie en matière d’IA concerne autant les infrastructures que les algorithmes. Dans ce contexte, les alliances stratégiques des principaux acteurs définissent le champ de bataille.
La dynamique Microsoft-OpenAI et Apple-Google
L’intégration profonde d’OpenAI dans les produits Microsoft (Copilot) a créé une boucle fermée au sein de l’écosystème Windows et Office. De même, le récent partenariat entre Apple et Google visant à intégrer Gemini (ou une technologie similaire) dans l’iPhone renforce le duopole. Ces partenariats sont conçus pour maintenir les utilisateurs dans un jardin clos, offrant une commodité au détriment de la flexibilité.
Anthropic et l’écosystème AWS
Anthropic s’impose comme le champion de l’écosystème ouvert basé sur le cloud, principalement grâce à son partenariat stratégique avec Amazon Web Services (AWS). AWS fournit les clusters massifs de GPU nécessaires pour former et exécuter des modèles tels que Claude. Cette alliance positionne Anthropic comme le fournisseur d’IA privilégié pour le vaste marché des entreprises qui utilisent déjà AWS.
Contrairement à l’intégration axée sur le consommateur d’Apple et de Google, le partenariat AWS-Anthropic est orienté vers un déploiement d’IA évolutif, sécurisé et de qualité industrielle. Cet avantage en termes d’infrastructure permet à Anthropic de se concentrer sur des modèles « à forte intensité de raisonnement » qui nécessitent des clusters de calcul denses, sans avoir à gérer les chaînes d’approvisionnement en matériel ou les canaux de vente au détail.
Implications matérielles : alimenter la boucle de l’argent
Le passage de simples chatbots à des systèmes agentifs capables d’exécuter des tâches de longue durée et de naviguer dans des systèmes de fichiers locaux a un coût physique caché : la densité de calcul. À mesure que les modèles d’IA deviennent plus sophistiqués, la demande en puissance de traitement augmente de manière exponentielle. Cette augmentation des besoins en calcul a un impact direct sur la demande en métaux d’infrastructure évoqués dans les analyses précédentes de Zumim, en particulier l’argent et le cuivre.
La demande en calcul dense
Les fonctionnalités d’IA agentique telles que Cowork sont nettement plus gourmandes en calcul que la simple génération de texte. Lorsque Claude navigue dans un dossier, lit plusieurs fichiers, recoupe des données et génère des résultats complexes, il utilise une quantité massive de VRAM et de cycles GPU. Pour prendre en charge ces modèles « gourmands en raisonnement », les centres de données doivent déployer des clusters de serveurs toujours plus denses.
L’argent et le cuivre : les héros méconnus
Cette expansion matérielle alimente la « boucle de l’argent ». L’argent est le métal le plus conducteur du tableau périodique et est indispensable à la fabrication de semi-conducteurs, de commutateurs et de connecteurs.
Alors qu’Anthropic, AWS et d’autres fournisseurs se livrent à une course effrénée pour construire l’infrastructure capable de prendre en charge l’IA agentique, la demande en argent pour les cartes mères de serveurs et les puces informatiques haute performance devrait exploser. De même, le cuivre est nécessaire pour l’infrastructure d’alimentation électrique et de refroidissement indispensable au fonctionnement de ces clusters informatiques denses. La course à la construction du « troisième pilier » de l’IA est donc une course pour s’assurer les matériaux physiques nécessaires à son alimentation.
Risques et responsabilités à l’ère de l’agentivité
Un grand pouvoir implique de grandes responsabilités. À mesure que l’IA acquiert la capacité d’exécuter des actions sur l’ordinateur d’un utilisateur, la surface de sécurité s’étend considérablement. Anthropic fait preuve de transparence quant aux risques associés à ces aperçus de recherche.
Gestion de l’accès local
La documentation Cowork avertit explicitement que, comme l’IA peut apporter des modifications réelles aux fichiers, les utilisateurs doivent faire preuve de diligence quant aux autorisations qu’ils accordent. Le système est conçu pour n’agir que sur les dossiers que l’utilisateur partage explicitement, mais le risque de conséquences imprévues demeure. Il s’agit d’une divergence importante par rapport à la nature passive de Siri ; une IA agentique peut accidentellement supprimer des fichiers si elle reçoit des instructions erronées.
Injection de prompt et sécurité
Un autre risque souligné par Anthropic est le potentiel d’attaques par « injection de prompt ».
Étant donné que l’IA agentique interagit souvent avec le web pour effectuer des tâches, il existe un risque que des contenus malveillants sur un site web détournent les instructions de l’IA et la poussent à effectuer des actions non autorisées. Anthropic indique avoir mis en place des défenses contre ce risque, mais cela reste un défi complexe. Pour les utilisateurs professionnels, cela souligne l’importance de l’IA constitutionnelle : un modèle entraîné à refuser les instructions dangereuses est une protection nécessaire dans un monde agentique.
Conclusion : l’avènement de la main-d’œuvre agentique
L’introduction de fonctionnalités telles que Cowork et l’évolution de l’« utilisation des ordinateurs » marque un tournant dans l’histoire de l’intelligence artificielle. Anthropic réussit à se forger une identité distincte en tant que « troisième pilier », offrant une alternative aux modèles fermés et centrés sur le consommateur d’Apple et de Google. En combinant l’IA constitutionnelle pour la sécurité, les flux de travail agents pour la productivité et une alliance stratégique avec AWS pour l’infrastructure, Anthropic construit une IA qui fonctionne pour l’utilisateur, et pas seulement pour l’écosystème. À mesure que ces modèles deviendront plus performants, ils entraîneront inévitablement un développement massif de l’infrastructure matérielle, alimentant la demande en matériaux essentiels tels que l’argent et le cuivre.
Pour les professionnels avertis et les entreprises avant-gardistes, le choix devient évident : l’avenir du travail appartient à ceux qui savent tirer parti d’une intelligence indépendante et raisonnée. Anthropic ne propose pas seulement un nouveau chatbot, mais une nouvelle façon de travailler, qui promet de remodeler le paysage numérique et l’économie physique qui le soutient.

Loïc Vansnick est le responsable du projet Zumim, dont l’expertise repose sur une combinaison rare de deux domaines fondamentaux : il est ingénieur civil diplômé et ingénieur en gestion.

