L'IA aujourd'hui (février 2026)


L'ecosystème IA


Le plateformes de type chatbot

Pour les acteurs de type OpenAI, Claude, etc : abonnement et API sont facturés distinctement


Les plateformes specialisées

Voici une liste élargie de plateformes et services d’IA spécialisés

IA tout-en-un / plateformes multiplateformes


Génération d’images / visuels

Création vidéo / audio


Mais aussi

Assistant de recherche / gestion des connaissances

Création d’applications / développement


Marketing & contenus social

Automatisation & productivité


Support client & prospection

Éducation & contenus pédagogiques


Plateformes de modèles

En local. Ollama. on download le LLM et on le fait tourner en local. donc petit LLM, ok pour des tâches très spécifiques. gratuit. mais nécessite machine puissante.


Pléthore de modèles

2024 AI Timeline

2024 AI Timeline - Hugginface release dashboards

Distinction majeure entre les modèles open source et closed source


Opensource vs Proprietaire: software

Open source:

  • Le code est public : Linux
  • Linux, OpenOffice, Firefox, Chromium, Python, grandes bases de données,
  • Peut être copié et modifié par n'importe qui
Open source

Closed source:

  • Le code n'est pas accessible.
  • Windows, Word, Chrome, Edge, Oracle
  • nécessite une licence pour utiliser, boîte noire
Closed source

Open source LLMs

Différents niveaux d'ouverture :

Certains modèles sont entièrement ouverts (DeepSeek), partiellement ouverts (Llama, Mistral 7B), ou fermés (OpenAI o1, Claude Sonnet, Gemini)

Si vous avez les poids d'un modèle vous pouvez le fine-tuner sur vos propres données. Version allégée de l'entraînement d'un modèle complet


Evaluation des LLMs, les benchmarks


Performances comparées: LLM Benchmarks

Comment évaluer et comparer les LLMs ?

Les benchmarks LLM sont des suites de tests qui mesurent la performance des grands modèles de langage sur différentes tâches, comme répondre à des questions, résoudre des problèmes, ou écrire du texte. Ils permettent de comparer les modèles côte à côte.

Défis : Les benchmarks ne reflètent pas toujours l'usage du monde réel, peuvent devenir obsolètes rapidement, et les modèles s'entraînent souvent sur les tests, ce qui signifie que des scores élevés ne garantissent pas toujours une meilleure utilité.


Benchmarks traditionnels :

  • MMLU Massive Multitask Language Understanding : 16 000 questions à choix multiples
  • HellaSwag : Une machine peut-elle vraiment finir votre phrase ?
  • HumanEval : Génération de code
  • GSM8K Problèmes de mathématiques : 8K Q&R niveau école primaire

Problème : Les modèles saturent rapidement ces tests

La nouvelle frontière :

  • GPQA Diamond : 198 QCM en biologie, chimie et physique, du niveau "licence difficile" au "niveau post-diplôme".
  • LiveCodeBench : benchmark d'évaluation sans contamination des LLMs pour le code qui collecte continuellement de nouveaux problèmes
  • Humanity's Last Exam : questions de près de 1 000 contributeurs experts de plus de 500 institutions dans 50 pays – composé principalement de professeurs, chercheurs et titulaires de diplômes supérieurs.

Ceux-ci représentent les limites cognitives de l'humanité


Artificial Analysis Intellligence Index

AI Index

Artificial Analysis Intelligence Index combine les performances sur sept évaluations : MMLU-Pro, GPQA Diamond, Humanity's Last Exam, LiveCodeBench, SciCode, AIME 2025, et IFBench.


Score vs release date

AI Index

La course: open source vs propriétaires

Closed-source vs. Open-weight models (MMLU, 5-shot) performance comparison over time from 2022-04 to 2024-04

Les modèles open source rattrapent les modèles closed source


Comparaison plus récente

Closed-source vs. Open-weight models (MMLU, 5-shot) performance comparison over time from 2022-04 to 2024-04

Performance vs Cost - 08/2025

Performance vs Cost

LM arena

LM arena

LM arena

Types de LLMs


Agents


Today

we talk about LLMs but when you use a AI interface you are using an Agent, an Augmented LLM


The Augmented LLM


Limitations of LLMs

Stand alone models:


Building effective agents - Anthropic

The basic building block of agentic systems is an LLM enhanced with augmentations such as retrieval, tools, and memory.

Traditional LLMs

LLM LLM

issues

No memory LLM wrong answer LLM


What Are LLM Agents?

LLM Agents enhance basic language models with external tools, memory, and planning capabilities to interact autonomously with their environment.

LLM

Core Components of Agents

Three essential components enable LLM Agents to function effectively in complex environments.

LLM

Anthopomorphising


Memory Systems

Agents use short-term and long-term memory to maintain context and learn from interactions.


Short term memory

Each prompt + output is summarized and added to the context window

LLM

Long term memory : RAG

LLM

RAG: retreival augmented generation


Tools and Function Calling

Tools extend LLM capabilities by connecting to external APIs and services.

LLM

Planning Through Reasoning

Planning breaks complex tasks into actionable steps through reasoning techniques.

instead of having LLMs learn “what” to answer they learn “how” to answer!

LLM

ReAct Framework

ReAct combines reasoning and acting in a structured cycle for autonomous behavior.

LLM LLM

Self-Reflection and Learning

Agents improve through reflection on past failures and successes.

LLM

Multi-Agent Systems

Multiple specialized agents collaborate to solve complex problems.

LLM

MCP — Model Context Protocol

Le standard universel qui connecte l'IA au monde réel


MCP — Le problème et la solution

Le problème : N × M intégrations

Imaginez que vous avez 3 modèles d'IA (Claude, GPT, Gemini) et 5 outils (Gmail, Slack, GitHub, Google Drive, une base de données).

Sans standard commun, il faut construire un connecteur spécifique pour chaque paire :

              Gmail   Slack   GitHub   Drive   PostgreSQL
Claude          ✗       ✗       ✗       ✗         ✗        → 5 connecteurs
GPT             ✗       ✗       ✗       ✗         ✗        → 5 connecteurs
Gemini          ✗       ✗       ✗       ✗         ✗        → 5 connecteurs
                                                            ──────────────
                                                Total :     15 connecteurs custom

À chaque nouveau modèle ou nouvel outil, le nombre de connecteurs explose (N × M).

La solution : MCP comme langue commune

Avec MCP, chaque outil implémente le protocole une seule fois, et chaque modèle le comprend une seule fois :

Claude  ─┐                    ┌─ Gmail
GPT     ─┤◄── MCP protocol ──►├─ Slack
Gemini  ─┘                    ├─ GitHub
                              ├─ Drive
                              └─ PostgreSQL

Total : 3 + 5 = 8 implémentations (au lieu de 15)

Plus il y a de modèles et d'outils, plus l'avantage est massif.


MCP — Qui, quand, adoption

Chronologie

DateÉvénement
Novembre 2024Anthropic publie MCP en open source. Origine : un développeur frustré de copier-coller du code entre Claude et son éditeur
Mars 2025OpenAI adopte MCP. Sam Altman tweete : "People love MCP"
Avril 2025Google DeepMind confirme le support MCP dans Gemini
Mai 2025Microsoft et GitHub rejoignent le comité de pilotage
Novembre 2025Mise à jour majeure du protocole (opérations asynchrones, registre officiel). 97M+ téléchargements mensuels des SDK
Décembre 2025Anthropic donne MCP à la Linux Foundation, via l'Agentic AI Foundation (co-fondée par Anthropic, OpenAI, Block, avec Google, Microsoft, AWS, Cloudflare, Bloomberg)

Pourquoi c'est remarquable


MCP — Architecture technique de MCP

Les 3 rôles

┌──────────────┐      ┌──────────────┐      ┌──────────────┐
│     HOST      │      │    CLIENT    │      │    SERVER     │
│  (l'appli)    │◄────►│  (le pont)   │◄────►│  (l'outil)   │
│               │      │              │      │              │
│ Claude.ai     │      │ Intégré dans │      │ Gmail        │
│ Claude Code   │      │ l'application│      │ Slack        │
│ Un IDE        │      │              │      │ GitHub       │
│ Votre appli   │      │              │      │ PostgreSQL   │
└──────────────┘      └──────────────┘      └──────────────┘
RôleQui c'estCe qu'il fait
HostL'application (ex: Claude.ai, un IDE, votre propre app)Lance et gère les connexions MCP
ClientUn composant intégré dans le hostMaintient une connexion 1:1 avec un serveur MCP
ServerUn service externe (Gmail, Slack, base de données...)Expose ses fonctionnalités via le protocole MCP

Les 3 primitives du protocole

Un serveur MCP peut exposer trois types de capacités :

PrimitiveQui la déclencheExemple
Tools (outils)Le modèle décide de l'appelersend_email(to, subject, body), query_database(sql)
Resources (ressources)L'application les chargeUn fichier, un document, des données de contexte
Prompts (modèles de prompt)L'utilisateur les sélectionneUn template pré-écrit ("résume ce document", "revue de code")

Transport : comment ça communique


MCP — Exemple concret — un serveur MCP météo

Ce que voit l'utilisateur

Utilisateur : "Quel temps fait-il à Paris ?"

Claude : (appelle automatiquement l'outil MCP get_weather) "Il fait 12°C à Paris, ciel nuageux avec des éclaircies cet après-midi."

Ce qui se passe sous le capot

1. L'utilisateur pose sa question à Claude (le Host)

2. Claude voit qu'un serveur MCP "météo" est connecté
   avec un outil disponible : get_weather(city: string)

3. Claude décide d'appeler l'outil :
   ──► { "method": "tools/call",
         "params": { "name": "get_weather",
                     "arguments": { "city": "Paris" } } }

4. Le serveur MCP météo reçoit la requête,
   appelle une API météo externe, et répond :
   ◄── { "result": { "temp": 12, "conditions": "nuageux",
                      "forecast": "éclaircies l'après-midi" } }

5. Claude reçoit le résultat et formule sa réponse
   en langage naturel pour l'utilisateur

Le code du serveur (Python simplifié)

from mcp.server import Server
import httpx

server = Server("weather")

# Déclarer un outil que le modèle peut appeler
@server.tool("get_weather", description="Obtenir la météo d'une ville")
async def get_weather(city: str) -> dict:
    """Le modèle appellera cette fonction quand il a besoin de la météo."""

    # Appeler une vraie API météo
    async with httpx.AsyncClient() as client:
        response = await client.get(
            f"https://api.weather.com/current?city={city}"
        )
        data = response.json()

    return {
        "temperature": data["temp"],
        "conditions": data["description"],
        "humidity": data["humidity"]
    }

# Lancer le serveur
server.run()

Ce qui est élégant


MCP dans l'écosystème — pourquoi ça compte

Des serveurs MCP existent déjà pour...

CatégorieExemples
ProductivitéGmail, Google Drive, Slack, Notion, Asana
DéveloppementGitHub, Git, terminal, éditeurs de code
Bases de donnéesPostgreSQL, MySQL, MongoDB, SQLite
NavigationPuppeteer (contrôle de navigateur)
FichiersSystème de fichiers local, S3

Des milliers de serveurs MCP ont été créés par la communauté en un an.

Ce que ça change concrètement

Avant MCP : pour qu'une IA lise vos emails et crée une tâche dans Asana, il fallait du code custom, des clés API, de la plomberie spécifique à chaque service.

Avec MCP : l'IA se connecte aux serveurs MCP Gmail et Asana, et tout fonctionne avec le même protocole standard.

MCP est à l'IA agentique ce que HTTP a été au web : la plomberie invisible qui rend tout possible.

🔗 Spécification : modelcontextprotocol.io 🔗 Annonce originale : anthropic.com/news/model-context-protocol


Agent Skills

Apprendre de nouvelles compétences à un LLM

Anthropic, octobre 2025 — standard ouvert depuis décembre 2025


Le problème

Claude est un généraliste brillant. Mais il ne connaît pas :

On pourrait tout mettre dans le prompt… mais le contexte exploserait.


La solution : un dossier avec un fichier Markdown

Une Skill = un dossier contenant des instructions, des scripts, et des exemples :

mon-skill/
├── SKILL.md          ← Instructions en Markdown (le cœur)
├── templates/        ← Fichiers modèles (optionnel)
├── scripts/          ← Scripts exécutables (optionnel)
└── examples/         ← Exemples de référence (optionnel)

Pas d'API complexe, pas de framework — un dossier et du texte.

Créer une Skill, c'est comme rédiger un guide d'intégration pour un nouveau collaborateur : vous lui expliquez comment on fait les choses ici, vous lui donnez des modèles, et il se débrouille.


Chargement à la demande

Claude ne lit pas toutes les Skills à chaque conversation :

Étape 1 — Au début de la conversation :
   Claude scanne les titres et descriptions des Skills disponibles
   → Quelques dizaines de tokens par Skill (très léger)

Étape 2 — Quand c'est pertinent :
   Claude charge le contenu complet de la Skill nécessaire
   → Le détail n'apparaît que quand c'est utile

C'est le progressive disclosure : ne charger que ce dont on a besoin, quand on en a besoin.


Skills vs MCP vs Projects

SkillsMCPProjects
Ce que c'estSavoir-faire ("comment faire")Connexion externe ("accéder à")Contexte statique ("savoir sur")
ChargementDynamique, à la demandeConnexion permanenteToujours chargé
Exemple"Comment créer un Excel aux normes de l'entreprise""Lire mes emails Gmail""Voici le brief du projet X"

MCP donne accès aux outils. Les Skills enseignent comment bien les utiliser.


Qui crée des Skills ?

Depuis décembre 2025, Agent Skills est un standard ouvert (agentskills.io). Les Skills créées pour Claude fonctionnent aussi avec d'autres modèles qui adoptent le standard.


Exemple : la Skill PDF

Claude sait lire un PDF. Mais il ne sait pas nativement le manipuler (remplir un formulaire, fusionner des pages, ajouter un filigrane). La Skill PDF lui apprend.

pdf/
├── SKILL.md              ← Instructions
├── scripts/
│   ├── fill_form.py      ← Remplir un formulaire
│   ├── merge_pdfs.py     ← Fusionner des PDF
│   └── extract_text.py   ← Extraire du texte
└── examples/
    └── example_form.pdf  ← Exemple de référence

Le fichier SKILL.md (simplifié)

---
name: pdf
description: "Lire, créer, éditer et manipuler des fichiers PDF."
---

# Manipulation de PDF

| Tâche                 | Approche                          |
|-----------------------|-----------------------------------|
| Extraire du texte     | Utiliser scripts/extract_text.py  |
| Remplir un formulaire | Utiliser scripts/fill_form.py     |
| Fusionner des PDF     | Utiliser scripts/merge_pdfs.py    |

## Règles importantes
- Toujours vérifier que le PDF n'est pas chiffré
- Ne jamais modifier l'original — travailler sur une copie

Ce qui se passe quand on demande "remplis ce formulaire PDF"

1. L'utilisateur uploade un PDF

2. Claude scanne les Skills → le titre "pdf" correspond

3. Claude charge pdf/SKILL.md

4. Il identifie les champs, demande les infos manquantes

5. Il exécute scripts/fill_form.py dans un environnement sandboxé

6. Il renvoie le PDF rempli

Pourquoi c'est important

Au lieu de tout coder dans le modèle, on lui donne des documents de référence qu'il consulte au besoin. On passe d'un modèle monolithique à un modèle modulaire.

🔗 agentskills.io · anthropic.com/news/skills


La constitution de Claude


La Constitution de Claude — Anthropic (janvier 2026)

l'annonce

le texte complet


Pourquoi une constitution pour une IA ?

Pourquoi c'est important

L'évolution de l'approche

Avant (2023)Maintenant (2026)
Liste de règles isoléesDocument expliquant le pourquoi
"Ne fais pas X""Voici pourquoi X est problématique, utilise ton jugement"
Règles rigides → mauvaise généralisationPrincipes + raisonnement → meilleure adaptation

Idée clé : des règles rigides créent des comportements mécaniques. Des principes expliqués permettent au modèle de généraliser à des situations nouvelles.


Que contient la constitution ?

Les 4 priorités (par ordre d'importance)

1. 🛡️  Sûreté globale         ← priorité maximale
2. ⚖️  Éthique
3. 📋  Conformité aux règles d'Anthropic
4. 🤝  Être utile              ← priorité la plus basse

En cas de conflit, la sûreté l'emporte toujours sur l'utilité.

Les 5 grandes sections

SectionContenu
UtilitéClaude doit être comme "un ami brillant qui a les connaissances d'un médecin, avocat et conseiller financier" — franc, bienveillant, qui traite l'utilisateur en adulte
Règles d'AnthropicInstructions spécifiques sur des sujets sensibles (médecine, cybersécurité, jailbreaking...)
ÉthiqueHonnêteté, jugement nuancé, contraintes absolues (ex : ne jamais aider à créer des armes biologiques)
SûretéNe pas compromettre la capacité des humains à superviser et corriger l'IA pendant cette phase critique de développement
Nature de ClaudeAnthropic reconnaît l'incertitude sur la conscience possible de Claude, et se soucie de son "bien-être psychologique" et de sa stabilité identitaire

Ce qui est remarquable

🔗 Constitution complète : anthropic.com/constitution


State of AI

Ethan Mollick

18 février 2026

A Guide to Which AI to Use in the Agentic Era


Guide de l'IA en 2026 — L'ère agentique

Ethan Mollick : Professeur à Wharton (UPenn), auteur de Co-Intelligence, référence mondiale sur l'usage de l'IA en entreprise et en éducation. Sa newsletter One Useful Thing est l'une des plus lues sur le sujet.

A Guide to Which AI to Use in the Agentic Era


Le changement fondamental — du chatbot à l'agent

Avant (2023-2025)

Maintenant (2026)

Citation clé de Mollick : "Une IA qui fait des choses est fondamentalement plus utile qu'une IA qui dit des choses."


Les 3 briques : Modèle, App, Harnais

BriqueDéfinition
Modèle / LLMLe "cerveau" de l'IA — détermine l'intelligence, le raisonnement, la qualité d'écriture
AppL'interface que vous utilisez (site web, appli mobile, extension)
Harnais (harness)Le système qui donne au modèle des outils : navigateur web, terminal, accès fichiers, exécution de code

Pourquoi c'est important

Le même modèle (ex : Claude Opus 4.6) se comporte très différemment selon le contexte (app + harnais) :


Les 3 grands modèles de février 2026

Claude Opus 4.6GPT-5.2 ThinkingGemini 3 Pro
EntrepriseAnthropicOpenAIGoogle
ForcesÉcriture, raisonnement, codeMaths, analyse, réflexion longueContexte très large, intégration Google
FaiblessePas de génération image/vidéoInterface confuse (trop de sous-modèles)Harnais web plus limité
Prix~20€/mois~20€/mois~20€/mois

Les modèles gratuits ne sont pas aussi bons que les modèles payants. Ils sont optimisés pour la vitesse et le "fun", pas pour la précision. Quand quelqu'un montre une IA qui fait n'importe quoi, c'est souvent parce qu'il utilise un modèle gratuit ou le modèle par défaut.

Conseil : toujours sélectionner manuellement le modèle le plus avancé disponible pour du vrai travail.


Fonctionnalités intégrées

OpenAI et Anthropic ont une avance nette sur Google en termes d'orchestration des outils.

Gemini a un excellent modèle, mais son interface web ne lui permet pas d'en exploiter toute la puissance.

FonctionnalitéChatGPTClaudeGemini
Recherche approfondie (Deep Research)
Génération d'images✅ (quasi au niveau de Google)✅ nano banana (le meilleur)
Génération de vidéo✅ Sora (pas dans le chat)✅ Veo 3.1
Mode tuteur/étude✅ Study & Learn + Quizzes✅ (via Projects)✅ Guided Learning
Exécution de code⚠️ Limité
Création de fichiers (xlsx, pptx)
Connexion données (email, agenda, fichiers)
Citations vérifiables

Les orchestrateurs et outils spécialisés

Les outils de code (pour développeurs)

OutilEntreprisePrincipe
Claude CodeAnthropicL'IA accède à votre code, écrit, exécute, teste en autonomie
OpenAI CodexOpenAIÉquivalent OpenAI
Google AntigravityGoogleÉquivalent Google

Anecdote de Mollick : Il a demandé à Claude Code de créer 80 volumes imprimables contenant tous les poids de GPT-1 (117 millions de nombres), avec des couvertures, un site web, un paiement Stripe, et une impression à la demande. Le tout en ~1 heure, sans toucher une ligne de code. Les livres se sont vendus le jour même.


Les outils pour non-développeurs

OutilCe qu'il fait
Claude Cowork (Anthropic, janvier 2026)"Claude Code pour les non-techniques" — tourne sur votre bureau, manipule vos fichiers locaux et votre navigateur, exécute des tâches complexes en autonomie. Sécurisé (VM isolée).
Claude for Excel / PowerPointExtensions qui transforment Claude en "analyste junior" dans vos tableurs et présentations
NotebookLM (Google)Base de connaissances interactive : uploadez vos documents, posez des questions, générez des podcasts, des slides, des mind maps
OpenClaw (open source, viral en janvier 2026)Agent local connecté à WhatsApp/iMessage, navigue le web, gère vos fichiers, envoie des emails. Puissant mais risque de sécurité majeur.

Claude Cowork — l'agent de bureau

Détails techniques

Pourquoi c'est un signal important

Ni OpenAI ni Google n'ont d'équivalent direct. C'est un aperçu de l'avenir : l'IA ne vous parle plus de votre travail, elle fait votre travail.


NotebookLM — l'outil de synthèse de Google

  1. Vous importez vos sources : articles, PDF, vidéos YouTube, sites web
  2. NotebookLM construit une base de connaissances interactive
  3. Vous pouvez l'interroger, et générer des sorties variées

Ce qu'il génère

Cas d'usages

Gratuit et facile d'accès → bon point de départ pour ceux qui veulent aller au-delà du chatbot.


Recommandations : par où commencer

Si vous débutez

  1. Choisissez un des trois (ChatGPT, Claude, ou Gemini)
  2. Payez les 20€/mois
  3. Sélectionnez le modèle avancé (pas le défaut !)
  4. Utilisez-le pour du vrai travail — pas des démos
  5. Poussez-le : uploadez un document réel, donnez-lui une tâche complexe

Si vous êtes déjà à l'aise avec les chatbots

  1. Essayez NotebookLM (gratuit, facile)
  2. Explorez Claude Cowork ou Claude for Excel/PowerPoint
  3. Utilisez-le sur une tâche réelle, pas en démonstration
  4. Observez, corrigez, guidez — "vous ne faites plus du prompt, vous faites du management"

Le message central

Le passage du chatbot à l'agent est le changement le plus important dans l'usage de l'IA depuis le lancement de ChatGPT. C'est encore le début, ces outils font encore des choses absurdes. Mais apprendre à les utiliser vaut votre temps.


Résumé visuel — l'écosystème IA en février 2026

┌─────────────────────────────────────────────────────┐
│                    MODÈLES (cerveaux)                │
│  Claude Opus 4.6 │ GPT-5.2 Thinking │ Gemini 3 Pro  │
└────────┬──────────┴────────┬─────────┴───────┬──────┘
         │                   │                 │
    ┌────▼────┐        ┌─────▼─────┐     ┌─────▼─────┐
    │  APPS   │        │   APPS    │     │   APPS    │
    │claude.ai│        │chatgpt.com│     │gemini.com │
    └────┬────┘        └─────┬─────┘     └─────┬─────┘
         │                   │                 │
┌────────▼───────────────────▼─────────────────▼──────┐
│               HARNAIS (outils + autonomie)           │
├──────────────────┬──────────────────┬────────────────┤
│ Claude Code      │ OpenAI Codex     │ Antigravity    │
│ Claude Cowork    │                  │ NotebookLM     │
│ Claude Excel/PPT │                  │                │
└──────────────────┴──────────────────┴────────────────┘

La question n'est plus "quelle IA est la meilleure ?" mais "quel outils correspond à ma tâche ?"

1 / 0