Pour les acteurs de type OpenAI, Claude, etc : abonnement et API sont facturés distinctement
Voici une liste élargie de plateformes et services d’IA spécialisés
IA tout-en-un / plateformes multiplateformes
Génération d’images / visuels
Création vidéo / audio
Mais aussi
Assistant de recherche / gestion des connaissances
Création d’applications / développement
Marketing & contenus social
Automatisation & productivité
Support client & prospection
Éducation & contenus pédagogiques
En local. Ollama. on download le LLM et on le fait tourner en local. donc petit LLM, ok pour des tâches très spécifiques. gratuit. mais nécessite machine puissante.
2024 AI Timeline - Hugginface release dashboards
Distinction majeure entre les modèles open source et closed source
Open source:
Closed source:
Différents niveaux d'ouverture :
Certains modèles sont entièrement ouverts (DeepSeek), partiellement ouverts (Llama, Mistral 7B), ou fermés (OpenAI o1, Claude Sonnet, Gemini)
Si vous avez les poids d'un modèle vous pouvez le fine-tuner sur vos propres données. Version allégée de l'entraînement d'un modèle complet
Comment évaluer et comparer les LLMs ?
Les benchmarks LLM sont des suites de tests qui mesurent la performance des grands modèles de langage sur différentes tâches, comme répondre à des questions, résoudre des problèmes, ou écrire du texte. Ils permettent de comparer les modèles côte à côte.
Défis : Les benchmarks ne reflètent pas toujours l'usage du monde réel, peuvent devenir obsolètes rapidement, et les modèles s'entraînent souvent sur les tests, ce qui signifie que des scores élevés ne garantissent pas toujours une meilleure utilité.
Benchmarks traditionnels :
Problème : Les modèles saturent rapidement ces tests
La nouvelle frontière :
Ceux-ci représentent les limites cognitives de l'humanité
Artificial Analysis Intelligence Index combine les performances sur sept évaluations : MMLU-Pro, GPQA Diamond, Humanity's Last Exam, LiveCodeBench, SciCode, AIME 2025, et IFBench.

Les modèles open source rattrapent les modèles closed source
we talk about LLMs but when you use a AI interface you are using an Agent, an Augmented LLM
Stand alone models:
No memory
wrong answer

LLM Agents enhance basic language models with external tools, memory, and planning capabilities to interact autonomously with their environment.
Three essential components enable LLM Agents to function effectively in complex environments.
Agents use short-term and long-term memory to maintain context and learn from interactions.
Each prompt + output is summarized and added to the context window
RAG: retreival augmented generation
Tools extend LLM capabilities by connecting to external APIs and services.
Planning breaks complex tasks into actionable steps through reasoning techniques.
instead of having LLMs learn “what” to answer they learn “how” to answer!
ReAct combines reasoning and acting in a structured cycle for autonomous behavior.
Agents improve through reflection on past failures and successes.
Multiple specialized agents collaborate to solve complex problems.
Imaginez que vous avez 3 modèles d'IA (Claude, GPT, Gemini) et 5 outils (Gmail, Slack, GitHub, Google Drive, une base de données).
Sans standard commun, il faut construire un connecteur spécifique pour chaque paire :
Gmail Slack GitHub Drive PostgreSQL
Claude ✗ ✗ ✗ ✗ ✗ → 5 connecteurs
GPT ✗ ✗ ✗ ✗ ✗ → 5 connecteurs
Gemini ✗ ✗ ✗ ✗ ✗ → 5 connecteurs
──────────────
Total : 15 connecteurs custom
À chaque nouveau modèle ou nouvel outil, le nombre de connecteurs explose (N × M).
Avec MCP, chaque outil implémente le protocole une seule fois, et chaque modèle le comprend une seule fois :
Claude ─┐ ┌─ Gmail
GPT ─┤◄── MCP protocol ──►├─ Slack
Gemini ─┘ ├─ GitHub
├─ Drive
└─ PostgreSQL
Total : 3 + 5 = 8 implémentations (au lieu de 15)
Plus il y a de modèles et d'outils, plus l'avantage est massif.
| Date | Événement |
|---|---|
| Novembre 2024 | Anthropic publie MCP en open source. Origine : un développeur frustré de copier-coller du code entre Claude et son éditeur |
| Mars 2025 | OpenAI adopte MCP. Sam Altman tweete : "People love MCP" |
| Avril 2025 | Google DeepMind confirme le support MCP dans Gemini |
| Mai 2025 | Microsoft et GitHub rejoignent le comité de pilotage |
| Novembre 2025 | Mise à jour majeure du protocole (opérations asynchrones, registre officiel). 97M+ téléchargements mensuels des SDK |
| Décembre 2025 | Anthropic donne MCP à la Linux Foundation, via l'Agentic AI Foundation (co-fondée par Anthropic, OpenAI, Block, avec Google, Microsoft, AWS, Cloudflare, Bloomberg) |
┌──────────────┐ ┌──────────────┐ ┌──────────────┐
│ HOST │ │ CLIENT │ │ SERVER │
│ (l'appli) │◄────►│ (le pont) │◄────►│ (l'outil) │
│ │ │ │ │ │
│ Claude.ai │ │ Intégré dans │ │ Gmail │
│ Claude Code │ │ l'application│ │ Slack │
│ Un IDE │ │ │ │ GitHub │
│ Votre appli │ │ │ │ PostgreSQL │
└──────────────┘ └──────────────┘ └──────────────┘
| Rôle | Qui c'est | Ce qu'il fait |
|---|---|---|
| Host | L'application (ex: Claude.ai, un IDE, votre propre app) | Lance et gère les connexions MCP |
| Client | Un composant intégré dans le host | Maintient une connexion 1:1 avec un serveur MCP |
| Server | Un service externe (Gmail, Slack, base de données...) | Expose ses fonctionnalités via le protocole MCP |
Un serveur MCP peut exposer trois types de capacités :
| Primitive | Qui la déclenche | Exemple |
|---|---|---|
| Tools (outils) | Le modèle décide de l'appeler | send_email(to, subject, body), query_database(sql) |
| Resources (ressources) | L'application les charge | Un fichier, un document, des données de contexte |
| Prompts (modèles de prompt) | L'utilisateur les sélectionne | Un template pré-écrit ("résume ce document", "revue de code") |
Utilisateur : "Quel temps fait-il à Paris ?"
Claude : (appelle automatiquement l'outil MCP
get_weather) "Il fait 12°C à Paris, ciel nuageux avec des éclaircies cet après-midi."
1. L'utilisateur pose sa question à Claude (le Host)
2. Claude voit qu'un serveur MCP "météo" est connecté
avec un outil disponible : get_weather(city: string)
3. Claude décide d'appeler l'outil :
──► { "method": "tools/call",
"params": { "name": "get_weather",
"arguments": { "city": "Paris" } } }
4. Le serveur MCP météo reçoit la requête,
appelle une API météo externe, et répond :
◄── { "result": { "temp": 12, "conditions": "nuageux",
"forecast": "éclaircies l'après-midi" } }
5. Claude reçoit le résultat et formule sa réponse
en langage naturel pour l'utilisateur
from mcp.server import Server
import httpx
server = Server("weather")
# Déclarer un outil que le modèle peut appeler
@server.tool("get_weather", description="Obtenir la météo d'une ville")
async def get_weather(city: str) -> dict:
"""Le modèle appellera cette fonction quand il a besoin de la météo."""
# Appeler une vraie API météo
async with httpx.AsyncClient() as client:
response = await client.get(
f"https://api.weather.com/current?city={city}"
)
data = response.json()
return {
"temperature": data["temp"],
"conditions": data["description"],
"humidity": data["humidity"]
}
# Lancer le serveur
server.run()
| Catégorie | Exemples |
|---|---|
| Productivité | Gmail, Google Drive, Slack, Notion, Asana |
| Développement | GitHub, Git, terminal, éditeurs de code |
| Bases de données | PostgreSQL, MySQL, MongoDB, SQLite |
| Navigation | Puppeteer (contrôle de navigateur) |
| Fichiers | Système de fichiers local, S3 |
Des milliers de serveurs MCP ont été créés par la communauté en un an.
Avant MCP : pour qu'une IA lise vos emails et crée une tâche dans Asana, il fallait du code custom, des clés API, de la plomberie spécifique à chaque service.
Avec MCP : l'IA se connecte aux serveurs MCP Gmail et Asana, et tout fonctionne avec le même protocole standard.
MCP est à l'IA agentique ce que HTTP a été au web : la plomberie invisible qui rend tout possible.
🔗 Spécification : modelcontextprotocol.io 🔗 Annonce originale : anthropic.com/news/model-context-protocol
Anthropic, octobre 2025 — standard ouvert depuis décembre 2025
Claude est un généraliste brillant. Mais il ne connaît pas :
On pourrait tout mettre dans le prompt… mais le contexte exploserait.
Une Skill = un dossier contenant des instructions, des scripts, et des exemples :
mon-skill/
├── SKILL.md ← Instructions en Markdown (le cœur)
├── templates/ ← Fichiers modèles (optionnel)
├── scripts/ ← Scripts exécutables (optionnel)
└── examples/ ← Exemples de référence (optionnel)
Pas d'API complexe, pas de framework — un dossier et du texte.
Créer une Skill, c'est comme rédiger un guide d'intégration pour un nouveau collaborateur : vous lui expliquez comment on fait les choses ici, vous lui donnez des modèles, et il se débrouille.
Claude ne lit pas toutes les Skills à chaque conversation :
Étape 1 — Au début de la conversation :
Claude scanne les titres et descriptions des Skills disponibles
→ Quelques dizaines de tokens par Skill (très léger)
Étape 2 — Quand c'est pertinent :
Claude charge le contenu complet de la Skill nécessaire
→ Le détail n'apparaît que quand c'est utile
C'est le progressive disclosure : ne charger que ce dont on a besoin, quand on en a besoin.
| Skills | MCP | Projects | |
|---|---|---|---|
| Ce que c'est | Savoir-faire ("comment faire") | Connexion externe ("accéder à") | Contexte statique ("savoir sur") |
| Chargement | Dynamique, à la demande | Connexion permanente | Toujours chargé |
| Exemple | "Comment créer un Excel aux normes de l'entreprise" | "Lire mes emails Gmail" | "Voici le brief du projet X" |
MCP donne accès aux outils. Les Skills enseignent comment bien les utiliser.
Depuis décembre 2025, Agent Skills est un standard ouvert (agentskills.io). Les Skills créées pour Claude fonctionnent aussi avec d'autres modèles qui adoptent le standard.
Claude sait lire un PDF. Mais il ne sait pas nativement le manipuler (remplir un formulaire, fusionner des pages, ajouter un filigrane). La Skill PDF lui apprend.
pdf/
├── SKILL.md ← Instructions
├── scripts/
│ ├── fill_form.py ← Remplir un formulaire
│ ├── merge_pdfs.py ← Fusionner des PDF
│ └── extract_text.py ← Extraire du texte
└── examples/
└── example_form.pdf ← Exemple de référence
---
name: pdf
description: "Lire, créer, éditer et manipuler des fichiers PDF."
---
# Manipulation de PDF
| Tâche | Approche |
|-----------------------|-----------------------------------|
| Extraire du texte | Utiliser scripts/extract_text.py |
| Remplir un formulaire | Utiliser scripts/fill_form.py |
| Fusionner des PDF | Utiliser scripts/merge_pdfs.py |
## Règles importantes
- Toujours vérifier que le PDF n'est pas chiffré
- Ne jamais modifier l'original — travailler sur une copie
1. L'utilisateur uploade un PDF
2. Claude scanne les Skills → le titre "pdf" correspond
3. Claude charge pdf/SKILL.md
4. Il identifie les champs, demande les infos manquantes
5. Il exécute scripts/fill_form.py dans un environnement sandboxé
6. Il renvoie le PDF rempli
Au lieu de tout coder dans le modèle, on lui donne des documents de référence qu'il consulte au besoin. On passe d'un modèle monolithique à un modèle modulaire.
🔗 agentskills.io · anthropic.com/news/skills
| Avant (2023) | Maintenant (2026) |
|---|---|
| Liste de règles isolées | Document expliquant le pourquoi |
| "Ne fais pas X" | "Voici pourquoi X est problématique, utilise ton jugement" |
| Règles rigides → mauvaise généralisation | Principes + raisonnement → meilleure adaptation |
Idée clé : des règles rigides créent des comportements mécaniques. Des principes expliqués permettent au modèle de généraliser à des situations nouvelles.
1. 🛡️ Sûreté globale ← priorité maximale
2. ⚖️ Éthique
3. 📋 Conformité aux règles d'Anthropic
4. 🤝 Être utile ← priorité la plus basse
En cas de conflit, la sûreté l'emporte toujours sur l'utilité.
| Section | Contenu |
|---|---|
| Utilité | Claude doit être comme "un ami brillant qui a les connaissances d'un médecin, avocat et conseiller financier" — franc, bienveillant, qui traite l'utilisateur en adulte |
| Règles d'Anthropic | Instructions spécifiques sur des sujets sensibles (médecine, cybersécurité, jailbreaking...) |
| Éthique | Honnêteté, jugement nuancé, contraintes absolues (ex : ne jamais aider à créer des armes biologiques) |
| Sûreté | Ne pas compromettre la capacité des humains à superviser et corriger l'IA pendant cette phase critique de développement |
| Nature de Claude | Anthropic reconnaît l'incertitude sur la conscience possible de Claude, et se soucie de son "bien-être psychologique" et de sa stabilité identitaire |
🔗 Constitution complète : anthropic.com/constitution
Ethan Mollick : Professeur à Wharton (UPenn), auteur de Co-Intelligence, référence mondiale sur l'usage de l'IA en entreprise et en éducation. Sa newsletter One Useful Thing est l'une des plus lues sur le sujet.
A Guide to Which AI to Use in the Agentic Era
Citation clé de Mollick : "Une IA qui fait des choses est fondamentalement plus utile qu'une IA qui dit des choses."
| Brique | Définition |
|---|---|
| Modèle / LLM | Le "cerveau" de l'IA — détermine l'intelligence, le raisonnement, la qualité d'écriture |
| App | L'interface que vous utilisez (site web, appli mobile, extension) |
| Harnais (harness) | Le système qui donne au modèle des outils : navigateur web, terminal, accès fichiers, exécution de code |
Le même modèle (ex : Claude Opus 4.6) se comporte très différemment selon le contexte (app + harnais) :
| Claude Opus 4.6 | GPT-5.2 Thinking | Gemini 3 Pro | |
|---|---|---|---|
| Entreprise | Anthropic | OpenAI | |
| Forces | Écriture, raisonnement, code | Maths, analyse, réflexion longue | Contexte très large, intégration Google |
| Faiblesse | Pas de génération image/vidéo | Interface confuse (trop de sous-modèles) | Harnais web plus limité |
| Prix | ~20€/mois | ~20€/mois | ~20€/mois |
Les modèles gratuits ne sont pas aussi bons que les modèles payants. Ils sont optimisés pour la vitesse et le "fun", pas pour la précision. Quand quelqu'un montre une IA qui fait n'importe quoi, c'est souvent parce qu'il utilise un modèle gratuit ou le modèle par défaut.
Conseil : toujours sélectionner manuellement le modèle le plus avancé disponible pour du vrai travail.
OpenAI et Anthropic ont une avance nette sur Google en termes d'orchestration des outils.
Gemini a un excellent modèle, mais son interface web ne lui permet pas d'en exploiter toute la puissance.
| Fonctionnalité | ChatGPT | Claude | Gemini |
|---|---|---|---|
| Recherche approfondie (Deep Research) | ✅ | ✅ | ✅ |
| Génération d'images | ✅ (quasi au niveau de Google) | ❌ | ✅ nano banana (le meilleur) |
| Génération de vidéo | ✅ Sora (pas dans le chat) | ❌ | ✅ Veo 3.1 |
| Mode tuteur/étude | ✅ Study & Learn + Quizzes | ✅ (via Projects) | ✅ Guided Learning |
| Exécution de code | ✅ | ✅ | ⚠️ Limité |
| Création de fichiers (xlsx, pptx) | ✅ | ✅ | ❌ |
| Connexion données (email, agenda, fichiers) | ✅ | ✅ | ✅ |
| Citations vérifiables | ✅ | ✅ | ❌ |
| Outil | Entreprise | Principe |
|---|---|---|
| Claude Code | Anthropic | L'IA accède à votre code, écrit, exécute, teste en autonomie |
| OpenAI Codex | OpenAI | Équivalent OpenAI |
| Google Antigravity | Équivalent Google |
Anecdote de Mollick : Il a demandé à Claude Code de créer 80 volumes imprimables contenant tous les poids de GPT-1 (117 millions de nombres), avec des couvertures, un site web, un paiement Stripe, et une impression à la demande. Le tout en ~1 heure, sans toucher une ligne de code. Les livres se sont vendus le jour même.
| Outil | Ce qu'il fait |
|---|---|
| Claude Cowork (Anthropic, janvier 2026) | "Claude Code pour les non-techniques" — tourne sur votre bureau, manipule vos fichiers locaux et votre navigateur, exécute des tâches complexes en autonomie. Sécurisé (VM isolée). |
| Claude for Excel / PowerPoint | Extensions qui transforment Claude en "analyste junior" dans vos tableurs et présentations |
| NotebookLM (Google) | Base de connaissances interactive : uploadez vos documents, posez des questions, générez des podcasts, des slides, des mind maps |
| OpenClaw (open source, viral en janvier 2026) | Agent local connecté à WhatsApp/iMessage, navigue le web, gère vos fichiers, envoie des emails. Puissant mais risque de sécurité majeur. |
Ni OpenAI ni Google n'ont d'équivalent direct. C'est un aperçu de l'avenir : l'IA ne vous parle plus de votre travail, elle fait votre travail.
Ce qu'il génère
Cas d'usages
Gratuit et facile d'accès → bon point de départ pour ceux qui veulent aller au-delà du chatbot.
Le passage du chatbot à l'agent est le changement le plus important dans l'usage de l'IA depuis le lancement de ChatGPT. C'est encore le début, ces outils font encore des choses absurdes. Mais apprendre à les utiliser vaut votre temps.
┌─────────────────────────────────────────────────────┐
│ MODÈLES (cerveaux) │
│ Claude Opus 4.6 │ GPT-5.2 Thinking │ Gemini 3 Pro │
└────────┬──────────┴────────┬─────────┴───────┬──────┘
│ │ │
┌────▼────┐ ┌─────▼─────┐ ┌─────▼─────┐
│ APPS │ │ APPS │ │ APPS │
│claude.ai│ │chatgpt.com│ │gemini.com │
└────┬────┘ └─────┬─────┘ └─────┬─────┘
│ │ │
┌────────▼───────────────────▼─────────────────▼──────┐
│ HARNAIS (outils + autonomie) │
├──────────────────┬──────────────────┬────────────────┤
│ Claude Code │ OpenAI Codex │ Antigravity │
│ Claude Cowork │ │ NotebookLM │
│ Claude Excel/PPT │ │ │
└──────────────────┴──────────────────┴────────────────┘
La question n'est plus "quelle IA est la meilleure ?" mais "quel outils correspond à ma tâche ?"