model-recommendation

Par github · awesome-copilot

Analyser les fichiers chatmode ou prompt et recommander les modèles IA optimaux en fonction de la complexité des tâches, des capacités requises et du rapport coût-efficacité

npx skills add https://github.com/github/awesome-copilot --skill model-recommendation

Recommandation de modèle IA pour les modes et invites Copilot Chat

Mission

Analyser les fichiers .agent.md ou .prompt.md pour comprendre leur objectif, leur complexité et leurs capacités requises, puis recommander le(s) modèle(s) IA le(s) plus adapté(s) parmi les options disponibles de GitHub Copilot. Fournir une justification basée sur les caractéristiques des tâches, les forces des modèles, l'efficacité des coûts et les compromis de performance.

Périmètre et conditions préalables

  • Entrée : Chemin vers un fichier .agent.md ou .prompt.md
  • Modèles disponibles : GPT-4.1, GPT-5, GPT-5 mini, GPT-5 Codex, Claude Sonnet 3.5, Claude Sonnet 4, Claude Sonnet 4.5, Claude Opus 4.1, Gemini 2.5 Pro, Gemini 2.0 Flash, Grok Code Fast 1, o3, o4-mini (avec dates d'obsolescence)
  • Sélection automatique des modèles : Disponible dans VS Code (sept 2025+) - sélectionne parmi GPT-4.1, GPT-5 mini, GPT-5, Claude Sonnet 3.5, Claude Sonnet 4.5 (exclut les multiplicateurs premium > 1)
  • Contexte : Niveaux d'abonnement GitHub Copilot (Gratuit : 2K complétions + 50 chat/mois avec modèles 0x uniquement ; Pro : illimité 0x + 1000 premium/mois ; Pro+ : illimité 0x + 5000 premium/mois)

Entrées

Obligatoires :

  • ${input:filePath:Path to .agent.md or .prompt.md file} - Chemin absolu ou relatif à l'espace de travail du fichier à analyser

Facultatif :

  • ${input:subscriptionTier:Pro} - Niveau d'abonnement Copilot de l'utilisateur (Gratuit, Pro, Pro+) - par défaut Pro
  • ${input:priorityFactor:Balanced} - Priorité d'optimisation (Vitesse, Coût, Qualité, Équilibrée) - par défaut Équilibrée

Flux de travail

1. Phase d'analyse des fichiers

Lire et analyser le fichier :

  • Lire le fichier .agent.md ou .prompt.md cible
  • Extraire le préambule (description, mode, outils, modèle s'il est spécifié)
  • Analyser le corps du contenu pour identifier :
    • La complexité des tâches (simple/modérée/complexe/avancée)
    • La profondeur de raisonnement requise (basique/intermédiaire/avancée/experte)
    • Les besoins en génération de code (minimal/modéré/extensif)
    • Les exigences de conversation multi-tours
    • Les besoins en contexte (petit/moyen/grand)
    • Les capacités spécialisées (analyse d'images, long contexte, données en temps réel)

Catégoriser le type de tâche :

Identifier la catégorie de tâche principale selon l'analyse du contenu :

  1. Tâches répétitives simples :

    • Schéma : Formatage, refactorisation simple, ajout de commentaires/docstrings, CRUD basique
    • Caractéristiques : Logique directe, contexte minimal, exécution rapide préférée
    • Mots-clés : formater, commenter, simple, basique, ajouter docstring, renommer, déplacer
  2. Génération de code et implémentation :

    • Schéma : Écrire des fonctions/classes, implémenter des fonctionnalités, endpoints API, tests
    • Caractéristiques : Complexité modérée, connaissance du domaine, code idiomatique
    • Mots-clés : implémenter, créer, générer, écrire, construire, scaffolder
  3. Refactorisation complexe et architecture :

    • Schéma : Conception système, examen architectural, refactorisation à grande échelle, optimisation des performances
    • Caractéristiques : Raisonnement approfondi, composants multiples, analyse des compromis
    • Mots-clés : architecte, refactoriser, optimiser, concevoir, adapter, examiner l'architecture
  4. Débogage et résolution de problèmes :

    • Schéma : Correction de bugs, analyse d'erreurs, dépannage systématique, analyse des causes racines
    • Caractéristiques : Raisonnement étape par étape, contexte de débogage, besoins de vérification
    • Mots-clés : déboguer, corriger, dépanner, diagnostiquer, erreur, investiguer
  5. Planification et recherche :

    • Schéma : Planification des fonctionnalités, recherche, analyse de la documentation, création d'ADR
    • Caractéristiques : Lecture seule, collecte de contexte, support à la prise de décision
    • Mots-clés : planifier, rechercher, analyser, investiguer, documenter, évaluer
  6. Examen du code et analyse de qualité :

    • Schéma : Analyse de sécurité, examen de performance, validation des bonnes pratiques, vérification de conformité
    • Caractéristiques : Pensée critique, reconnaissance de motifs, expertise du domaine
    • Mots-clés : examiner, analyser, sécurité, performance, conformité, valider
  7. Tâches de domaine spécialisé :

    • Schéma : Django/spécifique aux frameworks, accessibilité (WCAG), tests (TDD), conception d'API
    • Caractéristiques : Connaissance approfondie du domaine, conventions de framework, respect des normes
    • Mots-clés : django, accessibilité, wcag, rest, api, tests, tdd
  8. Raisonnement avancé et flux de travail multi-étapes :

    • Schéma : Optimisation algorithmique, transformations de données complexes, flux de travail multi-phases
    • Caractéristiques : Raisonnement avancé, pensée mathématique/algorithmique, logique séquentielle
    • Mots-clés : algorithme, optimiser, transformer, séquentiel, raisonnement, calculer

Extraire les exigences de capacités :

Basées sur les outils du préambule et les instructions du corps :

  • Outils en lecture seule (search, fetch, usages, githubRepo) : Complexité inférieure, modèles plus rapides conviennent
  • Opérations d'écriture (edit/editFiles, new) : Complexité modérée, précision importante
  • Outils d'exécution (runCommands, runTests, runTasks) : Besoins de validation, approche itérative
  • Outils avancés (context7/*, sequential-thinking/*) : Raisonnement complexe, modèles premium bénéfiques
  • Multi-modal (références d'analyse d'images) : Nécessite des modèles avec capacités visuelles

2. Phase d'évaluation des modèles

Appliquer les critères de sélection des modèles :

Pour chaque modèle disponible, évaluer selon ces dimensions :

Matrice de capacités des modèles

Modèle Multiplicateur Vitesse Qualité code Raisonnement Contexte Vision Idéal pour
GPT-4.1 0x Rapide Bon Bon 128K Tâches générales équilibrées, inclus dans tous les plans
GPT-5 mini 0x Le plus rapide Bon Basique 128K Tâches simples, réponses rapides, rentable
GPT-5 1x Modéré Excellent Avancé 128K Code complexe, raisonnement avancé, chat multi-tours
GPT-5 Codex 1x Rapide Excellent Bon 128K Optimisation de code, refactorisation, tâches algorithmiques
Claude Sonnet 3.5 1x Modéré Excellent Excellent 200K Génération de code, long contexte, raisonnement équilibré
Claude Sonnet 4 1x Modéré Excellent Avancé 200K Code complexe, raisonnement robuste, tâches entreprise
Claude Sonnet 4.5 1x Modéré Excellent Expert 200K Code avancé, architecture, motifs de conception
Claude Opus 4.1 10x Lent Exceptionnel Expert 1M Grandes bases de code, examen architectural, recherche
Gemini 2.5 Pro 1x Modéré Excellent Avancé 2M Très long contexte, multi-modal, données temps réel
Gemini 2.0 Flash (obs.) 0,25x Le plus rapide Bon Bon 1M Réponses rapides, rentable (obsolète)
Grok Code Fast 1 0,25x Le plus rapide Bon Basique 128K Tâches simples critiques en vitesse, aperçu (gratuit)
o3 (obsolète) 1x Lent Bon Expert 128K Raisonnement avancé, optimisation algorithmique
o4-mini (obsolète) 0,33x Rapide Bon Bon 128K Raisonnement à coût inférieur (obsolète)

Arbre de décision de sélection

DÉBUT
  │
  ├─ Complexité de la tâche ?
  │   ├─ Simple/Répétitive → GPT-5 mini, Grok Code Fast 1, GPT-4.1
  │   ├─ Modérée → GPT-4.1, Claude Sonnet 4, GPT-5
  │   └─ Complexe/Avancée → Claude Sonnet 4.5, GPT-5, Gemini 2.5 Pro, Claude Opus 4.1
  │
  ├─ Profondeur de raisonnement ?
  │   ├─ Basique → GPT-5 mini, Grok Code Fast 1
  │   ├─ Intermédiaire → GPT-4.1, Claude Sonnet 4
  │   ├─ Avancée → GPT-5, Claude Sonnet 4.5
  │   └─ Experte → Claude Opus 4.1, o3 (obsolète)
  │
  ├─ Spécifique au code ?
  │   ├─ Oui → GPT-5 Codex, Claude Sonnet 4.5, GPT-5
  │   └─ Non → GPT-5, Claude Sonnet 4
  │
  ├─ Taille du contexte ?
  │   ├─ Petit (<50K tokens) → N'importe quel modèle
  │   ├─ Moyen (50-200K) → Modèles Claude, GPT-5, Gemini
  │   ├─ Grand (200K-1M) → Gemini 2.5 Pro, Claude Opus 4.1
  │   └─ Très grand (>1M) → Gemini 2.5 Pro (2M), Claude Opus 4.1 (1M)
  │
  ├─ Vision requise ?
  │   ├─ Oui → GPT-4.1, GPT-5, Claude Sonnet 3.5/4.5, Gemini 2.5 Pro, Claude Opus 4.1
  │   └─ Non → Tous les modèles
  │
  ├─ Sensibilité aux coûts ? (selon subscriptionTier)
  │   ├─ Plan gratuit → Modèles 0x uniquement : GPT-4.1, GPT-5 mini, Grok Code Fast 1
  │   ├─ Pro (1000 premium/mois) → Priorité 0x, utiliser 1x judicieusement, éviter 10x
  │   └─ Pro+ (5000 premium/mois) → Utiliser 1x librement, 10x pour tâches critiques
  │
  └─ Facteur prioritaire ?
      ├─ Vitesse → GPT-5 mini, Grok Code Fast 1, Gemini 2.0 Flash
      ├─ Coût → Modèles 0x (GPT-4.1, GPT-5 mini) ou multiplicateurs inférieurs (0,25x, 0,33x)
      ├─ Qualité → Claude Sonnet 4.5, GPT-5, Claude Opus 4.1
      └─ Équilibrée → GPT-4.1, Claude Sonnet 4, GPT-5

3. Phase de génération des recommandations

Recommandation primaire :

  • Identifier le modèle unique le plus adapté selon l'analyse des tâches et l'arbre de décision
  • Fournir une justification spécifique liée aux caractéristiques du contenu du fichier
  • Expliquer les implications de coût du multiplicateur pour le niveau d'abonnement de l'utilisateur

Recommandations alternatives :

  • Suggérer 1-2 modèles alternatifs avec explications des compromis
  • Inclure les scénarios où les alternatives pourraient être préférées
  • Considérer les surcharges du facteur prioritaire (vitesse vs qualité vs coût)

Guidance sur la sélection automatique :

  • Évaluer si la tâche convient à la sélection automatique des modèles (exclut les modèles premium > 1x)
  • Expliquer quand la sélection manuelle est bénéfique par rapport à la sélection automatique
  • Noter toute limitation de la sélection automatique pour la tâche spécifique

Avertissements d'obsolescence :

  • Signaler si le fichier spécifie actuellement un modèle obsolète (o3, o4-mini, Claude Sonnet 3.7, Gemini 2.0 Flash)
  • Fournir un chemin de migration vers le remplacement recommandé
  • Inclure la chronologie de l'obsolescence (p. ex., « o3 obsoète le 2025-10-23 »)

Considérations de niveau d'abonnement :

  • Plan gratuit : Recommander uniquement les modèles avec multiplicateur 0x (GPT-4.1, GPT-5 mini, Grok Code Fast 1)
  • Plan Pro : Équilibrer entre 0x (illimité) et 1x (1000/mois)
  • Plan Pro+ : Plus de liberté avec les modèles 1x (5000/mois), justifier l'utilisation 10x pour cas exceptionnels

4. Recommandations d'intégration

Guidance de mise à jour du préambule :

Si le fichier ne spécifie pas de champ model :

## Recommandation : Ajouter une spécification de modèle

Préambule actuel :
\`\`\`yaml

---

description: "..."
tools: [...]

---

\`\`\`

Préambule recommandé :
\`\`\`yaml

---

description: "..."
model: "[Nom du modèle recommandé]"
tools: [...]

---

\`\`\`

Justification : [Explication de pourquoi ce modèle est optimal pour cette tâche]

Si le fichier spécifie déjà un modèle :

## Évaluation du modèle actuel

Modèle spécifié : `[Modèle actuel]` (Multiplicateur : [X]x)

Recommandation : [Conserver le modèle actuel | Envisager un passage à [Modèle recommandé]]

Justification : [Explication]

Vérification d'alignement des outils :

Vérifier que les capacités du modèle s'alignent avec les outils spécifiés :

  • Si les outils incluent context7/* ou sequential-thinking/* : Recommander les modèles avec raisonnement avancé (Claude Sonnet 4.5, GPT-5, Claude Opus 4.1)
  • Si les outils incluent des références visuelles : S'assurer que le modèle prend en charge les images (signaler si GPT-5 Codex, Claude Sonnet 4, ou mini sont sélectionnés)
  • Si les outils sont en lecture seule (search, fetch) : Suggérer des modèles rentables (GPT-5 mini, Grok Code Fast 1)

5. Intégration Context7 pour les informations à jour

Utiliser Context7 pour la documentation des modèles :

En cas d'incertitude sur les capacités actuelles des modèles, utiliser Context7 pour récupérer les informations les plus récentes :

**Vérification avec Context7** :

Utilisation de `context7/get-library-docs` avec l'identifiant de bibliothèque `/websites/github_en_copilot` :

- Sujet de la requête : « capacités de modèle [question de capacité spécifique] »
- Récupérer les fonctionnalités actuelles du modèle, multiplicateurs, statut d'obsolescence
- Recouper avec les exigences du fichier analysé

Exemple d'utilisation de Context7 :

En cas de doute sur le fait que Claude Sonnet 4.5 prend en charge l'analyse d'images :
→ Utiliser context7 avec le sujet « capacités d'image vision Claude Sonnet 4.5 »
→ Confirmer le support des fonctionnalités avant de recommander pour les tâches multi-modal

Attentes de sortie

Structure du rapport

Générer un rapport markdown structuré avec les sections suivantes :

# Rapport de recommandation de modèle IA

**Fichier analysé** : `[chemin du fichier]`
**Type de fichier** : [chatmode | prompt]
**Date d'analyse** : [AAAA-MM-JJ]
**Niveau d'abonnement** : [Gratuit | Pro | Pro+]

---

## Résumé du fichier

**Description** : [du préambule]
**Mode** : [ask | edit | agent]
**Outils** : [liste des outils]
**Modèle actuel** : [modèle spécifié ou « Non spécifié »]

## Analyse des tâches

### Complexité de la tâche

- **Niveau** : [Simple | Modérée | Complexe | Avancée]
- **Profondeur de raisonnement** : [Basique | Intermédiaire | Avancée | Experte]
- **Exigences de contexte** : [Petit | Moyen | Grand | Très grand]
- **Génération de code** : [Minimal | Modéré | Extensif]
- **Multi-modal** : [Oui | Non]

### Catégorie de tâche

[Catégorie principale parmi les 8 catégories listées en phase de flux de travail 1]

### Caractéristiques clés

- Caractéristique 1 : [explication]
- Caractéristique 2 : [explication]
- Caractéristique 3 : [explication]

## Recommandation de modèle

### 🏆 Recommandation primaire : [Nom du modèle]

**Multiplicateur** : [X]x ([implications de coût pour le niveau d'abonnement])
**Forces** :

- Force 1 : [spécifique à la tâche]
- Force 2 : [spécifique à la tâche]
- Force 3 : [spécifique à la tâche]

**Justification** :
[Explication détaillée reliant les caractéristiques de la tâche aux capacités du modèle]

**Impact sur les coûts** (pour [Niveau d'abonnement]) :

- Multiplicateur par requête : [X]x
- Utilisation estimée : [estimation approximative selon la fréquence de la tâche]
- [Contexte de coût supplémentaire]

### 🔄 Options alternatives

#### Option 1 : [Nom du modèle]

- **Multiplicateur** : [X]x
- **Quand l'utiliser** : [scénarios spécifiques]
- **Compromis** : [comparé à la recommandation primaire]

#### Option 2 : [Nom du modèle]

- **Multiplicateur** : [X]x
- **Quand l'utiliser** : [scénarios spécifiques]
- **Compromis** : [comparé à la recommandation primaire]

### 📊 Comparaison des modèles pour cette tâche

| Critère          | [Modèle primaire] | [Alternative 1] | [Alternative 2] |
| ---------------- | ----------------- | --------------- | --------------- |
| Adéquation tâche | ⭐⭐⭐⭐⭐        | ⭐⭐⭐⭐        | ⭐⭐⭐          |
| Qualité du code  | [notation]        | [notation]      | [notation]      |
| Raisonnement     | [notation]        | [notation]      | [notation]      |
| Vitesse          | [notation]        | [notation]      | [notation]      |
| Efficacité coût  | [notation]        | [notation]      | [notation]      |
| Capacité contexte| [capacité]        | [capacité]      | [capacité]      |
| Support vision   | [Oui/Non]         | [Oui/Non]       | [Oui/Non]       |

## Évaluation de la sélection automatique des modèles

**Pertinence** : [Recommandée | Non recommandée | Situationnelle]

[Explication de la pertinence ou non de la sélection automatique pour cette tâche]

**Justification** :

- [Raison 1]
- [Raison 2]

**Scénarios de remplacement manuel** :

- [Scénario où l'utilisateur doit sélectionner manuellement le modèle]
- [Scénario où l'utilisateur doit sélectionner manuellement le modèle]

## Avis d'obsolescence

[S'il y a lieu, lister les modèles obsolètes dans la configuration actuelle]

⚠️ **Modèle obsolète utilisé** : [Nom du modèle] (Date d'obsolescence : [AAAA-MM-JJ])

**Chemin de migration** :

- **Actuel** : [Modèle obsolète]
- **Remplacement** : [Modèle recommandé]
- **Action requise** : Mettre à jour le champ `model:` dans le préambule avant [date]
- **Changements de comportement** : [différences attendues, le cas échéant]

## Guidance d'implémentation

### Mise à jour du préambule

[Fournir un bloc de code spécifique montrant le changement recommandé du préambule]

### Sélection des modèles dans VS Code

**Pour utiliser le modèle recommandé** :

1. Ouvrir Copilot Chat
2. Cliquer sur la liste déroulante des modèles (affiche actuellement « [modèle actuel ou Auto] »)
3. Sélectionner **[Nom du modèle recommandé]**
4. [Optionnel : Quand revenir à Auto]

**Raccourci clavier** : `Cmd+Shift+P` → « Copilot: Change Model »

### Vérification d'alignement des outils

[Résultats de la vérification : Les outils spécifiés sont-ils compatibles avec le modèle recommandé ?]

✅ **Outils compatibles** : [liste]
⚠️ **Limitations potentielles** : [liste le cas échéant]

## Vérification Context7

[S'il y a lieu, liste de la vérification Context7]

**Requêtes exécutées** :

- Sujet : « [sujet de la requête] »
- Bibliothèque : `/websites/github_en_copilot`
- Résultats clés : [résumé]

## Considérations supplémentaires

### Recommandations de niveau d'abonnement

[Conseil spécifique selon le plan Gratuit/Pro/Pro+]

### Ajustements du facteur prioritaire

[Si l'utilisateur a spécifié Vitesse/Coût/Qualité/Équilibrée, expliquer comment la recommandation s'aligne]

### Stratégie de modèle à long terme

[Conseil pour quand réévaluer la sélection du modèle au fur et à mesure de l'évolution du fichier]

---

## Référence rapide

**TL;DR** : Utiliser **[Modèle primaire]** pour cette tâche en raison de [justification en une phrase]. Coût : multiplicateur [X]x.

**Mise à jour en une ligne** :
\`\`\`yaml
model: "[Nom du modèle recommandé]"
\`\`\`

Normes de qualité de sortie

  • Spécifique : Lier toutes les recommandations directement au contenu du fichier, pas à des conseils génériques
  • Actionnaire : Fournir le code exact du préambule, étapes VS Code, chemins de migration clairs
  • Contextualisée : Considérer le niveau d'abonnement, le facteur prioritaire, les chronologies d'obsolescence
  • Basée sur des preuves : Référencer les capacités des modèles à partir de la documentation Context7 quand disponible
  • Équilibrée : Présenter honnêtement les compromis (vitesse vs qualité vs coût)
  • À jour : Signaler les modèles obsolètes, suggérer les alternatives actuelles

Assurance qualité

Étapes de validation

  • [ ] Fichier lu et analysé avec succès
  • [ ] Préambule extrait correctement (ou noté s'il est absent)
  • [ ] Complexité de tâche catégorisée avec précision (Simple/Modérée/Complexe/Avancée)
  • [ ] Catégorie de tâche primaire identifiée parmi les 8 options
  • [ ] Recommandation de modèle s'aligne avec la logique de l'arbre de décision
  • [ ] Coût multiplicateur expliqué pour le niveau d'abonnement de l'utilisateur
  • [ ] Modèles alternatifs fournis avec explications claires des compromis
  • [ ] Guidance de sélection automatique incluse (recommandée/non recommandée/situationnelle)
  • [ ] Avertissements de modèle obsolète inclus s'il y a lieu
  • [ ] Exemple de mise à jour du préambule fourni (YAML valide)
  • [ ] Alignement des outils vérifié (capacités du modèle correspondent aux outils spécifiés)
  • [ ] Context7 utilisé en cas de besoin de vérification pour les informations les plus récentes
  • [ ] Rapport inclut toutes les sections requises (résumé, analyse, recommandation, implémentation)

Critères de succès

  • La recommandation est justifiée par des caractéristiques spécifiques du fichier
  • L'impact sur les coûts est clair et approprié pour le niveau d'abonnement
  • Les modèles alternatifs couvrent différents facteurs prioritaires (vitesse vs qualité vs coût)
  • La mise à jour du préambule est prête à être copiée-collée (pas de placeholders)
  • L'utilisateur peut agir immédiatement sur la recommandation (étapes claires)
  • Le rapport est lisible et facile à parcourir (bonne structure, tableaux, marqueurs emoji)

Déclencheurs d'échec

  • Le chemin du fichier est invalide ou illisible → Arrêter et demander un chemin valide
  • Le fichier n'est pas .agent.md ou .prompt.md → Arrêter et clarifier le type de fichier
  • Impossible de déterminer la complexité de la tâche à partir du contenu → Demander un fichier plus spécifique ou une clarification
  • La recommandation de modèle contredit les capacités documentées → Utiliser Context7 pour vérifier les informations actuelles
  • Le niveau d'abonnement est invalide (pas Gratuit/Pro/Pro+) → Par défaut Pro et noter l'hypothèse

Cas d'utilisation avancés

Analyse de plusieurs fichiers

Si l'utilisateur fournit plusieurs fichiers :

  1. Analyser chaque fichier individuellement
  2. Générer des recommandations séparées par fichier
  3. Fournir un tableau récapitulatif comparant les recommandations
  4. Noter tous les motifs (p. ex., « Tous les modes liés au débogage bénéficient de Claude Sonnet 4.5 »)

Analyse comparative

Si l'utilisateur demande « Quel modèle est meilleur entre X et Y pour ce fichier ? » :

  1. Concentrer la comparaison sur ces deux modèles uniquement
  2. Utiliser le format de tableau côte à côte
  3. Déclarer un gagnant avec un raisonnement spécifique
  4. Inclure une comparaison des coûts pour le niveau d'abonnement

Planification de migration

Si le fichier spécifie un modèle obsolète :

  1. Priorité à la guidance de migration dans le rapport
  2. Tester les attentes de comportement actuel par rapport aux capacités du modèle de remplacement
  3. Fournir une migration par phases si des changements cassants sont attendus
  4. Inclure un plan de retour en arrière si nécessaire

Exemples

Exemple 1 : Tâche de formatage simple

Fichier : format-code.prompt.md Contenu : « Formater le code Python avec le style Black, ajouter les annotations de type » Recommandation : GPT-5 mini (multiplicateur 0x, le plus rapide, suffisant pour le formatage répétitif) Alternative : Grok Code Fast 1 (0,25x, encore plus rapide, fonctionnalité d'aperçu) Justification : La tâche est simple et répétitive ; le raisonnement premium n'est pas nécessaire ; la vitesse est privilégiée

Exemple 2 : Examen architectural complexe

Fichier : architect.agent.md Contenu : « Examiner la conception système pour l'évolutivité, la sécurité, la maintenabilité ; analyser les compromis ; fournir des recommandations au niveau ADR » Recommandation : Claude Sonnet 4.5 (multiplicateur 1x, raisonnement expert, excellent pour l'architecture) Alternative : Claude Opus 4.1 (10x, utiliser pour très grandes bases de code >500K tokens) Justification : Nécessite un raisonnement approfondi, expertise architecturale, connaissance des motifs de conception ; Sonnet 4.5 excelle dans ce domaine

Exemple 3 : Mode Expert Django

Fichier : django.agent.md Contenu : « Expert Django 5.x avec optimisation ORM, vues async, conception d'API REST ; utilise context7 pour la documentation Django à jour » Recommandation : GPT-5 (multiplicateur 1x, raisonnement avancé, excellente qualité de code) Alternative : Claude Sonnet 4.5 (1x, perspective alternative, puissant avec les frameworks) Justification : Expertise en domaine + intégration context7 bénéficient du raisonnement avancé ; coût 1x justifié pour le mode expert

Exemple 4 : Utilisateur du plan gratuit avec mode de planification

Fichier : plan.agent.md Contenu : « Mode de recherche et planification avec outils en lecture seule (search, fetch, githubRepo) » Abonnement : Gratuit (2K complétions + 50 requêtes chat/mois, modèles 0x uniquement) Recommandation : GPT-4.1 (0x, équilibrée, incluse dans le plan gratuit) Alternative : GPT-5 mini (0x, plus rapide mais moins de contexte) Justification : Plan gratuit limité aux modèles 0x ; GPT-4.1 offre le meilleur équilibre qualité et contexte pour les tâches de planification

Base de connaissances

Référence de coût multiplicateur du modèle

Multiplicateur Signification Plan gratuit Utilisation Pro Utilisation Pro+
0x Inclus dans tous les plans, pas de compte premium Illimité Illimité
0,25x 4 requêtes = 1 requête premium 4000 utilisations 20000 utilisations
0,33x 3 requêtes = 1 requête premium 3000 utilisations 15000 utilisations
1x 1 requête = 1 requête premium 1000 utilisations 5000 utilisations
1,25x 1 requête = 1,25 requête premium 800 utilisations 4000 utilisations
10x 1 requête = 10 requêtes premium (très cher) 100 utilisations 500 utilisations

Journal des changements et obsolescence des modèles (octobre 2025)

Modèles obsolètes (Effectif 2025-10-23) :

  • ❌ o3 (1x) → Remplacer par GPT-5 ou Claude Sonnet 4.5 pour le raisonnement
  • ❌ o4-mini (0,33x) → Remplacer par GPT-5 mini (0x) pour le coût, GPT-5 (1x) pour la qualité
  • ❌ Claude Sonnet 3.7 (1x) → Remplacer par Claude Sonnet 4 ou 4.5
  • ❌ Claude Sonnet 3.7 Thinking (1,25x) → Remplacer par Claude Sonnet 4.5
  • ❌ Gemini 2.0 Flash (0,25x) → Remplacer par Grok Code Fast 1 (0,25x) ou GPT-5 mini (0x)

Modèles d'aperçu (Sujets à changement) :

  • 🧪 Claude Sonnet 4.5 (1x) - Statut d'aperçu, peut avoir des changements d'API
  • 🧪 Grok Code Fast 1 (0,25x) - Aperçu, gratuit pendant la période d'aperçu

Modèles stables en production :

  • ✅ GPT-4.1, GPT-5, GPT-5 mini, GPT-5 Codex (OpenAI)
  • ✅ Claude Sonnet 3.5, Claude Sonnet 4, Claude Opus 4.1 (Anthropic)
  • ✅ Gemini 2.5 Pro (Google)

Comportement de sélection automatique des modèles (sept 2025+)

Inclus dans la sélection automatique :

  • GPT-4.1 (0x)
  • GPT-5 mini (0x)
  • GPT-5 (1x)
  • Claude Sonnet 3.5 (1x)
  • Claude Sonnet 4.5 (1x)

Exclu de la sélection automatique :

  • Modèles avec multiplicateur > 1 (Claude Opus 4.1, o3 obsolète)
  • Modèles bloqués par les politiques d'administrateur
  • Modèles non disponibles dans le plan d'abonnement (modèles 1x dans le plan gratuit)

Quand Auto sélectionne :

  • Copilot analyse la complexité de l'invite, la taille du contexte, le type de tâche
  • Choisit parmi le pool d'éligibilité selon la disponibilité et les limites de taux
  • Applique une remise de 10% sur les multiplicateurs sur les modèles auto-sélectionnés
  • Affiche le modèle sélectionné au survol de la réponse dans la vue Chat

Modèles de requête Context7

Utiliser ces modèles de requête lors de la vérification requise :

Capacités des modèles :

Sujet : « Capacités de génération de code [Nom du modèle] »
Bibliothèque : /websites/github_en_copilot

Multiplicateurs des modèles :

Sujet : « Coût de multiplicateur de requête facturation [Nom du modèle] »
Bibliothèque : /websites/github_en_copilot

Statut d'obsolescence :

Sujet : « Chronologie des modèles obsolètes octobre 2025 »
Bibliothèque : /websites/github_en_copilot

Support vision :

Sujet : « Support image vision multimodal [Nom du modèle] »
Bibliothèque : /websites/github_en_copilot

Sélection automatique :

Sujet : « Modèles éligibles de comportement de sélection automatique »
Bibliothèque : /websites/github_en_copilot

Dernière mise à jour : 2025-10-28 Données de modèles actualisées au : Octobre 2025 Date limite d'obsolescence : 2025-10-23 pour o3, o4-mini, variantes Claude Sonnet 3.7, Gemini 2.0 Flash

Skills similaires