Training & Fine-tuning

Entrainement et fine-tuning de modeles, MLOps, recherche scientifique.

87 skills

# Skill Source Description Maj
1 deepstream-import-vision-model nvidia/skills Importer et benchmarker des modèles de détection d'objets dans DeepStream via TensorRT. 87 5h
2 cudaq-guide nvidia/skills Guider l'utilisateur dans CUDA-Q : installation, simulation GPU et accès QPU. 87 5h
3 evaluation nvidia/skills Générer et exécuter des configurations YAML d'évaluation de modèles LLM via NeMo Evaluator. 87 5h
4 exec-local-compile nvidia/skills Compiler TensorRT-LLM depuis les sources sur un nœud de calcul avec GPU. 87 5h
5 flashinfer-upgrade nvidia/skills Mettre à jour automatiquement le package flashinfer-python dans TensorRT-LLM. 87 5h
6 cuopt-user-rules nvidia/skills Optimiser des problèmes de routage et logistique avec cuOpt via des échanges guidés. 87 5h
7 arize-annotation github/awesome-copilot Créer et gérer des configs d'annotation pour labelliser des spans IA via Arize. 33 040 2j
8 arize-experiment github/awesome-copilot Gérer et exporter des expériences d'évaluation de modèles IA via Arize. 33 040 2j
9 monkey-patch-kernels-to-transformers nvidia/skills Intégrer des kernels TileGym dans Transformers via monkey-patching pour optimiser les LLM. 87 6j
10 video-understanding nvidia/skills Interroger une vidéo via un agent VLM pour analyser frames, objets et actions visuelles. 87 7j
11 vss-frag nvidia/skills Analyser des vidéos avec RAG d'entreprise pour générer des rapports enrichis. 87 7j
12 adding-cutile-kernel nvidia/skills Intégrer un nouvel opérateur cuTile dans TileGym selon un workflow structuré étape par étape. 87 7j
13 converting-cutile-to-julia nvidia/skills Convertir des kernels GPU Python cuTile en kernels Julia cuTile.jl compilables et testés. 87 7j
14 converting-cutile-to-triton nvidia/skills Convertir des kernels cuTile en kernels Triton via un workflow structuré en cinq phases. 87 7j
15 cutile-python nvidia/skills Écrire, déboguer et optimiser des kernels GPU haute performance avec cuTile Python. 87 7j
16 byob nvidia/skills Créer des benchmarks d'évaluation personnalisés pour LLM avec NeMo Evaluator. 87 7j
17 cuopt-numerical-optimization-api-c nvidia/skills Résoudre des problèmes LP, MILP et QP via l'API C de cuOpt. 87 7j
18 cuopt-numerical-optimization-api-cli nvidia/skills Résoudre des problèmes LP, MILP et QP via fichiers MPS avec cuopt_cli. 87 7j
19 cuopt-numerical-optimization-api-python nvidia/skills Modéliser et résoudre des problèmes LP, MILP et QP avec cuOpt GPU d'NVIDIA. 87 7j
20 numerical-optimization-formulation nvidia/skills Formuler des problèmes d'optimisation numérique LP, MILP et QP avec rigueur. 87 7j
21 experiment-analyzer datadog-labs/agent-skills Analyser et comparer des expériences LLM via leurs métriques, dimensions et événements. 110 7j
22 eval-bootstrap datadog-labs/agent-skills Générer du code d'évaluation Python à partir de traces de production LLM Datadog. 110 7j
23 train-sentence-transformers huggingface/skills Entraîner des modèles sentence-transformers bi-encodeur, cross-encoder ou SPLADE selon le cas d'usage. 10 498 7j
24 exploring-apm-traces posthog/skills Explorer les traces APM OpenTelemetry pour analyser performances et erreurs des services distribués. 37 8j
25 ai-engineering elophanto/elophanto Concevoir, déployer et optimiser des modèles IA/ML en production de bout en bout. 72 12j
26 autonomous-experimentation elophanto/elophanto Exécuter une boucle d'expérimentation autonome pour optimiser métriquement n'importe quel code. 72 12j
27 ranger-finance elophanto/elophanto Agréger et router des ordres de futures perpétuels sur Solana via plusieurs protocoles. 72 12j
28 mlm-bridge-training nvidia/skills Comparer et valider les pertes entre Megatron-LM et Bridge sur GPU. 87 13j
29 parity-testing nvidia/skills Vérifier la parité des poids et des passes avant entre modèles HF et Megatron. 87 13j
30 perf-activation-recompute nvidia/skills Optimiser la mémoire GPU en recomputant sélectivement les activations pendant la rétropropagation. 87 13j
31 perf-megatron-fsdp nvidia/skills Configurer et valider l'entraînement distribué avec Megatron FSDP dans Bridge. 87 13j
32 perf-moe-dispatcher-selection nvidia/skills Sélectionner le dispatcher MoE optimal selon le matériel, le modèle et le degré EP. 87 13j
33 perf-moe-hardware-configs nvidia/skills Configurer les paramètres matériels optimaux pour entraîner des modèles MoE sur GPU. 87 13j
34 perf-moe-long-context nvidia/skills Optimiser l'entraînement long-contexte des modèles MoE avec parallélisme et recompute. 87 13j
35 perf-moe-optimization-workflow nvidia/skills Optimiser l'entraînement de modèles MoE en gérant mémoire, communication et calcul. 87 13j
36 perf-moe-vlm-training nvidia/skills Optimiser l'entraînement de VLM MoE avec FSDP ou parallélisme 3D. 87 13j
37 perf-parallelism-strategies nvidia/skills Sélectionner la stratégie de parallélisme optimale selon la taille du modèle et le matériel. 87 13j
38 perf-sequence-packing nvidia/skills Configurer le packing de séquences pour le finetuning LLM et VLM optimisé. 87 13j
39 perf-tp-dp-comm-overlap nvidia/skills Configurer le chevauchement des communications TP/DP/PP pour optimiser l'entraînement distribué. 87 13j
40 recipe-recommender nvidia/skills Indexer les recettes d'entraînement et recommander la configuration optimale pour LLM. 87 13j
41 launching-evals nvidia/skills Lancer, surveiller et analyser des évaluations de modèles IA via NeMo Evaluator. 87 16j
42 ptq nvidia/skills Quantifier un modèle pré-entraîné en checkpoint optimisé via ModelOpt PTQ. 87 16j
43 nel-assistant nvidia/skills Générer et exécuter des configurations YAML d'évaluation de modèles via NeMo Evaluator. 87 16j
44 ad-add-fusion-transformation nvidia/skills Ajouter, étendre ou auditer un pass de fusion dans AutoDeploy de TensorRT-LLM. 87 16j
45 ad-graph-dump nvidia/skills Visualiser l'évolution des graphes FX après chaque transformation AutoDeploy via dump. 87 16j
46 ad-model-onboard nvidia/skills Automatiser l'intégration de modèles HuggingFace dans AutoDeploy avec tests et rapport. 87 16j
47 build-models replicate/skills Packager un modèle ML avec Cog pour le déployer sur Replicate. 41 16j
48 eval-driven-dev github/awesome-copilot Construire un pipeline d'évaluation automatisé end-to-end pour applications Python utilisant un LLM. 33 040 17j
49 publish-models replicate/skills Publier et tester un modèle Cog sur Replicate avec validation automatique. 41 17j
50 azure-ai-ml-py microsoft/skills Gérer les ressources Azure ML via le SDK Python v2. 2 316 21j

À propos de cette sélection

Quand un modèle de base commence à produire des réponses trop génériques pour rester crédibles en production, le travail sérieux commence. Cette section s'adresse aux ingénieurs ML et aux équipes qui adaptent, évaluent et débogent des modèles en conditions réelles : affiner un LLM sur un corpus métier avec Hugging Face, tracer des expériences d'entraînement bout en bout, ou remonter un bug de compilation dans le runtime PyTorch avant qu'il bloque un pipeline entier. Les skills training & fine-tuning couvrent un spectre plus large que le seul fine-tuning supervisé. On y trouve des outils d'annotation, de benchmarking, de kernels custom côté NVIDIA, et quelques skills orientés recherche reproductible. L'outillage reste majoritairement Python, avec une densité forte autour des frameworks majeurs. Certains cas avancés demandent encore de composer plusieurs skills ensemble, mais la base est solide.