NVIDIA

NVIDIA

142 skills · 1 repo · 87

GitHub ↗

# Skill Source Description
1 accessing-mlflow nvidia/skills Interroger et comparer des runs MLflow via langage naturel et MCP. 87
2 ad-add-fusion-transformation nvidia/skills Ajouter, étendre ou auditer un pass de fusion dans AutoDeploy de TensorRT-LLM. 87
3 ad-conf-check nvidia/skills Vérifier l'application des configs YAML AutoDeploy via logs serveur et dumps de graphes. 87
4 ad-graph-dump nvidia/skills Visualiser l'évolution des graphes FX après chaque transformation AutoDeploy via dump. 87
5 ad-model-onboard nvidia/skills Automatiser l'intégration de modèles HuggingFace dans AutoDeploy avec tests et rapport. 87
6 ad-pipeline-failure-pr nvidia/skills Analyser les pipelines GitLab échoués et générer des rapports de bugs par catégorie. 87
7 add-benchmark nvidia/skills Intégrer un benchmark natif ou externe dans le framework NeMo-Gym. 87
8 adding-cutile-kernel nvidia/skills Intégrer un nouvel opérateur cuTile dans TileGym selon un workflow structuré étape par étape. 87
9 adding-model-support nvidia/skills Intégrer un nouveau modèle LLM ou VLM dans le framework Megatron-Bridge. 87
10 alerts nvidia/skills Gérer les alertes VSS en mode CV ou VLM selon le déploiement actif. 87
11 build-and-dependency nvidia/skills Construire et gérer des environnements de développement containerisés pour Megatron-LM avec CUDA. 87
12 bump-base-image nvidia/skills Mettre à jour les pins d'image PyTorch NVIDIA dans GitHub CI et GitLab CI simultanément. 87
13 bump-dependency nvidia/skills Gérer end-to-end le bump de dépendances GPU dans Megatron Bridge jusqu'au CI vert. 87
14 byob nvidia/skills Créer des benchmarks d'évaluation personnalisés pour LLM avec NeMo Evaluator. 87
15 ci-failure-retrieval nvidia/skills Récupérer et analyser les échecs CI Jenkins d'une pull request GitHub. 87
16 cicd nvidia/skills Configurer, déclencher et investiguer des pipelines CI/CD pour Megatron-LM. 87
17 converting-cutile-to-julia nvidia/skills Convertir des kernels GPU Python cuTile en kernels Julia cuTile.jl compilables et testés. 87
18 converting-cutile-to-triton nvidia/skills Convertir des kernels cuTile en kernels Triton via un workflow structuré en cinq phases. 87
19 create-issue nvidia/skills Analyser un échec CI GitHub Actions et créer automatiquement une issue de bug structurée. 87
20 cudaq-guide nvidia/skills Guider l'utilisateur dans CUDA-Q : installation, simulation GPU et accès QPU. 87
21 cuopt-developer nvidia/skills Modifier et contribuer au codebase C++/CUDA et Python de NVIDIA cuOpt. 87
22 cuopt-install nvidia/skills Installer cuOpt via pip, conda ou Docker pour Python, C ou REST. 87
23 cuopt-installation-api-c nvidia/skills Installer cuOpt via conda pour utiliser l'API C sur GPU NVIDIA. 87
24 cuopt-installation-api-python nvidia/skills Installer cuOpt via pip, conda ou Docker pour optimiser des routes en Python. 87
25 cuopt-installation-common nvidia/skills Identifier les prérequis système et d'environnement pour installer cuOpt correctement. 87
26 cuopt-installation-developer nvidia/skills Configurer un environnement de build cuOpt depuis les sources avec tests. 87
27 cuopt-lp-milp-api-c nvidia/skills Résoudre des problèmes LP/MILP avec l'API C de cuOpt via CSR sparse. 87
28 cuopt-lp-milp-api-cli nvidia/skills Résoudre des problèmes LP/MILP via CLI avec des fichiers MPS et cuOpt. 87
29 cuopt-lp-milp-api-python nvidia/skills Modéliser et résoudre des programmes linéaires LP/MILP avec le solveur GPU cuOpt. 87
30 cuopt-numerical-optimization-api-c nvidia/skills Résoudre des problèmes LP, MILP et QP via l'API C de cuOpt. 87
31 cuopt-numerical-optimization-api-cli nvidia/skills Résoudre des problèmes LP, MILP et QP via fichiers MPS avec cuopt_cli. 87
32 cuopt-numerical-optimization-api-python nvidia/skills Modéliser et résoudre des problèmes LP, MILP et QP avec cuOpt GPU d'NVIDIA. 87
33 cuopt-qp-api-c nvidia/skills Résoudre des problèmes d'optimisation quadratique via l'API C de cuOpt. 87
34 cuopt-qp-api-cli nvidia/skills Résoudre des problèmes d'optimisation quadratique via l'interface CLI cuOpt. 87
35 cuopt-qp-api-python nvidia/skills Résoudre des problèmes d'optimisation quadratique en Python avec cuOpt QP. 87
36 cuopt-routing-api-python nvidia/skills Résoudre des problèmes de routage VRP/TSP/PDP avec l'API Python cuOpt. 87
37 cuopt-server-api-python nvidia/skills Déployer un serveur cuOpt et l'interroger via REST ou Python. 87
38 cuopt-server-common nvidia/skills Soumettre des requêtes d'optimisation routing/LP/MILP à un serveur cuOpt via REST. 87
39 cuopt-user-rules nvidia/skills Optimiser des problèmes de routage et logistique avec cuOpt via des échanges guidés. 87
40 cutile-autotuning nvidia/skills Autotuner des kernels CuTile via recherche exhaustive avec cache et lancement optimisé. 87
41 cutile-python nvidia/skills Écrire, déboguer et optimiser des kernels GPU haute performance avec cuTile Python. 87
42 debug nvidia/skills Exécuter des commandes dans un conteneur Docker depuis l'hôte via relais fichier. 87
43 deepstream-dev nvidia/skills Développer des pipelines DeepStream SDK avec les bonnes pratiques et règles d'architecture NVIDIA. 87
44 deepstream-import-vision-model nvidia/skills Importer et benchmarker des modèles de détection d'objets dans DeepStream via TensorRT. 87
45 deploy nvidia/skills Déployer des profils VSS via un workflow compose validé et auditable. 87
46 deployment nvidia/skills Déployer un checkpoint de modèle comme endpoint d'inférence compatible OpenAI. 87
47 evaluation nvidia/skills Générer et exécuter des configurations YAML d'évaluation de modèles LLM via NeMo Evaluator. 87
48 exec-local-compile nvidia/skills Compiler TensorRT-LLM depuis les sources sur un nœud de calcul avec GPU. 87
49 exec-slurm-compile nvidia/skills Compiler TensorRT-LLM sur un cluster SLURM via des conteneurs enroot. 87
50 flashinfer-upgrade nvidia/skills Mettre à jour automatiquement le package flashinfer-python dans TensorRT-LLM. 87