Skill d'intégration Arize AI
Concepts
- AI Integration = identifiants LLM provider stockés et enregistrés dans Arize; utilisés par les evaluators pour appeler un modèle juge et par d'autres fonctionnalités Arize qui ont besoin d'invoquer un LLM en votre nom
- Provider = le service LLM soutenant l'intégration (p. ex.,
openAI,anthropic,awsBedrock) - Integration ID = identifiant global codé en base64 pour une intégration (p. ex.,
TGxtSW50ZWdyYXRpb246MTI6YUJjRA==); requis pour la création d'evaluators et autres opérations en aval - Scoping = règles de visibilité contrôlant quels espaces ou utilisateurs peuvent utiliser une intégration
- Auth type = comment Arize s'authentifie auprès du provider:
default(clé API du provider),proxy_with_headers(proxy via en-têtes personnalisés), oubearer_token(authentification par jeton bearer)
Prérequis
Procédez directement avec la tâche — exécutez la commande ax dont vous avez besoin. NE VÉRIFIEZ PAS les versions, variables d'environnement ou profils en amont.
Si une commande ax échoue, dépannez selon l'erreur :
command not foundou erreur de version → voir references/ax-setup.md401 Unauthorized/ clé API manquante → exécutezax profiles showpour inspecter le profil actuel. Si le profil manque ou la clé API est incorrecte : vérifiez.envpourARIZE_API_KEYet utilisez-la pour créer/mettre à jour le profil via references/ax-profiles.md. Si.envn'a pas non plus de clé, demandez à l'utilisateur sa clé API Arize (https://app.arize.com/admin > API Keys)- Space ID inconnu → vérifiez
.envpourARIZE_SPACE_ID, ou exécutezax spaces list -o json, ou demandez à l'utilisateur - Échec de l'appel LLM provider (OPENAI_API_KEY / ANTHROPIC_API_KEY manquant) → vérifiez
.env, chargez s'il est présent, sinon demandez à l'utilisateur
Lister les intégrations AI
Lister toutes les intégrations accessibles dans un espace :
ax ai-integrations list --space-id SPACE_ID
Filtrer par nom (correspondance de sous-chaîne, insensible à la casse) :
ax ai-integrations list --space-id SPACE_ID --name "openai"
Paginer les grands ensembles de résultats :
# Obtenir la première page
ax ai-integrations list --space-id SPACE_ID --limit 20 -o json
# Obtenir la page suivante en utilisant le curseur de la réponse précédente
ax ai-integrations list --space-id SPACE_ID --limit 20 --cursor CURSOR_TOKEN -o json
Flags clés :
| Flag | Description |
|---|---|
--space-id |
Espace dans lequel lister les intégrations |
--name |
Filtre de sous-chaîne insensible à la casse sur le nom de l'intégration |
--limit |
Résultats max (1–100, défaut 50) |
--cursor |
Token de pagination d'une réponse précédente |
-o, --output |
Format de sortie : table (défaut) ou json |
Champs de réponse :
| Champ | Description |
|---|---|
id |
ID d'intégration en base64 — copiez-le pour les commandes en aval |
name |
Nom lisible |
provider |
Enum du provider LLM (voir Supported Providers ci-dessous) |
has_api_key |
true si les identifiants sont stockés |
model_names |
Liste des modèles autorisés, ou null si tous les modèles sont activés |
enable_default_models |
Si les modèles par défaut de ce provider sont autorisés |
function_calling_enabled |
Si l'appel d'outils/fonctions est activé |
auth_type |
Méthode d'authentification : default, proxy_with_headers, ou bearer_token |
Obtenir une intégration spécifique
ax ai-integrations get INT_ID
ax ai-integrations get INT_ID -o json
Utilisez ceci pour inspecter la configuration complète d'une intégration ou pour confirmer son ID après sa création.
Créer une intégration AI
Avant de créer, listez toujours les intégrations en premier — l'utilisateur en a peut-être déjà une appropriée :
ax ai-integrations list --space-id SPACE_ID
Si aucune intégration appropriée n'existe, créez-en une. Les flags requis dépendent du provider.
OpenAI
ax ai-integrations create \
--name "My OpenAI Integration" \
--provider openAI \
--api-key $OPENAI_API_KEY
Anthropic
ax ai-integrations create \
--name "My Anthropic Integration" \
--provider anthropic \
--api-key $ANTHROPIC_API_KEY
Azure OpenAI
ax ai-integrations create \
--name "My Azure OpenAI Integration" \
--provider azureOpenAI \
--api-key $AZURE_OPENAI_API_KEY \
--base-url "https://my-resource.openai.azure.com/"
AWS Bedrock
AWS Bedrock utilise une authentification par rôle IAM au lieu d'une clé API. Fournissez l'ARN du rôle qu'Arize doit assumer :
ax ai-integrations create \
--name "My Bedrock Integration" \
--provider awsBedrock \
--role-arn "arn:aws:iam::123456789012:role/ArizeBedrockRole"
Vertex AI
Vertex AI utilise les identifiants de compte de service GCP. Fournissez le projet GCP et la région :
ax ai-integrations create \
--name "My Vertex AI Integration" \
--provider vertexAI \
--project-id "my-gcp-project" \
--location "us-central1"
Gemini
ax ai-integrations create \
--name "My Gemini Integration" \
--provider gemini \
--api-key $GEMINI_API_KEY
NVIDIA NIM
ax ai-integrations create \
--name "My NVIDIA NIM Integration" \
--provider nvidiaNim \
--api-key $NVIDIA_API_KEY \
--base-url "https://integrate.api.nvidia.com/v1"
Custom (endpoint compatible OpenAI)
ax ai-integrations create \
--name "My Custom Integration" \
--provider custom \
--base-url "https://my-llm-proxy.example.com/v1" \
--api-key $CUSTOM_LLM_API_KEY
Providers supportés
| Provider | Flags supplémentaires requis |
|---|---|
openAI |
--api-key <key> |
anthropic |
--api-key <key> |
azureOpenAI |
--api-key <key>, --base-url <azure-endpoint> |
awsBedrock |
--role-arn <arn> |
vertexAI |
--project-id <gcp-project>, --location <region> |
gemini |
--api-key <key> |
nvidiaNim |
--api-key <key>, --base-url <nim-endpoint> |
custom |
--base-url <endpoint> |
Flags optionnels pour tout provider
| Flag | Description |
|---|---|
--model-names |
Liste séparée par des virgules des noms de modèles autorisés; omettez pour autoriser tous les modèles |
--enable-default-models / --no-default-models |
Activer ou désactiver la liste des modèles par défaut du provider |
--function-calling / --no-function-calling |
Activer ou désactiver le support des appels d'outils/fonctions |
Après la création
Capturez l'ID d'intégration renvoyé (p. ex., TGxtSW50ZWdyYXRpb246MTI6YUJjRA==) — il est nécessaire pour la création d'evaluators et d'autres commandes en aval. Si vous l'avez manqué, récupérez-le :
ax ai-integrations list --space-id SPACE_ID -o json
# ou, si vous connaissez l'ID :
ax ai-integrations get INT_ID
Mettre à jour une intégration AI
update est une mise à jour partielle — seuls les flags que vous fournissez sont modifiés. Les champs omis restent inchangés.
# Renommer
ax ai-integrations update INT_ID --name "New Name"
# Faire tourner la clé API
ax ai-integrations update INT_ID --api-key $OPENAI_API_KEY
# Changer la liste des modèles
ax ai-integrations update INT_ID --model-names "gpt-4o,gpt-4o-mini"
# Mettre à jour l'URL de base (pour Azure, custom, ou NIM)
ax ai-integrations update INT_ID --base-url "https://new-endpoint.example.com/v1"
Tout flag accepté par create peut être passé à update.
Supprimer une intégration AI
Attention : La suppression est permanente. Les evaluators qui référencent cette intégration ne pourront plus s'exécuter.
ax ai-integrations delete INT_ID --force
Omettez --force pour obtenir une invite de confirmation au lieu de supprimer immédiatement.
Dépannage
| Problème | Solution |
|---|---|
ax: command not found |
Voir references/ax-setup.md |
401 Unauthorized |
La clé API n'a peut-être pas accès à cet espace. Vérifiez la clé et l'ID d'espace sur https://app.arize.com/admin > API Keys |
No profile found |
Exécutez ax profiles show --expand; définissez la variable d'environnement ARIZE_API_KEY ou écrivez ~/.arize/config.toml |
Integration not found |
Vérifiez avec ax ai-integrations list --space-id SPACE_ID |
has_api_key: false après create |
Les identifiants n'ont pas été sauvegardés — réexécutez update avec la clé --api-key ou --role-arn correcte |
| Les exécutions d'evaluator échouent avec des erreurs LLM | Vérifiez les identifiants d'intégration avec ax ai-integrations get INT_ID; faites tourner la clé API si nécessaire |
Décalage de provider |
Impossible de changer le provider après création — supprimez et recréez avec le provider correct |
Skills associées
- arize-evaluator: Créer des evaluators LLM-as-judge qui utilisent une intégration AI → utilisez
arize-evaluator - arize-experiment: Exécuter des expériences qui utilisent des evaluators soutenus par une intégration AI → utilisez
arize-experiment
Sauvegarder les identifiants pour une utilisation future
Voir references/ax-profiles.md § Save Credentials for Future Use.