Créer des expériences
Cette compétence explique le flux en 3 étapes pour créer une nouvelle expérience de test A/B.
Principe fondamental : brouillon d'abord, itérer sur les détails
Créez l'expérience en tant que brouillon rapidement, puis itérez sur les métriques et la configuration. L'utilisateur obtient un brouillon tangible immédiatement et peut l'affiner.
Le flux de création en 3 étapes
Étape 1 : Qu'est-ce que nous testons ?
Rassemblez ces éléments avant d'appeler experiment-create :
- Nom de l'expérience — descriptif, déduit du contexte quand possible
- Hypothèse — ce que vous vous attendez à voir se produire (va dans
description) - Clé du feature flag — kebab-case. Demandez s'ils veulent un nouveau flag ou réutiliser un existant. Le flag est créé automatiquement — NE le créez PAS séparément.
- Type — laisser vide (sera défini par défaut en interne à
"product"). La valeur"web"est réservée aux expériences sans code configurées visuellement avec la toolbar PostHog dans un navigateur ; elle ne peut pas être pilotée de manière significative via MCP. Si un utilisateur demande une expérience sans code/toolbar, pointez-le vers l'interface PostHog plutôt que de la créer ici.)
Si l'utilisateur donne assez de contexte pour déduire ces éléments, ne posez pas de questions — continuez simplement.
Étape 2 : Qui voit quelle variante ?
Il s'agit de la configuration du déploiement.
Avant de poser une question sur le déploiement, chargez configuring-experiment-rollout. La formulation de la désambiguïsation, les recommandations et les branches post-réponse y vivent — ne formulez pas vous-même les questions de déploiement, et ne supposez pas qu'un exemple dont vous vous souvenez couvre le chemin de l'utilisateur.
Points de décision clés (couverts en détail par configuring-experiment-rollout) :
- Split des variantes (combien de variantes, quel pourcentage pour chacune)
- Pourcentage de déploiement global (quel % de tous les utilisateurs entrent dans l'expérience)
- Que persister le flag à travers les étapes d'authentification
Si l'utilisateur ne mentionne pas les spécificités du déploiement, utilisez les défauts : 50/50 contrôle/test, 100% de déploiement.
Étape 3 : Comment mesurer l'impact ?
Il s'agit de l'analytique et des métriques. Chargez la compétence configuring-experiment-analytics pour obtenir des conseils.
NE configurez PAS les métriques à la création. Les métriques ne sont pas transmises à experiment-create — elles sont ajoutées
après via experiment-update. Cela garde l'appel de création léger.
Quand l'utilisateur spécifie les métriques à l'avance, accusez-les réception et ajoutez-les immédiatement après la création. Quand il ne le fait pas, créez le brouillon puis guidez-le à travers la configuration des métriques comme suivi.
Comment créer
Appelez experiment-create avec :
{
"name": "Descriptive experiment name",
"feature_flag_key": "kebab-case-key",
"description": "Hypothesis: [what you expect to happen]",
"parameters": {
"feature_flag_variants": [
{ "key": "control", "name": "Control", "split_percent": 50 },
{ "key": "test", "name": "Test", "split_percent": 50 }
],
"rollout_percentage": 100
}
}
Deux pourcentages différents — NE les confondez PAS :
feature_flag_variants[].split_percent— comment les utilisateurs à l'intérieur de l'expérience sont répartis entre les variantes (doit totaliser 100, recommandé d'avoir une répartition équilibrée).parameters.rollout_percentage— quelle fraction de tous les utilisateurs entrent dans l'expérience en premier lieu (0-100, défaut à 100).
Détails clés :
- La première variante doit avoir la clé
"control". Minimum 2, maximum 20 variantes. rollout_percentagedéfaut à 100 s'il est omis.- Les statistiques défaut à Bayesian. Définissez
stats_configuniquement si l'utilisateur demande Frequentist.
Après la création
-
Toujours afficher l'URL de l'expérience. La réponse
experiment-createinclut_posthogUrl— toujours afficher ce lien pour que l'utilisateur puisse voir et configurer l'expérience dans l'interface. -
Rappelez à l'utilisateur d'implémenter le feature flag dans le code. Liez à la page d'expérience et dites « implémentez le flag comme montré ici » — la page de détail de l'expérience affiche les snippets d'implémentation pour le SDK de l'utilisateur.
-
Guidez à travers les métriques si pas encore configurées — chargez la compétence
configuring-experiment-analytics. -
Lancez quand prêt — utilisez l'outil
experiment-launch.