firecrawl agent
Extraction autonome alimentée par l'IA. L'agent navigue sur les sites et extrait des données structurées (prend 2-5 minutes).
Quand l'utiliser
- Vous avez besoin de données structurées à partir de sites complexes multi-pages
- Un scraping manuel nécessiterait de naviguer sur de nombreuses pages
- Vous voulez que l'IA détermine où se trouvent les données
Démarrage rapide
# Extraire des données structurées
firecrawl agent "extract all pricing tiers" --wait -o .firecrawl/pricing.json
# Avec un schéma JSON pour une sortie structurée
firecrawl agent "extract products" --schema '{"type":"object","properties":{"name":{"type":"string"},"price":{"type":"number"}}}' --wait -o .firecrawl/products.json
# Concentrer l'attention sur des pages spécifiques
firecrawl agent "get feature list" --urls "<url>" --wait -o .firecrawl/features.json
Options
| Option | Description |
|---|---|
--urls <urls> |
URLs de départ pour l'agent |
--model <model> |
Modèle à utiliser : spark-1-mini ou spark-1-pro |
--schema <json> |
Schéma JSON pour la sortie structurée |
--schema-file <path> |
Chemin d'accès au fichier de schéma JSON |
--max-credits <n> |
Limite de crédits pour cette exécution d'agent |
--wait |
Attendre la fin de l'agent |
--pretty |
Affichage JSON formaté |
-o, --output <path> |
Chemin du fichier de sortie |
Conseils
- Utilisez toujours
--waitpour obtenir les résultats en ligne. Sans cela, retourne un ID de job. - Utilisez
--schemapour une sortie prévisible et structurée — sinon l'agent retourne des données au format libre. - Les exécutions d'agent consomment plus de crédits qu'un scraping simple. Utilisez
--max-creditspour plafonner les dépenses. - Pour une extraction simple d'une seule page, préférez
scrape— c'est plus rapide et moins cher.
Voir aussi
- firecrawl-scrape — extraction simple d'une seule page
- firecrawl-interact — scrape + interaction pour une interaction manuelle avec la page (plus de contrôle)
- firecrawl-crawl — extraction en masse sans IA