firecrawl download
Expérimental. Commande pratique qui combine
map+scrapepour enregistrer un site entier sous forme de fichiers locaux.
Mappe d'abord le site pour découvrir les pages, puis scrape chacune dans des répertoires imbriqués sous .firecrawl/. Toutes les options de scrape fonctionnent avec download. Passez toujours -y pour ignorer l'invite de confirmation.
Quand l'utiliser
- Vous voulez enregistrer un site entier (ou une section) sous forme de fichiers locaux
- Vous avez besoin d'accès hors ligne à de la documentation ou du contenu
- Extraction de contenu en masse avec structure de fichiers organisée
Démarrage rapide
# Assistant interactif (choisit le format, captures d'écran, chemins pour vous)
firecrawl download https://docs.example.com
# Avec captures d'écran
firecrawl download https://docs.example.com --screenshot --limit 20 -y
# Formats multiples (chacun enregistré comme fichier séparé par page)
firecrawl download https://docs.example.com --format markdown,links --screenshot --limit 20 -y
# Crée par page : index.md + links.txt + screenshot.png
# Filtrer vers des sections spécifiques
firecrawl download https://docs.example.com --include-paths "/features,/sdks"
# Ignorer les traductions
firecrawl download https://docs.example.com --exclude-paths "/zh,/ja,/fr,/es,/pt-BR"
# Combinaison complète
firecrawl download https://docs.example.com \
--include-paths "/features,/sdks" \
--exclude-paths "/zh,/ja" \
--only-main-content \
--screenshot \
-y
Options de download
| Option | Description |
|---|---|
--limit <n> |
Nombre maximum de pages à télécharger |
--search <query> |
Filtrer les URLs par requête de recherche |
--include-paths <paths> |
Télécharger seulement les chemins correspondants |
--exclude-paths <paths> |
Ignorer les chemins correspondants |
--allow-subdomains |
Inclure les pages de sous-domaines |
-y |
Ignorer l'invite de confirmation (toujours utiliser dans les flux automatisés) |
Options de scrape (toutes fonctionnent avec download)
-f <formats>, -H, -S, --screenshot, --full-page-screenshot, --only-main-content, --include-tags, --exclude-tags, --wait-for, --max-age, --country, --languages
Voir aussi
- firecrawl-map — découvrir uniquement les URLs sans télécharger
- firecrawl-scrape — scraper des pages individuelles
- firecrawl-crawl — extraction en masse en JSON (pas de fichiers locaux)