Documentation Index
Fetch the complete documentation index at: https://firecrawl-mog-search-exclude-include-domains.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
POST /v2/scrape/{scrapeId}/interact avec un prompt en langage naturel ou du code Playwright pour effectuer des actions sur la page.
Consultez la documentation Interact pour tous les détails et des exemples.
Vous pouvez aussi utiliser le paramètre actions, mais son usage n’est pas recommandé pour des interactions complexes.
Êtes-vous un agent IA ayant besoin d’une clé API Firecrawl ? Consultez firecrawl.dev/agent-onboarding/SKILL.md pour obtenir des instructions d’intégration automatisée.
Bearer authentication header of the form Bearer <token>, where <token> is your auth token.
L’URL à scraper
Formats de sortie à inclure dans la réponse. Vous pouvez spécifier un ou plusieurs formats, soit sous forme de chaînes (par ex. 'markdown'), soit sous forme d’objets avec des options supplémentaires (par ex. { type: 'json', schema: {...} }). Certains formats requièrent la définition d’options spécifiques. Exemple : ['markdown', { type: 'json', schema: {...} }].
Retourne uniquement le contenu principal de la page, à l’exclusion des en-têtes, menus de navigation, pieds de page, etc. Il s’agit d’un filtre déterministe appliqué au niveau HTML avant la génération du markdown ; aucun LLM n’intervient.
Bêta. Exécute un passage supplémentaire basé sur un LLM sur le markdown généré afin de supprimer les éléments parasites résiduels que onlyMainContent peut manquer (bannières de cookies, blocs publicitaires, widgets de partage sur les réseaux sociaux, fils d’Ariane, inscriptions à la newsletter, sections de commentaires, listes d’articles similaires). Les titres, listes, tableaux, blocs de code, références d’images et liens intégrés sont conservés. Peut être combiné avec onlyMainContent (la configuration la plus courante) ou utilisé seul. Ignoré avec un avertissement lorsque le markdown dépasse la limite de jetons de sortie du modèle de nettoyage (le markdown d’origine est conservé). Non pris en charge pour les requêtes sans conservation des données.
Balises à inclure dans le résultat.
Balises à exclure du résultat.
Retourne une version mise en cache de la page si elle est plus récente que cette durée (en millisecondes). Si une version mise en cache de la page est plus ancienne que cette valeur, la page sera à nouveau explorée (scrapée). Si vous n’avez pas besoin de données extrêmement récentes, activer cette option peut accélérer vos opérations de scraping de 500 %. Par défaut : 2 jours.
Lorsqu’elle est définie, la requête vérifie uniquement le cache et ne déclenche jamais une nouvelle opération de scraping. La valeur est exprimée en millisecondes et indique l’âge minimal que doivent avoir les données en cache. Si des données en cache correspondantes existent, elles sont renvoyées instantanément. Si aucune donnée en cache n’est trouvée, une réponse 404 avec le code d’erreur SCRAPE_NO_CACHED_DATA est renvoyée. Définissez-la sur 1 pour accepter n’importe quelle donnée en cache, quel que soit son âge.
En-têtes à inclure dans la requête. Peuvent être utilisés pour envoyer des cookies, un user-agent, etc.
Indiquez un délai en millisecondes avant de récupérer le contenu, afin de laisser à la page suffisamment de temps pour se charger. Ce temps d’attente s’ajoute à la fonction d’attente intelligente de Firecrawl.
Définissez cette option sur true pour simuler le scraping depuis un appareil mobile. Utile pour tester des pages responsives et prendre des captures d’écran en mode mobile.
Ignorer la vérification du certificat TLS lors des requêtes.
Délai d’expiration de la requête en millisecondes. La valeur minimale est de 1000 (1 seconde). La valeur par défaut est de 60000 (60 secondes). La valeur maximale est de 300000 (300 secondes).
1000 <= x <= 300000Contrôle la façon dont les fichiers sont traités lors du scraping. Lorsque « pdf » est inclus (valeur par défaut), le contenu du PDF est extrait et converti au format Markdown, avec une facturation basée sur le nombre de pages (1 crédit par page). Lorsqu’un tableau vide est envoyé, le fichier PDF est renvoyé en encodage base64 avec un tarif fixe de 1 crédit pour l’ensemble du PDF.
Actions à effectuer sur la page avant de récupérer le contenu
Paramètres de localisation pour la requête. Lorsqu’ils sont définis, un proxy approprié sera utilisé si disponible et les paramètres de langue et de fuseau horaire correspondants seront simulés. La valeur par défaut est « US » si aucun n’est spécifié.
<[ { "key": "0", "translation": "Supprime toutes les images encodées en base64 de la sortie markdown, qui peut devenir excessivement longue. Cela n’affecte pas les formats html ou rawHtml. Le texte alternatif de l’image reste dans la sortie, mais l’URL est remplacée par un espace réservé." } ]</>
Active le blocage des publicités et des fenêtres contextuelles de cookies.
Spécifie le type de proxy à utiliser.
basic, enhanced, auto Si ce paramètre est défini sur true, la page sera stockée dans l’index et le cache de Firecrawl. Le définir sur false est utile si votre activité de scraping peut soulever des problèmes de protection des données. L’utilisation de certains paramètres associés à un scraping sensible (par ex. actions, headers) forcera ce paramètre à false.
Si défini sur true, la requête est traitée uniquement à partir du cache de Firecrawl et n’effectue jamais de requête sortante vers l’URL cible. Conçu pour les environnements soumis à des contraintes de conformité ou isolés du réseau, où la requête de scrape elle-même pourrait divulguer des informations sensibles. En cas d’absence dans le cache, renvoie une 404 avec le code d’erreur SCRAPE_LOCKDOWN_CACHE_MISS (l’URL n’est jamais journalisée en cas d’absence dans le cache). Les requêtes Lockdown sont traitées en mode zero data retention. La valeur maxAge par défaut est portée à 2 ans afin que les pages déjà mises en cache restent éligibles. Facturé 5 crédits en cas de hit, 1 crédit en cas d’absence dans le cache.
Active le stockage persistant du navigateur entre les sessions de scrape et d’Interact. Transmettez un profil lors du scraping pour conserver les cookies, le localStorage et les données de session. Les sessions portant le même nom de profil partagent l’état du navigateur.
Si la valeur est true, cela activera la non-conservation totale des données pour ce scraping. Pour activer cette fonctionnalité, veuillez contacter help@firecrawl.dev