Use this file to discover all available pages before exploring further.
Busca en la web y obtén contenido limpio y estructurado de cada resultado en una sola llamada a la API. Envía una consulta a /search y Firecrawl devuelve títulos, descripciones y URLs. Agrega scrapeOptions para recuperar también el markdown completo de la página, HTML, links o capturas de pantalla de cada resultado.Para ver la lista completa de parámetros, consulta la referencia de la API del endpoint Search.
Pruébalo en el Playground
Prueba buscar en el playground interactivo; no necesitas escribir código.
Los SDK devolverán directamente el objeto de datos. cURL devolverá el payload completo.
JSON
{ "success": true, "data": { "web": [ { "url": "https://www.firecrawl.dev/", "title": "Firecrawl - The Web Data API for AI", "description": "The web crawling, scraping, and search API for AI. Built for scale. Firecrawl delivers the entire internet to AI agents and builders.", "position": 1 }, { "url": "https://github.com/firecrawl/firecrawl", "title": "mendableai/firecrawl: Turn entire websites into LLM-ready ... - GitHub", "description": "Firecrawl is an API service that takes a URL, crawls it, and converts it into clean markdown or structured data.", "position": 2 }, ... ], "images": [ { "title": "Quickstart | Firecrawl", "imageUrl": "https://mintlify.s3.us-west-1.amazonaws.com/firecrawl/logo/logo.png", "imageWidth": 5814, "imageHeight": 1200, "url": "https://docs.firecrawl.dev/", "position": 1 }, ... ], "news": [ { "title": "Y Combinator startup Firecrawl is ready to pay $1M to hire three AI agents as employees", "url": "https://techcrunch.com/2025/05/17/y-combinator-startup-firecrawl-is-ready-to-pay-1m-to-hire-three-ai-agents-as-employees/", "snippet": "It's now placed three new ads on YC's job board for “AI agents only” and has set aside a $1 million budget total to make it happen.", "date": "3 months ago", "position": 1 }, ... ] }}
Además de los resultados web habituales, Search admite tipos de resultados especializados mediante el parámetro sources:
web: resultados web estándar (predeterminado)
news: resultados enfocados en noticias
images: resultados de búsqueda de imágenes
Puedes solicitar varias fuentes en una sola llamada (por ejemplo, sources: ["web", "news"]). Cuando lo haces, el parámetro limit se aplica por tipo de fuente; así, limit: 5 con sources: ["web", "news"] devuelve hasta 5 resultados web y hasta 5 resultados de noticias (10 en total). Si necesitas parámetros diferentes por fuente (por ejemplo, valores limit distintos o diferentes scrapeOptions), haz llamadas separadas en su lugar.
Busca y recupera contenido de los resultados de búsqueda en una sola operación.
from firecrawl import Firecrawlfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Buscar y hacer scraping de contenidoresults = firecrawl.search( "firecrawl web scraping", limit=3, scrape_options={ "formats": ["markdown", "links"] })
Todas las opciones del punto de conexión /scrape son compatibles con este punto de conexión de búsqueda mediante el parámetro scrapeOptions.
{ "success": true, "data": [ { "title": "Firecrawl - La API definitiva de web scraping", "description": "Firecrawl es una potente API de web scraping que convierte cualquier sitio web en datos limpios y estructurados para IA y análisis.", "url": "https://firecrawl.dev/", "markdown": "# Firecrawl\n\nLa API definitiva de web scraping\n\n## Convierte cualquier sitio web en datos limpios y estructurados\n\nFirecrawl facilita la extracción de datos de sitios web para aplicaciones de IA, investigación de mercados, agregación de contenido y más...", "links": [ "https://firecrawl.dev/pricing", "https://firecrawl.dev/docs", "https://firecrawl.dev/guides" ], "metadata": { "title": "Firecrawl - La API definitiva de web scraping", "description": "Firecrawl es una potente API de web scraping que convierte cualquier sitio web en datos limpios y estructurados para IA y análisis.", "sourceURL": "https://firecrawl.dev/", "statusCode": 200 } } ]}
from firecrawl import Firecrawlfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Búsqueda con configuración de ubicación (Alemania)search_result = firecrawl.search( "herramientas de web scraping", limit=5, location="Germany")# Procesar los resultadosfor result in search_result.data: print(f"Título: {result['title']}") print(f"URL: {result['url']}")
Usa el parámetro tbs para filtrar resultados por periodo. Ten en cuenta que tbs solo se aplica a resultados de web — no filtra resultados de news ni de images. Si necesitas noticias filtradas por tiempo, considera usar web como origen con el operador site: para restringir la búsqueda a dominios de noticias específicos.
sbd:1 - Ordenar por fecha (las más recientes primero)
Para un filtrado temporal más preciso, puedes especificar rangos exactos usando el formato de rango de fechas personalizado:
from firecrawl import Firecrawl# Inicializa el cliente con tu clave de APIfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Busca resultados de diciembre de 2024search_result = firecrawl.search( "firecrawl updates", limit=10, tbs="cdr:1,cd_min:12/1/2024,cd_max:12/31/2024")
Puedes combinar sbd:1 con filtros de tiempo para obtener resultados ordenados por fecha dentro de un rango temporal. Por ejemplo, sbd:1,qdr:w devuelve resultados de la última semana ordenados de más recientes a más antiguos, y sbd:1,cdr:1,cd_min:12/1/2024,cd_max:12/31/2024 devuelve resultados de diciembre de 2024 ordenados por fecha.
Configura un tiempo de espera personalizado para las operaciones de búsqueda:
from firecrawl import Firecrawl# Inicializa el cliente con tu clave de APIfirecrawl = Firecrawl(api_key="fc-YOUR_API_KEY")# Establece un tiempo de espera de 30 segundossearch_result = firecrawl.search( "complex search query", limit=10, timeout=30000 # 30 segundos en milisegundos)
Para equipos con requisitos estrictos de tratamiento de datos, Firecrawl ofrece opciones de Retención de datos cero (ZDR) para el punto de conexión /search mediante el parámetro enterprise. La búsqueda con ZDR está disponible en los planes Enterprise — visita firecrawl.dev/enterprise para comenzar.
Esto es distinto de la opción de scrape zeroDataRetention, que controla la ZDR para las operaciones de scraping. Consulta Scrape ZDR para obtener más información. El parámetro enterprise solo se aplica a la parte de búsqueda de la solicitud.
Con ZDR de extremo a extremo, tanto Firecrawl como nuestro proveedor de búsqueda upstream aplican retención de datos cero. No se almacenan datos de consultas ni de resultados en ningún punto del pipeline.
Con ZDR anonimizado, Firecrawl aplica retención de datos cero completa por nuestra parte. Nuestro proveedor de búsqueda puede almacenar en caché la consulta, pero está completamente anonimizada — no se adjunta ninguna información identificativa.
Si estás usando search con scraping de contenido (scrapeOptions), el parámetro enterprise cubre la parte de búsqueda, mientras que zeroDataRetention en scrapeOptions cubre la parte de scraping. Para obtener ZDR completo en ambos, configura ambos:
El costo de una búsqueda es de 2 créditos por cada 10 resultados, redondeado hacia arriba (1–10 resultados = 2 créditos, 11–20 = 4 créditos, y así sucesivamente). Si las opciones de scraping están habilitadas, se aplican los costos estándar de scraping a cada resultado de búsqueda:
Basic scrape: 1 crédito por página web
PDF parsing: 1 crédito por página de PDF
Enhanced proxy mode: 4 créditos adicionales por página web
JSON mode: 4 créditos adicionales por página web
Para ayudar a controlar los costos:
Establece parsers: [] si no se requiere el análisis de PDF
Usa proxy: "basic" en lugar de "enhanced" cuando sea posible, o configúralo en "auto"
Limita la cantidad de resultados de búsqueda con el parámetro limit
Para más detalles sobre las opciones de scraping, consulta la documentación de la función Scrape. Todo, excepto FIRE-1 (Agente) y seguimientoDeCambios, es compatible con este punto de conexión de búsqueda.
¿Eres un agente de IA que necesita una API key de Firecrawl? Consulta firecrawl.dev/agent-onboarding/SKILL.md para ver las instrucciones de incorporación automatizada.