/ GSC + IA
Tu IA es tan buena como los datos de GSC que le pegas.
Google Search Console limita lo que puedes ver: 1.000 filas en la interfaz, 16 meses de historial, y casi la mitad de todas las consultas retenidas de forma permanente por razones de privacidad. Cada vez que le pides a una IA ayuda con SEO, empiezas copiando datos truncados en una ventana de chat y esperando que sea suficiente. That SEO Agent conecta tu IA directamente a la Search Console API para que consulte tus datos en vivo, filtre por dimensión, pagine más allá de los límites de la interfaz y trabaje con lo que realmente hay.
01
Qué te dicen realmente los datos de GSC (y qué no)
El informe de Rendimiento de Google Search Console expone cuatro métricas para la búsqueda orgánica: clics, impresiones, tasa de clics y posición media. Estas se pueden filtrar y agrupar en cuatro dimensiones: consulta, página, país y dispositivo. La Search Console API amplía esto con filtrado por expresiones regulares RE2, datos de Discover y Google News, y la capacidad de paginar hasta 50.000 filas por día por tipo de búsqueda, muy por encima de lo que muestra la interfaz. Este es el registro oficial de cómo Googlebot ve e indexa tu sitio: no estimado, no modelado, sino extraído directamente del índice y los datos de clics de Google.
La posición media es la posición más alta que tu página ocupó en un resultado de búsqueda determinado, promediada entre todas las consultas que generaron una impresión. La restricción crítica, documentada por Google, es que una posición solo se registra cuando un usuario realmente ve tu resultado. Si tu página está en la posición 35 y un usuario nunca llega a hacer scroll hasta allí, esa consulta no contribuye en nada a tu promedio. Esto significa que la posición media se inclina hacia las consultas en las que tienes un ranking lo suficientemente alto como para ser visible. Una caída en la posición media puede significar que empezaste a posicionarte para términos más competitivos, no que hayas perdido terreno en los existentes.
Google retiene las consultas que no fueron buscadas por "más de unas pocas docenas de usuarios" durante cualquier período de dos a tres meses. Estas consultas anonimizadas siguen contando en tus cifras totales de clics e impresiones, lo que hace que tus cifras agregadas parezcan completas, pero las frases específicas nunca se divulgan. Un análisis de Ahrefs de 22.000 millones de clics en 887.534 propiedades de GSC en 2025 encontró que el 46,77% de todo el tráfico provenía de consultas anonimizadas. En 2021, cuando los investigadores sacaron a la luz la magnitud de esto, Google actualizó su propia documentación de ayuda para eliminar las palabras "muy poco frecuente" de su descripción de las consultas anonimizadas, reconociendo que el término no era preciso.
GSC retiene datos de rendimiento durante 16 meses. Los datos más antiguos que eso se eliminan de las bases de datos de Google y no pueden recuperarse por ningún método. La API documenta explícitamente que incluso a escala completa "no garantiza devolver todas las filas de datos sino las principales" debido a restricciones internas del sistema. La actualidad de los datos añade otra variable: los nuevos datos suelen estar disponibles dos o tres días después de generarse.
Deja de analizar muestras de GSC. Conecta tu IA al conjunto de datos completo.
02
Por qué el análisis manual de GSC se rompe a escala
El flujo de trabajo estándar para usar IA en el análisis de datos de GSC es: abrir GSC, aplicar filtros, exportar hasta 1.000 filas como CSV, abrir una hoja de cálculo o subir el archivo a una ventana de chat, escribir un prompt que explique lo que representan los datos, esperar el análisis, y repetir con un conjunto de filtros diferente si la primera exportación fue insuficiente. Cada sesión comienza desde cero. La IA no tiene memoria de la última exportación, no sabe qué filtros se aplicaron y no puede hacer preguntas de seguimiento consultando dimensiones adicionales.
Con 1.000 filas, un sitio de tamaño mediano con 2.000 páginas indexadas no puede ver todos sus datos a nivel de página en una sola exportación desde la interfaz. Un sitio que posiciona para 50.000 consultas no puede ver la distribución completa de consultas. La solución alternativa, segmentar por subcarpeta y ejecutar exportaciones separadas, multiplica el trabajo manual de forma lineal con el tamaño del sitio. La API permite hasta 25.000 filas por solicitud individual y 50.000 filas por día por tipo de búsqueda, con paginación para conjuntos más grandes. Esto no es una mejora marginal: es la diferencia entre muestrear y analizar el total.
Los análisis de GSC más accionables requieren combinar dimensiones que la interfaz no puede combinar en una sola vista: páginas en posición 7–15 con muchas impresiones y bajo CTR; consultas que generan impresiones en múltiples páginas simultáneamente; datos a nivel de página cruzados con Core Web Vitals. Cada uno requiere exportar múltiples conjuntos de datos filtrados y reunirlos en una hoja de cálculo, o escribir consultas de API directamente. La verificación cruzada manual de incluso dos combinaciones de dimensiones en un sitio grande tarda entre 45 y 60 minutos en producir un solo marco de análisis.
Cada vez que un profesional SEO pega datos en una herramienta de chat, invierte tiempo en establecer contexto que no tiene nada que ver con el análisis: explicar qué significan las columnas, especificar el rango de fechas, aclarar qué filtro se aplicó, señalar qué datos faltan por el límite de filas. Esta sobrecarga aumenta con la complejidad del sitio. Y dado que la herramienta de IA no tiene conexión con la fuente de datos, se reinicia completamente entre sesiones.
03
Antes y después: briefing manual frente a acceso MCP en vivo
- 01Abrir el informe de Rendimiento de GSC. Aplicar filtros por rango de fechas, dispositivo y tipo de búsqueda.
- 02Exportar hasta 1.000 filas como CSV. Si el sitio tiene más páginas o consultas, decidir qué segmento priorizar. El resto queda invisible.
- 03Abrir el CSV en una hoja de cálculo. Ordenar, filtrar o crear tablas dinámicas según sea necesario.
- 04Copiar las filas relevantes. Abrir una sesión de chat con Claude o ChatGPT.
- 05Escribir un prompt explicando: qué son estos datos, qué rango de fechas cubren, qué filtro se aplicó, qué falta por el límite de filas.
- 06Recibir el análisis. Si la respuesta requiere un corte diferente, volver al paso 1.
- 01Conecta tu propiedad de GSC una sola vez vía OAuth en el dashboard. Genera una API key.
- 02Añade el servidor MCP a tu cliente de IA: un bloque de configuración JSON. Funciona con Claude Desktop, ChatGPT, Cursor y cualquier cliente compatible con MCP.
- 03Haz tu pregunta directamente. '¿Qué páginas tienen posición 8–15 para consultas con más de 500 impresiones mensuales y un CTR inferior al 2%?' El agente consulta la API en vivo, aplica los filtros y pagina si es necesario.
- 04Haz preguntas de seguimiento sin reexportar. 'Ahora cruza esas páginas con sus puntuaciones de Core Web Vitals.' El contexto de la sesión permanece intacto.
04
Cómo configurarlo en tres pasos
Preguntas frecuentes
¿Conectar That SEO Agent le da acceso de escritura a mi cuenta de Search Console?
No. El scope de OAuth solicitado es de solo lectura para los datos de Search Console. That SEO Agent no puede enviar sitemaps, eliminar URLs ni modificar ninguna configuración de GSC. La conexión proporciona acceso a la Search Analytics API (datos de rendimiento), la URL Inspection API y lecturas del estado del sitemap únicamente.
¿Podré ver el ~47% de consultas que están anonimizadas?
No. Las consultas anonimizadas se retienen en la capa de datos de Google antes de llegar a la API. Ninguna herramienta, incluida That SEO Agent, puede acceder a consultas que Google ha clasificado como privadas por su bajo volumen de búsqueda. El tráfico generado por esas consultas sigue contándose en tus totales agregados de clics e impresiones, por lo que tus cifras a nivel de sitio están completas. Las cadenas de consulta individuales de las búsquedas de bajo volumen son permanentemente inaccesibles.
La API de GSC solo devuelve 25.000 filas por solicitud. ¿Qué pasa si mi sitio tiene más consultas?
La API admite paginación mediante el parámetro startRow. That SEO Agent gestiona la paginación automáticamente para consultas que superen las 25.000 filas, hasta el límite diario de 50.000 filas por tipo de búsqueda por propiedad. Para sitios que operan a esa escala, Google también admite una exportación masiva a BigQuery directamente desde la configuración de GSC. Esa canalización gestiona el almacenamiento histórico completo, pero requiere configuración de BigQuery por tu parte.
¿En qué se diferencia esto de exportar datos de GSC a una hoja de cálculo y usar IA sobre ellos?
Tres diferencias. Primero, la API expone hasta 50.000 filas por día frente a 1.000 en la interfaz: la distribución completa, no una muestra de los N primeros. Segundo, la IA puede emitir consultas de seguimiento en la misma sesión sin una nueva exportación; el contexto permanece intacto. Tercero, puede combinar datos de GSC con GA4, PageSpeed y datos de rastreo en una sola sesión sin ensamblaje manual. El método de la hoja de cálculo te da una instantánea congelada. El método MCP te da una interfaz de datos en vivo.
/ Obtener acceso
Tu IA ya sabe qué preguntar. Dale tus datos reales.
Conecta tu Search Console, GA4 y PageSpeed en un solo lugar. Pregunta lo que quieras.
Alfa solo por invitación. Únete a la lista de espera.