Identificar caídas de tráfico con Python

Para los que nos dedicamos al SEO, identificar URLs que muestran una tendencia de caída a lo largo del tiempo es una alerta que nos ayuda a poder tomar cartas en el asunto e intentar “levantar” dichas URLs mediante lo que se conoce como curación de contenido (otras prácticas también son válidas)

Precisamente para este fin, he creado un script llamado “Traffic Drops Analyzer” el cual identifica las URLs que mayor caída consecutiva han mostrado en los últimos meses y que nos va a permitir a realizar este análisis de una forma rápida y eficaz para que emprendamos las acciones necesarias.

La idea inicial era crear un GPT específico para realizar esta labor, pero lo cierto es que no funcionaba nada bien (en mi opinión la funcionalidad de análisis de datos de GPT aún tiene mucho que mejorar), y por ello, utilicé el mismo ChatGPT para crear este script.

Input de “TRAFFIC DROPS ANALYZER”

Lo que necesita este script como input para analizar, es una hoja de excel con los datos de Google Search Console, lo que vamos a extraer utilizando la extensión “Search Analytics for Sheets” de Google Spreadsheet  y cuyos datos vamos a necesitar agruparlos según la dimensión “Date” y “Page” (luego también puedes incluir todos los filtros que desees, si lo que necesitas es analizar una sección concreta, como el blog)

Importante: como fecha final, pon el mes anterior al actual. Es decir, si estamos en noviembre, la fecha final es el 31 de octubre. Esto es básicamente porque vamos a mensualizar las fechas y necesitamos meses completos.

Cuando obtengamos todos los datos, los vamos a descargar en formato Excel.

Link al script

Tendrás que hacerte una copia para poder utilizarlo: Link a Google Colab 

Output de “TRAFFIC DROPS ANALYZER”

Una vez tengamos nuestro archivo descargado, nos vamos al script en Google Colab y lo ejecutamos.

Nos pedirá que subamos el archivo excel… y ¡magia!

El script hará su función y devolverá las 10 URLs que más pérdida de clics han acumulado en los últimos 3 meses.

Nos va a devolver un archivo excel descargable, con el listado de las 10 URLs que más caída de tráfico han experimentado los 3 últimos meses de forma consecutiva, así como el montante total de clicks perdidos:

Además del archivo excel descargable, en el propio Google Colab el script va a pintar las gráficas de las 10 URLs con la tendencia de tráfico, para que podamos evaluarlo gráficamente:

Utilidades del script

El principal uso es identificar automáticamente las caídas de tráfico más relevantes para poder analizar a fondo y establecer un plan de acción, como la curación del propio contenido de la URL en base a una actualización de los textos, etc.

Cómo evolución del script, pretendo ejecutarlo en local de forma automática cada X tiempo, para que me vaya devolviendo las URLs que presenten tendencias de tráfico y pueda establecer un plan de acción acorde a la situación.

¡Haz clic para puntuar esta entrada!
(Votos: 7 Promedio: 5)

Sobre el autor

Alex Romero Lopez, Consultor SEO en España
Web Otros artículos del autor

Especialista SEO con gran foco en el área técnica. Entusiasta de la programación, en especial Python y Javascript, y la aplicación de ésta en el ámbito SEO para automatizar procesos o profundizar en ciertos ámbitos como el web scraping o el uso de APIs. He trabajado en proyectos SEO de muy diferente tamaño y sector lo que me permite obtener una perspectiva 360º de cómo trabajarlo.