#MDenseña – Screaming Frog SEO Spider Tool

Sabemos que Google cuenta con un algoritmo muy sofisticado, que se apoya en diversos factores…

Última actualización: 25/08/2023, 04:46 pm

Contenido supervisado por Claudio Heilborn

En el ranking de herramientas que más utilizo día a día para trabajar con nuestros clientes en nuestra Agencia SEO, el Screaming Frog SEO Spider se ubica en el primer lugar.

Sabemos que Google cuenta con un algoritmo muy sofisticado, que se apoya en diversos factores de posicionamiento On Page y Off Page.

Screaming Frog permite “simular” cómo ve el robot de Google los factores On Page y tener una idea de qué está recibiendo su crawler para identificar puntos de mejora en las meta etiquetas Title, Descriptions, Canonicals, Cabeceras H1/H2, meta robots index/no index, URLs, páginas duplicadas, códigos de conversión, texto alternativo en imágenes, velocidad de carga y más. Para ello se le ingresa una página web de origen (por lo general el dominio principal de nuestro sitio) y a partir de ahí el software comienza a escanear recursivamente todas las páginas internas que detecta con cada hipervínculo encontrado.

Transcripción del vídeo

En este video vamos a hablar del Screaming Frog SEO Spider, un programa que uso para escanear todas las URLs internas de un sitio web y hacerle rápido una auditoría SEO.

El programa está disponible para Windows, Mac y Linux. Está hecho en JAVA por eso es multiplataforma. Cuenta con una versión gratis, la cual se limita a escanear hasta 500 URLs internas de un sitio web.

La licencia sale 99 libras y realmente la recomiendo porque es muy útil.

Configuraciones de Screaming Frog:

En “Spider” activo todas las opciones para que analice completamente el sitio (no colocamos ningún límite).

En “Exclude” podemos quitar alguna sección para acelerar el proceso de escaneado o si queremos analizar una parte en particular. En mi caso voy a quitar el blog para para que sea más rápido.

En “Speed” se puede configurar la velocidad con la cantidad de hilos que va a mantener al mismo tiempo abiertos. Yo suelo dejar cinco, me gusta a veces cuando estoy muy apurado poner más, pero hay que tener cuidado que a veces los servidores bloquean la IP luego de hacerle muchas solicitudes al mismo tiempo. Si lo permite el servidor, levantando la cantidad de hilos se aumenta montón la velocidad.

Otra opción interesante está en la selección de un User Agent distinto, por ejemplo cuando queremos escanear el sitio en la versión mobile configurando “Googlebot-Mobile” podemos ver cómo vería el robot de Google la versión móvil del sitio web.

También podemos configurar un bloque particular de código que queremos que reviste si existe en el sitio web, yo lo uso más que nada para buscar el UA-XXXXXXX-X de Google Analytics para filtrar qué páginas tiene implementado el código de seguimiento (y en cuáles no).

Analizamos www.mdmarketingdigital.com para explicar las solapas del programa.

(Mientras corre el spider)

En la sección inferior va mostrando cuántas URLs está analizando al mismo tiempo y en la esquina inferior derecha cuántas restan por analizar. A la derecha de “Clear” muestra el porcentaje analizado total.

Como quité el blog lo va a ser bastante rápido, pero esto depende mucho de la cantidad de URLs que tiene el sitio web. De nuevo, si tenemos más de 500 (justo fueron 499), pero no mostraría más de 500 a menos que tengamos configurada una licencia.

Análisis solapas

En la solapa interna nos deja la información de todo lo que se escaneó, no sólo muestra los html sino también los JavaScript, CSS, imágenes, PDF, etc.

Particularmente yo uso las solapas Internal y External para filtrar si tenemos algún error 404 de algún sitio, de una página o de un recurso que no se esté cargando correctamente. En este caso eso está todo bien y los externos también (salvo dos que dieron Conexión refused). Se puede dar a Re-Spider para que sean escaneadas de nuevo.

La solapa URI la uso para ver qué páginas están duplicadas. Cada vez que Screaming Frog escanea el código fuente de la página, devuelve un HASH que identifica unívocamente el contenido. El código alfanumérico está calculado a partir de todo el código html de esa página web particular, es decir que si dos páginas tienen el mismo Hash, son páginas duplicadas que, con distinta URL, tienen el mismo contenido. Se pueden filtrar y exportar rápidamente para enviar al programador o cambiarles algún parámetro para que dejen de ser réplicas.

Luego tenemos la solapa de Page Titles, Descriptions, H1 y H2. En estas solapas reviso algo similar en cada una de las columnas; que estén, en principio, los Titles hechos en todas las secciones.

Filtrando con “Missing” nos dice qué páginas faltan. Esto se aplica también a Page Descriptions.

Lo mismo para Meta keywords, por ahí ya no se usan para SEO (Bing sí) pero sirve para sacar información: si está faltando, si hay muchos configurados (sobre optimización – Keyword Stuffing); también podemos ver si están duplicados o si están arriba de 56 caracteres. Posiblemente, estos los esté recortando Google en las SERPs.

Rápidamente se pueden analizar todos los Titles de las páginas html en la web y, en caso de encontrar duplicados, o si están faltando, se pueden exportar y pasar al programador para que lo corrija.

El mismo análisis aplica a los Meta Descriptions.

En las imágenes podemos filtrar cuales están arriba de 100 Kb para optimizarlas y mejorar la velocidad de carga. Las que tienen una texto alternativo muy largo, arriba de 100 caracteres. Esto posiblemente suceda con alguno que intentó sobre optimizar las imágenes y colocarle keywords por demás entendiendo que eso mejora el posicionamiento.

El filtro más utilizado es el que permite ver cuáles imágenes no tienen texto alternativo configurado, algo común.

En la solapa Directives, me gusta buscar cuáles son las URLs que tienen su etiqueta canonical, para ver si está correcta y cuales han sido canonicalizadas para ver si es correcta la URL marcada como verdadera.

Después podemos investigar las páginas no index, si no queremos indexar alguna en particular o si hay algún error que tenga meta robots no index y en realidad sí la queremos indexar.

En la solapa Custom están los filtros personalizados que nosotros configuramos para filtrar un código de conversión de ads o de analytics, el píxel de conversión de facebook o cualquier código particular que sea único y que nosotros queremos ver si está en todas las páginas web.

Otra opción interesante es la de creación de Sitemaps: rápido, con un par de clics, ya podemos tenerlo listo para subirlo al ftp.

Seguramente existan más funciones que se me están escapando, yo más que nada quería mostrar las que yo utilizo normalmente, el programa es muy completo y si encuentran alguna interesante que no haya nombrado, me encantaría saberlo.

Screaming Frog SEO Spider Tool - MD Marketing Digital

Autor: Juan Ignacio Retta

Analista SEO de MD Marketing Digital

Manuel Tacconi

¿Qué te pareció este artículo?

What do you think about this post?

0 / 5 Promedio: 0 Valoraciones: 0

Tu valoración:

Total
0
Shares

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Prev
Review Instagram 2016, enterate de los highlights del año
Selena Gómez: MD Marketing Digital: Agencia de SEO web

Review Instagram 2016, enterate de los highlights del año

Sabemos que Google cuenta con un algoritmo muy sofisticado, que se apoya en

Next
Dmoz: Crónica de una muerte anunciada

Dmoz: Crónica de una muerte anunciada

Sabemos que Google cuenta con un algoritmo muy sofisticado, que se apoya en

volver a inicio