tribal
Novedades en las Guidelines de Webmasters de Google

En este post vamos a tratar de abordar todos los cambios, o al menos, los más significativos de cara a optimización de buscadores, y en lo que a proyectos web con clientes se refiere, ahondar en las posibles implicaciones SEO de estos cambios.

A principios de año Google decidió modificar algunas de sus guidelines para Webmasters, y además de eso, matizar otras, para enfatizar puntos relevantes.

En este post vamos a tratar de abordar todos los cambios, o al menos, los más significativos de cara a optimización de buscadores, y en lo que a proyectos web con clientes se refiere, ahondar en las posibles implicaciones SEO de estos cambios.

¡Vamos allá!

 

Cambios en su introducción

Con la nueva versión de las guidelines, Google elimina el tono amable de sus recomendaciones, y se carga una frase clave “Incluso si decides no implementar estas sugerencias….”, y la sustituye por algo más directo y contundente como es “Siguiendo las Guidelines Generales, ayudarás a Google a encontrar, indexar y rankear tu sitio…”

  • ¿Qué extraemos? Ser visible en buscadores, ya no es una opción, es un mantra que debe ser el cimiento de cualquier proyecto web con intención de captar tráfico.

 

Cómo encuentra las páginas Google

La versión anterior, decía que “(…) el sitio debe tener una jerarquía clara y enlaces de texto. Cada página debe ser accesible desde al menos un enlace estático”

Dado que existen más formas de llegar a páginas y contenidos, que un link plano, tiene sentido el cambio.

En este sentido, los atributos ALT de imágenes que enlazan, ganan especial importancia, ¿también para rankings? Dejamos la pregunta abierta para comentarios.

  • ¿Qué extraemos? Los rastreadores web como Googlebot, cada vez son capaces de llegar a más contenidos, a más urls, a través de vías más allá de un simple enlace estático. Aprovechar las etiquetas ALT para contextualizar la imágen y la url de destino, siempre será positivo a nivel semántico y contextual, independientemente de si afecta o no en rankings.

 

Sitemaps y mapas web para usuarios

Este cambio es más que interesante, de sugerir o recomendar la creación de un sitemap, ahora las guidelines instan a crear un mapa web o sitemap para usuarios, que linke a las páginas más importantes y en el caso de tener muchas urls, crear varios sub-sitemaps.

  • ¿Qué extraemos? Haz todo lo que sea necesario por satisfacer al usuario, eso es lo que yo leo entre estas líneas. Lo que aporte al usuario, tendrá valor y será positivo. El mapa web html de toda la vida, puede ser también recorrido por googlebot, para descubrir nuevas urls o simplemente para comprender cuáles son las páginas más importantes.

 

El mito de los 100 enlaces por página

De indicar un “Limita el número de links en una página a un número razonable”, se ha añadido entre paréntesis (“a few thousand at most”).

Quizás esa forma de acotar una expresión ambigua, sea “razonable” para Google. Lo que es cierto es que llevamos muchos años con dimes y diretes al respecto de los 100 o no 100 links por página y esto tampoco termina de aclarar la duda.

  • ¿Qué extraemos? IMO, este es un aspecto que para nada debe ser cuantitativo, sino basarse en el contexto e histórico de la web (tamaño, tipología, objetivos, sector…), ¿qué es mucho? ¿qué es poco? Lo razonable es saber tener una medida con la que compararse, y no una cifra estándar con la que forzar navegación o comportamientos en la web.

 

Cambios sobre Robots.txt

Aquí ya viene un poco de chicha de la que nos gusta a los SEOs.

Las guidelines sobre el fichero robots.txt ahora obvian esa frase de “asegúrate que no estás bloqueando por error a googlebot”, y ahora enfatiza mucho más sobre “optimizar el crawl budget”, previniendo que no se rastreen “infinite spaces such as search result pages”.

Estos “infinite spaces” son resultados de buscadores internos o “páginas auto-generadas que no añaden valor a los usuarios que llegan desde buscadores”.

  • ¿Qué extraemos? El crawl budget viene a ser la asignación de rastreo que Google otorga a tu página, por este motivo, el tiempo que pase en tu sitio, debería estar en las páginas más importantes y relevantes. Es una cuestión de hacer más eficiente su paso por nuestros sitios web, para evitar tener que rastrear contenidos irrelevantes o de poca calidad y ayudarle a consumir los contenidos buenos, que son los susceptibles de estar indexados y ser visibles. Dependiendo del proyecto, podremos optimizar a través de robots.txt, para que no se rastreen ciertas partes de una web, como resultados internos, ciertas facetas, zonas de thin content o parámetros que duplican… Los logs del servidor serán nuestros grandes aliados. a través de ellos podremos descubrir los contenidos a los que está llegando googlebot y llevar un control periódico que nos muestre la evolución alineada con acciones llevadas a cabo.

 

<title> y atributos ALT

Aquí hay un cambio pequeño, pero muy interesante.

“Asegúrate de que los titles y los ALT son descriptivos, ESPECÍFICOS y precisos”.

  • ¿Qué extraemos? Ya sabíamos que las etiquetas siempre han de ser optimizadas para el topic y las keyword objetivo, y por supuesto, la intención de búsqueda del usuario. El matiz introducido da lugar a la interpretación, o al menos yo recojo una reminiscencia para evitar la automatización descarada de etiquetas, tanto por abusar con keywords, como por ahorrar tiempo. Es inevitable en portales de gran tamaño, caer en cierta automatización de etiquetas, pero sin duda esto acentúa el “dar valor” concretando cada páginas, con algo que la caracterice y la diferencie.

 

Imágenes, Vídeos y Datos estructurados

Para estos 3 puntos, la sugerencia de “leer las guidelines”, se ha convertido en un mandatory “sigue las guidelines” y enlaza a las secciones específicas.

Guidelines sobre imágenes: https://support.google.com/webmasters/answer/114016

Guidelines sobre vídeos: https://support.google.com/webmasters/answer/156442

Guidelines sobre Datos Estructurados: https://developers.google.com/structured-data/

  • ¿Qué extraemos? La lectura que yo hago es doble. Por un lado enfatizan la importancia de seguir las guidelines relativas a esos 3 aspectos. Por otro, lo percibo como formatos a potenciar o mejorar dentro de las estrategias tradicionales de SEO, basadas en on page y off page. Abrir la puerta del todo a lo que Universal Search, ya adelantó. Que nos quede claro: el SEO va mucho más allá de 10 links azules en primera página.

 

Enlaces rotos y HTML

Es muy diferente decir “chequea los enlaces rotos y HTML correcto”, que decir “asegúrate que todos los enlaces van a páginas vivas. Usa HTML válido”.

  • ¿Qué extraemos? Promover html válido y fomentar las prácticas recogidas en W3C es también un movimiento implícito hacia la corrección y los estándares, así como fomentar un enlazado impoluto, que deje fluir el rastreo hacia el interior o el exterior.

 

URLs con ids de sesión y parámetros

Donde antes se indicaba que no se de acceso a rastreadores a urls de session o argumentos que hagan tracking de comportamientos, ahora se indica expresamente urls con parámetros.

“Allow search bots to crawl your site without session IDs or URL parameters that track their path through the site. These techniques are useful for tracking individual user behavior, but the access pattern of bots is entirely different. Using these techniques may result in incomplete indexing of your site, as bots may not be able to eliminate URLs that look different but actually point to the same page.

  • ¿Qué extraemos? Es importante saber distinguir los tipos de parámetros que puede manejar un site, activos o pasivos, ya que pueden existir urls con parámetros que si tengan un contenido específico posicionable. Es fundamental un estudio previo para determinar qué parámetros son los susceptibles de ser bloqueados, para no alterar el crawl budget y en un paso siguiente, favorecer la indexación sólo a las urls que nos interesen.

 

Recursos bloqueados

Este es otro de los cambios más concretos que ha introducido en sus guidelines, y es que, ahora especifica la tipología de recursos que google necesita para renderizar, como son Css, Js, Css e imágenes.

La frase final, vuelve a poner énfasis en el usuario: “The Google indexing system renders a web page as the user would see it, including images, CSS, and JavaScript files.”

  • ¿Qué extraemos? Implicaciones reales en robots.txt y abrir rastreo de todas esas tipologías de recursos para que google tenga el contenido completo. Podremos hacer uso de la directiva Allow, para permitir el acceso a esas extensiones.

 

Avisos nofollow

Sobre la etiqueta nofollow, ha eliminado alusiones a sus programas de Adsense y DoubleClick, y ahora la instrucción concreta queda tal que así:

“Make a reasonable effort to ensure that advertisement links on your pages do not affect search engine rankings. For example, use robots.txt or rel=”nofollow” to prevent advertisement links from being followed by a crawler.”

Links de acuerdos publicitarios, con su nofollow, y recientemente también ha habido revuelo con los productos que las marcas envían a bloggers, ¿a cambio de links?

  • ¿Qué extraemos? Lo que aprendemos de aquí es una letanía en el mundo SEO, de hace muchos años. El link building cada vez es más complejo y Google sigue afilando los dientes ante cualquier intento de “alterar” los rankings y los enlaces sin nofollow. Es una paradoja algo difusa, principalmente porque Google, no es Internet, y no puede dictar cómo enlazan o no enlazan los usuarios. Ya sabéis, don’t be evil…

 

Tiempo de carga

Donde antes decía “analiza y mide” tu tiempo de carga, ahora dice “optimiza y mejora”.

Si bien es cierto que antes enumeraba muchas más herramientas externas, ha mantenido Page Speed (su servicio) y la robusta Webpagetest, una de las más potentes para temas de rendimiento.

“Optimize your page loading times. Fast sites make users happy and improve the overall quality of the web (especially for those users with slow Internet connections). Google recommends that you use tools like PageSpeed Insights andWebpagetest.org to test the performance of your page.”

  • ¿Qué extraemos? “Fast sites make users happy”. La felicidad del usuario debe ser nuestra obsesión y no hacerle esperar,puede ser el paso 1 para conseguirlo. Los siguientes pasos, ya formarán parte del producto, del contenido, de aspectos estratégicos del proyecto.

 

HTTPS

Abiertamente ya recomienda HTTPS, pero en ningún caso hace alusión a posibles “mejoras en rankings”, que en su día se matizó que HTTPS sería incorporado como “señal de ranking”. En cualquier caso, como telón de fondo, sigue estando el usuario y velar por su seguridad y una mejor comunicación con él.

“If possible, secure your site’s connections with HTTPS. Encrypting interactions between the user and your website is a good practice for communication on the web.”

  • ¿Qué extraemos? Dependiendo del proyecto en el que estemos, merecerá la pena estar en HTTPS, pero sin duda, la clave está en los recursos y en el contexto. No fuerces una migración a HTTPS, por lo que se ha dicho sobre posibles “beneficios en los rankings”

Y con esto, cerramos el repaso a los principales cambios, ¿añadiríais algún otro?

Si has llegado hasta aquí, te dejamos una tool interesante a modo de premio que hace un check a los aspectos más relevantes de las guidelines comentadas.

https://varvy.com/

Enjoy!

Tribal Spain is a proud official partner of

Aviso de Cookies