En mayo de 2014, una poderosa funcionalidad debutó en la función «buscar como Google» en Google Search Console: la capacidad de buscar y renderizar.

Cuando pides a Google Adwords que busque y procese, su rastreador buscará todos los recursos necesarios para que pueda representar con precisión una página, incluidas imágenes, CSS y JavaScript gracias a la agencia de marketing digital de http://marketing-digital.com.ar/. Google proporciona una instantánea de vista previa de lo que Googlebot ve frente a lo que ve un usuario típico. Es importante saberlo, ya que los sitios podrían bloquear los recursos de forma inadvertida, lo que podría afectar la cantidad de contenido que se obtiene.

La adición de buscar y procesar era una gran cosa, ya que ayuda a revelar problemas con la forma en que se indexa el contenido. Con esta funcionalidad, los webmasters pueden asegurarse de que Googlebot es capaz de obtener todos los recursos necesarios para un procesamiento preciso. Debido a que muchos webmasters no permiten directorios y archivos importantes a través de robots.txt, es posible que Googlebot esté viendo una vista limitada de la página, pero el webmaster ni siquiera sabría si no se obtendrá ni renderizará.

Como dijo el antiguo Googler Pierre Far en ese momento, «Al bloquear el rastreo de CSS y JS, estás perjudicando activamente la indexación de tus páginas».

Por lo tanto, una auditoría técnica no es una auditoría técnica si no incluye las páginas de prueba que utilizan buscar y procesar. Utilizando la herramienta en Google Search Console (GSC), puede probar los rastreadores de escritorio y smartphone de Google para ver cómo Googlebot está procesando cada página de su sitio.

Voy a cubrir más sobre la situación móvil más adelante en este post, pero por ahora, me centraré en lo que puede suceder cuando se bloquean los recursos. Después de revisar sus propias páginas, puede que se parezca a esto:

Echemos un vistazo a tres ejemplos que he encontrado durante mis viajes de SEO.

Ejemplo 1: Condiciones de neutralización
Hay situaciones en las que fetch y render pueden revelar algunos problemas menores de render, y luego hay situaciones que llamo «whiteout de SEO». Es ahí donde poco o ningún contenido está siendo procesado por Googlebot.fetch-horror

Es una situación siniestra, ya que los usuarios típicos ven una página con contenido normal. Pero Googlebot no está viendo mucho (o ninguna) de ella. Así que a menos que esté buscando específicamente para comprobar lo que Googlebot puede ver, puede ser fácilmente engañado a pensar que todo está bien. Pero no lo es.

La captura de pantalla de abajo es de una auditoría técnica que realicé para una marca más grande. Literalmente no había contenido que se representaba en ciertas páginas de categorías.

Inicialmente no creer el resultado, tuve que comprobar esto varias veces – fue literalmente un whiteout SEO. Resulta que todas las imágenes, CSS y JavaScript estaban siendo bloqueadas por robots.txt, por lo que el render se estaba rompiendo por completo – y el contenido no estaba siendo renderizado en la página.

¿Qué tan bien crees que estas páginas se clasifican?

Ejemplo 2: Gran migración, la mitad del contenido
El siguiente ejemplo provino de una migración de CMS a gran escala. Con cualquier migración grande, hay gremlins que pueden causar grandes problemas. (Es por eso que escribí un post sobre la Ley de Murphy para las Migraciones de CMS.) No es raro que varios gremlins aparezcan después de activar una migración a gran escala. Y una vez que la superficie, puede terminar tratando de apagar muchos incendios.