Google da prioridad a las webs adaptadas a móvil

Google estrena este martes un nuevo algoritmo en su servicio de búsquedas desde teléfonos móviles que dará prioridad a la hora de mostrar los resultados, en las páginas web que estén adaptadas a estos dispositivos. El cambio ha sido bautizado como ‘Mobilegeddon’, y según los expertos puede provocar importantes dolores de cabeza a las compañías y a sus responsables de SEO que no tengan una versión específica para móviles de su web. El cambio no afectará a las búsquedas realizadas desde ordenadores o tabletas.

Ejemplos de webs no adaptadas a móvil

En una versión de prueba, Google muestra, por ejemplo, que las páginas de la Unión Europea -que la semana pasada amenazó la empresa con una multa milionària- no están diseñadas para funcionar correctamente en teléfonos móviles: contienen texto demasiado pequeño para ser leído sin dificultades, los enlaces están demasiado juntos y se hace difícil acceder, y algunos contenidos son más anchas que la pantalla de los dispositivos. La web de Microsoft dedicada al sistema Windows para móviles -uno de los rivales de Android, el sistema operativo de Google- tampoco cumple los requisitos marcados por el buscador, ya que tiene un tamaño de letra demasiado pequeña y enlaces demasiado próximos unos a otros. Entre los parámetros que Google tiene en cuenta a la hora de valorar si una web está adaptada a los móviles está también el uso de software que no es compatible con estos aparatos.

Google puso en marcha hace unos meses una página web que permite comprobar si una web cumple los requisitos y, por tanto, seguirá apareciendo entre los primeros puestos en hacer una búsqueda.

Arañas y robots de los buscadores

Todos los buscadores disponen de unos ordenadores que se les llama robots (o spider, araña en inglés) que se dedican a rastrar todas las webs que encuentran recogiendo información buscando contenido útil para incorporar en sus bases de datos.

Los robots o arañas de los buscadores como Google son procesos que recorren continua e incansablemente toda la web. Siguen prácticamente todos los enlaces que aparecen en las páginas web con el objetivo de obtener información relevante en base a distintos algoritmos secretos.

Frecuencia de paso de los robots

En la actualidad existen tanta cantidad de páginas web que los robots no pueden detectar cada cambio o modificación que se produzca en cualquier página web. De modo, que pasan por los sitios web en una frecuencia determinada que viene determinada por la popularidad del sitio. Google y los demás buscadores están mucho más pendiente de una página web que genera miles de visitas diarias que uno que sólo genera 2 o 3 visitas cada día. Esto lo he experimentado en la web de energía nuclear, que se actualiza muy rápido y en la web de Bruce Springsteen (con el SEO muy poco trabajado y que apenas tiene visitas) que tarda semanas en actualizarse.

Este es el motivo por el cual cuando hacemos un cambio en la web (un título o una descripción) no se ve reflejado en los resultados de búsqueda hasta cierto tiempo.

Cuando hacemos un experimento SEO incluso cuando ya nos ha visitado el robot de Google, puede tardar días o semanas en verse afectado por el posicionamiento. Cómo durante este tiempo es posible que hayamos hecho otras acciones SEO nos será difícil saber con exactitud qué experimentos han funcionado mejor que los otros.

Es muy importante que nuestra página web esté disponible todo el tiempo posible, dado que si los robots intentan acceder a ella y la encuentran bloqueada ni insistirán ni esperarán, quizá vuelvan a nuestro sitio un mes después y para nosotros será un tiempo perdido.

Además, pocas veces te habrás encontrado que el enlace de un resultado de búsqueda de Google no funciona, ¿verdad? Pues bien, cuando Google no puede acceder a una página suspende temporalmente su posicionamiento y no la muestra en los resultados de búsqueda. Más tarde lo vuelve a intentar y si ya está disponible quita la suspensión. Si, finalmente pasado un tiempo largo (semanas o incluso meses), la página web sigue sin funcionar la elimina de su base de datos.

Cuando realizamos una búsqueda en el buscador, en realidad, lo que hace es buscar en la base de datos que han ido creando sus robots con sus algoritmos secretos.

Los algoritmos de los buscadores

Los algoritmos de búsqueda están en constante evolución, son el secreto mejor guardado y el más deseado para los profesionales que se dedican al SEO y al posicionamiento web. Podemos intuir cómo funciona pero nunca estar seguros de su verdadero funcionamiento.

Cada buscador tiene sus propios robots o arañas y sus propios elementos para determinar el ranking y la posición en que debe mostrar cada uno de los resultados encontrados. Se podría dar que una determinara acción mejorara considerablemente el posicionamiento de una web en Google, pero no lo hiciera en Bing, o viceversa.