Hace ya más de un año os hablaba de algunos aspectos importantes para el posicionamiento SEO más allá de un buen contenido. Uno de estos aspectos era la indexabilidad que para aquellos que no lo tengan aún claro es “la facilidad que tiene una página web de ser encontrada por los buscadores, de ser correctamente rastreada en la totalidad de sus contenidos y de ser adecuadamente identificadas las categorías de búsqueda en las que se debería incluir como resultado” (Fernando Maciá).
Para conseguir una buena indexabilidad, podemos seguir una serie de consejos que nos ayudarán a lograr nuestro objetivo. Algunos serían:
– Ver nuestro sitio web tal y como lo ven los buscadores para saber lo que se está indexando y lo que no. ¿Cómo? Con un simulador de arañas o robots. Por ejemplo, FeedTheBot. También resulta muy útil la vista caché que ofrecen algunos buscadores.
– Una URL única para cada contenido. Si navegamos por nuestra página y vemos que la URL no cambia, tenemos un problema. Es posible que nuestra web esté programada en Flash, en Ajax o con marcos (frames e iframes). Debemos evitar en la medida de lo posible este tipo de programación ya que siguen manteniendo una gran desventaja con respecto al contenido HTML para indexarse correctamente.
– Páginas indexadas y saturación. Las páginas indexadas indican el nivel de profundidad con el que los buscadores han rastreado un sitio web. La relación entre el número de páginas indexadas y el número real de páginas publicadas se denomina saturación y el objetivo es que esta cifra se acerque al 100%, es decir, que todas las páginas estén indexadas en los buscadores.
– Los enlaces no rastreables (animaciones flash, programación javascript, marcos iframe, etc) actuarán como un muro para la navegación de las arañas de los buscadores e impedirán que lleguen a rastrear todos los contenidos de un portal.
– Diseñar arquitecturas de la información con pocos niveles de profundidad. El proceso de indexación comienza por las páginas que ocupan los primeros niveles (la más importante, la página de inicio) y cuesta más que la araña llegue a las páginas que tienen pocos enlaces entrantes o están en los niveles más profundos de navegación.
– Debemos emplear bien los redireccionamientos. Si tenemos varios dominios pero todos aparcan (se dirigen a la misma IP) en uno, deberemos programar un redireccionamiento permanente 301. Sirve para indicar que de momento el resto de dominios no tienen nada y que se redirigen al llamado dominio canónico. Esta recomendación es igual en el caso de los dominios con “www “ y “sin www”. Es mejor elegir una sóla opción y redireccionar la otra.
– La página de error 404 genérica se puede personalizar de forma que el servidor devuelva una página correctamente maquetada con el diseño corporativo y que informe de que el contenido solicitado ya no se encuentra disponible. Es muy recomendable añadir también un pequeño directorio de enlaces con vínculos que apunten hacia los principales grupos de contenido del sitio.
– El mapa del sitio es necesario hacerlo ya que permite mostrar, en una solo página, un número mucho mayor de enlaces que se encuentran a un solo clic de la página principal.
– El archivo robots.txt es un tipo de archivo especial donde, de forma sencilla, podemos especificar qué áreas, subdirectorios o archivos de la web no deberían ser indexados por los buscadores.
– El archivo sitemap, normalmente del tipo XML, es invisible para los usuarios pero será muy útil para los buscadores que lo consultarán para descubrir todas las páginas de nuestra web que queremos que indexen.
Estos son los principales puntos que yo tengo en cuenta a la hora de analizar la buena o mala indexabilidad de un página web. Existen algunos más aunque teniendo estos correctamente optimizados veremos que nuestra página web será muy “querida” por nuestro amigo Google. ¿Recomendáis alguna idea más?
Fuente: "Marketing Online 2.0. Fernando Maciá"
Lo que me sale de las Webs
Deja un comentario