Optimizar una página web de cara a los buscadores.

Lo cierto es que con el transcurrir del tiempo, los métodos o técnicas utilizadas para optimizar páginas web van cambiando.
Lo que antes funcionaba, ahora medio funciona, incluso ya no se tiene en cuenta por parte de los buscadores más importantes.Sin embargo hay otras cualidades a tener en cuenta.

Para optimizar una página web son importantes los siguientes consejos:

  • Debemos crear Url amigables. Esto quiere decir que los nombres de las url de cada página que creemos, deben de entenderse fácilmente y deben incluir palabras claves referente al tema que tratamos en dicha página. Se aceptan el guión medio ( – ) y el guión bajo ( _ ), para separar palabras.
  • El título de la página debe guardar relación con el contenido o tema tratado en la página. Debe incluir también palabras claves y debe ser único, no debemos repetir el mismo título en otras páginas. además debe ser descriptivo de un tema nada más y ser muy parecido o guardar relación con el encabezado principal de la página.<h1>.
  • Las metaetiquetas deben ser lo más descriptivas posibles del tema tratado en la página he incluir palabras claves.
  • Los encabezados de párrafos se distribuiran por el documento de forma coherente. esto es, presentaremos un solo encabezado h1 por página, seguido de los encabezados h2,h3……h6 que necesitemos. Deberán ser descriptivos e incluir palabras claves.
  • Se etiquetarán con negrita o cursiva las primeras palabras que abren un párrafo que incluyan palabras claves.
  • Atributos alt de las imágenes, deben ser bastante descriptivos.
  • El texto de los enlaces deberian contener palabras claves.
  • Se eliminará todo aquel código html basura o que esté demás en el código fuente de nuestra página. Buscaremos siempre emplear hojas de estilo externas para aplicar estilo a los elementos, para quitar peso y mejorar la legibilidad de nuestras páginas, a la vez que las hacemos más acessibles para los buscadores.
  • Emplearemos herramientas de validación tanto de código html, como de código css, Para ello podemos emplear las herramientas online gratuita que pone a nuestro alcance la W3C.
  • Emplearemos o crearemos mapas del sitio y SITEMAP. crear mapas del sitio facilitará la usabilidad y localización de contenido y páginas a los usuarios y los SITEMAP alojados en el servidor, facilitarán la indexabilidad del sitio, facilitando la tarea a los buscadores.
  • Por ultimo cabe señalar que existe la posibilidad de indicar a los buscadores, que no indexen una determinada página o directorio. En el caso de este último se puede emplear un archivo que alojamos en el servidor llamado robots.txt, que no es más que un archivo de texto donde indicamos al buscador, que carpetas o directorios no queremos que indexe. Por otro lado existe la metaetiqueta Robots que hace lo propio, pero se incluye directamente en la cabecera de la página a No-indexar. su sintaxis es la siguiente:
    <meta name=»robots» content=»noindex,nofollow»>

Una vez hecho todo este proceso de optimización, ya tenemos la página preparada, para ser indexada por el buscador. Aunque a veces es el propio buscador quién decide, si dicha página o páginas son incluidas en su directorio, atendiendo a la revelancia, popularidad, interés de los contenidos, etc, en definitiva son ellos quien tienen la batuta en último lugar. Aunque por nuestra parte ya hemos puesto los medios para que dicha indexación se lleve a cabo.

Para comprobar que páginas se indexaron al final, si es que esta, acaba realizándose, podemos utilizar el comando site seguido del dominio de nuestro sitio en la ventana de
búsqueda del buscador, de esta manera:

site:www.misitio.com

De esta manera veremos un listado del total de páginas indexadas por Google, hasta la fecha.

¿Te ha gustado? Compártelo.