12.176 cursos gratis
8.741.736 alumnos
Facebook Twitter YouTube
Busca cursos gratis:

Capýtulo 4:

 Frecuencia de rastreo de la araña III

 

Uso adecuado de Formularios Internos de búsqueda para el SEO

Cuando un sitio Web posee muchas páginas de contenido es conveniente a nivel de usuario configurar un formulario de búsqueda interno que puede ser de varios tipos.

En el caso de los formularios donde se hace la búsqueda a través del rellenado de varios campos por parte del usuario, se comienza a tener problema de indexación por parte de los buscadores.

Veamos el siguiente ejemplo de formulario Web:

seo

Este formulario posee 3 campos que debe rellenar el usuario y hacer clic en el botón de buscar. Supongamos que elegimos la marca Renault, el modelo Scenic y la provincia Madrid. Al hacer la búsqueda se nos devuelve una página como esta que contiene un listado de coches que contienen los campos que se introdujeron en el formulario.

seo

A nivel SEO el problema radica en que la araña de los buscadores no sabe ejecutar el formulario de búsqueda, por lo que no puede seguir el enlace de buscar y en consecuencia no puede llegar a las diferentes páginas que se construyen y se publican de acuerdo a la combinación de los campos utilizados en el formulario.

Normalmente detrás de estos formularios se encuentras cientos de páginas y todas son páginas con contenidos muy relevantes para el posicionamiento en buscadores.

Dado este problema se tiene que crear un camino adicional construido especialmente para la araña de los buscadores. Además de tener el formulario que está muy bien pensado para el usuario, se debe tener un camino enfocado a que los buscadores indexen este tipo de páginas de contenido.

El mejor camino que se puede construir son los enlaces HTML que es lo que mejor se tragan los buscadores. Debemos crear enlaces que lleven a las arañas de los buscadores a las diferentes páginas de resultados que se dan después de utilizar los buscadores.

Ejemplos de buenas prácticas:

El portal de www.paginasamarillas.es en su página Home además de tener un buscador interno posee una especie de mapa del sitio en dicha home con un listado de enlaces a las clasificaciones de empresas más populares:

seo

seo

El portal www.toprural.com además de tener su buscador directo posee al final de la página un índice de enlaces a los distintos patrones de búsqueda de los usuarios. Estos enlaces ayudan a las arañas a indexar mejor todo el sitio Web.

seo

seo

Uso del archivo robots.txt o de la etiqueta robots

Cuando queremos proteger alguna página que tal vez tenga un contenido confidencial; o sea que nadie tenga conocimiento de que esa página existe, sólo tú; debemos hacer que no sea rastreada por ningún robot de algún motor de búsqueda. Para eso existe la metaetiqueta "robots".

También tenemos el caso donde tenemos información duplicada de alguna sección de nuestro sitio Web. En dicho caso nos puede convenir decirle a Google que no indexe esa sección con contenido duplicado. Para eso también se puede utilizar la etiqueta robots o el archivo robots.text

Esta metaetiqueta dice a los robots que es lo que debe realizar, si indexa la página (index), si no la indexa (noindex), si sigue los enlaces (follow) o si queremos que no los siga (nofollow).

También se puede utilizar un archivo en vez de la etiqueta. El fichero robots.txt es un archivo de texto que dicta unas recomendaciones para que todos los crawlers y robots de buscadores cumplan

Ejemplo de sintaxis de la etiqueta robots:

<meta name="robots" content="noindex, nofollow" />

Con esta metaetiqueta dentro de una página, estamos diciendo al robot que NO indexe y que no siga los enlaces.

Las metaetiquetas van dentro de la etiqueta cabecera de la página <head>...</head>.

Así mismo podemos hacer que NO indexe la página pero que sí siga los enlaces.

seo

Ejemplo:

<meta name="robots" content="noindex, follow" />

El valor por defecto de la metaetiqueta robots es "follow, index".

Recuerda que los robots siguen cualquier enlace que se encuentre en la página y si ve que es un enlace nuevo, con contenido, la almacena en su índice (indexa), si no, sigue su camino hasta que encuentra otro enlace y así sucesivamente.

Recomendamos leer este tutorial del uso del robot.txt

http://www.emezeta.com/articulos/robots-txt-todo-lo-que-deberia-saber#axzz1T9tF1ntg

Archivo Sitemaps

Los sitemaps informan a Google acerca de las páginas de su sitio web que no podríamos detectar de otro modo. Los sitemaps XML, que suelen denominarse simplemente "sitemaps", son listas que incluyen las páginas que integran los sitios web. La creación y el envío de un sitemap permiten a Google conocer todas las páginas de un sitio, incluidas las URL que los procesos de rastreo habituales de Google podrían no detectar.

Estos archivos le son útiles a los robots y a las arañas de los motores de búsqueda, que usarán la información que le damos en el archivo sitemap para realizar un rastreo más efectivo del sitio web, lo que revertirá en que indexe mejor nuestras páginas y en la mejora de nuestro posicionamiento.

Protocolo sitemaps

El archivo de sitemaps viene definido por un protocolo definido en http://www.sitemaps.org/es/protocol.php y está compuesto por una serie de etiquetas XML, un lenguaje que sirve para estructurar la información. Con ese archivo podemos facilitar de forma opcional a los buscadores datos adicionales de cada una de las páginas que se incluyen en nuestro sitio web:

-       URL de la página

-       Última fecha de modificación

-       Frecuencia de modificación

-       Importancia relativa respecto al resto de páginas del sitio.

Este protocolo ha conseguido convertirse en un estándar que los principales buscadores (Google, Yahoo, Bing, etc.) soportan y recomiendan. La inclusión en un dominio de un archivo sitemap no garantiza que los buscadores indexen todas las páginas que listamos en él, pero sí es recomendable su uso para que realicen los rastreos de forma más inteligente, al pasarles en los metadatos información adicional sobre la estructura y actualización de nuestra web.

Las URLs que se establecen en el archivo sitemap han de pertenecer al mismo dominio (no se permiten subdominios), el mismo protocolo (si usamos http no podríamos usar https) y la misma subcarpeta en caso de encontrarse en un ruta diferente de la raíz (para un sitemap ubicado en http://www.dominio.com/subcarpeta1 no podríamos incluir URLs ubicadas en http://www.dominio.com/subcarpeta2).

El máximo tamaño del archivo es de 10MB y el máximo número de URLs que puede contener es de 50.000. Como posteriormente explicaremos, en caso de sobrepasar estos valores, se puede utilizar más de un archivo sitemap.

Además del formato XML, para reducir el tamaño del archivo podemos comprimirlo en formato GZIP.

Las URLs que no cumplan con los requerimientos, no se tienen en cuenta, por lo que un archivo sitemap que incluya algunas URLs no válidas puede ser útil para las que cumplen con los requerimientos.

Etiquetas

El Sitemap debe:

-       Comenzar con una etiqueta de apertura <urlset> y terminar con una de cierre </urlset>.

-       Especificar el espacio de nombres (protocolo estándar) en la etiqueta urlset.

-       Incluir una entrada <url> para cada dirección URL como una etiqueta XML principal.

-       Incluir una entrada secundaria <loc> para cada etiqueta principal <url>.

-       Las demás etiquetas son opcionales. La compatibilidad de estas etiquetas opcionales puede variar en función del motor de búsqueda. Ejemplo de fichero sitemap

El formato que tiene un archivo sitemap estándar es el siguiente:

seo

seo

Este sitemap correspondería a un sitio web compuesto por 2 páginas, cuya última modificación es del 2009-12-01.

Con este archivo le estamos diciendo a los buscadores que las páginas las modificamos de forma semanal y mensual, respectivamente, y que la primera de ellas tiene una prioridad que es el doble que la segunda.

Esta información le sirve a los motores de búsqueda para hacerse una mejor idea de la estructura de nuestra web.

La gestión del sitemap de Google se hace a través de la Herramienta de Webmaster de Google (Google Webmaster Tool). En dicha herramienta subimos el archivo sitemap y Google poco a poco lo va indexando.

Ver ejemplo de panel de control del archivo sitemap en la Herramienta de Google para Webmasters.

seo

Para crear el archivo sitemap.xml lo podemos crear manual o a través de un programa especial. Sobre todo en el caso de un portal Web con muchas páginas lo aconsejable es crearlo de forma automática a través de un programa especializado.

Empleo de codificación UTF-8

Para una correcta indexación de las páginas es necesario usar la codificación UTF-8 . Usar otro tipo de codificación puede restar relevancia a las páginas, ya que puede provocar problemas para reconocer el texto correctamente en las arañas de los buscadores.

No usar pop-ups para mostrar información relevante de productos, servicios, empresa, etc.

Un error en los portales de comercio web consiste en programar la información de la ficha del producto a través de una página en formato pop-up, es decir, que se abre en nueva ventana mediante la invocación de una instrucción programada con Javascript. Al día de hoy los buscadores no pueden indexar y posicionar  pop-ups, por lo que toda información registrada en dicho formato es invisible para los motores de búsqueda. Nuestra recomendación es que cada ficha de producto sea una página Web HTML independiente con su propia dirección o URL individual.

seo

 

Diseño de un Mapa del Sitio visible

Los mapas del sitio cumplen dos funciones: por un lado, una función de usabilidad, permitiendo al visitante buscar información de una forma alternativa y, en segundo lugar, una función de posicionamiento, donde un mapa del sitio con enlaces a todas las páginas de productos del portal se convertirá en la plataforma más eficaz para que los buscadores indexen todo el site. El mapa del sitio viene siendo una página Web con un esquema en forma de listado de todas las páginas que contiene el site, es decir, un índice de todo el portal.

Si posee muchas páginas, trate de que el mapa del sitio no sea una sola página sino varias. Cuadre para que en cada página del mapa del sitio no haya más de cien enlaces ya que algunos buscadores rastrean hasta ese límite. Adicionalmente, procure que los enlaces dentro del mapa del sitio sean enlaces de texto que contengan el nombre descriptivo de cada uno de los productos. Por último, trate que la página del mapa del sitio se encuentre a un sólo clic de la página de inicio de su portal

Ejemplo: http://www.priceminister.es/navigation

seo

Redireccionamientos 301: Redirect 301

En un sitio web puede darse el caso que cambien las URLs, por actualización del gestor de contenido, por cambios de programación, por cambios de dominios, etc…

En este caso, debemos informar a las arañas de los buscadores de este cambio de URL para conservar nuestro posicionamiento en los buscadores, para mantener vivos los enlaces a nuestras páginas con la URL antigua y para evitar confusión a los visitantes de nuestra web.

seo

La forma correcta de hacerlo es mediante un redireccionamiento Redirect 301.  Mediante esteredireccionamiento indicamos a los buscadores cuál es la URL nueva que sustituye a la antigua.

¿Cómo se aplica el redirect 301?

La forma en que se aplica el redirect 301 depende de la configuración del servidor donde esté alojado el sitio web.

En servidores Apache

El caso más común es tener alojado el portal en un servidor Apache. Para hacer el redirect 301, deberíamos editar el archivo “.htaccess”, con las siguientes instrucciones:

Redirect 301 / http://www.url-de-la-nueva-direccion.com

Con esto le diríamos  la actual URL ya no la vuelvas a visitar, ahora indexa y visita “http://www.url-de-la-nueva-dirección.com”.

Se puede hacer a través de programación, aunque la forma idónea es mediante el .htaccess.

Redirect 301 con PHP

La página que vamos a redireccionar la reemplazamos por un archivo PHP con el siguiente código, en la primera línea del archivo:

<?php

header("HTTP/1.1 301 Moved Permanently");

header("location:http://www.nuevodominio.com");

?>

Redirección 301 con ASP

La página que vamos a redireccionar la sustituimos por un archivo ASP con el siguiente código:

<%

Response.Status="301 Moved Permanently"

Response.AddHeader "Location", http://www.nuevodominio.com

%>

Redirección 301 con ASP.NET

La página que vamos a redireccionar la sustituimos por un archivo ASP con el siguiente código:

private void Page_Load(object sender, System.EventArgs e)

{

    Response.Status = "Moved Permanently";

    Response.AddHeader("Location,http://www.url-nueva.com");

}

Redirección 301 con ColdFusion

La página que vamos a redireccionar la sustituimos por un archivo ColdFusion con el siguiente código:

<.cfheader statuscode="301" statustext="Moved permanently">

<.cfheader name="Location" value="http://www.url-de-la-nueva-direccion.com"

Redirección 301 en un servidor IIS

Necesitamos configurar el servidor entrando al administrador de servicios de Internet de la siguiente manera:

1.     Elige la opción “redirección a una URL”

2.     Introduce la página a la que va a redireccionar

3.     Marca la URL introducida cómo “una redirección permanente para este recurso”

4.     Haz clic en “aplicar”

Redirección 301 desde un HTML

Este tipo de redirección no es posible, para ello es necesario cualquiera de los métodos anteriores o tener acceso a la configuración del servidor.

Más  info sobre el redirect 301 en Apache en:

- Artículo en profundidad: http://www.gnc-web-creations.com/301-redirect.htm (Inglés)

- http://httpd.apache.org/docs-2.0/mod/mod_rewrite.html (Inglés)

- http://httpd.apache.org/docs-2.0/misc/rewriteguide.html (Inglés)

- http://httpd.apache.org/docs-2.0/mod/directives.html#R (Inglés)

Para comprobar que el Redirect 301 está correctamente aplicado, se puede usar herramientas web:

-  http://www.wmtips.com/tools/info/

- http://www.seoconsultants.com/tools/check-server-headers-tool/

 

Hosting a nivel SEO

El alojamiento web o el hosting suele ser un factor importante de cara al posicionamiento en buscadores. Que debe cumplir el servidor web donde tenemos alojado nuestro sitio Web.

-       Minimizar las caídas del servidor: Si la araña de los buscadores trata de indexar nuestro sitio Web y la página no está accesible porque se cayó el servidor, la araña comienza a pensar que nuestro sitio Web no es calidad. Si al cabo de un par de días vuelve a visitar el site y sigue caído el servidor, la araña de los buscadores llega la negativa conclusión de que nuestro portal no es calidad para los usuarios y en consecuencia lo penaliza rebajando su posicionamiento orgánico para la mayoría de palabras clave donde compite.

-       Tiempos de respuesta de servidores: Mientras más tarde un servidor en responder a las peticiones de buscadores y usuarios peor será la experiencia de navegación de los usuarios, por lo que Google podría penalizar dicho sitio. Es importante conocer que nuestro sitio Web se encuentra alojado en un servidor donde le sobra espacio y transferencia de datos, ya que si se encuentra al límite, se ralentiza la velocidad de carga del sitio Web y en consecuencia se empeora el posicionamiento natural en buscadores.

-       Software: La mayoría de los servidores usan Apache, que además de ser el más extendido nos permite configurar miles de opciones de cara al posicionamiento seo y factores como reescritura de urls, redirecciones, respuestas, etc…

-       Malos vecinos: Si nuestro portal está alojado en un servidor compartido (que suele ser el caso más común) debemos estar seguros que nuestro site no comparte el servidor con malos vecinos de cara a los buscadores. Se consideran malos vecinos portales Web con temática relacionada con sexo, spam, apuestas, viagra, etc.)

Geolocalización del sitio Web

 

-              Los buscadores le otorgan un puntaje más alto en el posicionamiento natural a aquellos portales geolocalizados en el país donde compiten. Por ejemplo si deseo que mi portal se posicione muy bien en Chile, tengo que tratar de que se encuentre geolocalizado en Chile. Los buscadores toman varios factores en cuenta a la hora de designar la geolocalización tales como:

1. Extensión del dominio: Si nuestro dominio es por ejemplo www.midominio.es, se evidencia que el sitio web es de España, igual sucede con todos aquellos dominios que incluyen una extensión de dominio territorial. En el caso de un domino con extensión .com, los buscadores no pueden determinar exactamente la geolocalización; tienen que tomar otros parámetros.

2. Ubicación del servidor donde se aloja la Web: El lugar donde se encuentre alojado nuestro sitio web físicamente, es decir, la ubicación del servidor, también es un factor importante a la hora de geolocalizar nuestro sitio web. Si nuestro público objetivo se encuentra en España, lo ideal es alojar nuestro sitio web con un proveedor de servicios Español, ya que esto garantizará que el sitio web se encuentra en el país del público objetivo. Los buscadores se fijan en el número de la IP del dominio la cual está relacionada con la ubicación geográfica del servidor donde está alojado.

3. Orientación geográfica configurada a través de la Herramientas para webmasters de Google: En las herramientas para webmaster de Google es posible especificar la ubicación geográfica de nuestro target o público objetivo, facilitando información explícita del país hacia donde deseamos orientar el posicionamiento. Para ello se debe acceder a las herramientas para webmasters de Google y mediante la pestaña Configuración, establecer el país hacia donde queremos hacer nuestra orientación geográfica. Obviamente esta herramienta solo aplica para el algoritmo de Google.

seo

Con cumplir cualquiera de estos 3 parámetros ya le estamos diciendo a los buscadores la Geolocalización de nuestro sitio Web. No hace falta cumplir las tres. Solamente con una basta.

No hay que olvidar que lo realmente importante para posicionarse es tener contenido en el idioma que habla de nuestro cliente. De nada nos sirve tener geolocalizado nuestro sitio Web en Alemania si el portal no posee los contenidos traducidos o localizados para el público alemán.

La geolocalización del dominio da un poco más de fuerza al posicionamiento en ese país. La desventaja es que solamente podemos decirle a los buscadores un solo país donde deseamos ser más fuertes en el posicionamiento en buscadores.

Nuestras novedades en tu e-mail

Escribe tu e-mail:



MailxMail tratarý tus datos para realizar acciones promocionales (výa email y/o telýfono).
En la polýtica de privacidad conocerýs tu derechos y gestionarýs la baja.

Cursos similares a Optimización del posicionamieno en buscadores



  • Výdeo
  • Alumnos
  • Valoraciýn
  • Cursos
1. Optimización de imágenes para su uso en Web
Cuando estamos haciendo una página Web es importante que esta se cargue fácilmente... [13/12/11]
19  
2. Introducción al posicionamiento natural en buscadores
En este curso vamos a tratar posicionamiento natural en buscadores , también... [09/08/11]
72  
3. Linkbuilding para el posicionamiento en buscadores SEO
Luego de haberle metido mano a nuestro sitio, de haber retocado el código Web y... [09/08/11]
42  

ýQuý es mailxmail.com?|ISSN: 1699-4914|Ayuda
Publicidad|Condiciones legales de mailxmail