12.176 cursos gratis
8.741.736 alumnos
Facebook Twitter YouTube
Busca cursos gratis:

Capýtulo 8:

 Uso de palabras clave en nombre del dominio

A la hora de registrar un nuevo nombre de dominio con el que competir en un determinado mercado nos encontramos con la duda de que estrategia emplear. Frente a la posibilidad de elegir un nombre de dominio original, existe la posibilidad de elegir nombre de dominio que incluyan palabras clave relacionados con nuestro negocio y bajo las cuales nos queremos posicionar.

Por ejemplo, si nos dedicamos a vender calcetines para diabéticos y el nombre de nuestro dominio es "www.repuestosmotos.com", esto sumará un punto más para que el sitio Web salga listado en los primeros puestos de los buscadores para la frase de búsqueda "repuestos para motos".

Adicionalmente, un nombre de dominio que contenga la palabra clave en la que nos queremos posicionar ayuda mucho a la popularidad Web ya que todos los enlaces externos que obtengamos tendrán en el texto del enlace (anchor text) la palabra clave con la que deseamos posicionarnos.

Es importante aclarar que se puede tener éxito de ambas maneras. En el caso de no incluir palabras clave en el nombre del dominio encontramos, gracias a su originalidad, los que probablemente sean en la actualidad los términos más populares en Internet (Google, Facebook, Yahoo,...). En cuanto a los nombres de dominio con palabras clave, la ventaja que pueden tener es que, al hacer referencia al nombre de la actividad, automáticamente se relacionan con los términos contenidos en las palabras clave.

 seo

 

Uso de la etiqueta Canonical para gestionar contenido duplicado

Los buscadores penalizan aquellas páginas que poseen páginas con contenido duplicado, lo que se interpreta como 2 páginas con urls diferentes pero con el contenido igual. Para evitar que Google penalice el contenido duplicado se recomienda utilizar una funcionalidad que se llama etiqueta Canonical.

¿Qué es una página canónica?

En un grupo de páginas de contenido muy parecido, la página canónica sería aquella que hemos seleccionado como la “original”.

Por ejemplo, en las tiendas on-line suele haber páginas que muestra el mismo listado de productos pero ordenados de distinta forma: por precio,  por orden alfabético, etc…

seo

Estas páginas tendrían el mismo contenido con mínima diferencias. Normalmente, las arañas de los buscadores cogerían una página como principal y el resto serían detectadas como contenido duplicado.

Para evitar esto podemos indicarle a las arañas de los buscadores nuestra página canónica, es decir, que página queremos indexar como principal y que grupos de páginas tiene contenido que son copia de esta.

seo

¿Cómo se aplica rel=”canonical”?

Añadiendo en el grupo de páginas que sean copia de la página canónica el siguiente indicativo entre las etiquetas <head> y </head>

<head>

<title>ejemplo</title>  

<meta name="description" content="Ejemplo" />

<link rel="canonical" href="url página canónica"/>

</head>

Ejemplo:

Tenemos 3 páginas:

1.- Listado de zapatos de la tienda ejemplo.com:

www.ejemplo.com/listado-zapatos.php

2.- Listado de zapatos de la tienda ejemplo.com ordenado alfabéticamente:

www.ejemplo.com/listado-zapatos.php?&sort=alpha

3.- Listado de zapatos de la tienda ejemplo.com ordenado por precio:

www.ejemplo.com/listado-zapatos.php?&sort=precio

Los 3 listados contienen los mismos productos pero únicamente varía el orden.

Vamos a indicarles a las arañas de los buscadores que la página www.ejemplo.com/listado-zapatos.php es la canónica y, por tanto, la que deseamos que sea indexada.

Para ello iremos al resto de páginas con contenido similar:

www.ejemplo.com/listado-zapatos.php?&sort=alpha

www.ejemplo.com/listado-zapatos.php?&sort=alpha

Y entre las etiquetas <head> y </head> añadiríamos la siguiente línea:

<link rel="canonical" href="www.ejemplo.com/listado-zapatos.php"/>

Con este rel=”canonical” le estaríamos diciendo a los buscadores: “Guárdate la página www.ejemplo.com/listado-zapatos.php, el resto de páginas son copia de esta”

El atributo rel="canonical" se puede utilizar con enlaces absolutos o relativos, pero se recomienda utilizar enlaces absolutos para evitar problemas y confusiones.

Si la página incluye un enlace base, cualquier enlace relativo estará relacionado con ese enlace.

Cuándo aplicar rel=”canonical”

¿Puedo usar rel=canonical para un grupo de páginas que no son similares?

El uso del atributo rel="canonical" debe usarse con páginas de contenido similar. No se puede utilizar para intentar “engañar” a los buscadores, se debe utilizar como una ayuda para los buscadores cuando hay páginas con contenido muy similar.

¿Qué sucede si rel="canonical" me lleva a una página que no existe o si se especifica más de una página como versión canónica de un conjunto de páginas?

En principio, el algoritmo del buscador intentaría resolver el problema usando otros métodos.

¿Puede seguir la araña de un buscador una cadena de indicaciones rel="canonical"?

Las arañas pueden buscar seguir varías páginas que estén referenciadas entre sí con rel=”canonical”. Pero para evitar problemas, lo recomendable es usar rel=canonical" a un única página.

¿Se puede utilizar rel="canonical" para sugerir una URL canónica de un dominio externo?

Sí que se puede utilizar. El caso más común para hacerlo es una migración a un nuevo dominio  que no se puede usar redirect porque no se tiene acceso al servidor u otro motivo. En este caso, se podría aplicar la indicación “rel=canonical” pero lo idóneo sería utilizar redirecciones redirect 301.

Creación de nuevos contenidos

El posicionamiento en buscadores no se debe quedar solamente en optimizar los contenidos actuales. Debe ir más allá. El SEO tiene que pensar con que nuevas páginas de contenido va a posicionar en nuevas palabras clave.

En toda campaña de posicionamiento natural en buscadores tiene que estar presenta una estrategia de creación continua de contenidos. Cualquier sección de contenidos que se incorpore a la Web, es la mejor inversión que hacemos. Por un lado estamos dándoles material a las arañas de los buscadores y por otro lado estamos creando más contenido que ayude a convencer a los visitantes de la Web que nuestro producto o servicio es el que necesitan.

Recomiendo crear alguna de esas secciones  de contenidos en un sitio Web:

-       Un blog

-       Un foro

-       Una sección de preguntas frecuentes

-       Una sección de noticias

-       Una sección de consejos

-       Una sección con testimoniales de clientes

-       Un tutorial

-       Una wiki o un glosario de términos

-       Una galería de imágenes

Actualización Panda de Google

seo

Desde marzo de 2011, Google implantó una gran actualización a su algoritmo de búsqueda, esta actualización se conoció como ‘Panda’.

Esa actualización se aplicó primero en Estados Unidos y luego se ha ido ampliado al resto del mundo. De acuerdo a una encuesta realizada entre varios SEO en Estados Unidos, cerca del 40% respondió que sus sitios presentaron cambios drásticos en la cantidad de visitas luego de la actualización. Google también confirmó que cerca del 12% de los resultados de búsqueda han sido modificados gracias a la actualización ‘Panda’.

El principio de la actualización es el de traer resultados de más calidad a los usuarios. De acuerdo a Google la actualización pretende reducir en los resultados de búsqueda sitios de baja calidad, sitios que no son útiles para los usuarios y cuyo contenido sea copiado de otros sitios.

Principalmente esta actualización afecta a los sitios grandes, que generan varias páginas, con contenido copiados desde otros sitios web, o en general, con poco contenido original en sus páginas.

Por su parte, también hay portales que se han visto beneficiados de esta actualización, y han visto aumentar su tráfico proveniente de buscadores.

Variables que toma en cuenta Google en su actualización de Panda

Tasa de Rebote de los usuarios: la tasa de rebote son las visitas que lleguen a una web y solamente ve una página vista, es decir, aterrizan en la web e inmediatamente abandonan el site. A mayor tasa de rebote se entiende que los contenidos son de peor calidad.

Tiempo de permanencia en el sitio Web: a mayor tiempo promedio que un usuario navega por un sitio Web, se entiende que sus contenidos son de calidad. Google premia a los sitios web con altos niveles de tiempo de permanencia de sus visitantes

Portales con una moderada inclusión de publicidad: Si Google verifica que un sitio Web utilizan más espacio de su Web para insertar anuncios publicitarios que contenido, esto activa las alertas de penalización por parte de la actualización Panda.

Diseño enfocado al usuario: Diseño y programación amigable a los buscadores y maquetada de forma muy clara para el usuario.

Recomendaciones de redes sociales: Se toma en cuenta el número de votos positivos a una página desde la redes sociales (Facebook likes, retweets, número de google+1, etc.)

Contenidos de calidad y originales: contenidos que no son copia íntegra de otros sitios Web.

Prácticas de optimización penalizables por los buscadores

Así como existen trucos y tácticas lícitas para potenciar el posicionamiento natural en buscadores (técnicas de sombrero blanco) también existen otras prácticas que pueden funcionar de forma temporal pero que a larga son penalizadas por los buscadores (técnicas de sombrero negro)

Google tiene la posibilidad de penalizar todos los websites que considere no respetan las reglas de juego (Directrices Google) con sanciones que van desde borrarlos de sus resultados hasta disminuir su PageRank y perder su posicionamiento orgánico.

Veamos una entrevista a Matt Cuts, responsable del algoritmo de Google hablando del funcionamiento de las penalizaciones de este buscador:

MATT: La pregunta de hoy es de Walter Chávez. Walter pregunta: “Hola, Matt. ¿Existe algo tal como una penalización permanente de Google para sitios en los cuales, si se hacen las correcciones necesarias conforme a las directrices de Google, las penalizaciones se levantan en todos los casos?”

Muy buena pregunta. Para poder responder, deja que recapitule un poco y hable del sistema algorítmico en comparación con el manual. Pongamos que hemos confirmado que el equipo de Webspam de Google ha querido tomar medidas manualmente. Por ejemplo, porque hemos recibido un informe de spam, porno fuera de contexto, cosas así. Por supuesto, siempre tomamos esos datos y tratamos de usarlos para mejorar nuestros algoritmos. Así que los ingenieros escriben clasificadores para el contenido que es spam y para la acumulación de palabras clave o para escurridizos redireccionamientos en JavaScript. Ese tipo de cosas.

Si vemos que tu sitio se ve afectado por un algoritmo, sea cual sea la característica que haga saltar las alarmas o nos haga pensar que puedes estar acumulando palabras clave o lo que sea, si cambias tu sitio web, después de volver a rastrear y volver a indexar la página, y transcurrido algún tiempo después de volver a reprocesarlo en nuestros algoritmos, en la mayoría de los casos, tu sitio debería ser capaz de recuperarse o de mejorar su clasificación.

Ahora bien, en la vertiente manual, hasta donde puedo pensar, la inmensa mayoría del tiempo, lo que intentamos hacer es aplicar, esencialmente, un tiempo muerto. Así que si se trata de texto oculto, se te puede aplicar una penalización por tener texto oculto y, después de, pongamos por caso, 30 días, la penalización expiraría. Si estás haciendo algo más grave, si se trata de encubrimiento o de algo realmente malicioso, duraría más tiempo, pero eventualmente también terminaría por caducar.

Intentamos escribir las cosas de modo que, si mejoras tu sitio, si se ve afectado por un algoritmo, o incluso si has hecho algo dentro de su sitio, por lo general, eventualmente cesaría de surtir efecto. Por supuesto, puedes hacer una solicitud de reconsideración en cualquier momento. Y si te has visto afectado por una penalización aplicada manualmente la investigaremos.

Si creemos que tu sitio cumple lo suficiente con nuestras directrices, podemos revocar la penalización. Esta cesaría de inmediato y no necesitarías preocuparte más sobre esa penalización en particular.

Deja que aproveche esta oportunidad para mencionar que si haces una solicitud de reconsideración, por lo menos actualmente, la comprobamos frente a la penalización aplicada de forma manual. Esto es, si alguien ha tomado acción sobre tu sitio porque infringe nuestras directrices. Lo comprobamos comparando con esa lista. Pero si algo solo se ve afectado por nuestros algoritmos y no por alguna acción manual que haya señalado algo que infringía las directrices, entonces por lo general no podrás hacer nada frente al algoritmo. El algoritmo simplemente seguirá funcionando y lo que deberías hacer es cambiar el sitio de modo que los algoritmos dejen de detectarlo como spam. Por lo menos, si estás haciendo una solicitud de reconsideración, vale la pena tenerlo en cuenta.

Actualmente las cosas están configuradas de modo que se prueba lo que sucede en relación con las acciones manuales tomadas.

Las medidas de Google contra un website que infringe sus directrices, tienen una duración temporal (normalmente entre 2 y 8 semanas) una vez subsanados las prácticas y medidas fraudulentas. Incluso en los casos más graves (malware) y pese a que las consecuencias duran más tiempo, finalmente también caducan.

Además siempre que se considere, es posible hacer una solicitud de revocación de la penalización aplicada. Para llevarla a cabo debemos registrarnos en las herramientas de Google para Webmasters y una vez dentro seleccionar Enviar una solicitud de nueva inclusión.

Texto “escondido” o “transparente”

Consiste en rellenar una página con texto escondido para el usuario pero indexable y rastreable para los motores de búsqueda. Esta técnica la utilizan en ocasiones portales web que no desean mostrar mucho contenido en sus páginas de cara al usuario y lo insertan en el código pero programándolo para que no lo vea el usuario.

Los buscadores en sus directrices de calidad recomiendan que todo el texto que utilice en programación pueda ser visto por el usuario.

Algunas formas, según Google, para incluir texto oculto son:

·         mediante texto blanco con fondo blanco,

·         mediante texto del mismo color que el fondo de la página

·         incluyendo texto detrás de una imagen,

·         configurando el tamaño de fuente a cero

En definitiva se recomienda no utilizar esta técnica para potenciar el SEO de un sitio Web.

Saturación de densidad de palabras clave

En anteriores puntos de este capítulo hablamos de que es importante tener una fuerte densidad de palabras clave sobre el total de texto de una página. El repetir una determinada palabra clave en una página potencia el SEO.

Lo que hay que tener en cuenta es que no debemos pasarnos en esta densidad y repetir de forma exagerada la inserción de palabras clave. Repetir más de un 5% de densidad de palabras clave puede comenzar a ser peligrosas y activas las alertas para una penalización por parte de Google.

Inclusión en programas de link-farms

Consiste en insertar enlaces externos que apuntan a nuestra Web en portales categorizados según los buscadores como “Granjas de Enlaces” o “Link Farms”.

Este tipo de portales se caracteriza por ser página con pocos contenidos de calidad y lo único que tienen son listados de enlaces.

La recomendación es simple, no darse de alta en este tipo de portales web.

Doorway Pages o páginas puerta

Son páginas llenas de palabras clave y con poco o ningún contenido real cuyo único propósito es redirigir tráfico a la web o dominio principal.

Cloaking

Se denomina cloacking a la técnica que muestra diferentes versiones de la página web según sea el robot de un motor de búsqueda o un usuario.

Duplicación de contenido

La duplicación de contenidos se penaliza cuando los buscadores descubren que estamos copiando contenidos de otros portales Web. Si nuestro sitio Web contiene muchas páginas con contenidos copiados de otro dominio Web, tarde o temprano, los buscadores nos van a penalizar.

Los buscadores siempre premiarán los contenidos originales y de calidad.

Redireccionamientos ocultos

Suelen ser redireccionamientos a otras páginas sin que el usuario lo sepa.  Las redirecciones “metarefresh” (autocarga y autoredireccionamiento de la página) , en HTML o  Javascript, y en general cualquier tipo de redireccionamiento que no sea permanente (301) puede resultar sospechoso y susceptible de ser penalizado.

Capýtulo anterior - Redacción de los enlaces internos

Nuestras novedades en tu e-mail

Escribe tu e-mail:



MailxMail tratarý tus datos para realizar acciones promocionales (výa email y/o telýfono).
En la polýtica de privacidad conocerýs tu derechos y gestionarýs la baja.

Cursos similares a Optimización del posicionamieno en buscadores



  • Výdeo
  • Alumnos
  • Valoraciýn
  • Cursos
1. Optimización de imágenes para su uso en Web
Cuando estamos haciendo una página Web es importante que esta se cargue fácilmente... [13/12/11]
19  
2. Introducción al posicionamiento natural en buscadores
En este curso vamos a tratar posicionamiento natural en buscadores , también... [09/08/11]
72  
3. Linkbuilding para el posicionamiento en buscadores SEO
Luego de haberle metido mano a nuestro sitio, de haber retocado el código Web y... [09/08/11]
42  

ýQuý es mailxmail.com?|ISSN: 1699-4914|Ayuda
Publicidad|Condiciones legales de mailxmail