Examinar autor: admin

RESUMEN

 

1. Conceptos básicos

¿Qué es el posicionamiento de páginas web?

Básicamente se trata de conseguir que tu página web salga en los primeros puestos de los resultados de búsqueda de los buscadores. Es decir, que si tu página trata sobre plantas medicinales, por ejemplo, cuando una persona teclea esas palabras en Google o cualquier otro buscador aparezcas en las primeras posiciones de las listas de resultados.

¿Por qué es importante el posicionamiento en los buscadores?

Principalmente porque así conseguirás gran cantidad de visitas (la mayor parte de las visitas de una web provienen de buscadores) y además, porque esas visitas estarán realmente interesadas en lo que les ofreces. Piensa que una persona que entra a tu página de plantas medicinales por medio de un buscador, antes se ha tenido que molestar en buscar cosas como «plantas medicinales», «medicina natural», «medicina alternativa», etc. por lo que puedes pensar que está, por lo menos, moderadamente interesada en tus productos. Desde luego, lo estará más que una persona que ve un anuncio de tu web por casualidad sin haberlo deseado.

¿Qué hay que hacer para posicionar una página web?

Esta pregunta es difícil de responder, y desde luego daría para escribir un libro, pero si sigues leyendo esta página encontrarás una breve guía sobre las principales cosas que se pueden hacer para posicionar una web en Google, además de aquellas que no debes hacer si no quiere ser penalizado por ellos. Obviamente hay muchas más, pero éstas son suficientes para empezar a obtener resultados a largo- medio plazo. Recuerda en todo momento que este proceso no es rápido en ningún caso, y que para conseguir resultados estables en el tiempo se necesitan meses de trabajo.

Ahora bien, antes de empezar a hablar de esas técnicas, conviene tener unos conceptos previos claros y unos objetivos realistas sobre lo que queremos conseguir al posicionar nuestra web:

Funcionamiento de un buscador

Antes de nada, puede ser útil comprender cómo funciona un buscador a la hora de indexar un sitio web, esto es, añadir un sitio a la base de datos de un buscador, por lo que ya puede salir en sus resultados de búsqueda.

Para indexar las páginas web que hay en Internet, los buscadores utilizan unas aplicaciones llamadas arañas (o spiders, robots, etc.) que visitan periódicamente los sitios que tienen ya almacenados en sus bases de datos en busca de nuevos contenidos, modificaciones, enlaces a seguir o páginas que ya no existen (en este último caso para borrarlas). Todas las páginas nuevas que visita el robot, las modificaciones que detecta, etc., las va guardando en la bases de datos, así consiguen la mayoría de ellos mantenerlas actualizadas.

Palabras clave o keywords

Son una de las cosas más importantes a tener en cuenta a la hora de hablar de posicionamiento en los buscadores. Son aquellas palabras que introducen los usuarios en los buscadores para realizar sus búsquedas. Es decir, son las palabras por las que nos van a encontrar.

Por este motivo, el análisis de palabras clave es un paso previo muy importante de cara al posicionamiento en los buscadores. Si no dirigimos nuestros esfuerzos a las palabras clave adecuadas, estaremos perdiendo el tiempo. En este sentido, es importante tener en cuenta siempre lo siguiente; las palabras únicas más generales (e incluso no tan generales), como por ejemplo, «ordenadores», ofrecen mucha competencia, es decir, que muchas páginas intentan aparecer en los primeros puestos cuando alguien las busca. Por el contrario, los usuarios son cada vez mejores buscadores de información y utilizan con poca frecuencia palabras generales a favor de frases más precisas que les arrojen resultados de mayor relevancia para sus necesidades. Por eso, a la hora de hablar de palabras clave sería mejor referirnos a frases clave y, en consecuencia, guiar nuestros esfuerzos a posicionar frases y no palabras sueltas. Esto nos dará mejores resultados.

Por suerte, existen en el mercado diversas herramientas que nos ayudarán a decidir sobre qué palabras (frases) clave trabajar para mejorar el posicionamiento de nuestra web en los buscadores. Entre ellas, una de las más conocidas es el Wordtracker Keyword Generator (en inglés), también puedes utilizar la herramienta para palabras clave de Google. En ambas, puedes introducir las palabras clave que te interesen y el programa te devuelve una lista de palabras similares que pueden ser analizadas de diversas formas.

Un último punto a considerar en cuanto a las palabras y frases clave, es decidir cuántas utilizamos. Hay que buscar soluciones realistas, pero en general, por cada página web con bastante contenido que tengamos (se entiende como información, no imágenes, enlaces, juegos, ni publicidad), es recomendable utilizar de una a tres frases claves. Hay que resaltar aquí que es aconsejable utilizar palabras o frases distintas para cada página de la web, dependiendo del contenido específico de cada una. Además, obtendremos mejores resultados si ponemos nuestro esfuerzo en frases que, aunque menos buscadas, tengan menor competencia, que frases con mucha competencia ya que con ellas será muy difícil el posicionamiento en los buscadores, por lo que no será muy efectivo.

Centrarse en los principales buscadores

Actualmente, Google es el líder indiscutible de los buscadores (por lo menos en el mercado hispano). No hay datos exactos, pero alrededor del 70% de las búsquedas se realizan a través de él, y si incluimos en el cómputo a Yahoo y MSN, abarcan en torno al 95% del total. Por tanto, lo principal es conseguir posicionarse en estos tres buscadores, puesto que son los que nos reportarán la mayoría de las visitas. Para cada uno de ellos hay técnicas específicas, si quieres conocerlas, puedes serte útil visitar los foros de xeoweb.

Tener paciencia y seriedad

Cada vez más se está teniendo muy en cuenta la edad del dominio propio y la edad de los dominios que nos enlazan, de tal forma que no nos considerarán realmente importantes (por decirlo de alguna manera) hasta que no llevemos un tiempo establecidos en Internet y se vea nuestra evolución. Normalmente, a partir de 18 meses de antigüedad suele ser suficiente. Por tanto, habrá que tener paciencia y trabajar poco a poco para ir consiguiendo hacernos un hueco en Internet y que los buscadores nos tomen en serio.

2. Técnicas y consejos de posicionamiento en los buscadores

Ofrecer contenidos de calidad

Actualmente, el contenido es muy valorado por los buscadores para realizar sus resultados de búsqueda, y en especial el contenido único. Por eso, es otra de las claves del posicionamiento en los buscadores. Esto es debido a que los buscadores cuando rastrean con sus arañas tu página web añaden cada palabra que encuentran para después intentar relacionarlas con las búsquedas de los usuarios y arrojar sus resultados. Pero además, el contenido de calidad propicia que otras webs que te consideren interesante te enlacen, precisamente por tener buena información en tu sitio. Conseguir enlaces de otras webs, como veremos más adelante, es muy importante a la hora de posicionar tu página. Además de estas ventajas, podemos añadir que los contenidos de calidad son una de las más valiosas armas para fidelizar visitas, ya que ofrecerás a tus visitantes aquello que realmente les interesa, por lo que es muy probable que vuelvan.

Cuando redactes tu página no olvides incluir en el texto de forma coherente las palabras clave que elegiste con anterioridad, siempre que mantengas sentido en tu página y no se note que están puestas de forma forzada, etc. Los contenidos deberían tener una densidad del 2% al 7% para cada palabra o frase clave utilizada. No intentes escribir tus palabras clave demasiadas veces en el texto porque puede ser considerado spam y penalizar tu página (evita que la densidad de cada una sea superior al 20%). Una buena herramienta para saber la densidad de palabras clave de tu web es keyword density & prominence.

Conseguir buenos enlaces

Los enlaces que apuntan a una página, conocidos como backlinks, son muy importantes en el posicionamiento web en buscadores, porque los interpretan como una especie de voto a esa web. Pero no todos los enlaces son útiles para este propósito, los más importantes son los enlaces naturales, es decir, aquellos que se consiguen gracias a la calidad de los contenidos de la web de forma espontánea. Sin ser sugeridos por nosotros mismos.

No obstante, los enlaces naturales no son los únicos válidos para el posicionamiento en los buscadores, los enlaces de directorios también pueden sernos útiles. Aunque estos no aumentarán demasiado el tráfico de tu web, ayudarán con el tiempo a subir posiciones, siempre y cuando sean buenos directorios (por ejemplo Dmoz) en cuanto a contenido y al tipo de enlaces que realizan. Además, debemos evitar en lo posible repetir el mismo título y descripción en cada directorio en el que demos de alta la web, ya que lo más importante son los enlaces naturales, y así no lo parecerían. Por otro lado, si tienes una web con mucho y buen contenido, puede ser interesante realizar artículos para otras páginas de tu misma temática, ya que los enlaces que se consiguen así son muy valorados por los buscadores, además de serte útil para la promoción web (normalmente en la página del artículo que proviene de otras fuentes se indica el nombre del autor y la dirección de su página web).

A la hora de recibir un enlace de otra página, fíjate bien en cómo lo hacen. Esto es, debes fijarte en el «anchor text» (el texto del enlace) y el tipo de enlace. En el anchor text debería figurar alguna palabra clave relacionada con tu página. Por ejemplo, para una web de cocina mediterránea, sería muy conveniente que precisamente fuera «cocina mediterránea» el texto del enlace y no «pincha aquí» o «enlace». Además, presta atención al código de tu enlace, que tenga un aspecto parecido a este:

<a href=»http://www.tupagina.com»>Palabras clave</a>

O si es una imagen:

<a href=»http://www.tupagina.com«>

<img src=»logo.gif» alt=»Palabras clave» /></img></a>

Sobre todo, asegúrate de que tu enlace no está hecho con javascript, porque los buscadores no pueden leerlos y no te servirá de nada de cara al posicionamiento. Los enlaces javascript son más o menos así:

<a href=»javascript:http://www.tupagina.com()»>Link</a>

También hay que tener cuidado de que no hayan incluido el atributo «nofollow» dentro de la etiqueta <a>, ya que estos enlaces no son seguidos por los buscadores.

Por último, decir que es importante no conseguir muchos enlaces de golpe, sino que ir trabajando en este aspecto calmadamente (por ejemplo, conseguir 10 enlaces el primer mes, 15 el segundo, 30 el tercero, etc.) para evitar que los buscadores interpreten este hecho como que estamos intentando manipular sus resultados y nos penalicen.

MetaTags

Es frecuente pensar que los buscadores le dan mucha importancia a los MetaTags, en particular a la meta tag keywords y la meta tag descripción, pero esto no es verdad. Estas metas son prácticamente ignoradas por los buscadores, puesto que se han convertido en puro spam en muchos casos. No obstante, y aunque no ayude al posicionamiento en los buscadores, puede ser interesante seguir añadiendo el meta tag de la descripción, ya que algunos de ellos lo tienen en cuenta al mostrar sus resultados. Si quieres añadir metatags a tu web, puede serte útil el generador de metatags disponible en esta página.

Título y etiquetas de encabezado

Los títulos son etiquetas que sí se toman en cuenta de cara al posicionamiento en los buscadores, ya que éstos les conceden bastante importancia. Es imprescindible añadir un título a cada página, pero procura que no exceda de 60 caracteres para dar más densidad a tus palabras clave.

Las etiquetas de encabezado (h1, h2 , h3, etc.) también pueden ser útiles en el posicionamiento web en buscadores, por lo que puedes meter en ellas algunas de tus palabras o frases clave, siempre con moderación y coherencia para evitar hacer spam y ser penalizados.

Ni que decir tiene que es precisamente el título lo que primero ve una persona en los resultados de búsqueda y lo que le tiene que impactar o interesar para decidir entrar en tu página.

Incluir un mapa web

Son aconsejables cuando la página web es muy grande o es difícil que los buscadores puedan seguir los enlaces de los menús (por ejemplo, por la utilización de javascript o flash, ya que no pueden leerlo). En el mapa web se deben poner enlaces de texto a todas las páginas del sitio, pudiendo el buscador de este modo acceder a toda nuestra web. No obstante, no pongas más de 100 enlaces por página porque esto puede ser penalizado.

Evitar la utilización de flash, archivos PDF y javascript en la medida de lo posible

Evita la utilización de archivos flash innecesarios, a los buscadores les cuesta mucho indexarlos y en la mayoría de los casos no lo hacen. Lo mismo pasa con los archivos pdf, que aunque presentan menos problemas que los primeros, también pueden crear dificultades de indexación. Por su parte, el código javascript presenta otro problema para los buscadores ya que la mayoría no puede seguir los enlaces que contienen, por lo que si tu menú está hecho en javascript probablemente sólo conseguirán indexar tu página principal.

Ceñirse a los estándares web

Validar nuestras páginas conforme a los estándares nos ayudará de forma indirecta al posicionamiento en los buscadores, ya que al validar nuestras páginas estamos revisando posibles errores de programación que pueden causar dificultades a los robots para indexar nuestras páginas, o que éstas no se vean correctamente por el usuario. Cuanto más fácil se lo pongas a los robots para indexar tu página mejor. Para conseguir este objetivo, revisa a fondo los manuales del W3C (la organización que crea los estándares web) y utiliza su validador.

Tamaño máximo de páginas y enlaces

La cifra mágica para ambos casos es 100. No más de 100 enlaces por página (mejor no aproximarse) y no más de 100 Kb. de peso. Si pones más de 100 enlaces en una página corres el riesgo de ser penalizado en los buscadores, por lo que tus posiciones caerían drásticamente o incluso te borrarían de la base de datos. Intenta no superar los 80 enlaces para estar seguros de no estar haciendo las cosas mal. En cuanto al peso de la página, si supera los 100 Kb. muchos buscadores no te la indexarán, además, cuanto más pese más tardará en cargar, cosa que no es recomendable de cara al usuario.

Monitorizar la web, posicionamiento continuo

Monitorizar la web y sus posiciones en los principales buscadores es una estrategia útil para detectar a tiempo posibles pérdidas de posiciones. Para monitorizar posiciones hay programas y webs que facilitan la tarea, por ejemplo, el Free Monitor for Google. No obstante, a la hora de controlar el posicionamiento en Google, hay que tener en cuenta que es frecuente la caída brusca de posiciones o la desaparición de nuestras páginas, sobretodo cuando la web es nueva. Esto no tiene por qué ser malo, al contrario, es algo habitual y normal. Si tras un par de días la situación no ha vuelto a la normalidad puedes empezar a preocuparte.

Además, en el tema del posicionamiento de páginas web, constantemente salen cosas nuevas y quedan obsoletas las anteriores, por lo que puede ocurrir que lo que te resultó útil en su momento, ahora no te sirva para nada o incluso te perjudique. Razón más que suficiente para mantenerse al día en este tema y renovarse continuamente.

3. Tácticas penalizadas en el posicionamiento en los buscadores

La penalización de webs que realizan prácticas no éticas para posicionarse en los primeros resultados de búsqueda, es una estrategia que utilizan los buscadores para ofrecer resultados más interesantes a sus usuarios. Cuando se detecta que una página está realizando acciones no permitidas, se le penaliza, lo cual puede consistir en hacerla perder posiciones en las búsquedas o incluso eliminarla de los resultados y desindexarla. Entre los motivos que existen para ser penalizado, tenemos:

  1. Texto oculto.
  2. Webs duplicadas.
  3. Enlaces artificiales.
  4. Cloaking y doorways.

Texto oculto

Consiste básicamente en poner texto dirigido específicamente para los buscadores que no es visible para los usuarios con el fin de obtener un mejor posicionamiento en los buscadores. Los webmasters que realizan estas prácticas, se dedican a escribir palabras para rellenar su web y obtener así mayor densidad en ellas. Para que el usuario no las vea, es común que pongan el mismo color para el texto y para el fondo.

Webs duplicadas

Esto consiste en crear webs idénticas (con el mismo contenido y demás) para conseguir enlaces para la web que realmente se quiere posicionar. Esta técnica está bastante mal vista por los buscadores, por lo que hay que evitarla. Además, hay que tener cuidado al cambiar de dirección web de no dejar online la misma web en las dos direcciones porque podrías ser penalizado al tener contenido duplicado.

Enlaces artificiales

Consiste en aumentar de forma artificial los enlaces entrantes a una web. Se puede hacer de varias formas y todas ellas resultarán perjudiciales para nuestra web tarde o temprano:

Realizar spam en blogs y libros de firmas, escribiendo en ellos con la única intención de dejar en enlace a la web.

FFA y granjas de enlaces: son páginas dedicadas a dar enlaces a otras páginas, ya sea pagando o gratis, pero que con el tiempo son penalizadas duramente por los buscadores, así como las páginas enlazadas por ellas, por ser simplemente páginas con miles y miles de enlaces que no aportan nada.

Cross-linking: realizar enlaces en cadena con conocidos u otras webs de forma que todas enlazan a todas formando un círculo. Si los buscadores detectan que el único motivo de esos enlaces es conseguir un mejor posicionamiento, pueden penalizarlas.

Cloaking y doorways

El cloaking consiste en hacer webs distintas en función de quién la visite. De esta forma, los webmaster realizan páginas totalmente optimizadas para los robots y páginas distintas para los usuarios con el fin de obtener un buen posicionamiento en los buscadores. Cuando un robot intenta rastrear la página se le identifica como tal y es redireccionado a la página construida específicamente para él, lo mismo ocurre con los visitantes normales.

Las doorways son un caso particular de Cloaking, en el que se realizan páginas optimizadas con el único fin de obtener un buen posicionamiento web en buscadores. Normalmente, cuando el usuario intenta acceder a ellas es redireccionado a la página «de verdad» mediante un enlace javascript (los buscadores no pueden leerlos), mientras que cuando el buscador accede a la página se le permite navegar por ella y al no poder leer el enlace javascript almacena la página optimizada para él.

3D Studio Max

Aunque éstas técnicas puedan parecer atractivas, no la uses, puesto que cada día los buscadores implementan nuevos métodos de detección para ellas, por lo que tarde o temprano tus páginas serán penalizadas.

LA IMPORTANCIA DE LA URL

Uno de los errores que más comúnmente se observan cuando se pone en marcha un sitio Web para promocionar productos y/o servicios, es no prestar atención a la URL, así nos encontramos con enlaces llenos de símbolos y caracteres que impiden la identificación del contenido al que hacen referencia y dificultan mucho la promoción de los mismos en las redes sociales.

Sólo con esta descripción, podemos darnos cuenta que una buena estructura y composición de URL’s es fundamental para un proyecto en Internet, ya que si se descuida se produce un daño en el conocimiento de la marca, dificulta el establecimiento del entramado social del que depende la propagación viral de los contenidos y en definitiva, daña al posicionamiento web.

A fin de optimizar las URL para el SEO de forma que se conviertan en aliadas de su marca y que contribuyan positivamente a su posicionamiento, tenga en cuenta estos 10 simples pasos a seguir a la hora de construir una URL eficiente.

  1. Contenido: La URL tiene como objetivo informar a los motores de búsqueda sobre el contenido de la página. Es por este motivo que cuanto más clara, limpia, coherente y corta sea, más fácil será el rastreo para los robots de los motores de búsqueda.
  2. Acortar la URL: Actualmente existen herramientas que le permitirán obtener el enlace corto de su URL; una acción esencial ya, que no sólo los motores de búsqueda identifican más fácilmente URL’s cortas, sino que éstas son más fáciles de propagar por las redes sociales, lo que mejora sustancialmente el posicionamiento y no está limitado a un determinado número de caracteres como es le caso de Twitter.
  3. Títulos coherentes y sencillos: El sentido común vuelve a imperar en este apartado. Ninguna de las palabras que componen nuestro lenguaje habitual integra los símbolos y caracteres en su creación, es más, a título personal, las URL creadas a partir de ¡!?°[Ñ &***? nos retrotraen a los cómics y nos sitúan ante la onomatopeya de una palabra malsonante, por lo que en alguna parte del cerebro seguro, se produce un rechazo ante este tipo de composiciones.
  4. Evite los números: En la línea de lo anterior, para los seres humanos es más fácil recordar tendencias- de-marketing-2011 que mkti233, describa el contenido, cuanto más sucintamente pero descriptivo, mejor.
  5. Palabras Clave: Es bien cierto que en la construcción de la URL, las palabras clave ejercen un papel determinante. Depende de la creatividad y nivel profesional de quien realiza las labores de elaboración de contenidos, integrar información coherente, breve y en la que la utilización de las palabras clave se integre perfectamente en el mensaje que se pretende transmitir.
  6. Cuanto más concisa mejor: Si, sabemos que resulta redundante pero no lo es, palabras o caracteres es igual a mayor número de carpetas, lo que reduce la posibilidad de captar la atención de los motores de búsqueda.
  7. Separe la información de las URL con guiones: Las URL se deben construir en términos óptimos; por ejemplo: inversión-marketing-redes-sociales-2011. Esta es la forma más eficiente si bien es común encontrar URL’s construidas con guiones bajos.
  8. Convencionalismos eficientes: No cambie la estrategia, una vez que ha establecido las directrices de la URL, no las cambie, recuerde que las personas somos «animales de costumbres».
  9. Minúsculas y sin acentos: Las URL deben estar escritas en letras minúsculas y evitando la acentuación.
  10. Recuerde la incidencia en la optimización: Tenga presente que la URL es una de las variables de gestión necesaria por parte de cualquier consultor SEO, la relevancia de la URL en el posicionamiento web es de tal magnitud que, fallos reiterados en su construcción, pueden ser suficientes para no lograrlo.

Ponga en práctica estas simples recomendaciones y verá como la indexación de sus contenidos por parte de los motores de búsqueda y el tráfico hacia su sitio Web mejora considerablemente.

PROMOCION DE PAGO: ADWORDS

Adwords es el sistema de publicidad de Google, podemos salir en los primeros resultados de Google, eso si, pagando.

Vamos a ir a la web de Adwords

Como siempre vamos a crear una cuenta utilizando la que tenemos de Gmail


Adwors es un sistema por el que creamos anuncios para que salgan en los resultados de Google. Vamos a indicar cuanto queremos pagar por clic. Y cuales son nuestros límites.

Podemos crear un anuncio del tipo:

Restaurante El Pato Loco

Restaurante con especialidad en marisco en Sevilla www.restauranteelpatoloco.es

Este seria un anuncio que podríamos realizar en Adwords, le tendríamos que indicar cual es nuestro limite por clic, es decir, que si ponemos 1 €, cada vez que alguien haga clic en nuestro anuncio, Google cargara en nuestra cuenta 1 €. Obviamente contra mas alto pongamos este valor, mas posibilidades de salir y mas veces saldremos, pero también gastaremos mas dinero, si ponemos menos es posible que sea inferior al que hallan puesto nuestros competidores y ni siquiera salgamos en las búsquedas.

también indicaremos un presupuesto diario, si tenemos 1 € por clic y ponemos 50 € de presupuesto diario, eso quiere decir que cuando tengamos 50 clics, Google no sacará mas el anuncio hasta el día siguiente.

también tenemos que indicar las palabras clave, o sea, por que palabras queremos salir. Cuando alguien pone en Google una o varias palabras de búsqueda, las keywords. Bien, debemos indicar en Adwords en que keywords estamos interesados.

Ejemplo: keywords: Restaurante, restaurante en sevilla, restaurante marisco, restaurante céntrico en sevilla

Si ponemos estas palabras clave, cada vez que alguien haga una búsqueda incluyéndolas, saldrá nuestro anuncio. Evidentemente la palabra clave «restaurante» es cara y la palabra clave «restaurante céntrico en sevilla» es barata, hay muchos más anunciantes interesados en la primera que en la última.

En Adwords hacemos campañas, cada campaña puede tener un anuncio o varios, ponemos condiciones semejantes para todos los anuncios de una campaña y podemos eliminarla o modificarla siempre que queramos.

Lo importante de Adwords aparte de conocer su funcionamiento (que es muy sencillo) es lo siguiente:

  • Empezar muy modestamente para probar, para comprobar resultados y para no perder (demasiado dinero). Ir comprobando resultados, ir viendo, controlarlo con las estadísticas.
  • Tener en cuenta que hay mucho estafador dedicado a ganar dinero con Adwords. Hay un sistema que se llama AdSense, por el cual las paginas web pueden poner publicidad de Google y cobrar por ello. Es decir, la publicidad que ponemos va a aparecer no solo en el buscador, también en miles de páginas web. Cada vez que alguien hace clic, esta pagina web, el propietario, gana dinero y nosotros pagamos (si es nuestro anuncio). Es por ello que hay empresas (en India sobre todo) dedicadas a hacer clics falsos y ganar dinero. Tienen a personal contratado con bajos sueldos que están todo el día haciendo clic. Obviamente estos clics no nos interesan, no nos sirven para nada, no llevan clientes a nuestra web. Se estima que el 30% de los clics que nos va a cobrar Adwords son falsos. Hay sitios web serios controlando e informando de este tema.
  • El sistema de adwords nos puede ser muy rentable o muy negativo

Posicionamiento Web con Google AdWords.

Como detectar clicks falsos en Campañas con Google Adwords. Exclusión de direcciones IP «sospechosas»

Uno de los problemas más frecuentes que se produce al realizar campañas de Posicionamiento Web es saber como evitar que se realicen clicks falsos o fraudulentos en nuestras campañas de Posicionamiento Web con Google AdWords.

Aunque Google AdWords ha luchado contra este grave problema, no es menos cierto que es una realidad, y que debemos estar muy atentos al momento de realizar y configurar nuestras campañas de Posicionamiento en Google AdWords.

Este problema tuvo en jaque a la industria del posicionamiento de pago por click, ya que este sistema es una de las principales fuentes de ingreso del todo poderoso «Google».

Hace ya algunos años, Google ha habilitado una columna dentro del sistema de Google Adwords, en la cual te va informando de los clicks falsos o fraudulentos, y los abona automáticamente a tu cuenta.

Pero ¿Cómo Google discrimina que Clicks son falsos y que clicks no?.

Bueno este proceso se realiza a través de la identificación del usuario a través de su IP.

Todas las conexiones a internet tienen una dirección que las identifica y que las hace únicas, a este número se le denomina Internet Protocol, o si sigla «IP»

Por ejemplo si Google detecta un tráfico «alto» desde una misma IP, (tengo entendido que un número superior a 3 clicks desde una misma IP, es considerado como un click falso) El sistema devuelve esos clicks.

Algunos clientes que asesoro, y que no puedo revelar sus identidades, han sufrido la anulación de sus cuentas de Google Adwords, debido a que Google ha encontrado relaciones entre las IP desde donde se conectan a sus cuentas, y clicks a enlaces patrocinados de su competencia.

Entonces ¿cuál es la postura que debemos tomar para nuestras campañas de posicionamiento web con Google Adwords?

Es una difícil pregunta, una opción es simplemente confiar en el sistema, y pensar que el ejército de profesionales que tiene Google, hace su trabajo eficientemente.

Pero una segunda alternativa, es tomar acción desde nuestro lado.

Una de las formas de controlar tráficos «sospechosos», es colocar dentro de nuestras páginas de aterrizaje contadores con la función de detección de IP.

Google Analitycs en una alternativa de información sobre nuestra página y nos da luces de como se comporta nuestra página frente a nuestro posicionamiento web, pero no entrega información sobre direcciones IP hacia nuestra página web (que raro no ?)

Bueno continuando con la recomendación de colocar un contador de direcciones de IP para monitorear las direcciones IP entrantes, puedes tener la referencia de las distintas IP que entran a tu sitio web, hay muchas opciones de contadores de IP gratis en internet.

Puedes ver algunas opciones Aquí.

Cuando ya estés en condiciones de ver por ti mismo las IP entrantes a tu sitio web, estas en condiciones de tomar dos decisiones.

En primer lugar puedes tu mismo excluir direcciones IP de tus resultados, es decir le puedes indicar a Google Adwords que «no» muestre tu aviso a determinada dirección IP o a un rango de direcciones IP.

Esta herramienta se llama Exclusión de Direcciones IP, la puedes encontrar en tu panel de administración, en la pestaña Herramientas, después vas a Más herramientas, y seleccionas la opción «Exclusión de IP»

Tu segunda opción es denunciar a Google a través de la asistencia, una dirección IP sospechosa, o derechamente reclamar los clicks que tu crees que son falsos o fraudulentos.

(Pablo Herrera E.)

El problema de esto es que se puede visitar una web sin mostrar la IP, sin dejar rastro (esto se hace de forma sencilla con internet Explorer 9 y superior y con programas especiales) y también utilizando IPS dinámicas.

Y el mayor problema es que Google lo que hace es reconocer clics falsos pero en cantidades insignificantes, para cubrir el expediente. Google sabe que la realidad es que no puede hacer nada para desterrar esto por lo que no puede reconocerlo, salvo que a algunas grandes empresas americanas les ha abonado grandes millonadas en compensación.

GOOGLE SANDBOX

 

Una minoración en la relevancia que sufren, presuntamente, los sitios web recientemente creados al ser indexados.

¿Cuánto dura el Sandbox?

Es una pregunta difícil de responder, depende no sólo del algoritmo de Google, sino también de la ética de la página en cuestión, entendiéndose como tal a las técnicas empleadas para posicionar la web, el crecimiento de la misma, los enlaces que reciba y de a otras webs, etc.

No obstante, hay quienes dicen haber visto webs salir del Sandbox en cuestión de semanas, otros hablan de meses (muchos coinciden en decir que un mínimo de 6 meses parece frecuente) o incluso un año. Personalmente, pienso que no hay un tiempo fijo para salir del Sandbox, sólo hace falta tener paciencia y hacer las cosas bien.

¿Cómo puedo saber si mi web está en Sandbox?

Aunque no hay un método fiable o seguro de comprobar si tu web está en Sandbox, se puede intuir si es así o no siguiendo algunos pasos sencillos.

Una forma de saber (orientativamente) si tu web está en Sandbox es realizar en Google una búsqueda allinanchor, es decir, buscar las páginas que tengan más enlaces para unas determinadas palabras clave (para las que tú compites) y compararla con la búsqueda normal de esas palabras clave. Veamos un ejemplo de esto; supongamos que queremos saber si estamos en el Sandbox para la búsqueda «floristería de Madrid». Lo primero que tenemos que hacer es realizar la búsqueda allinanchor, acto seguido hacemos una búsqueda normal y compara las posiciones que obtenemos en las dos. Si la diferencia de posiciones es importante y obtienes peores resultados mediante la búsqueda normal de tus palabras clave, es probable que estés en Sandbox para esas palabras clave.

A parte de esto, en el blog de SEOmoz se publicó un artículo (en inglés) en el que explica a modo de checklist algunos pasos para saber si tu página está en Sandbox.

¿Cómo puedo evitar o salir del efecto Sandbox?

Lo primero que tienes que hacer para salir del Sandbox es olvidarte de Google y del mismo concepto. Sí, no es broma. No hay una fórmula mágica para salir del Sandbox rápidamente, pero pensando más en el usuario (ampliando contenido) y en la popularidad de la web (conseguir enlaces – mira el artículo sobre backlinks) vas por buen camino para conseguirlo.

Como se comenta en muchos sitios, salir del Sandbox sólo es cuestión de tiempo y paciencia. Hay webs que tardan más que otras (1 mes, 6 meses… un año), pero todas tarde o temprano lo hacen.

Dure lo que dure, lo más adecuado es ignorarlo y seguir haciendo crecer la web añadiendo nuevos contenidos de calidad y consiguiendo buenos enlaces de páginas relacionadas con la tuya (no sólo hacia tu página principal, también es bueno que nos enlacen hacia páginas internas). Procura no acelerar este proceso, cada cosa tiene su tiempo y el conseguir enlaces buenos no sucede de la noche a la mañana. Hazlo progresivamente para que sean considerados por Google y otros buscadores como naturales, de lo contrario podrían penalizarte por ello.

ERRORES FRECUENTES

Llegado el momento, tu sitio saldrá del Sandbox y todo el trabajo de promoción y posicionamiento que hayas realizado dará sus frutos. Por tanto, sigue usando técnicas para promocionar tu web, posicionar tu web y fidelizar visitas sin importarte lo demás.

Existe un factor determinante para el posicionamiento Web, un factor en el que no muchos emprendedores suelen reparar en un momento como el actual, en el que la eclosión de las redes sociales ha derivado en una auténtica explosión en relación a las estrategias de marketing y las acciones SEO destinadas al posicionamiento.

La tecnología y plataforma que se utilice para el desarrollo de un portal Web es determinante a efectos de posicionamiento y, al igual que el marketing y las variables que determinan el posicionamiento, los lenguajes de programación utilizados para el desarrollo de un diseño web, han variado mucho desde aquellos años en que el HTML ejercía el papel protagonista y prácticamente el monopolio en programación Web.

Sin embargo, el dinamismo inherente a Internet, ha derivado en nuevos lenguajes de programación que deben ser utilizados de forma eficiente si quiere aprovechar al máximo sus potenciales en torno al posicionamiento Web.

Problemas de posicionamiento web por el mal uso de la tecnología

Dentro de los problemas principales que puede presentarle el mal uso de la tecnología asociada al diseño, destacamos.

Sistema con errores frecuentes y enlaces rotos Código fuente poco claro y con errores

Ambos son fallos que el robot de Google encuentra con facilidad y que pueden ser motivo más que suficiente para incurrir tanto en una penalización como en situaciones de menor envergadura, pero no menos importantes como la imposibilidad de mejorar el posicionamiento de su portal Web.

Problemas de posicionamiento web por los lenguajes de programación

Comenzamos con el JavaScript, si bien los robots no reparan en dicho lenguaje, los códigos derivados del mismo son tratados como si fueran desechos y es por este motivo que la utilización de dicho código, específicamente en la cabecera y el cuerpo de los portales Web, pueden afectar seriamente al posicionamiento.

Cualquier contenido introducido en mitad de un código de Javascript será ignorado por el buscador, por lo que minimizará la indexación y perderá las posibilidades de beneficiarse de un buen posicionamiento a través de contenido de calidad.

Flash, si bien es muy bonito y logra dotar a los portales Web de mucho dinamismo, éste es un lenguaje de programación que debe ser utilizado con mesura, los buscadores no pueden acceder al contenido de un portal realizado en Flash y por lo tanto, la indexación es muy lenta y el posicionamiento se ve damnificado.

Problemas de posicionamiento web por el hosting

La Elección del hosting es determinante para lograr un posicionamiento Web óptimo. Una de las variables más valoradas por el SEO es el hosting, por lo que le recomendamos siempre, que consulte con profesionales especializados en alojamiento de sitios web, quienes podrán asesorarle de la mejor opción adaptada a sus objetivos y necesidades de su público objetivo.

Adicionalmente y enlazando con el alojamiento, el sistema elegido para administrar los contenidos incide directamente en el posicionamiento del portal Web y, específicamente, en el ámbito de las URL generadas. Es por este motivo, que debe optar por administradores de contenidos que permitan la adaptación de las URL a los criterios de posicionamiento, cortas, semánticamente bien construidas y que definan explícitamente el contenido.

Consejos para evitar estos problemas

Para minimizar los efectos adversos del uso de estos lenguajes de programación y sistemas de alojamiento y gestión de contenidos, debe seguir una serie de consejos.

Revise meticulosamente su web en busca de errores.

Analice su proyecto, su público objetivo y las necesidades de sus potenciales clientes con profesionales del sector.

Utilice el flash directamente y centrado en banners y anuncios, nunca inmerso en el contenido.

El Javascript debe estar siempre al margen del código fuente y si puede, evítelo.

Utilice un hosting adecuado para el lenguaje de programación utilizado.

En conclusión, el diseño de un portal Web requiere una metodología de trabajo específica, si cree que no puede hacerlo sólo o que sus conocimientos no cubren las necesidades de su portal, consulte con expertos en el tema.

El posicionamiento de su portal depende de la efectividad con la que se utilicen las herramientas anteriormente mencionadas.

HERRAMIENTAS PARA WEBMASTERS

El siguiente paso es utilizar «Herramientas para webmasters» de Google, una opción de google que nos permite comunicarnos con este buscador en todo lo referente a la indexación de nuestra web.

Lo que vamos a hacer es dar de alta la web con el buscador y subir el sitemap. Pero es importante saber que esta web de google nos permite otras cosas mas importantes, por ejemplo pedirle que reindexe nuestra web.

Podemos tener la gran desgracia (habitual por otra parte) de que algún troyano se apodere de nuestra web, ello hace que Google lo detecte y marque negativamente la web y no permita el acceso a nuestra web desde su buscador.

Bien, en ese caso lo que hay que hacer primero es limpiar el troyano del servidor y después ir a Herramientas para webmasters de google e indicarle que la web esta limpia y que pase de nuevo el rastreador, es la mejor forma, y la mas rápida para que limpie el buen nombre de nuestra web.

Iremos a https://www.google.com/webmasters/tools/home7hhes o simplemente buscaremos en Google «Herramientas para webmasters»

Tendremos que abrirnos una cuenta, por lo que tendremos que utilizar de nuevo nuestra cuenta de Gmail

Una vez dados de alta pulsaremos en

Devonn 

 

Para incluir nuestra web (podemos incluir varias)

Ahora tenemos que verificar de cara a Google que el sitio que queremos añadir es nuestro, para ello descargaremos un archivo que nos propone y lo subiremos a nuestro servidor

 Cursos multimedia

Cuando esto esté hecho pulsaremos en Verificar, una vez Google ha verificado que el archivo descargado y subido a la web es correcto, entonces nos dará de alta la web y ya podremos utilizar las herramientas de webmaster de Google con nuestra web.

Yaestudio

Pulsaremos en el nombre de nuestra web y entraremos en la ventana principal de administración del sitio

En el menú de la izquierda seleccionamos Sitemaps

Seleccionamos arriba

En el cuadradito que nos sale, con la dirección de nuestra pagina web tendremos que escribir donde hemos subido el sitemap, normalmente será: www.webejemplo.es/sitemap.xml

Como vemos la página de Herramientas para webmasters de Google nos va a dar mucha información interesante. También los errores. Estos errores no nos tienen que quitar el sueño, es normal que los haya, lo importante también es configurar una buena página 404 de error en nuestro servidor para que cuando se produzcan errores de rastreo no perdamos visitantes.

SITEMAP

El sitemap es un archivo que le enviamos a google para que su buscador lo tenga más fácil, como un navegador dentro de la web y donde podemos indicar que pagina es más importante que otra.

Lo primero es descargar un programa de Sitemap

Un programa muy sencillo para crear sitemap es el

Devonn 

Descargamos este programa desde, por ejemplo, la web de softonic.com

El programa le hace el trabajo al robot de Google, lo que hacemos es decirle al programa: rastrea todas las páginas de mi web, escríbelo en un archivo y le diremos a google donde puede encontrar este archivo para que le sea todo más fácil y rápido.

Su uso es muy sencillo


Vamos a pulsar en Nuevo dado que es la primera vez que realizamos el sitemap de la web, posteriormente cuando lo hallamos hecho y queramos recuperarlo para modificarlo, solo tendremos que seleccionar en Abrir. Obviamente, cada vez que añadamos nuevas paginas en la web, deberemos modificar el sitemap.

Yaestudio


Pulsamos en Ad y seleccionamos Araña

Presentaciones Eficaces

Escribimos la dirección url de nuestra web y pulsamos en Partida, a partir de ahí el programa rastreara, indexará y realizará el sitemap

Una vez acabado nos mostrara el resultado del rastreo: todas las páginas de la web encontradas y cuando fue su última modificación

Esto es el sitemap, lo guardamos y cerramosDevonn

BLOGS

Un blog es una web para comentarios y noticias. Tendremos que crear un blog para posicionar la web, o por lo menos para ayudar a posicionarla.

Lo mejor es crearlo con wordpress, es un editor de blogs potente y gratuito. Lo instalaremos desde nuestro servidor, por lo que para ello accederemos al panel de control del servidor.

Lo primero que voy a hacer es crear un subdominio donde instalaré el blog

Devonn 

Creo el sudominio blog

Una vez creado el subdominio instalamos wordpress en el mismo

Relleno los datos necesarios y pulso en Install now

Una vez finalizado el proceso de instalación, el programa nos da la contraseña para poder administrar el blog.

Ponemos en el navegador la dirección del blog y entramos en el panel de administración en el enlace Log in

Utilizamos los datos que nos dio el servidor

Yaestudio

Ya estamos en la pantalla de administración y configuración del blog

Lo primero es cambiar la contraseña para poner la propia

En la parte izquierda seleccionamos Users > Your profile

En la ventana de la derecha, abajo podemos poner la nueva contraseña

Y pulsamos en Update Profile

CONFIGURAR BLOG EN WORDPRESS

Vamos primero a configurar el blog, por ello en la izquierda pulsamos en Settings

Y en General vamos a modificar lo que necesitemos, en principio el subtitulo y algo más:

Pulsamos en

El siguiente paso es ir a Discussion

Es muy importante tener señalados estas dos opciones:

Cualquiera va a poder comentar en el blog (esto también lo podemos quitar) pero antes de que lo que se escriba en el blog aparezca, tendremos que aprobarlo. Esto es importante no ya para evitar comentarios muy negativos, sino que es imprescindible la necesidad de aprobar un comentario antes de que aparezca en el blog porque los spamers envían miles de comentarios a todos los blogs poniendo sus enlaces, esto, evidentemente, no puede aparecer en el blog.

Pulsamos en

Vamos a configurar la apariencia yendo a

En Themos podemos seleccionar un tema para el blog que nos guste más que el propuesto

Solo tenemos que hacer clic en el que nos guste y después pulsar en

En la opción Header podemos seleccionar una imagen que aparezca en la parte superior del blog y modificar el tipo de letra del titulo

Podemos ir viendo como va quedando el blog yendo a su dirección web

Siempre hay un post de inicio, vamos a quitarlo

Vamos a

Y veremos a la derecha los posts publicados

Vamos a seleccionarlo y abajo indicar Eliminar

Vamos ahora a modificar la parte de la derecha del blog

Esto lo tenemos en

Voy a quitar “Search” lo selecciono y pulso Delete

Voy a españolizar y quitar otros elementos

Vamos a publicar nuestra primera noticia o comentario en el blog

Para ello vamos a

Escribo un titulo en el espacio superior destinado para ello y después en el recuadro grande, el texto

Google Analytics

Voy a pulsar en para incluir una imagen, y, por supuesto, no olvidarnos del enlace a la pagina web.

He puesto una imagen y los enlaces:

Pulsamos en y publicamos, de forma que el blog se ve ahora así

Utilizaremos el blog de forma comedida, no lo podemos llenar de enlaces únicamente a nuestra página.

Debe de informar de otros temas relacionados con nuestra actividad, por ejemplo recetas, enlaces a noticias sobre la ciudad, enlaces a nuestro facebook.

Consejos para posicionarte con tu blog

  1. Escoge un dominio fácil de recordar que esté relacionado con tu marca o con tu nombre si vas a posicionarte como freelance.
  2. Usa un gestor de contenidos que te facilite la tarea de publicar nuevos textos. Yo te recomiendo WordPress.
  3. Elige una plantilla que facilite la navegación y preparada para dispositivos móviles, que cargue rápido, que esté disponible en tu idioma y procura que el diseño no canse la vista, es decir, evita los colores chillones, la letra blanca sobre fondo negro y los banners musicales y con diseños estridentes.
  4. Instala algunos plugins para ayudarte y facilitarte tareas como «All in one SEO pack» que te hará más fácil el uso de descripciones, títulos y palabras clave que posicionarán tus artículos.
  5. Usa títulos concretos, informativos y descriptivos pero intentando llamar la atención del lector.
  6. Personaliza la url de cada artículo para que sea descriptiva y evita dejar palabras sin uso para los buscadores como «de», «las», etc… Por ejemplo si el título fuera «10 trucos para posicionar tu marca con Twitter» la url podría ser http://tudominio.com/io-trucos-posicionar-marca-twitter
  7. Ofrece contenido de calidad y con valor para tus visitantes, es decir, si tu empresa vende productos de oficina escribe artículo sobre productos de oficina y temas relacionados no hables de hoteles en Barcelona.
  8. sa palabras clave en el contenido de los post
  9. Haz enlaces a artículos antiguos relacionados desde los nuevos para enviarles visitas.
  10. Utiliza debidamente las etiquetas Hi, H2, H3, etc. para los títulos de las secciones dentro de los artículos (si las hay)
  11. Pon a la disposición de tus lectores un canal de Feed RSS para que puedan leer tu blog desde sus lectores cómodamente.
  12. Instala un plugin desde el que poder compartir el contenido de tu blog en las redes sociales más conocidas.

BUSCADORES Y ROBOTS

Qué son los buscadores en Internet ?

La manera más rápida y moderna de buscar información, es por medio de la Internet. Hoy en día existen millones de sitios web en todo el mundo (billones de páginas indexadas por los buscadores), las cuales contienen la más variada información posible de imaginar. Es por lo mismo, que con la globalización y la tecnología, la búsqueda de información dejó se de estar limitada principalmente a las bibliotecas, para ahora llevarse a cabo en la red de información que accedemos por medio de la Internet. Y la cantidad de información disponible se va incrementando a una gran velocidad, año tras año.Devonn

Los buscadores en Internet, son programas o aplicaciones que residen en un sitio o página web, los cuales, al ingresar palabras en sus recuadros de búsqueda, operan dentro de la base de datos del mismo buscador y recopilan todas las páginas que contengan información relevante y relacionada con lo que se busca; de hecho este es el principal desafío que enfrentan las compañías que brindan este servicio, el ser capaces de brindar un orden al verdadero océano de información que es la web (hablamos de red o web también para referirnos a la Internet). Las palabras que ingresamos en los recuadros para buscar se denominan en el medio «palabras clave», o «keywords» en inglés, por su importancia para obtener la información necesaria de la gran base de datos que maneja cada buscador.

Devonn 

Existen básicamente dos tipos de buscadores en Internet. Están los buscadores de Internet tipo directorio, y los que operan mediante robots o arañas. Los primeros, los buscadores en Internet tipo directorios, funcionan igual que cualquier directorio en papel existente que conozcamos. Como por ejemplo, las páginas blancas o amarillas encontramos en los distintos países, donde clasifican y ordenan la información comercial, residencial o personal según categorías preestablecidas. Dentro de los buscadores en Internet tipo directorios, entre los más famosos está Yahoo! (el primero en gran escala de su tipo, que curiosamente como directorio ya es historia del pasado, dado que en la actualidad opera principalmente como portal y buscador, e incluso en su función de búsquedas toma sus resultados del buscador de Microsoft, Bing), y Dmoz o el Open Directory Proyect, directorio cuya particularidad es que opera mediante editores voluntarios de todo el mundo.

Ahora, si hablamos de los buscadores en Internet que operan mediante robots, estamos hablando de sitios como Google (a juicio del autor el más recomendable, y por lo mismo el más usado a la fecha en el mundo), una de las páginas más visitadas y exitosas en la búsqueda de información. Otra denominación común para los buscadores que operan a través de robots es la de «motores de búsqueda», un sinónimo técnico poco utilizado. Los robots o arañas son programas que escudriñan la web siguiendo los links o enlaces que van encontrando en las diferentes páginas, de tal manera de ir descubriendo y archivando lo que encuentran a su paso. Estas arañas no descansan nunca, descubriendo cada vez nuevas páginas en la red; entre los robots más conocidos tenemos al Googlebot, de Google, el Slurp, de Yahoo, el Bingbot (antes el MSN bot, de MSN search) de Microsoft y otros menos conocidos. En todo caso se mencionan aquí de manera informativa, ya que para el usuario todos estos tecnicismos son completamente transparentes, o sea no necesita saber ni de su existencia ni funcionamiento para poder utilizar un buscador.

Manipulador de Alimentos

Regresando al tema de fondo, la información que recopilan estos robots es almacenada en una gran base de datos, que consultamos cada vez que realizamos una búsqueda mediante palabras clave. Y la base de datos no es algo estático, sino que internamente los buscadores tras recopilar la información la ordenan y clasifican, para poder entregar resultados relevantes y útiles al usuario. Y su trabajo no se queda allí, ya que interpretan además las palabras clave que ingresamos para «adivinar» por así decirlo nuestra intención (¿buscamos información, compras, noticias, música, etc…?). Si bien Google es el buscador más utilizado y recomendado por este autor, hay también otros como Bing de Microsoft, y en su tiempo tuvieron relevancia Yahoo! y Ask Jeeves.

Ahora, también existen aquellos buscadores en Internet que satisfacen zonas geográficas específicas. Los hay de tipo provincial, de ciudades, de un país y aquellos internacionales, ya que buscan en páginas de distintos países. Incluso los grandes buscadores ya ofrecen la opción de búsqueda local, como en el caso de Google, que permite buscar dentro de las páginas de un determinado país. En realidad en la actualidad este gran sitio de búsquedas satisface incluso las necesidades locales (años atrás tuvieron mayor relevancia en su nicho los buscadores locales).

Como se puede ver, es cosa de definir que es lo que deseamos buscar, e ingresarlo como palabra o frase clave en nuestro motor de búsqueda favorito para obtener la información que tanto deseamos.

Qué es un robot

Yaestudio

Un robot es un programa que atraviesa una estructura de hipertexto recuperando ese enlace y todos los enlaces que están referenciados allí. De ello se alimentan los grandes motores de búsqueda de la web.

La diferencia con los Directorios, es que éstos no poseen robots, están operados por humanos y no recuperan automáticamente los enlaces incluidos en las páginas web, sino que sólo se limitan a hallar lo que las personas manualmente incluyen en ellos, pudiendo como ventaja clasificar por secciones la temática de las web al hacer el proceso manual.

Los robots son usualmente llamados «Web Wanderers», «Web Crawlers», o «Spiders» (arañas de búsqueda) y se suele imaginar que se mueven entre los sitios como si fuesen virus, este no es el caso, un robot simplemente visita los sitios y extrae los enlaces que están incluidos dentro de estos.

Arañas (Spiders)

Es un robot, pero otorga resultados más fríos.

Gusanos (Worms)

Es lo mismo que un robot, aunque técnicamente un gusano es una réplica de un programa, a diferencia de un robot que es un programa original.

Orugas (Web crawlers)

Es lo mismo que un robot, pero hay que aclarar que es un tipo específico de robot.

Hormigas (WebAnts)

Cooperativa de robots

Qué es un Agente:

La palabra «Agente» tiene muchos significados en el mundo de la computación de nuestros días.

Específicamente:
Agente autónomo:

Es un programa que «viaja» entre los sitios web, decidiendo por ellos mismos cuando son movidos a otros lugares y también deciden qué hacer.

Hay que tener en cuenta que sólo pueden viajar entre sitios ubicados en servidores especiales y no son muy difundidos en el área de internet.

Agente inteligente:

Son programas que ayudan al usuario por ejemplo: a elegir productos, rellenar formularios o a encontrar determinada cosa. Generalmente no tienen mucha tarea en la red.

Agente de usuario:

Es un nombre técnico para programas que ejecutan tareas para un usuario en la red. Un ejemplo de ellos son: Netscape Navigator,Microsoft Internet Explorer, y Email User-agent como Qualcomm Eudora etc.

Motor de búsqueda o Search engine

Se trata de un programa que busca a través de una base de datos, en el contexto de la Web, se refiere usualmente a búsquedas de bases de datos de documentos Html, recopilados por un robot.

Los robots pueden ser usados para varios propósitos:

Indexar

Validar HTML

Validar Links

Monitorear «qué hay de nuevo»

Generar imágenes

Cómo decide un robot qué visitar

Esto depende del robot. Cada uno usa diferentes estrategias. En general comienzan a trabajar desde una lista histórica de URL’s. Especialmente con documentos con muchos links, tales como una lista de servidores «what’s New»(qué hay de nuevo») y desde los sitios más populares en la Web.

Muchos indexan servicios que le permiten dar de alta un sitio manualmente, los cuales harán cola para ser indexados por el robot.

Son usados a veces otros recursos también como listas de correo, grupos de discusión, etc.

Esto les da un punto de partida para comenzar a seleccionar url’s que ha de visitar, analizarlas y usarlas como recurso para incluirlas dentro de su base de datos.

Cómo decide un robot qué indexar

Depende del robot, pero generalmente usa los títulos de HTML (Titles) o los primeros párrafos, o selecciona la HTML completa e indexa las palabras contenidas, excluyendo las de uso común (pronombres, adverbios y palabras como «web», «página», etc.)dependiendo de las construcciones de HTML, etc. Algunos seleccionan las metaetiquetas, u otros tipos especiales de tags ocultas. Una práctica muy común es indexar también los textos alternativos de los gráficos. Le recomendamos les preste especial atención, pues en caso de indexarse, son palabras que contarán con un gran peso sobre la relevancia final en el documento.

Cómo saber si se es visitado por un robot:

En el caso de ser visitado por un robot, las estadísticas de las páginas muestran un mismo IP que accede en unos pocos segundos a todas las páginas de su web, cosa que no puede hacerse manualmente de una forma natural. En ocasiones, por el propio nombre de Host correspondiente a su IP son reconocibles.

Cómo puede evitar que un robot escanee su sitio

El camino más rápido para evitar esto es crear un archivo robot.txt con las siguientes dos líneas y ponerlo en su servidor.

User-agent: *

Disallow: /

Si no tiene acceso completo a su servidor, simplemente puede incluir las siguientes líneas (tags o etiquetas) en su página web para que no sea indexada:

<META name=»ROBOTS» content=»NOINDEX»>

Y si desea que los links no sean indexados por el robot incluya:

<META name=»ROBOTS» content=»NOFOLLOW»>

ENLACES EN YOUTUBE

Los enlaces externos son fundamentales, básicos, importantes. Pero los necesitamos de «calidad» o mejor dicho, buenos enlaces externos que no nos los vayan a penalizar los buscadores.

Por lo que una vez que tengamos la web vamos a irnos a relacionarnos nosotros mismos. Utilizaremos las redes sociales y las técnicas de community manager como la segunda forma de posicionamiento (la primera es una web usable, aseada y con buenos enlaces internos)

Crearemos nuestra web de empresa en youtube donde iremos poniendo y subiendo videos relacionadas con la empresa y, por supuesto, enlaces a la misma a la mínima oportunidad.

Vamos a youtube


Pulsamos en Iniciar Sesión

Pulsamos en Crear una cuenta para crearnos un canal de youtube para nuestra empresa. Una vez tengamos la cuenta creada, entramos de nuevo por Iniciar Sesión y ponemos nuestros datos de correo electrónico y contraseña (aquí nos hemos dado de alta también con la cuenta de gmail que obtuvimos previamente)

Devonn 

Tenemos un restaurante, que videos podemos subir? Pues el primero podría ser un video corto mostrando el restaurante, tanto exterior como interior, cocina, salones etc. (aseguraros que la cocina esté limpia y el salón aseado)

Tenemos el video en nuestro ordenador en formato mp4 por lo que solo tenemos que pulsar en Subir Video


Mientras sube el video rellenamos el titulo, contenido y etiquetas del mismo

además de un titulo correcto, y una definición ajustada y detallada, hemos incluido por dos veces la dirección web.

Y lo más importante:

Yaestudio

Configuración del canal

Donde indicaremos el titulo de nuestra web y la dirección de la misma (URL)

Esto lo encontramos en

Pulsamos en pestaña Más información

Y llegamos a la página donde vemos

PAGINA EN FACEBOOK

Lo siguiente, y muy importante, será abrir nuestra página de empresa en Facebook, que nos va a servir no solo para realizar acciones de Community Manager, sino que es un buen elemento para posicionar la web.

Facebook nos va a servir para subir opiniones, comentarios, noticias, fotos y videos de la empresa, para poner enlaces a la misma, no solo enlaces a la página principal, también a otras paginas.

Lo primero es que tenemos que tener una pagina personal en Facebook, porque es imprescindible para poder crear una pagina de empresa, dado que nosotros vamos a se los administradores de esta pagina y Facebook nos va a tomar como referencia.Devonn

Damos por hecho que ya tenemos una pagina personal, entramos en Facebook en nuestra pagina personal y pulsamos a la izquierda en

Devonn 

Pulsamos en Como crear una página

Seleccionamos


Y a partir de aquí vamos a ir poniendo nuestros datos y seleccionando las opciones correctas

Nutricion enteral y parenteral

A partir de ahí configuraremos la pagina con los títulos, textos y fotos convenientes

Yaestudio


E iremos publicando y subiendo a Facebook noticias, eventos, información de la empresa. Incluyendo en cada ocasión el enlace a la web oportuno.

¿Cómo hacer Posicionamiento en Facebook?. Promoción en Facebook.

Facebook: Así invita a sus amigos.

Hay dos maneras de hacer publicidad, posicionamiento y promoción en Facebook

1) ‘FAM’ son las siglas de ‘Facebook Ads Marketing’ (Marketing con Anuncios en Facebook).

El ‘FAM’ es la implementación de estrategias de marketing en concreto con anuncios a coste por clic en Facebook, a través de esta red social, destinadas a consolidar tu empresa dentro de un público en función de la edad, el sexo, la situación geográfica, etc.

El cliente ve el anuncio en Facebook, hace click en el anuncio y lo redirige a su página Web.

Fig. i. : Ejemplo del formato que tiene un anuncio Facebook, haga click en la figura del ejemplo y verá como direcciona a la página del anunciante.

Anuncio ejemplo Facebook: Clínica dental Madrid

Hoy en día muchas empresas están destinando gran parte de su presupuesto en publicidad para llegar a sus clientes potenciales a través de un coste bajo por contacto, como se logra a través de Internet, en específico las campañas de coste por click las cuales representan una manera medible y eficiente de inversión en Facebook.

Podemos realizar la campaña de empresas pequeñas, medianas y grandes en Facebook, y obtener grandes beneficios en cuanto a al crecimiento en ventas de tu empresa, todo esto a un bajo coste de inversión.

Los anuncios en Facebook a coste por click permiten dirigir tus esfuerzos de marketing a tu real público objetivo, por lo cual tu campaña siempre será vista por las personas a las que realmente te quieres dirigir.

Esto es posible ya que Facebook nos da la posibilidad de poder segmentar el mercado a través de distintas alternativas, como son la Situación geográfica, Edad, Sexo, Palabras claves, Formación académica, Lugar de trabajo, Situación sentimental, Inclinación sexual e Idiomas, entre otras alternativas.

Hoy en día Facebook es la Mejor Herramienta a nivel mundial para poder alcanzar con un máximo de frecuencias y un bajo coste de inversión a tu público objetivo. Fig. 2 ( Echa un ojo a las estadísticas que Facebook provee y que pueden observar el crecimiento que ha tenido )

Millones de personas conocerán su empresa

Puedes informarte más, llamando al 608 97 66 20, estaremos encantados de atenderte.

O puedes enviarnos un mail a: info@tuposicionamineto.com

2) Relaciones y Comunicaciones diarias con los participantes Facebook.

Facebook es un medio para establecer una conversación con los clientes actuales y con los posibles clientes. Ofrecen dos grandes ventajas:

Por un lado permiten mantener a tu empresa con un canal abierto de comunicación directa con sus Futuros clientes, algo fundamental para llegar a conocer sus necesidades reales y ofrecer exactamente lo que quieren.

Por otro lado, dan la posibilidad de segmentar (enviar viarios tipos de promociones) los mensajes siguiendo las preferencias de los diferentes target diferenciados dentro de Facebook.

ENLACES EXTERNOS

ENLACES EXTERNOS

Los enlaces externos o backlinks son los votos que recibimos, son los enlaces que hay en otras webs y que apuntan a nuestra web.

Si el restaurante Arza tiene un enlace a nuestro restaurante, «Restaurante el Pato Loco» eso seria fantástico, dado que seria un gran voto. Arzak es un buen restaurante muy bien considerado por los buscadores, ese es un buen enlace externo. Lo mismo si El Mundo pone un enlace a nuestra web, o un blog sobre comida y restaurantes u ocio.

Pero otros sitios lo que pueden hacer es todo lo contrario: fastidiarnos nuestra clasificación y reputación en los buscadores. Si tienes como amigo un premio Nobel no es lo mismo a que si tu amigo es un bandarra.

Esta es una de esas webs que venden enlaces externos. Lo cumplen, te ponen miles de enlaces (en este caso 150) en otras webs apuntando a la tuya, la cuestión es si son buenos o malos esos enlaces.

Devonn 

1. ¿Qué son los backlinks o enlaces externos?

El término backlinks se refiere al número de páginas que enlazan a una web concreta (tus enlaces entrantes). Por ejemplo, si 10 directorios tienen un enlace a tu página web, tendrías 10 backlinks. El número de backlinks (enlaces externos), es importante para el posicionamiento en los buscadores y es indicativo de la popularidad o importancia de una web. Es de esperar que cuantos más enlaces entrantes tenga tu página mejor posicionada esté. No obstante, no vale cualquier enlace para posicionarnos ni obtendremos los mismos resultados en función de la manera en que nos enlacen. Por ejemplo, los enlaces externos en JavaScript son muy difíciles de seguir por los buscadores, por lo que rara vez cuentan para posicionarnos.

Lo ideal es que el backlink sea del tipo siguiente:

<a href=»http://www.miweb.com/»>keywords</a>

De esta manera, a parte de ser perfectamente válido para los buscadores, estás indicándoles que la página enlazada contiene información sobre las palabras clave escritas en el anchor text (esto es el anchor text: >keywords< ) . Por tanto, hay que tener cuidado en cómo nos enlazan, porque en función de la manera en que esté realizado el enlace, promocionaremos unas palabras clave u otras. Para más información sobre cómo conseguir buenos enlaces, pincha en el link.

2. ¿Quién está enlazando mi web?

Una de las preguntas más vistas en los foros SEO es acerca de este tema, y en concreto, de cómo se puede saber cuántas páginas enlazan a nuestras webs, es decir, saber el número de backlinks de una web. Y como todo lo relacionado con el mundo SEO, Google es el buscador que más preocupa y más polémica causa.

Son conocidos por mucha gente los comandos que permiten ver estos backlinks en los buscadores (ver punto 3 de este mismo artículo), pero a la hora de la verdad muchos webmasters se sorprenden al realizar la búsqueda en Google y ver que los resultados que muestra hacen pensar que sus enlaces externos son mucho menores de lo que suponían. El caso es que Google no muestra todos los enlaces entrantes, sino que ofrece una muestra aleatoria de entre todos los que tiene indexados, por lo que el resultado es mucho menor de lo que en realidad es. Sí, a pesar de lo que se pueda comentar por ahí, Google no muestra sólo enlaces de páginas con PageRank superior a 3 ó 4, sino que los resultados que arroja son una muestra ALEATORIA de lo que tiene en sus data centers, entre los cuales puede haber enlaces de páginas con PR de todo tipo.

Yaestudio

Teniendo en cuenta esto, habrás podido suponer que buscar en Google los enlaces externos que tenemos por muy importante que sea como buscador, es una pérdida de tiempo. No obstante, no hay que desesperarse, puesto que Yahoo o MSN sí que ofrecen datos bastante realista acerca de los backlinks. Así que ya sabes, si quieres saber cuántas páginas enlazan a tu web, olvídate de Google por un rato y piensa en Yahoo o MSN.

Sketchup

3. Qué hacer para conocer tus backlinks

Como hemos comentado en el apartado anterior, Google no muestra todos los backlinks de nuestra web, por lo que la información que nos proporcione no será muy útil. No obstante, sí que es útil la información que nos devuelvan Yahoo o MSN, ya que esto sí incluyen la mayoría de los enlaces externos que tenemos. Y no te preocupes por si las cifras son o no son iguales en Yahoo que en Google. Lo más probable es que lo que tiene indexado Yahoo también lo tenga Google, y sino no tardará mucho en hacerlo.

La búsqueda exacta que hay que realizar en cada buscador para conocer los enlaces externos es la siguiente:

Google: se utiliza el comando link en la caja de búsquedas del siguiente modo: «link:www. lawebera.es». Recuerda que no muestra todos los backlinks.

Yahoo: para saber los backlinks de tu web, entra en http://siteexplorer.search.yahoo.com/ y en la casilla de búsqueda que aparece introduce tu web y pulsa «explore URL» . Puedes alternar entre ver las páginas indexadas (pages) o los enlaces hacia tu web (inlinks).

MSN: para ver los enlaces externos en MSN, se dispone del comando linkdomain también. Deberíamos escribir algo así en la caja de búsquedas: «linkdomain:www.lawebera.es«.

Para finalizar, decir que realizar una revisión periódica de nuestros backlinks en Yahoo o MSN puede servirnos para hacernos una idea de qué efectividad tienen nuestras campañas de promoción web, ya que si vamos aumentando progresivamente nuestros enlaces externos con el paso del tiempo, es de suponer que es porque cada vez nos conoce más gente, ofrecemos buenos contenidos y vamos siendo poco a poco más importantes.

4. Direcciones de interés

En la Red hay multitud de herramientas capaces de hacer las búsquedas indicadas en el párrafo anterior de forma automática, de forma que te devuelven los resultados en una página resumen. Lo único que tienes que hacer en la mayoría de los casos es ingresar la url de tu web en una casilla de búsqueda. Aquí tienes algunos ejemplos:

Link Popularity Analysis: muestra el número de backlinks en los principales buscadores, el PageRank, además, te informa si el sitio está inscrito en Dmoz, el directorio de Yahoo y en Archive.org. También hace un pequeño análisis del titulo y de los meta-tags.

LinkPopularity.com: sencilla herramienta online que te muestra en número de enlaces externos o backlinks en Google, MSN y Yahoo.

Por otro lado, parece obvio, pero todo esto de nada sirve si no te preocupas por conseguir enlaces.

Qué ocurre con los enlaces externos???

Son fundamentales: los necesitamos, son votos, nos posicionan, nos indexan, nos suben en los resultados.

Nos pueden perjudicar y mucho. Unos miles de enlaces nos subirán la web de forma casi inmediata pero posteriormente cuando el rastreador se vaya dando

cuenta, la web bajará y hasta desaparecerá.

Por lo tanto.

El oráculo del posicionamiento web:

 

LOS CONSEJOS DE GOOGLE

Esto es lo que nos dice Google, si quieres que te posicione, hazme caso (mas o menos es cierto pero no exacto)

Directrices para webmasters

Prácticas recomendadas para ayudar a Google a encontrar, rastrear e indexar tu sitio

Si sigues estas directrices, ayudarás a Google a buscar, indexar y clasificar tu sitio en los resultados. Aunque decidas no implementar ninguna de estas sugerencias, te recomendamos que prestes especial atención a las «Directrices de calidad», en las que se describen algunas de las prácticas ilícitas que pueden dar lugar a la eliminación completa de un sitio del índice de Google o a la aplicación de una acción manual antispam o algorítmica. Si a un sitio se le ha aplicado una acción manual antispam, es posible que ya no aparezca en las páginas de resultados de Google.es ni en ninguno de los sitios asociados de Google.

  • Directrices de diseño y de contenido
  • Directrices técnicas
  • Directrices de calidad

Cuando tu sitio esté listo:

  • Envíalo a Google a través de la página http://www.google.com/submityourcontent/.
  • Envía un sitemap a través de las Herramientas para webmasters de Google. Google lo utilizará para conocer la estructura de tu sitio web y para incrementar la cobertura que concedemos a tus páginas.
  • Asegúrate de que todos los sitios que deban conocer tus páginas estén informados de la existencia de tu sitio en la Web.

Directrices de diseño y de contenido

  • Crea un sitio que tenga una jerarquía clara y enlaces de texto. Se debe poder acceder a todas las páginas desde al menos un enlace de texto estático.
  • Ofrece a los usuarios un mapa del sitio con enlaces que conduzcan a las secciones importantes del mismo. Si el mapa del sitio contiene un número de enlaces demasiado elevado, es preferible dividirlo en varias páginas.
  • Una página debe contener un número razonable de enlaces.
  • Crea un sitio útil con mucha información y redacta páginas que describan el contenido con claridad y exactitud.
  • Piensa en las palabras que podrían introducir los usuarios para localizar tus páginas y asegúrate de que esas palabras estén incluidas en tu sitio.
  • Intenta utilizar texto en lugar de imágenes para mostrar nombres, contenido o enlaces importantes. El rastreador de Google no reconoce el texto integrado en imágenes. Si debes utilizar imágenes para contenido textual, considera la posibilidad de utilizar el atributo «ALT» para incluir algunas palabras de texto descriptivo.
  • Asegúrate de que los elementos <title> y los atributos «alt» de tu sitio sean descriptivos y precisos. •Busca los enlaces dañados y corrige el código HTML.
  • Si decides utilizar páginas dinámicas (es decir, si la URL contiene el carácter «?»), ten en cuenta que no todas las arañas de los motores de búsqueda rastrean tanto páginas dinámicas como páginas estáticas. Se recomienda que los parámetros sean cortos y poco numerosos.
  • Consulta nuestras prácticas recomendadas para imágenes, vídeo y fragmentos enriquecidos.

Directrices técnicas

  • Utiliza un navegador de solo texto como Lynx para examinar tu sitio, ya que la mayoría de las arañas de los motores de búsqueda verán el sitio de forma muy similar a Lynx. Si el uso de funciones avanzadas (como JavaScript, cookies, identificadores de sesión, marcos, DHTML o Flash) impide la visualización de todo el sitio en un navegador de texto, es posible que las arañas de los motores de búsqueda tengan problemas para rastrearlo.
  • Permite que los robots de búsqueda rastreen tu sitio sin identificadores de sesión ni argumentos que efectúen un seguimiento de su ruta por el sitio. Estas técnicas son de gran utilidad para supervisar el comportamiento de un determinado usuario, pero el patrón de acceso de los robots es completamente distinto. El uso de estas técnicas puede generar una indexación incompleta de tu sitio, ya que es posible que los robots no puedan eliminar las URL que tengan un aspecto distinto pero que en realidad dirijan a la misma página.
  • Asegúrate de que tu servidor web admita la cabecera HTTP «If-Modified-Since». Esta función permite que tu servidor web avise a Google si el contenido de tu sitio ha cambiado desde la última vez que lo rastreamos. El uso de esta función te permitirá ahorrar ancho de banda y reducir gastos generales.
  • Utiliza el archivo robots.txt en tu servidor web. Este archivo indica a los rastreadores qué directorios se pueden rastrear. Asegúrate de mantenerlo actualizado para evitar un bloqueo accidental del robot rastreador de Google. Para obtener más información sobre cómo dar indicaciones a los robots que accedan a tu sitio, consulta la página http://code.google.com/web/controlcrawlindex/docs/faq.html. Para asegurarte de estar utilizando correctamente el archivo robots.txt, puedes probarlo con la herramienta de análisis de robots.txt disponible en Herramientas para webmasters de Google.
  • Haz lo posible para asegurarte de que los anuncios no afecten a las posiciones obtenidas a través de los motores de búsqueda. Por ejemplo, los archivos robots.txt no pueden rastrear los anuncios de AdSense de Google y los enlaces de DoubleClick.
  • Si tu empresa adquiere un sistema de administración de contenido, asegúrate de que ese sistema cree páginas y enlaces que puedan rastrear los motores de búsqueda.
  • Utiliza robots.txt para evitar el rastreo de páginas de resultados de búsqueda u otras páginas generadas automáticamente que carecen de valor para los usuarios procedentes de motores de búsqueda.
  • Prueba tu sitio para asegurarte de que aparece correctamente en distintos navegadores.
  • Controla el rendimiento de tu sitio y optimiza los tiempos de carga. El objetivo de Google es ofrecer a los usuarios los resultados más relevantes y un buen servicio. Los sitios rápidos aumentan la satisfacción del usuario y mejoran la calidad general de la Web (especialmente para los usuarios que disponen de conexiones a Internet lentas); así que esperamos que a medida que los webmasters mejoren sus sitios, mejore también la velocidad general de la Web.

Google recomienda a todos los webmasters que controlen regularmente el rendimiento del sitio mediante Page Speed, YSlow, WebPagetest u otras herramientas. Para obtener más información, herramientas y recursos, consulta el artículo Exploremos la Web de forma más rápida. Además, la Herramienta de rendimiento del sitio de Herramientas para webmasters de Google muestra la velocidad de tu sitio según la experiencia de usuarios de todo el mundo.

Directrices de calidad

Estas directrices de calidad abarcan las formas más comunes de comportamiento engañoso o manipulador, pero Google también puede adoptar medidas contra otras prácticas fraudulentas que no se mencionan en este documento. No se debe asumir que Google aprueba una determinada técnica engañosa por el simple hecho de que no esté incluida en esta página. Los webmasters que se esfuerzan por respetar el espíritu de los principios básicos mencionados anteriormente ofrecen a los usuarios un servicio de mayor calidad y alcanzan una posición mejor que aquellos que buscan la forma de aprovecharse de los vacíos legales.

Si crees que otro sitio usa de forma inadecuada las directrices de calidad de Google, háznoslo saber y envía un informe de spam. Google prefiere desarrollar soluciones escalables y automatizadas a los problemas. Por lo tanto, intentamos minimizar la lucha directa contra sitios fraudulentos. Es posible que no emprendamos acciones manuales para cada uno de los informes que recibimos, pero los informes de spam se priorizan en función del impacto sobre los usuarios y, en algunos casos, esto puede llevar a la retirada del sitio con contenido fraudulento de los resultados de búsqueda de Google. De todos modos, no todas las acciones manuales terminan en una retirada. Incluso en los casos en que emprendamos acciones en un sitio sobre el cual se haya informado, es posible que los efectos de estas acciones no sean obvios.

Principios básicos de las directrices de calidad

  • Crea páginas principalmente para los usuarios, no para los motores de búsqueda.
  • No intentes engañar a los usuarios.
  • Evita trucos destinados a mejorar la posición obtenida a través de los motores de búsqueda. Una buena regla general es preguntarse si te sentirías cómodo al tener que explicar a un sitio web de la competencia o a un empleado de Google lo que has hecho. Otra buena forma de comprobar tu buen proceder es preguntarte: «¿Esto es útil para mis usuarios? ¿Haría esto si no existiesen los motores de búsqueda?».
  • Piensa en lo que hace que tu sitio web sea único, valioso o interesante. Haz que tu sitio web destaque por encima de sitios similares de tu mismo campo.

Directrices específicas de calidad

Evita las técnicas siguientes:

  • Contenido generado automáticamente
  • Participación en esquemas de enlaces
  • Encubrimiento
  • Redireccionamientos engañosos •Texto o enlaces ocultos •Páginas de entrada
  • Contenido copiado
  • Participación en programas de afiliados que no añaden valor suficiente •Carga de páginas con palabras clave irrelevantes
  • Creación de páginas con comportamiento malintencionado, como páginas que suplanten la identidad o instalen virus, troyanos u otro software malicioso
  • Abuso del marcado de fragmentos enriquecidos
  • Envío de consultas automáticas a Google

Lleva a cabo prácticas recomendadas como las siguientes:

  • Supervisa el sitio para detectar el contenido pirateado y elimina el contenido pirateado en cuanto aparezca.
  • Evita y elimina el spam generado por usuarios en tu sitio.

Si consideras que tu sitio no cumple estas directrices, puedes modificarlo para que se ajuste a ellas y enviar una solicitud para reconsiderar su inclusión en los resultados de búsqueda.

O lo que es lo mismo, nuestra web debe ser:

  • Aseada, con buenos contenidos, sin copiar textos de otras webs.
  • Enlaces internos claros, en todas las paginas, los enlaces principales destacados y repetidos
  • Paginas sin flash y elementos multimedia excesivos que no se indexan ni rastrean y que la hacen lenta y engorrosa.
  • Enlaces externos buenos, de webs que estén relacionadas de alguna forma con nuestro negocio, que no vendan backlinks
  • La web hay que actualizarla, si puede ser todos los días, aunque el cambio sea mínimo.

ESTADISTICAS

Tenemos que saber lo que pasa en la web, quien nos visita, cuando, cuantos nos visitan, que paginas viene, por que paginas entran, que buscadores nos envían los visitantes, cuales son nuestros mejores días, las mejores horas etc.Devonn

Hay muchas webs que nos ofrecen estadísticas de visitas, entre ellas el servidor donde tenemos alojada la web.

Posicionamiento Web

La gestión de estadísticas más popular es Google Analytics, el programa de estadísticas gratuito que nos da google.

http://www.google.com/analytics/


Tendremos que crear una cuenta. Para ello lo mejor es que previamente tengamos una dirección de correo de Gmail que es gratuita.

Devonn 

Pulsamos en

Iremos a


Introduciremos nuestros datos y contraseña

Configuraremos una nueva cuenta introduciendo todos los datos

Datos de nuestro sitio web. Tendremos que incluir un código en nuestra web para que sea posible el rastreo por parte de Google Analytics

Analisis Contable

Una vez dada de alta la cuenta y configurada en nuestra web, al cabo de unas horas ya podremos ver estadísticas


Es interesante e importante analizar las estadísticas en todas sus versiones para ir aprendiendo lo que sucede en la web.

Yaestudio

Esto en cuanto al más popular de los analizadores de estadísticas.

Desde este curso recomendamos unas estadísticas más sencillas y fiables, gratuitas también y que han demostrado total fiabilidad durante los últimos 15 años.

La pega de los gestores de estadísticas es que pueden dejar de funcionar, con lo que los históricos se nos van al traste.

ADDFREESTATS.COM

Recomendamos addfreestats.com, son gratuitas, fiables y muy sencillas de usar. De un solo vistazo tenemos todos los datos importantes día a día.

Están en ingles pero son perfectamente entendibles

Su configuración es muy sencilla, y esta en español.

Solo tenemos que dar de alta la página, copiar un código y pegarlo en la página para que tengamos el rastreo constante.

TAGS

 

Los tags son enlaces internos, definiciones que nos interesan que se propaguen para posicionarnos. Dado que los buscadores dan mas importancia a un texto que esta escrito con letra mas grande y en negrita, los genios SEO recomiendan realizar «nube de tags», o lo que es lo mismo, poner en nuestras paginas enlaces internos con las palabras escritas en diferentes tamaños para así resaltar las que mas nos interesen.

Esto es de muy dudosa efectividad.

  1. – Lo primero que el propietario de un sitio web debe buscar con el posicionamiento es conseguir visitas de calidad que reviertan un beneficio. Conceptos como Popularidad de Enlaces, vistosidad y otros objetivos son secundarios.
  2. -Los buscadores cambian y evolucionan constantemente. Los algoritmos de búsqueda de los buscadores son cambiantes, con lo cual las páginas se deben adaptar a las nuevas circunstancias.
  3. – Los buscadores valoran en gran medida el contenido, la originalidad y la sencillez de un sitio web. La simplicidad para el usuario y la simplicidad para el robot a menudo van de la mano.
  4. – Los buscadores tienen en cuenta la antigüedad del dominio. Si hay dos sitios web de igual calidad, siempre aparecerá primero el más antiguo en los primeros puestos de las búsquedas.
  5. – Debemos vigilar diariamente las estadísticas de acceso a nuestras páginas. Nos dan mucha información del tipo de visitas que recibimos y de lo que estamos haciendo bien o mal.Devonn 
  6. -Los metatags no son necesarios para el posicionamiento. Sólo las utilizan algunos directorios para indexarnos convenientemente.
  7. -Los enlaces externos a nuestra web son realmente importantes. Sobre todo los de webs de calidad con temática parecida a la nuestra.
  8. -La Popularidad de Enlaces (lo que Google llama PageRank, para entendernos…) no significa posicionarse mejor, es al revés, un buen posicionamiento suele implicar una buena Popularidad de Enlaces.
  9. -Cuanta más tecnología se utilice en las páginas más difíciles se lo ponemos a los buscadores. El abuso de JavaScript y Flash dificulta que un buscador nos «entienda».
  10. -Las altas automáticas sirven para muy poco. Un buen posicionamiento pasa por un trabajo manual de alta en directorios.
  11. -La indexación hace que tu web pueda aparecer en los buscadores, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.
  12. -El código limpio es muy valorado por los buscadores. Los tag incompletos, conflictos en el código o un exceso de javascript pueden obstruir al robot a la hora de hacer su trabajo.

(Webtaller)

1. Definición de las palabras con las que quieres salir indexado

Cuando me propuse indexar mistrucos.net en Google quería salir en primeros resultados por las palabras: mis trucos, trucos Windows, trucos asp.net, trucos programación…

Entonces no conocía Google Trends .

¿Qué es Google Trends? Google Trends es una herramienta excelente para ver las tendencias de la gente en las búsquedas que se realizan en google (http://trends.google.com). Cuando conocí Google Trends empecé a examinar aquellos criterios de palabras clave por las que quería salir indexado y bien posicionado. Cometí un error, ¿para qué quería salir indexado por «mistrucos» y por «trucos programación» si existían tendencias mayores de los usuarios?

Actualmente ésta es la tendencia que utilizo para mistrucos.net http://google.com/trends?q=trucos0/o2C+trucos+windows%2C+tutoriales0/o2C+manuales&ctab=o&geo=all&date=all&sort=o

No hace falta decir que utilizo mayoritariamente la palabra «trucos» en mi mistrucos.net.

Yaestudio

Google:

Yahoo:

MSN:

NOTA: En este primer punto, me gustaría destacar de que si aún no tienes el dominio comprado, es el momento de definir su nombre para que el texto contenga la palabra clave inicial con la que desees salir posicionado en las primeras páginas. Por ejemplo, mistrucos.net incorpora la palabra trucos.

2. Links de otras Web

Una vez tienes definidas correctamente las palabras por las que quieres salir indexado es el momento de empezar a trabajar.

Actualmente Google le da mucha importancia a tener links que apunten a tu Web y, además, que los links tengan las palabras clave por las que quieres salir indexado en los buscadores (en mi caso, el intercambio de enlaces lo realizo con las palabras «trucos» o «trucos Windows«).

¿Qué es un intercambio de enlaces?

Básicamente es la manera de que la gente te enlace en tu sitio y tú en el suyo. El intercambio de enlaces es una pequeña mafia. Cuando tienes Page Rank 0, con pocas visitas, nadie te quiere. Nadie quiere enlazarte. Además, envías centenares de correos a los webmasters y la gente no te contesta. Es una tarea desagradable y costosa, y requiere demasiada paciencia.

Con el tiempo, poco a poco vas creando una buena lista de enlaces, y eso va dándole progresivamente Page Rank al Web. Cuando tenía Page Rank 2 atacaba a los webmasters que tenían Page Rank 3… Nunca intenté con Page Rank 0 contactar con alguien de Page Rank 5 porque sabía que no me contestarían.

Como curiosidad, guardo todos los emails que he ido enviando. Éste es mi primer email:

Actualmente mistrucos.net tiene un Page Rank 5 (pero sigo buscando enlaces para aumentarlo…).

Otra práctica que he utilizado, pero no demasiado elegante, fue postear en foros con la firma de mi propio web (y funcionó.) Evidentemente, todo lo posteado era de carácter significante y de foros de la temática de mistrucos.net.

3. Sitemaps

Es importante crear un sitemaps para que Google o Yahoo utilicen tu mapa para facilitarle el rastrear de tu Web.

Hay dos tipos de sitemaps, el mapa Web que es una página del Web donde está el contenido segmentado por categorías para facilitarle a los buscadores encontrar tu contenido o también generar un sitemaps en fichero para Google, Yahoo, etc.

En mistrucos.net tengo el sitemaps en ficheros, uno para Google y otro para Yahoo. Este fichero contiene todas las url’s activas de mistrucos.net. Puedes generar el fichero de muchas formas… Yo me construí un ejecutable que recorre el Web y crea el fichero XML para Google y txt para Yahoo.

Página para crear una cuenta y subir el sitemaps para Google: http://www.google.com/webmasters/sitemaps/siteoverview7hkes

Los ficheros sitemaps los actualizo semanalmente para que Google detecte que mi sitio es dinámico con contenidos nuevos.

4. Código del Web

Creo que es uno de los puntos a tener en cuenta y que muchas veces se desatiende en el posicionamiento web.

Temas importantes:

Metas: Son muy importantes para indexar bien tu página en buscadores. Es importante que los metas contengan una estructura correcta, por ejemplo, que las keywords no sean más de 12. Últimamente se empieza a escuchar que Google ya obvia parte de los metas y se centra únicamente en los contenidos de la página Web.

Imágenes: Toda imagen tiene que tener el alt explicativo de la imagen u foto. Además las imágenes tienen que estar totalmente optimizadas para el sitio Web.

Divs: No construir el site con tablas, utilizar únicamente DIVS con CSS (También se dice que a Google le encantan los DIVS). El maquetar con divs permite mucha versatibilidad a la hora de maquetar, y otro factor más importante es que la maquetación en divs y CSS permite crear una maquetación basada en CSS lo que hará que la página sea mucho más rápida y cargue antes.

Rewrite: Utilizar Rewrite en las urls y, a poder ser, realizar el rewrite con extensiones htm o html. Creo que se le da mas peso en resultados de búsqueda de páginas que tengan la extensión html o htm porqué Google interpreta que no son páginas dinámicas.

H1: utilizar los tags h1, h2, h3 en los títulos.

Texto: A lo largo del texto, ir destacando en negrita aquellas palabras clave del sitio que aparecen en el contenido para brindar más peso.

Analisis SEO

Javascript: Intentar poner el javascript al final de las páginas (códigos de rastreo, javascripts para realizar validaciones…). Google le atribuye importancia a las primeras partes de la página.

Utilizar listas: Es importante utilizar listas (ul, li) en los menús y parrillas.

Código en la creación HTML: Yo siempre intento reducir parte del texto html, por ejemplo quitando dobles espacios, ajuntando código, reduciendo los nombres de los class=»nombredeclase»…

(Pol Salvat)

PLANTEAR LA WEB

El secreto mejor guardado es el algoritmo de Google, o lo que es lo mismo, el porque Google poner unos resultados antes que otros. Este algoritmo (formula) no es siempre el mismo, va cambiando (no mucho). Podemos intuir que es lo que le gusta a Google de una página:Devonn

  • Que no tenga enlaces malos o comprados dirigiéndose a ella
  • Que no sea una web de pega hecha solo por tener enlaces
  • Que tenga relación todo su contenido (si es un restaurante, que no hable de maquinaria pesada)
  • Que hayan enlaces externos apuntando hacia la misma
  • Que tenga una cierta antigüedad
  • Que obtenga resultados. Si la pagina se muestra en Google pero la gente no hace clic sobre la misma, la pagina baja y baja
  • Que tenga muchos enlaces internos

Por todo ello vamos a hacer un planteamiento de una web con unos mínimos comunes para poder posicionarla.

Hemos realizado una web muy sencilla que la hemos posicionado muy rápido.

Devonn 

El dominio no sigue las necesidades de posicionamiento, dado que hemos utilizado un dominio del que disponemos para realizar nuestros ejemplos de cursos. Pero como vemos la pagina que sale en los buscadores no es la index (Pagina principal) sino la pagina interior cuyo nombre es restaurante-en- sevilla. Es decir, esta mejor posicionada esta página que la index (que en teoría es la más importante)

Como vemos hemos hecho lo siguiente:

TITULO

En el titulo la palabra mas importante (Restaurante) la hemos incluido dos veces, también el nombre del restaurante y donde esta situado. Estos son los conceptos principales para un restaurante, obviamente para otro tipo de empresa o actividad serán otros y habrá que estar a ellos.

Hemos puesto una descripción que nos ha parecido que puede interesar al visitante, que puede hacer que hagan clic, situación céntrica del restaurante, oferta de parking gratuito.

Si hacemos clic en el resultado del buscador, vamos a nuestra página

Vamos a ir analizándola para así ver como debemos plantear una web

PUNTO PRINCIPAL: Una web no puede ser diseñada por un informático. Debe ser diseñada por el comercial de la empresa o el jefe de marketing o la persona con más instinto comercial que tengamos disponible. El informático hará la web, pero si es él el que la diseña, no la posicionaremos nunca.

La web que hemos hecho de ejemplo es simple y rutinaria, porque quiere mostrar los elementos esenciales y básicos para poder ser usable y posicionable.

USABILIDAD

Yaestudio

Termino ya olvidado por las buenas conexiones que tenemos de adsl y similares. Una web debe ser usable, o sea, sencilla. Que el informático entienda que nos parece maravilloso sus grandes conocimientos de código, de java y de plantillas css, pero la web es para que la utilicen y la vean nuestros clientes y posibles clientes, por lo que debe ser sencillo para ellos, escrito en el idioma al que vaya dirigido, sin vocablos extraños.

FAQ: Cuantas webs en español tienen este vocablo que significa Frecuentrly Asked Questions? Demasiadas, no debería haber ninguna. Porque no poner «Dudas» «Preguntas» «Mas información»

La pregunta: es conveniente ponérselo difícil a nuestros posibles clientes?. Teniendo en cuenta la enorme competencia que existe hoy en día en cualquier sector, no es mejor que nuestra web sea amigable, sencilla, usable?

COMERCIAL

La web debe seguir criterios comerciales, criterios de nuestros intereses, de lo que deseamos ofrecer, criterios que ayuden al visitante y lo atraigan, de forma clara y sencilla.

Si nuestro negocio es un restaurante, debe quedar claro el nombre, que tipo de comida ofrecemos, donde estamos situados, como llegar, como hacer una reserva, nuestro horario, los menús, sus precios, como contactar, nuestro teléfono, mail. Todo sencillo y rápido.

Si nuestra web no muestra claramente donde esta el restaurante, cuanto va a tardar el visitante en ir a otra web de otro restaurante?

Si ponemos un plano, que sea claro, fácil de seguir, exacto.

TITULO

Claro, destacado y con subtitulo aclaratorio

RESTAURANTE EL PATO LOCO

Especialidades en marisco y pescado

El titulo va en la web, pero también en el código, en lo que se denominan etiquetas META, código de la web que no se ve pero que lo lee el buscador. Titulo que sale en la parte superior del navegador.

Si miramos el código de la página

Lo que esta entre las etiquetas title /title, son las etiquetas META

Como vemos tenemos:

El titulo no debe ser demasiado largo, debe tener entre 7 y 15 palabras totalmente descriptivas del sitio, es lo más importante. Debemos pensar muy mucho antes de decidir que titulo queremos poner. Es obvio que siempre puede cambiarse, pero estos cambios pueden tardar en trasladarse a los buscadores.

Keywords

Las etiquetas keywords son las palabras clave por las que deseamos ser encontrados en los buscadores. No son muy efectivas dado que los buscadores actuales rastrean toda la pagina y le dan mucha mas importancia a lo escrito y relacionado en la misma.

Descripción

Este si es un apartado importante dado que en un primer rastreo los buscadores suelen aceptarlo como descripción de la web. Posteriormente las descripciones van adaptándolas a las experiencias en búsquedas de los visitantes.

ENLACES INTERNOS

Los enlaces internos son fundamentales y deben aparecer en todas las páginas de la web. Son los enlaces que llevan a otras páginas de la web.

Tienen que estar bien definidos, como vemos en la imagen. El titulo de cada enlace debe indicar la definición de la página a la que van, esto va a reforzarla a la hora del posicionamiento.

También debemos reforzar algunas páginas, como la principal con títulos diferentes.

Por ejemplo Restaurante en Sevilla o Especialidad en Marisco son enlaces a la página principal.

Los buscadores toman también estas definiciones para sus palabras clave.

Auxiliar de Veterinaria

La página que tenga más enlaces internos los buscadores la tomaran como la más importante. Por lo que la pagina principal tiene que tener enlaces desde todas las páginas, y más de uno si es posible.

A los buscadores les gusta indexar mas las paginas internas, las que no son principales, entienden que son las paginas a las que quieren ir los visitantes, donde realmente van a encontrar lo que buscan, lo mas especifico. Es por ello que el diseño de cada pagina, de todas, es fundamental, su usabilidad es primordial, encuentre el visitante lo que encuentra, vaya a la pagina que vaya, debe tener claro donde esta, como se van a las partes principales de la web, que es lo que ofrecemos, que es lo que tenemos.

PAGINA REGULAR

Este restaurante tiene en su página principal todos los accesos necesarios, aprueba, pero son demasiados, no están muy claros, cuesta encontrar el acceso de reservas, hay enlaces internos sin importancia equiparados a los más importantes.

PAGINA BUENA

SERVIDORES

Una vez tenemos el dominio, es necesario disponer de un servidor, de un ordenador constantemente conectado a internet y que nos va a dar el servicio de alojar nuestra web y hacer que cuando alguien escriba nuestro nombre de dominio en un navegador, pueda ver instantáneamente la web.

Que servidor es mejor? Hay que pensarse bien esto y hay que comparar servidores, en general los servidores americanos son los mejores en relación calidad / precio y los que menos problemas dan. De que nos va a servir trabajar duro en posicionar nuestra web si nuestro servidor va a fallar de vez en cuando y la web no se va a ver?

Atencion al Publico

Hostgator y GoDaddy son servidores contrastados con muy buenos precios y amplios servicios. Y por supuesto en español:

Devonn 

Es conveniente tener el nombre de dominio contratado con una empresa y el servidor con otra. Por que? Esto nos permite elasticidad y poder hacer cambios rápidos si hay problemas.

Una buena opción para adquirir un dominio es la empresa alemana 1and1.es, son de los más económicos (o los que más) en el tema de venta de dominios.

Hostgator es el proveedor de servidores con mejores precios y calidad:

Yaestudio

Hay que tener en cuenta que no solo necesitamos alojamiento para la web, también otras posibilidades como poder crear subdominios, blogs etc. que necesitaremos para posicionarnos.

Todo empieza por el dominio.

 

Todo empieza por el dominio. El dominio es la url, el nombre de la web, la dirección de la web, la dirección que hay que escribir para llegar a nuestra web. Si la web es anterior, si ya está hecha y publicada, ya tendrá un nombre de dominio y poco podemos hacer, tendremos que saltarnos esto o reconsiderarlo para obtener un nombre de dominio nuevo.

Pero si emperezamos nuestra estrategia de posicionamiento web desde 0, entonces lo primero es el nombre de dominio y lo vamos a elegir pensando en todo lo que nos puede ayudar.

Branding

El restaurante que vamos a poner en marcha se llama Restaurante El Pato Loco, por ello voy a elegir el dominio restauranteelpatoloco.es.

Porque no .com? Dado que es un restaurante y lo que nos importa es donde estamos pues solo vamos a vender nuestro producto en el sitio donde estamos, entonces, si es en España, seleccionaremos un dominio .es, si es en México o en Argentina, seleccionaremos uno de sus dominios.

Es mejor restauranteelpatoloco que restaurante-el-pato-loco? Si, el primero es mas fácil de escribir, quizás sea mas difícil de leer, pero eso no nos debe importar, google lee fácil y súper rápido y para google es lo mismo restauranteelpatoloco que restaurante-el-pato-loco y además siempre es mejor decir: «Nuestra web es restauranteelpatoloco punto es, todo junto» que decir «Nuestra web es restaurante guion medio, el guion medio, pato guion medio loco punto es»

La importancia del dominio de un sitio web es relativa si no se añaden otros factores a la estrategia SEO, pero sí se puede decir que es uno de los elementos que suman a tu favor si quieres posicionarte en buscadores.

Si se indaga por la web se verán todo tipo de opiniones. Muchos señalan que cada vez el dominio importa menos, otros mantienen que es un punto fundamental a favor del posicionamiento. Seguro que todos tienen su parte de razón, pero desde luego, a mí no me cabe duda de que sería bueno que lo tuvieras en cuenta si estás pensando en invertir en un dominio propio para tu blog/web.

Es cierto que muchos dominios son simplemente la marca de la empresa o el nombre propio del dueño del blog. Esta no es una mala opción, si bien el trabajo para hacer que el dominio sea visible recaerá sobre todo en el desarrollo de una buena estrategia de branding, más trabajo de difusión en redes relacionado con tu marca, mimar tu imagen de marca con perfiles interesantes. Promoción de toda la vida, vamos.

Si optamos por otra modalidad de dominio en los que no necesariamente ha de aparecer la marca, podríamos decir que un buen dominio es aquel que es relevante para el contenido del blog: aquel que incluye alguna de las palabras clave que de tu sitio. Es decir, al menos una palabra que explique y describa qué se va a encontrar el usuario en ese blog.

Otra forma de verlo y analizarlo es que esas palabras que elijamos para el dominio han de corresponderse con los términos por los que nos gustaría que nos encontrasen en Google.

Si vas a crear la bitácora con el objetivo de que te sirva como herramienta de marca personal, yo apostaría por la esta opción. Has de pensar que el fin último es que tu blog sea tu escaparate profesional en el que mostrar tu valía y experiencia y, por tanto, querrás obtener un buen posicionamiento en el área a la que te dedicas. Lo primero que has de tener claro es cómo quieres que te vean tus lectores, la imagen que deseas dar y cómo quieres que te encuentren (reflexión de SEO básica namber guan).

Por ejemplo, cuando elegí http://www.periodistaseo.com me sirvió de mucho hacer una pequeña reflexión sobre toda la estrategia del blog: para qué lo uso, cómo lo uso, con qué objetivos… Y analizar cómo lo veía en el futuro a corto-medio plazo. Esto es importante porque si no lo ves, mejor no inviertas: ¿para qué vas a gastarte dinero en un dominio si no tienes claro que vas a mantenerlo, cuidarlo y mimarlo en la salud y en la enfermedad hasta que la muerte os separe? Si estás empezando en esto del blogging, mi recomendación es que le dediques a la bitácora un año (o al menos unos meses) con el dominio loquetúquieras.wordpress.com porque, aunque ahora estés animadísimo y hayas escrito 3 entradas 3 días consecutivos, el ánimo decae inevitablemente y escribir -y hacerlo bien- exige tiempo. Y dedicación. Y hay días. y días, como todos sabemos.

Si ya llevas un tiempo con tu blog y eres constante (desde aquí mi más sincera enhorabuena) y estás decidido a lanzarte con un dominio propio, lo mejor es optar por un dominio práctico: céntrate en aquello que te describe profesionalmente, en lugar de aquello que más te inspire, busca esas palabras que mejor definan tu trabajo, el área en la que destacas o aquellos que te hace diferente de otros trabajadores en tu profesión.

Con periodistas tuve mis dudas: me gustaba más periodismo anfibio, por su significado de profesional versátil y que se mueve cómodamente en todos los terrenos, pero tuve que reconocer que era menos claro y directo. Así que, finalmente, elegí Periodista SEO dos palabras que, sumadas, conforman una keyword sencilla, fácil de recordar y con un buen potencial de búsquedas de cara al futuro (¡o eso espero! ;-P).

Alguno puede que piense que es un error. Pero periodistas me define y me gusta -menos, pero me gusta- y creo que todo el que llegue aquí vendrá sabiendo qué se va a encontrar. Y eso, en Internet, es fundamental. Creo que fue en mi primer master de marketing online cuando escuché eso de nunca engañes a tus potenciales lectores para intentar atraerles hacia tu sitio: vendrán… e inmediatamente se marcharán. Un consejo valiosísimo que tengo siempre presente en cada proyecto.

Para la selección de las palabras clave del dominio, la herramienta de Adwords Keyword Tool te ayudará a visualizar una aproximación del tráfico que pueden reportarte según qué palabras y de la competencia que hay en ellas. No es un factor fundamental, pero si estás indeciso quizás sean datos que te sirvan de ayuda. También puedes utilizar Google Trends y Google Insights en las que podrás observar las tendencias de búsqueda para determinados términos y la evolución de las mismas en distintos períodos de tiempo. Todas ellas son herramientas muy útiles en SEO que contribuyen a una elección más informada de las palabras. No obstante, como siempre me dice un compañero: «En el SEO hay mucha técnica, pero dónde ésta no llega, hay que aplicar la intuición».


Es interesante también que, cuando ya hayas elegido tu dominio -y compruebes que está libre-, no lo compres por un año sino por varios. Hay dos razones para ello: una económica, ya que es más que probable que la empresa donde lo compres te haga algún descuento por comprar más de un año; y otra puramente SEO, ya que Google entiende que un dominio contratado para solo un año es menos fiable que uno contratado a más largo plazo.

El tema de los .es o .com es otro mundo. Lo ideal es que compres el que más se adecue a tu audiencia: si tu mercado esencial está en España y tu blog va a ser en castellano, con un .es es perfecto. No obstante, es siempre bueno tener al menos .es y .com (independientemente del que luego decidas utilizar como dominio de referencia) para evitar que el usuario escriba tudominio.com y se encuentre con una página vacía o, simplemente, para ahorrarte la sorpresa de que tu dominio pueda ser usado con un .com por alguien que quiera hacerte la competencia. (Eva Diez)

PORQUE ALGUNAS WEBS SALEN SIEMPRE LAS PRIMERAS?

Lo primero es siempre ver lo que hay, que hacen los otros, intentar descubrir que hace la competencia, cómo lo consigue.

Si nuestra empresa es un restaurante, lo primero es hacer una búsqueda por esta u otras palabras clave relacionadas y ver quien sale e intentar entender el porqué.

Atencion Socio sanitaria

Hemos realizado la búsqueda por la palabra clave «Restaurante» y obtenemos lo siguiente:

En sectores como la restauración, Google tiene en cuenta desde donde se está haciendo la búsqueda. Dado que la búsqueda la hemos realizado desde un ordenador situado en Valencia, da resultados de restaurantes en Valencia.

Analicemos los resultados:

Devonn 

  • Los importantes son los de la primera página de resultados, y no es más importante el primero que el segundo. Está bastante demostrado que en elecciones las personas a veces comienzan por el primero, en otras ocasiones prefieren ir mas abajo.
  • El primer resultado es el de ricardcamarena.com. Es una web con pagerank 4 que es importante. El pagerank es un medidor de nivel 0 a 10 que otorga Google, en teoría mide la importancia de la web. Una web reciente tendrá pagerank 0, es raro que alguna web tenga un 10. Google y Facebook tienen 9. La web de ricardcamarena.com tiene muchos fallos seo (seo= search engine optimization), podemos verlos haciendo un análisis en una de las webs que se dedican a esto:

 

A pesar de tantos, y mas errores seo, esta web aparece la primera en la búsqueda, por que es esto así? Probablemente porque tiene muchas recomendaciones y buenas. O sea, ha tenido comentarios en blogs, en facebook, en paginas muy visitadas (por ejemplo las de los periódicos), es una web con un cierta antigüedad.

En segundo lugar nos aparece

Esto no es una web de un restaurante, es una web de Información, más que general. Es una web Importante que aparece siempre de las primeras en muchísimas búsquedas. Por que es esto?

Yaestudio

  • La web es antigua
  • Tiene millones de paginas
  • Tiene muchísimos enlaces externos
  • Tiene millones de enlaces internos
  • Es una web muy dinámica, cambia constantemente, más que día a día podemos decir que es una web que cada segundo tiene algún cambio, alguna novedad, alguna pagina nueva.

Después tenemos a:

Es otra web que siempre aparece en la mayoría de los resultados. La web de Wikipedia, la gran enciclopedia. Cumple todas las características de la web anterior.

A continuación tenemos

Webs de restaurantes con buenos resultados. En el nombre de dominio aparece la palabra «Restaurante», también en su descripción, también aparece el lugar donde está el restaurante, como hemos visto Google va a tener esto en cuenta, por lo que será conveniente incluirlo. (Es obvio que cuando buscamos un restaurante lo solemos hacer de la ciudad en la que estamos en ese momento o bien si queremos encontrar un restaurante en otra ciudad entonces ponemos el nombre de la ciudad en la búsqueda)

Analicemos el primero:

El titulo, muy correcto, perfecto, la palabra restaurante, el nombre y donde esta situado.

El dominio:

www.restaurantecanela.es Ayuda mucho en el posicionamiento, tiene la palabra restaurante y el nombre de la empresa

La descripción, adecuada, en pocas palabras informa de forma completa al visitante.

PROMOCION GRATIS Y PAGANDO

Existen trillones de páginas web publicadas en internet, y dada dia que pasa hay varios millones mas.
Por lo que si deseamos que nuestra web sea encontrada, tendremos que posicionarla.

Si realizamos en la web una búsqueda de “Restaurante”, podemos obtener una página como la siguiente:

Aquí hay dos partes. Una publicitaria y otra orgánica.

Devonn 

El resultado publicitario es el pagado. La empresa que se publicita ha llegado a un acuerdo con el buscador para que cuando se introduzcan cierta palabra o palabras aparezca. Estas palabras por las que aparece la empresa se denominan palabras clave o keywords.


Los resultados orgánicos es promoción gratuita, es lo que realmente encuentra el buscador entre millones de webs que tienen palabra o palabras clave coincidentes con los términos de búsqueda.

Este manual trata de cómo vamos a proceder para conseguir que nuestra web aparezca en los buscadores bajo determinadas palabras clave, tanto en promoción gratis como pagando.

Esto en lo referente a buscadores, que es lo fundamental, lo necesario. Una web que se precie tiene que aparecer en los buscadores, sea por un motivo o por otro. Y mejor gratis, claro.

Pero hay otros lugares donde aparecer. Podemos contratar publicidad en webs muy visitadas.

Yaestudio


Una web muy popular como es marca.com esta totalmente infestada de publicidad, normalmente de “banners” que son anuncios tal cual, cuadrados, rectangulos, que ocupan un cierto espacio en la web y que el visitante al hacer clic en los mismos accede a la web del anunciante. Obviamente esto puede ser muy caro.

OTRAS PROMOCIONES PAGANDO
Hay otras muchas formas de promocionar nuestra web y nuestros productos pagando y no exactamente con publicidad.

Podemos optar por webs de descuentos, donde ofrecer alguno o algunos de nuestros productos y servicios con un descuento a los visitantes de esas webs. Obviamente todas estas empresas cobran un porcentaje o importe por clic (cada vez que alguien hace clic en nuestro anuncio tenemos que abonar desde 0.10 € hasta 10, 15 o mas euros)


En estas webs solo damos de alta nuestra empresa, como vamos a pagar y los productos o servicios que deseamos promocionar.

WEBS DE ENLACES

No es nada recomendable. Son webs que venden enlaces. Como veremos los enlaces exteriores son necesarios para que se posicione nuestra web. Cada enlace de otra web hacia la nuestra es como un voto, por lo que, en teoría, cuantos mas paginas tengan enlaces hacia nuestra web, mas votos y mejor posicionamiento. En la práctica no es así, dado que hecha la ley hecha la trampa, y hecha la trampa hecha la ley, de forma que buscadores como Google penalizan los enlaces de webs de enlaces, por lo que nos va a perjudicar más que ayudar.

SEO en el marketing mix (online)

El marketing comienza con la definición de los objetivos y no con la selección de los instrumentos. Por ejemplo, para el marketing online SEO es una herramienta óptima pero existen muchas otras. Aquellos conocedores del marketing saben que no pueden confiar ciegamente en una sola herramienta. ¿Qué sucedería si esa herramienta, por cualquier razón, dejara de funcionar adecuadamente? Además, más allá de los posibles riesgos, existen diferentes herramientas que nos ayudarán a llegar hasta los distintos segmentos de usuarios. En este capítulo explicaremos cómo crear una política estable de marketing online.

En este capítulo aprenderás:

SEO es solo un instrumento. En este capítulo explicaremos por qué no deberíamos apostar por un solo caballo ganador y por qué debemos utilizar otros instrumentos de marketing online. Analizaremos los sitios activos, los medios sociales y los virales. También echaremos un vistazo a la posición del marketing online respecto al marketing offline.

SEO: solo un instrumento

En este punto del libro ya deberías tener una comprensión global de todos los aspectos relacionados con SEO. Hemos hecho referencia a cómo encontrar los términos de búsqueda adecuados, crear la estructura del sitio web y las técnicas para redactar. También nos hemos referido a cómo debería mostrarse el HTML y cuáles son los aspectos relevantes del servidor. Finalmente, hemos explicado la importancia de los enlaces externos y cómo conseguirlos, así como el funcionamiento de la búsqueda universal. Y, cómo no, qué parámetros
es necesario analizar para hacer el seguimiento del proyecto y proponer mejoras continuas.

Después de haber escrito un libro entero sobre SEO, es importante contextualizar estas páginas. SEO es una herramienta, no un objetivo. Es un instrumento poderoso pero nada más. El marketing online utiliza además las siguientes herramientas:

  • Los resultados patrocinados en los buscadores
  • Las redes sociales
  • El marketing a través del correo electrónico (E-mail marketing)
  • Los anuncios gráficos (banners)
  • Afiliaciones
  • Marketing viral
  • Anuncios de gadgets
  • Anuncios de juegos

Frecuentemente se observa que un sitio web bien optimizado atrae el 70% de su tráfico de búsquedas orgánicas. Por un lado esto es positivo, pero por otra parte representa un riesgo. ¿Qué sucedería si Google cambiase sus algoritmos y esto afectase negativamente a nuestro posicionamiento? ¿Cuál sería el resultado final si Google modificase la configuración de la página de resultados mostrando menos resultados orgánicos?

En este libro hemos advertido de que no es prudente realizar nada que vaya contra las Directrices de Google. Nuestra experiencia nos ha demostrado que algunas técnicas funcionan durante un tiempo determinado pero a la larga se pierde el posicionamiento alcanzado debido a una penalización.

La dificultad estriba en que Google implementa cambios en su algoritmo con cierta regularidad con la finalidad de mejorar los resultados de búsqueda, por lo que si los buscadores tienen un gran impacto sobre el tráfico del sitio web, siempre se correrá el riesgo de enfrentar pérdidas sustanciales cuando Google realice un cambio desfavorable para el sitio en cuestión. Obviamente, nuestro objetivo no es asustar sino simplemente demostrar que es importante dividir el riesgo.

Por esta razón, es importante atraer tráfico hacia el sitio web desde diferentes fuentes. Puede ser que el tráfico que se obtiene mediante los programas de afiliación o los enlaces patrocinados sea más caro pero garantiza una estrategia de marketing mucho más estable para el sitio web. A largo plazo esto proporcionará estabilidad y dividirá el riesgo.

Utilizar otros instrumentos de marketing online

Una campaña de marketing online comienza determinando los objetivos a partir de los cuales se seleccionarán las herramientas más adecuadas:

  • ¿Quieres aumentar el valor promedio del pedido? Utiliza Google Adwords para los productos más caros.
  • ¿Quieres fidelizar? Envía un boletín o crea una página de fans en Facebook.
  • ¿Quieres aumentar la conciencia de la marca? Utiliza los contenidos virales, la red de contenido de Google para hacer publicidad o las redes sociales.

Una vez más nos gustaría resaltar la importancia de tener diferentes fuentes que lleven tráfico y conversiones al sitio web, ya que a largo plazo esto proveerá una estrategia de marketing sólida. Así, seremos menos dependientes de una sola parte comercial que en cualquier momento podría aplicar cambios en su política.

SEO y la sinergia con otras herramientas

El desafío del marketing online es lograr la sinergia entre las diferentes herramientas que se utilizan. Cuando un negocio tiene más de un sitio web la estrategia se enfocará a que estos no se hagan competencia, sino que se potencien los unos a los otros. En este apartado partimos de la base de que ya se tiene un sitio web y nos centramos en utilizar los sitios promocionales, los medios sociales y los virales.

Los sitios web promocionales

El sitio web promocional se utiliza con fines de marketing promocional. Un sitio web promocional temático generalmente trata sobre un tema específico e intenta ser lo más completo posible en esa temática. El peligro de construir un sitio promocional es que este competirá con el sitio web principal.

Un ejemplo típico es el de las editoriales, que por sus acuerdos con otras editoriales tienen a veces listados de libros duplicados, o bien disponen de varios sitios en función de objetivos distintos. Así, el catálogo de libros de PlanetadeLibros.com organiza por temáticas los títulos publicados por las editoriales del Grupo Planeta en España. Y las fichas de los libros en ese sitio web son las mismas o muy similares que las que aparecen en casadellibro.com, librería virtual del Grupo Planeta.

La mejor opción, siempre que sea posible, es alojar un sitio web promocional dentro del dominio ya existente, en un subdirectorio, por ejemplo. De esta forma, todos los enlaces atraídos por el sitio promocional también reforzarán el sitio web principal. Además, normalmente es mucho más fácil posicionarse bien con un dominio antiguo (ya existente) que con un dominio nuevo que no tiene un perfil de enlaces.

Las razones principales para optar por un dominio separado es cuando ya se posee un nombre de dominio muy fuerte, o de una marca fuerte, ya que es relativamente fácil posicionar por ese nombre del dominio en Google. En el caso del Grupo Planeta, podemos pensar en Ediciones Deusto, editorial especializada en libros de gestión empresarial, que ya era una marca consolidada cuando fue adquirida por el grupo en 1989, y que tiene su propio dominio, edeusto.com Una vez que se ha logrado la posición número uno para ‘editorial deusto’, es mucho más fácil posicionar los términos de búsqueda relacionados.

Los sitios web promocionales de corta vida

Muchos sitios web promocionales tienen una vida breve. Por ejemplo, los sitios web deportivos para servir de apoyo a eventos como el Campeonato Europeo de Fútbol o los Juegos Olímpicos. Estos sitios web atraerán muchos enlaces durante un breve período de tiempo ya que tienen mucho contenido relevante y vídeos en directo. Sin embargo, ¿qué hacer con estos sitios web cuando los eventos han terminado? Normalmente se mantienen activos porque todavía atraen mucho tráfico pero pasado un tiempo lo más sensato será utilizar el valor de los enlaces de estas páginas en otros lugares del sitio web. Utilizando la redirección 301 se puede enviar el valor de estos enlaces a la página que interese potenciar. Por ejemplo, en el caso de la Cadena SER, que tiene creado el sitio para la Eurocopa 2012, se podría considerar pasar todo el valor del enlace desde http://www.cadenaser.com/eurocopa/(el sitio web del Campeonado Europeo de Fútbol) a la sección de fútbol del propio sitio web de esta emisora (http: / / www. cadenaser. com/deportes/futbol/). Las entrevistas interesantes o los artículos que puedan ser valiosos a largo plazo se deberían almacenar en otro lugar dentro de la sección de fútbol del sitio web. Con esta estrategia se puede utilizar el valor del enlace de un sitio promocional para reforzar el resto del sitio web.

Las redes sociales

Las redes sociales son ya una herramienta esencial del marketing mix, son importantes como herramienta de promoción. Facebook, Twitter, Pinterest, Instagram, Tuenti, Linkedin… Dependiendo de nuestro público objetivo, de los contenidos que podemos crear y de lo que queremos comunicar, deberemos definir qué presencia queremos tener en ellas. Es importante entender que en las redes sociales los usuarios pueden generar contenido que nos beneficie, que potencie nuestra marca, pero debemos tratar de intervenir de forma decisiva en estas conversaciones.

También es necesario integrar a la perfección todas las redes sociales en el mensaje que comunica nuestro sitio web principal. Esto quiere decir no solo disponer de los botones sociales adecuados, sino incluso plantearse fomentar de verdad la circulación entre el sitio y las redes sociales y entre estas y aquel mediante llamadas a la acción para entrar a contenidos específicos de cada canal, que no se replican en los otros.

Por otro lado, la tecnología nos permite de forma sencilla aprovechar las opiniones de nuestros clientes en diversos canales. Por ejemplo, si nuestra página de Facebook tiene mucho tráfico y bastantes comentarios valiosos y nuestro blog de WordPress está en fase incipiente o de consolidación, es posible mediante un sencillo complemento hacer que las publicaciones de los usuarios en la página de Facebook aparezcan en las páginas relacionadas del blog, lo que enriquece la conversación en ese blog que necesita tráfico y relevancia.

El marketing viral

Cuando nos referimos a algo viral, hablamos de un elemento divertido, bello, innovador o tan controvertido que las personas no pueden evitar enviarlo a sus amigos. Puede ser un vídeo divertido, un concurso creativo con premios estupendos, un correo electrónico gracioso, etc. Como las personas lo envían a sus amistades y estas a su vez a sus otros amigos, los virales pueden llegar alcanzar una difusión masiva en un breve período de tiempo. Por supuesto, crear un buen viral no es sencillo pero esta técnica puede ser una herramienta de marketing muy barata. A veces los virales surgen sin una intención comercial, simplemente porque las personas hacen vídeos divertidos y los comparten con todos.

Obviamente, las empresas también pueden crear virales pero es esencial que la marca desempeñe un rol fundamental, ya que la finalidad es que los usuarios sepan cuál es la empresa que ha creado el viral. No obstante, se puede lograr mucho más: los virales son el mejor linkbaiting, sobre todo cuando se ha creado algo demasiado grande como para enviarlo por email. Así, muchos usuarios simplemente enviarán la URL usando el correo electrónico y chat o lo enlazarán desde sus blogs. Como ya hemos mencionado en el capítulo sobre los enlaces externos, si existe la posibilidad de transformar algo en un enlace externo, ¡hazlo!

La relación entre el marketing online y offline

Además del marketing online probablemente la empresa también tiene una estrategia de marketing offline: ya sea puerta a puerta, la TV o con los anuncios en la radio y la prensa, panfletos, etc. Hablando en términos generales, todo esto es bueno para promocionar la marca pero es necesario poder cuantificar su influencia sobre la conciencia de marca. Por ejemplo, si estamos anunciando una URL específica, querremos saber cuántos visitantes y cuántas conversiones ha atraído el anuncio.

Generalmente la promoción de la marca se puede medir en tres aspectos:

  • Más personas que teclean la URL directamente en sus buscadores
  • Más personas que buscan el nombre de la marca (o variaciones del mismo) para encontrar el sitio web
  • La promoción de la marca estimula el porcentaje de clic (CTR) en los resultados del sitio web a través de las páginas del buscador

Este último punto es más difícil de cuantificar en SEO. Aun así, si se utiliza Adwords se puede ver los resultados de la promoción de la marca en el CTR.

Aunque el marketing offline no sea objeto de este libro, sí queremos ofrecer algunos consejos generales que pueden combinarse con el marketing online:

  • Si nos anunciamos en un diario para atraer tráfico al sitio web, lo mejor será utilizar una URL específica. Por ejemplo, Casa del Libro está promocionando mucho los ebooks, pero si incluye el enlace a casadellibro.com, los usuarios aún deberán buscar las informaciones de forma autónoma dentro del sitio web. Por eso es mejor enviarlos directamente a www.casadellibro.com/ebooks. Además, esta URL específica permite medir mejor los efectos del anuncio.
  • No subestimar el poder de la promoción de marca ya que tiene un efecto duradero en el tiempo. Además, los términos de consulta relacionados con las marcas tienen una conversión muy alta.
  • ¿Por qué utilizar colores idénticos en las campañas online y offline? El reconocimiento de la marca será más alto si el marketing online y el offline son uniformes. Por esta razón siempre se deberá utilizar el mismo estilo, las mismas etiquetas, los mismos colores, etc. Para los expertos en marketing esto no es una novedad pues ellos saben que el poder del anuncio está en la repetición.
Mantenerse actualizados

Hemos escrito este libro para mejorar el nivel básico de conocimiento sobre SEO. Todos los autores trabajan para ‘Onetomarket’, una de las agencias de investigación más importantes de España. A través de nuestro trabajo cotidiano nos hemos dado cuenta de que no hay nada más importante que mantenerse actualizados. El mundo SEO se mueve con extrema rapidez por lo que si dejas de prestar atención por un solo instante ya estarás atrasado. Por este motivo pasamos buena parte de nuestro tiempo investigando y leyendo sobre las nuevas técnicas.

Afortunadamente, existen muchos sitios web que escriben sobre los cambios actuales en SEO. Una de las herramientas más importantes para quien se dedica al marketing online es su lector de noticias (feedreader). Asegúrate de leer lo que está pasando en este mundo al menos varias veces a la semana, ya que esto te permitirá reaccionar inmediatamente si algunas de las variaciones afectan el posicionamiento.

Además, recuerda que los competidores están en constante movimiento y las barreras que impiden la creación de un nuevo sitio web son muy pocas por lo que encontrarás continuamente nuevos competidores en el mercado que tratarán de mejorar su posicionamiento, lo que puede afectar al tuyo si no estás atento. Por estas razones debes interiorizar que SEO es un proceso que empieza ahora mismo pero no termina nunca.

¿Cómo seleccionar un socio SEO?

Posiblemente hayas leído el libro, te hayas dado cuenta de la importancia del SEO, pero aun así no tienes idea de por dónde comenzar. O quizás sabes exactamente qué quieres hacer pero no dispones del tiempo suficiente para emprender el proyecto o de recursos humanos que se puedan encargar del mismo. En casos como este se puede buscar un socio que haga el trabajo de SEO. Este libro te debe haber proporcionado un conocimiento suficiente como para ser capaz de seleccionar un socio que te ofrezca garantías, algo extremadamente importante, ya que como en cualquier sector, en este campo existen vendedores de humo que prometen resultados espectaculares a precios irrisorios y en el mejor de los casos el sitio webse queda como está, en el peor, como hemos visto, ciertas prácticas pueden conllevar la eliminación del índice.

En este capítulo aprenderás:

Este capítulo te ayudará a diferenciar las buenas agencias SEO de las malas. ¿Qué factores son importantes para seleccionar una agencia? ¿Qué dice Google al respecto? También analizaremos las diferencias entre un sitio web optimizado para buscadores y un sitio web que los motores de búsqueda pueden indexar.

¿Quiénes ofrecen optimización para buscadores?

Devonn 

La demanda de optimización para buscadores continúa creciendo, lo que significa que cada vez son más las empresas o autónomos que ofrecen este servicio. De hecho, las empresas que durante años se habían dedicado exclusivamente a construir sitios web dedican ahora parte de sus esfuerzos al posicionamiento.

También existe un gran número de empresas especializadas en marketing online. Generalmente estas empresas no crean los sitios web sino que hacen una consultoría que luego el cliente implementa. Como en todos los sectores, cada empresa tiene sus particularidades y forma de hacer las cosas, en este capítulo nos proponemos enseñarte a seleccionar el socio que mejor se adapte a tus necesidades u objetivos de negocio.

El SEO debe integrarse en la estrategia de marketing online

Si estás pensando en hacer SEO para tu web, es importante que entiendas que no se trata únicamente de lograr que tu sitio web sea indexable. Este es un paso muy importante, se trata de un trabajo fundamental para permitir la indexación por parte de los buscadores, es decir, que el buscador llegue al sitio web y que escanee todo el contenido, pero para optimizar el sitio web hay que diseñar una estrategia online, analizar la competencia, posibilidades de éxito, recursos de la empresa, definir los objetivos, determinar los términos de búsqueda que se quieren posicionar e incorporarlos dentro de la estructura del sitio, buscar enlaces entrantes, y un largo etcétera que hemos ido desgranando en este libro.

Desconfía de una empresa SEO que únicamente habla de palabras clave y comprobación de posicionamiento en las páginas de Google, de resultados a corto plazo. El posicionamiento en buscadores no consiste en hablar únicamente de palabras clave, hay que desarrollar una estrategia y, por supuesto, una planificación, ya que SEO no es una tarea que se haga de forma puntual, sino continua.

¿Desarrollador web o agencia SEO?

Durante muchos años para obtener una buena consultoría SEO era necesario recurrir a una agencia SEO, porque las empresas de desarrollo web no estaban familiarizadas con esta disciplina. Esto ha cambiado; son muchas las empresas de desarrollo web que disponen de nociones SEO lo suficientemente desarrolladas como para ofrecer un servicio eficaz, especialmente en el caso de sitios web pequeños.

Yaestudio

Sin embargo, en el caso de proyectos de envergadura y en sectores muy competitivos, contratar a una agencia SEO puede ser una necesidad, ya que las agencias SEO disponen en general de información más actualizada y completa sobre las novedades que se producen en una disciplina tan cambiante como el SEO y porque pueden programar y aplicar estrategias de gran calado en sitios web con gran volumen de tráfico minimizando riesgos, debido a su experiencia.

En el caso de optar por una agencia SEO, esta tiene que trabajar con el desarrollador web (interno o externo), con el departamento de marketing y con el de comunicación para poder crear una estrategia de captación de tráfico gratuito de calidad. En este sentido será muy importante la proximidad entre el consultor y el desarrollador, las posibilidades de comunicación entre ambos y la capacidad de la agencia SEO de proponer cambios y del desarrollador para implementarlos.

Tanto si tu sitio web es pequeño como si tiene muchas páginas y un volumen de tráfico importante, nuestra recomendación es que inviertas en SEO. Con una buena estrategia SEO, los resultados perduran en el tiempo, a diferencia de acciones de marketing online, de resultados potentes pero efímeros.

Si estás dentro de un sector muy competitivo (como el de los viajes o los seguros) deberás invertir mucho más para poder obtener resultados. Además, debes considerar que aunque una agencia especializada puede resultar más cara, son los resultados los que cuentan por lo que se debe analizar la cuestión desde el punto de vista del retorno de la inversión. Un desarrollador webpuede resultar más barato, pero también los resultados pueden ser limitados; una agencia de SEO es más costosa pero no se trata de cuánto se desembolsa sino de cuánto se puede ganar o se deja de ganar.

Por esta razón, antes de elegir un socio SEO nos debemos plantear las siguientes preguntas:

  • ¿Cuán importante es la optimización para buscadores en mi sitio web?
  • ¿Cuál es el Retorno de la Inversión estimado según los diferentes tipos de socios?
  • ¿Cuán competitivo es mi sector?
  • ¿Realizan los usuarios la compra en la primera visita o tienen que volver a encontrarme para comprar mi producto?
  • ¿Da esta agencia transparencia en aspectos que pueden ser conflictivos como el linkbuilding?
  • ¿Está dispuesto a desplazarse para dar soporte a tu equipo de desarrollo?

Estas preguntas ayudarán a determinar el nivel de calidad que se espera de un socio SEO. Por cierto, estamos totalmente de acuerdo con la opinión que Google menciona en sus directrices20:

Si estás considerando la posibilidad de contratar a un SEO, cuanto antes lo hagas, mejor. Un buen momento para contratar estos servicios es cuando vayas a cambiar el diseño de tu sitio o cuando vayas a publicar un sitio nuevo. De esta forma, podrás asegurarte de que el sitio se ha diseñado conforme a los requisitos del motor de búsqueda. No obstante, un buen SEO también puede ayudar a mejorar un sitio existente.

¿Cómo seleccionar un socio SEO?

En las mismas directrices que hemos mencionado anteriormente, Google plantea varias preguntas valiosas que deberíamos realizarle al socio potencial. Estas son:

  • ¿Puedes mostrarme ejemplos de tu trabajo y conocer la experiencia de tus clientes?
  • ¿Sigues las directrices para webmasters de Google?
  • ¿Ofreces algún servicio de marketing online o asesoramiento para complementar el negocio de búsquedas orgánicas?
  • ¿Qué tipo de resultados esperas obtener y en qué plazo de tiempo? ¿Cómo se mide el correcto funcionamiento del sitio?
  • ¿Qué experiencia tienes en el sector en que opera mi empresa?
  • ¿Qué experiencia tienes en el país y ciudad en que opera mi empresa?
  • ¿Qué experiencia tienes en el desarrollo de sitios internacionales?
  • ¿Cuáles son las técnicas de optimización más importantes que utilizas?
  • ¿Cuánto tiempo hace que te dedicas a este negocio?
  • ¿De qué manera nos comunicaríamos? ¿Me informarías de todos los cambios realizados en mi sitio y ofrecerías información detallada sobre recomendaciones y los motivos de estas?

También hay otros aspectos sobre los que debemos estar prevenidos, véase las técnicas de marketing agresivas que siguen algunos de los especialistas del sector, por ejemplo, correos electrónicos donde se afirma: “He visitado su sitio web y he visto que no está listado en los buscadores”. Esto no tiene sentido ya que cada sitio web que tiene al menos un enlace en otro sitio y estará indexado en todos los buscadores. También existen empresas que ofrecen la garantía de la posición número 1 en los buscadores, este tipo de afirmaciones deben levantar la señal de alarma por varias razones:

  • Nadie puede garantizar la posición número 1 para un término de búsqueda muy competitivo.
  • Cualquiera puede alcanzar la posición número 1 para los términos de búsqueda no competitivos.
  • Las posiciones no significan mucho: todo gira alrededor del número de conversiones o ventas que se alcanza a partir de un tráfico relevante.

También debemos estar atentos ya que algunas empresas proclaman que tienen el ‘software más avanzado’ que les permite incluir el sitio web en ‘miles de buscadores’. La verdad es que no se tiene que incluir la página en ningún buscador, sino que se debe hacer aparecer la web en los buscadores dando respuesta a las búsquedas que hacen los usuarios, si entendemos estas como necesidades del mercado.

Por último, hay que advertir sobre las empresas que obtienen los enlaces externos de forma agresiva. Suelen anunciar: “tenemos una gran red que nos permite obtener un gran número de enlaces para tu sitio web”. Estas redes o granjas de enlaces están penalizadas por Google, de manera que si entramos a participar corremos el riesgo de que nos penalicen, lo que conllevará pérdida de posicionamiento en los resultados de búsqueda.

Con la implementación de Google Penguin en abril de 2012, un importante cambio en el algoritmo que penaliza, entre otras cosas, a los sitios web “con patrones de enlace inusuales”, sitios web que intentan manipular los resultados de búsqueda.

Muchas agencias SEO han trabajado en contra de las directrices de Google en el pasado, pero en los últimos años la mayoría se ha familiarizado con ellas y las cumple a rajatabla en pos de mantener buenas relaciones con el buscador.

Toda la información necesaria para elegir un socio potencial se puede obtener a través de una solicitud de información y una propuesta. Vamos a detallar estos temas.

La solicitud de información

El próximo paso en el proceso de encontrar un socio adecuado es pedir información sobre la empresa y sus prácticas.

Existen cientos de socios posibles, entonces, ¿cómo escoger uno? Primero recomendamos echar un vistazo a nuestra propia red de contactos: ¿hay alguien que ofrezca servicios SEO? ¿Conoce nuestro desarrollador webuna empresa que se ajuste a nuestras necesidades? ¿Algún proveedor o socio ya ha hecho un proyecto SEO de envergadura similar a la de nuestra empresa y nos puede recomendar a alguien? En caso afirmativo les podemos preguntar cómo transcurrió el proyecto, si aparecieron costos imprevistos, si la relación se desarrolló de forma positiva, si los resultados de venta fueron satisfactorios, etc.

Una vez se tenga una lista de socios potenciales, se necesita recopilar la mayor cantidad de información posible sobre estas empresas. Normalmente esto se realiza a través de una Solicitud de información donde se les pide un documento en el que deben responder a algunas de estas preguntas:

  • ¿Qué tamaño tiene la empresa?
  • ¿Qué servicios ofrece?
  • ¿Tiene experiencia internacional?
  • ¿Con cuántos idiomas puede trabajar?
  • ¿Cómo enfrenta el proceso de evaluación?
  • ¿Puede mencionar alguno de sus clientes o proyectos?
  • ¿Cuáles son sus puntos fuertes principales?
  • ¿Pertenece a alguna asociación del sector?
  • ¿Tiene alguna acreditación de herramientas de analítica web?

En la Solicitud de información no es necesario incluir qué se espera exactamente del socio SEO, ya que el objetivo de este documento es obtener datos generales. Cuando se esté listo para comenzar, se les puede pedir un presupuesto inicial y un tiempo de entrega aproximado para el proyecto. El beneficio de la solicitud de información es que se pueden obtener datos de muchas empresas de forma uniforme y esto ayudará en el proceso de decisión.

Los reguladores del sector y los sellos de aprobación

En el ámbito SEO, en la actualidad no existe ningún certificado SEO específico válido, la única aprobación son los resultados y la experiencia.Esto no quiere decir que una empresa que obtiene certificados y acreditaciones no nos pueda dar una idea de la profesionalidad de la misma.Las empresas SEO pueden obtener diferentes sellos de aprobación y acreditaciones que demuestran su calidad. En el caso de Google, se realizan exámenes que otorgan un certificado de adecuación como por ejemplo, en Google Adwords o Google Analytics. Para pasar con éxito estos exámenes se debe tener un gran conocimiento y experiencia práctica de las herramientas.

Este puede ser un criterio a la hora de seleccionar un socio, aunque hay que tener en cuenta que algunas empresas pequeñas no pueden permitirse mantener estas acreditaciones (en este caso la de Google Analytics), sin que ello signifique que la empresa no tiene los conocimientos necesarios para desarrollar un proyecto de calidad.

Además de Google, también existe el Interactive Advertising Bureau (IAB), una organización independiente en el área del marketing online. Para formar parte de esta organización se debe declarar que se siguen las directrices de todos los principales buscadores. Básicamente esto significa que la empresa que es miembro del IAB no se involucra en ninguna actividad que pueda conllevar una penalización por parte de los principales motores de búsqueda.

La solicitud de propuesta

A través de la Solicitud de información se descartarán algunas empresas, ya sea porque no cumplen con nuestras expectativas o necesidades o quizás porque se han retrasado mucho en ofrecer los datos que solicitábamos. En este punto tendremos una selección de socios potenciales a los que se les enviará la solicitud de propuesta. En este documento podremos presentarnos, explicar lo que queremos y pedir una propuesta. Después de recibir todas las solicitudes de propuesta, se puede realizar una pequeña lista de los candidatos y se les invita a una reunión en la que se discutirá con más detalle la propuesta que han realizado.

Vender en Amazon

Preparar adecuadamente los contenidos de la solicitud de propuesta es crucial para que la empresa pueda elaborar una propuesta a medida, algunos aspectos que deberían incluirse:

  • Información sobre nuestra empresa: tamaño, productos o servicios que ofrece
  • Alcance del proyecto y áreas que se quieren cubrir
  • El sitio web al que se refiere la solicitud de propuesta
  • El modelo de negocio del sitio web
  • Otras opciones estratégicas adoptadas por el sitio web
  • Qué canales de marketing se están utilizando
  • Las metas previsibles para un futuro
  • Las preguntas dirigidas al socio potencial
  • Los detalles de contacto en caso de que existan preguntas
  • Cuándoesperamosrecibir la propuesta
  • El tiempo estimado para terminar el proyecto
  • Qué áreas deben ser especificadas
  • Cómo se realizará el proceso de selección de las solicitudes de propuesta

La solicitud de propuesta le ofrece a todas las empresas la misma situación de trabajo por lo que podremos comparar todas las proposiciones de una forma objetiva. Del grupo de propuestas recibidas se seleccionarán aquellas que se acerquen más a las necesidades de la empresa y se les invitará a que presenten el proyecto. En este punto la ronda final de selección casi ha finalizado.

También se le puede preguntar a los socios potenciales si tienen algunas sugerencias a nivel estratégico para el sitio web, ya que podrían aportar ideas sobre un nuevo modelo de negocio o una visión a largo plazo del sitio. Si se desea este tipo de información, debe aclararse en la solicitud de propuesta de forma que las empresas puedan prepararla con tiempo.

¿Están en sintonía?

El resto de la información que necesitamos puede obtenerse a partir de una conversación cara a cara. A menudo la decisión final recae en la empatía que se ha establecido entre ambas partes. Si seguimos este proceso tendremos la certeza de que la selección se habrá realizado en función de un análisis sólido del mercado, las referencias de cada empresa y la disposición a comunicarse de forma abierta y sincera sobre la forma en que se trabajará de los candidatos. El proyecto tiene muchas más garantías de éxito si se plantea de esta manera.

20http: // support .google. com/webmasters/bin/ answer. py? hl=es&answer=35291

La analítica web

Aunque hayamos atraído un buen volumen de tráfico al sitio web, esto no significa que nos podamos dormir en los laureles: la época en la que el marketing online se limitaba a atraer tráfico se terminó hace años. En la actualidad es necesario saber qué términos de búsqueda utilizaron los usuarios para entrar al sitio web, a través de qué páginas accedieron, qué hacen mientras están en el sitio, el porcentaje de usuarios que añaden productos al carrito, cuántos de ellos lo abandonan… para seguir optimizando el sitio weby mejorando la tasa de conversión. El análisis de cómo llegó el tráfico al sitio web y del comportamiento de los usuarios dentro de este se denomina analítica web.

En resumen, hay que considerar las palabras clave por las que llegan los usuarios a la web como necesidades del mercado, y mediante la analítica web podremos ver si estamos dando una solución a estas necesidades.

  • En este capítulo aprenderás
    • Qué es la analítica web
    • Cómo aprovechar al máximo la analítica web
    • Algunos ejemplos de los KPI (Key Performance Indicators – Indicadores Clave de Rendimiento) para SEO
    • Cómo implementar Google Analytics
    • Algunos informes útiles sobre Google Analytics para SEODevonn 

¿Qué es la analítica web?

Una tienda donde entran y salen muchas personas durante todo el día pero no compran nada no es precisamente un éxito comercial. Por muy extraño que pueda parecer, esto suele ocurrir en muchos sitios web. Existe una creencia muy difundida: ¡Si atraigo muchos visitantes, el dinero llegará! Desafortunadamente, esta regla no se cumple ya que cada visitante no es un cliente potencial. Por esta razón es esencial medir la eficacia de la campaña de nuestras acciones de captación de tráfico hacia la web, analizarlas y optimizarlas. ¿Qué tipos de búsquedas atraen mayor volumen de tráfico? ¿Están alineadas las páginas de destino con los términos de búsqueda? La analítica web responde a estas y muchas más preguntas.

La analítica web es un proceso dirigido a medir, analizar y mejorar la experiencia del usuario en el sitio web, así como los canales que se han usado para atraer al visitante, con el objetivo de convertir la mayor cantidad de visitantes posibles en clientes satisfechos.

Medir la experiencia del usuario es el primer paso en la analítica web pero antes es imprescindible recopilar los datos apropiados, como por ejemplo: cómo han encontrado el sitio weblos visitantes, cuáles son las páginas más visitadas y qué hacen los usuarios dentro del sitio. Estos datos servirán para analizar cuál es el rendimiento del sitio web y a la vez ofrecerán una idea sobre la demanda de los productos y servicios que se ofrecen en el mismo.

Una buena implementación de la herramienta de analítica web será clave para poder estar seguro de que los datos que nos reporta la herramienta son los correctos, muchas empresas no pueden tomar decisiones estratégicas o las toman de forma equivocada por tener una mala implementación de la herramienta y analizar datos incorrectos.

Si disponemos de una implementación avanzada de la herramienta, podremos dar respuesta a preguntas más complejas, como qué tipo de categorías de productos atraen más tráfico, pero tienen una tasa de abandono del proceso de compra más alto.

Yaestudio

El segundo paso sería, una vez que se han recogido los datos, comenzar a analizarlos. Entonces se descompondrán en partes más pequeñas, ya que este proceso de fraccionamiento facilita su comprensión y aumenta la fiabilidad. Por ejemplo, el comportamiento de los usuarios que llegan a través de canales distintos puede ser diferente, lo que significa que los promedios obtenidos pueden distorsionar la verdad.

Por esta razón, muchas herramientas de análisis ofrecen la posibilidad de segmentar los datos aplicando filtros que muestran los informes de un grupo específico. Así, es posible aplicar un filtro para separar los visitantes que llegan desde las búsquedas orgánicas y los que llegan directamente de Adwords. El objetivo de este análisis es descubrir qué funciona bien y qué no, con idea de llegar a conclusiones que mejoren el rendimiento del sitio web. ¿Cuáles son los términos de búsqueda que generan conversiones? ¿Cuál es el rendimiento de las páginas de destino ya optimizadas? ¿Están logrando el objetivo para el que se crearon?

Este tipo de análisis multicanal nos permitirá ver a nivel global y a nivel de fuente de tráfico qué temas despiertan mayor interés y nos permitirán definir prioridades a nivel de estrategia SEO.

Auxiliares del Estado

El tercer paso es mejorar el sitio web y optimizar los canales que se utilizan para atraer visitantes. En esta fase se actúa en función de los resultados de las dos etapas precedentes. Un ejemplo sencillo sería encontrar los términos de búsqueda que tienen un mejor rendimiento y optimizar el sitio weben función de los mismos. Una vez que se han implementado estos cambios, el proceso debe comenzar nuevamente desde el principio.

¿Cómo aprovechar al máximo la analítica web?

En 2005 Google adquirió la compañía de analítica web: “Urchin”. A partir de esta adquisición, el producto resultante revolucionó el mundo de la analítica web, que hasta entonces no contaba con una herramienta gratuita que ofreciera tantos datos. Google Analytics ofreció un estándar decente, era sencillo de usar y era gratis. En consecuencia, la popularidad de la analítica web y el número de usuarios creció enormemente. ¡La analítica web se convirtió en una herramienta sencilla al alcance de la mano! Nosotros reconocemos el valor de la analítica web, pero hay que decir que muchos propietarios de sitios webtodavía no explotan todas las posibilidades de estas herramientas en beneficio de sus negocios.

El problema principal de la analítica webes que proporciona muchos informes estandarizados y cifras que a menudo no tienen ninguna relevancia para un negocio. ¡Es muy fácil perderse entre una montaña de datos! Incluso los norteamericanos se han inventado un término para denominarlo, el “report surfing”, navegar por los informes. Obviamente, será muy difícil encontrar algo útil si no se tiene idea de lo que se está buscando. Por esta razón, antes de empezar a revisar los datos que nos arrojan estas herramientas, hay que determinar qué datos queremos encontrar y en qué nos pueden ayudar a comprender lo que está sucediendo en nuestra página web.

En este sentido, hay que aclarar que la analítica web por sí sola no sabe qué datos necesitamos, sino que es una decisión que debemos tomar nosotros mismos.

Entonces, ¿qué datos son fundamentales a la hora de analizar nuestra campaña de marketing online? Para determinarlo, en primer lugar se deberán definir por escrito los objetivos generales y los objetivos específicos del proyecto. En una situación ideal, nuestros objetivos se basan en la estrategia de marketing (online). No obstante, como no todas las empresas tienen este tipo de estrategia, deberán decidir cuáles son los factores que determinarán el éxito del sitio web. En este caso los objetivos específicos se convierten en tareas que los usuarios deberían completar dentro del sitio webpara llegar al objetivo general (por ejemplo, en actividades como una compra, rellenar un formulario o generar diferentes oportunidades mediante la descarga de un catálogo, visualización de catálogo de fotos, etc…).

Si no hay objetivos, el marketing online se convierte simplemente en un entretenimiento. Aunque en analítica web, el volumen de tráfico es uno de los indicadores más importantes de éxito y, mientras la tendencia sea al alza, el jefe estará contento, sin los objetivos será imposible determinar si tenemos éxito o no. Se puede enviar tráfico al sitio web y comprobar qué ocurre y también se puede imprimir un informe semanal y analizarlo, pero el objetivo fundamental siempre se centrará en incidir sobre los resultados actuales.

Entonces, ¿cómo se pueden obtener resultados a partir de la analítica web?¿Cómo se pueden transformar los datos en acciones?Los instrumentos de analítica web proporcionan una gran cantidad de cifras. Algunas corresponden simplemente a números mientras otras son cálculos o porcentajes. Por regla general, los objetivos se encuentran dentro de esos números absolutos, por ejemplo: las ventas y las conversiones. Los cálculos y los porcentajes son solo combinaciones y formas de presentar las cifras absolutas, como es el caso del nivel de conversión.

Solo algunas de las cifras tendrán una relación directa con los objetivos y comunicarán información relevante sobre el rendimiento del sitio web. Estas cifras son los Indicadores Clave de Rendimiento (Key Performance Indicators-KPI).

Algunas herramientas ofrecen de manera estándar los KPI pero otras veces deberemos añadirlos o calcularlos nosotros mismos. Estos indicadores siempre ejercen un impacto sobre los objetivos y permiten hacer un seguimiento de la evolución. Es posible incidir en los KPI con procedimientos como SEO y eso significa que el seguimiento y el análisis son extremadamente importantes. Estos indicadores servirán, por ejemplo, para saber si la optimización para buscadores está siendo de ayuda para lograr los objetivos. Por esta razón, el proceso de determinar los objetivos y traducirlos en KPI es muy importante. La lógica que se sigue indica que: la analítica web permite medir los KPI, los KPI miden el progreso y si no se puede medir el progreso, no se podrá optimizar.

Sin embargo, determinar los KPI no es todo. Como hemos mencionado con anterioridad, los promedios tienden a ocultar la verdad por eso la mayoría de las herramientas de analítica web ofrecen la posibilidad de segmentar, es decir, aplicar filtros (filtrar por tipos de visitantes y canales online). Por ejemplo, si se está optimizando la búsqueda orgánica, para determinadas páginas web no tendrá ningún sentido utilizar los datos que incluyen palabras clave de la marca, ya que el promedio que se obtiene a partir de estos tres canales nos dará un cuadro equivocado. Por eso se deberán separar los datos por grupos, por ejemplo, por genéricos, usos, beneficios, marca, tipo de página de destino… a nivel de término de búsqueda o página de destino.

Esto significa que la analítica web no solo se centra en medir el número de usuarios, sino en crear valor a través de la medición y la optimización de los KPI. El análisis y la optimización son los pasos finales de una campaña de marketing online, pero si lo que queremos es tener éxito primero es necesario determinar los objetivos y a continuación determinar los KPI para sentar las bases del trabajo posterior.

¿Qué son los KPI para SEO?

Cuando se hace referencia a los KPI específicos para SEO se nos vienen a la cabeza datos como: el promedio de tiempo pasado en el sitio web, el número de términos de búsqueda por página, el porcentaje de rebote, las páginas por visita. Sin embargo, estos números están centrados en el contenido y son de poca utilidad para optimizar los resultados del negocio.

Los KPI se deben basar en los objetivos y no en el canal. Es necesario determinar los objetivos y encontrar las cifras en la herramienta de analítica web a partir de los cuales se puede medir el progreso e influir en el mismo. Es posible determinar los KPI para un canal individual y optimizar este canal, pero esto difícilmente ayudará a lograr los objetivos generales de negocio. Además, se perderá la posibilidad de comparar los canales por lo que no estaremos en condiciones de decidir qué canal es más eficaz para lograr ciertos objetivos.

Para concretar toda esta información hemos realizado una lista que contiene los KPI y métricas estándares para tres modelos de negocio diferentes pero muy comunes.

Modelo de negocioObjetivoKPI
Comercio

Electrónico

Aumentar la facturación/ número de productos vendidos por visitaTasa de conversión Retorno de Inversión en Marketing

Valor promedio por visita Porcentaje de disminución del embudo de ventas

Visitas con palabra clave de marca Visitas con palabra clave de marca de tipo producto

Visitas con palabra clave de uso o beneficio

Visitas con palabra clave orientada a compra

Generación de leadsAumentar la Descarga de documentosTasa de conversión de las oportunidades

Tasa de conversión de los contactos por correo electrónico

Tasa de conversión de las descarga de pdf

Porcentaje de visitantes nuevos vs. los antiguos

Porcentaje de usuarios nuevos que añaden producto al carrito de compra Infoducto: visitas desde página de destino informativa acaban visitando página de producto

EditorVender un espacio publicitario y aumentar las subscripcionesPáginas vistas por visita (Venta de un anuncio publicitario CPM)
Clic en los anuncios (Venta de anuncio publicitario CPC)
Porcentaje de visitantes nuevos vs. los antiguos
Nivel de conversión de los registros online
Visitas que repiten antes de 5 días
Visitas de usuarios que no son nuevos que visitan una sola página
Visitas nuevas que hacen más de 3 páginas vistas

Obviamente, estos KPI se deberán segmentar para cada canal lo que significa que se obtendrán informes separados para SEO, Adwords, email marketing, etc.

Google Analytics

A continuación analizaremos algunos ejemplos de analítica web y SEO para fijar unas líneas de acción básicas. Hemos elegido Google Analytics porque es gratis, fácil de instalar y ofrece gran cantidad de información valiosa. Por la temática del libro nos centraremos en las posibilidades que ofrece Google Analytics para mejorar el posicionamiento en buscadores. Quienes estén interesados en profundizar en Google Analytics podrán leer el libro Advanced Web Metrics with Google Analytics de Brian Clifton.

La implementación del código

Además del código por defecto que nos propone Google Analytics, debemos personalizarlo en función del tipo de web y de las necesidades de medición que se hayan definido previamente.No será lo mismo el mareaje que se implemente para un blog que para una página de e-commerce, así como para una tienda multimarca o monomarca. Además, si la web tiene una buena implementación de SEO técnico y una buena estructura, la personalización del código será mucho menor que si la web está basada en URL’s con variables o está desestructurada a nivel de URL’s.

Entre las posibilidades de personalización destacamos desde el código de seguimiento de e-commerce, la configuración y marcaje de un buscador interno, visualización de las páginas de error y por qué se producen los errores.

Una vez implementado el código, es conveniente hacer una auditoría de la implementación, se pude revisar la implementación mediante plugins como WASP para Firefox, revisando la lista de fuentes de tráfico de la web y mediante otro tipo de herramientas (Sitescan, etc).

Se recomienda la creación de diferentes perfiles dentro de la cuenta de Google Analytics para poder tener una visión diferente de la actividad en la web, sobre todo teniendo en cuenta el sistema de recogida de datos y el muestreo que utiliza al segmentar los datos mediante los segmentos avanzados.

Algunos perfiles básicos pueden ser:

  • Tráfico total
  • Tráfico orgánico de marca
  • Tráfico orgánico sin marca

Otros perfiles que pueden resultar interesantes, si la web está orientada a varios mercados, es tener un perfil por país, o continente. En el caso de tiendas online puede ser interesante también un perfil que únicamente muestre los addtocarts, con el objetivo de poder medir que tipo de palabra clave genera el addtocart, teniendo en cuenta que muchas veces la compra (el último clic) se confirma en una siguiente visita minutos más tarde o días más tarde.

Definición de los objetivos

Este es el apartado más importante en la implementación de la herramienta de analítica web, además de configurarlos, muchas veces habrá que hacer una personalización del código para poder medirlos, esta personalización vendrá dada por el tipo de conversión y por cómo está programada la página web.

Es en esta fase donde la auditoría cobra mayor importancia, si no tenemos bien implementados los objetivos estaremos tomando decisiones equivocadas.

Siempre que sea posible, se recomienda definir un embudo (funnel en inglés) lo más largo posible en la definición de objetivos, de forma que podamos medir no solo las conversiones, sino que también se pueda tener en cuenta el porcentaje de usuarios que iniciaron el proceso de conversión y poder ver en qué punto los usuarios abandonan el camino hasta cumplir el objetivo que tenemos fijado.

Google Analytics no permite segmentar datos del embudo de conversión en función de palabras clave o de fuentes de tráfico, pero mediante el uso avanzado de la herramienta de analítica web o mediante la A.P.I. podremos desarrollar mecanismos para poder realizar esta segmentación.

No tendrán el mismo impacto en las posibilidades de venta diferentes tipos de palabras clave (marca, producto, beneficio), y es ahí donde empiezan a aparecer respuestas a preguntas que no podemos contestar a partir de ver resultados sin haber segmentado el tráfico.

Algunos informes útiles para SEO
Valorar los términos de búsqueda actuales

Buscar los términos de búsqueda por los que se encuentra el sitio web

Informe: Fuentes de tráfico

Sección: Términos de búsqueda

Sub-sección: Términos de búsqueda orgánicos

Este informe mostrará todos los términos de búsqueda que han atraído usuarios al sitio web como resultado de las búsquedas orgánicas. Al seleccionar las pestañas Goalconversion (en español, Conversión de objetivos) o E-commerce (Comercio electrónico) se podrá apreciar el rendimiento de los términos de búsqueda vs.los KPI. También se puede ver el nivel de conversión, el valor promedio de pedidos y el valor por visita. Incluso se podrá observar la popularidad de la marca. La pestaña Site usage (en español, Uso del sitio web) muestra diferentes KPI, como el porcentaje de visitantes nuevos y el número de páginas por usuario.

Encontrar nuevos términos de búsqueda

Seleccionar los términos de búsqueda utilizados en el buscador interno de la web

Informe: Contenido

Sección: Buscador interno

Sub-sección: Términos de búsqueda

Este informe incluye todas las búsquedas que los usuarios han realizado en el sitio web. Además, es posible valorar los términos de búsqueda basándose en los KPI comparando estas palabras clave entre ellas respecto a los objetivos de la web.

La importancia de este informe a nivel SEO es que nos da mucha información a nivel de palabras clave, ya que podremos ver cómo llaman los usuarios a nuestros productos o servicios.

Seleccionar los términos de búsqueda desde los resultados patrocinados

Informe: Fuentes de tráfico

Sección: Términos de búsqueda

Sub-sección:Términos de búsqueda patrocinados

Si se hace una campaña publicitaria en buscadores, también será posible encontrar términos de búsqueda que valga la pena optimizar en las campañas. Una vez más, se deberán analizar los téminos de búsqueda que tienen un buen rendimiento en relación con los KPI. Si estos están en dos campañas, se deberían comparar y encontrar qué causa las diferencias. ¿Ambas campañas envian tráfico a la misma página de destino?

Este informe nos tiene que ayudar a tener una estrategia SEO-SEM, para ello hay que tener en cuenta las diferentes tasas de conversión, las páginas de destino, así como vigilar que las campañas de CPC no estén pujando por palabras clave por las que no hay competencia ni a nivel SM ni SEO.

Valorar las páginas de destino

La página más importante desde la que un visitante entra al sitio web

Informe: Contenido

Sección: Páginas de destino más importantes

Aquí se puede ver a través de qué página entraron al sitio web la mayoría de los usuarios y, haciendo clic en una página específica, se obtendrán los términos de búsqueda por los que se encontró la página.

Esta información es interesante porque nos puede ayudar a ver que determinadas palabras clave para determinada página de destino no resuelven el problema al que queremos dar respuestas en nuestra web.

Conclusión

La herramienta de analítica web no generará retorno de la inversión, si no se implementan los cambios propuestos a partir del análisis de los datos o se prueban diferentes opciones para mejorar a través de técnicas de web testing.

Actualmente este punto es el talón de Aquiles de la mayoría de empresas. Estas herramientas no se deben utilizar para reportar datos sino para poder extraer conclusiones, implementar cambios y volver a medir para ver si han funcionado de la forma correcta.

La implementación es la base de la mejora, muchas empresas gastan grandes cantidades de dinero en atraer usuarios hacia su web pero una vez dentro, estas visitas no se materializan en resultados o la evolución de los resultados está por debajo de las posibilidades de la web o de la media del mercado.

Mejorando pequeños procesos de la web se pueden obtener mejoras increíbles en el ROI de la misma y de todos los procesos de captación de tráfico, incluido el coste SEO.

Lista de verificación

– Determinar los objetivos

  • Pensar sobre los factores que podrían aumentar el éxito de nuestro sitio web
  • Determinar los objetivos: objetivo final de la web y objetivos específicos
  • Seleccionar los KPI y las métricas basándose en los objetivos

– Analizar el rendimiento

  • Dar seguimiento a las tendencias en las métricas y KPI’s
  • Buscar las causas de los cambios en las tendencias

– Implementar las mejorías

  • Implementación de las hipótesis recogidas

Las técnicas para obtener enlaces externos

En el Capítulo 8 se abordó la importancia de los enlaces externos para el sitio web, en este capítulo nos centraremos en la explicación y aplicación práctica de las diferentes técnicas para obtener enlaces externos.

Hay algo que queremos precisar antes de continuar: los enlaces externos tienen una importancia especial para posicionar bien en todos los buscadores, pero particularmente en Google. Fue el primer buscador que supo utilizar una de las características más definitorias de Internet, los enlaces, para mejorar los resultados de búsqueda.

Sin embargo, la forma en que Google evalúa los enlaces es cambiante; así como introduce mejoras en otras áreas lo hace también en esta. Y algunos de estos cambios, especialmente los más recientes, afectan mucho a la concepción “clásica” sobre cómo conseguir enlaces para mejorar el posicionamiento. Estos cambios tienen mucho que ver con la lucha contra el spam y el convencimiento de los buscadores del poder de las redes sociales, es decir, de que las redes sociales pueden ser buenos aliados para ofrecer mejores resultados de búsqueda.

Un ejemplo muy claro de cómo Google intenta mejorar su evaluación de los enlaces y el peso que estos tienen en el posicionamiento de las páginas web es el cambio en el algoritmo conocido como Google Penguin. Google lo hizo efectivo en abril de 2012, y su principal objetivo es perjudicar el posicionamiento de sitios web que tratan de manipular los resultados de búsqueda mediante la sobreoptimización (uso abusivo de palabras clave) tanto en los textos de la página web como en los anchor text de los enlaces (internos y externos) que apuntan hacia estos sitios.

En el capítulo anterior decíamos que cuando se plantea una estrategia de búsqueda de enlaces externos hay que evitar 3 tentaciones:

  • Optar por la cantidad en vez de la calidad
  • Usar continuamente el mismo anchor text
  • Dirigirse solo a las páginas web en las que se puede obtener enlaces de manera sencilla y rápida

Insistimos en que esto es ahora más importante que hace unos años, o incluso unos meses, porque los buscadores mejoran su detección de enlaces poco naturales, creados específicamente para posicionar.

En este capítulo aprenderás:

En este capítulo se abordarán las técnicas para obtener enlaces externos. Aprenderás cómo poner en práctica este conocimiento, lo que te permitirá comenzar inmediatamente el proceso de obtención de enlaces para el sitio web. También explicaremos cómo optimizar los enlaces ya existentes. Por último, explicaremos por qué no se debe comprar enlaces.

Clasificación de las técnicas

Vamos a analizar las distintas técnicas para obtener enlaces a partir de su clasificación en 4 grupos:

  • Solicitud de enlaces
  • Alta/Registros en sitios web
  • Creación de contenido
  • Difusión de contenido
  • Análisis de los competidores

Solicitud de enlaces

Pedir un enlace es una buena técnica para conseguirlo. Sí, sabemos que parece obvio, pero en nuestro día a día observamos que es una técnica con frecuencia desaprovechada, o no aprovechada en todas sus posibilidades.

Cualquier organización se mueve en un ecosistema en el que interactúa con muchas otras entidades: servicios públicos donde está ubicada la sede, socios, proveedores, clientes, trabajadores, negocios relacionados o complementarios. A su vez, todos los miembros de una organización tienen su propio ecosistema, en el que la empresa es importante, pero también se incluyen otros contactos interesantes, por sus aficiones, intereses, etc.

Podemos obtener enlaces de nuestros clientes, proveedores, trabajadores de la organización que tengan sitios web o blogs; puede ser buena idea solicitar que enlacen si así lo desean. Es más, en muchos casos, tal enlace beneficiará a los usuarios de ambos sitios web por ser una actividad relacionada.

En esta utilización de los contactos profesionales también podemos incluir el patrocinio: los eventos patrocinados y las ferias comerciales son buenos recursos a la hora de establecer nuevos contactos de negocios. Todos estos contactos podrían enlazar nuestro sitio web.

Es conveniente que el enlace se consiga con un anchor text optimizado, pero tampoco hay que obsesionarse. Un enlace con anchor text optimizado es óptimo, pero un enlace con el nombre de nuestra marca es muy bueno, e incluso con un logo u otra imagen relacionada.

Alta/Registros en sitios web

Esta técnica consiste en solicitar el alta en directorios y sitios web sectoriales de calidad, por una parte; y, por otra, en hacer el registro de la empresa en todos aquellos sitios web sociales que tengan una mínima calidad.

Con respecto al alta en directorios, es una técnica muy popular, aunque hay expertos SEO que afirman que es una técnica desfasada que aporta poco o ningún valor. Estamos en desacuerdo, lo importante es la calidad de los enlaces: no se trata de llevar a cabo un alta automática en 3000 buscadores, sino de seleccionar manualmente el grupo de sitios web y directorios de nuestro sector de actividad que tienen listado de organizaciones.

Prácticamente en cada sector de actividad económica hay un grupo de directorios y sitios web de esa temática que aceptan el registro; vale mucho la pena solicitar el alta en ellos.

Al evaluar la conveniencia de solicitar el alta en un directorio, es más importante comprobar la calidad de su contenido que el PageRank de su dominio o páginas. ¿Da de alta nuevos sitios con frecuencia? ¿Ofrecen información valiosa las descripciones de los sitios web? ¿Los sitios web dados de alta están bien clasificados en categorías?

Algunos directorios permiten dar de alta un sitio web de forma gratuita sin contrapartida; otros solicitan un enlace recíproco: en principio estos no son recomendables, ya que el enlace recíproco vale menos que un enlace desde un dominio al que no enlazamos.

También hay muchos directorios que son de pago. En este caso recomendamos ser muy selectivos; compremos calidad: el directorio debe tener un contenido valioso, con descripciones de los sitios que excedan la medida habitual (no solo un párrafo) y debe ser contenido útil, descriptivo y único. En ese caso puede ser conveniente pagar para disponer de una página con enlace en ese directorio. Además, no hay que perder de vista que los enlaces no solo contribuyen a mejorar el posicionamiento, sino que pueden ser una fuente importante de tráfico, según dónde estén situados.

Y con respecto a los sitios sociales, conviene que demos de alta el perfil de la empresa en todos aquellos que tengan una importante masa de usuarios activos. Hay dos motivos para ello: el primero, que conseguiremos uno o más enlaces desde la página de nuestro perfil en cada uno de estos sitios. El segundo motivo es que, aunque no vayamos a tener presencia activa en todos esos sitios sociales, es importante asegurar la presencia oficial de nuestra organización en ellos.

Creación de contenido

Si creamos contenido de calidad, único, valioso, que solucione necesidades de los usuarios o despierte su interés, podemos difundirlo en todos nuestros canales y aumentamos la posibilidad de que se difunda en canales ajenos.

¿Qué temas o tipos de contenido podemos tratar? ¿Qué podemos contar? ¿Y cómo podemos hacer que nuestra narración merezca la pena ser enlazada?

Es posible crear contenido de calidad y enlazable a partir de cualquier actividad de una organización.

  • Nuevos productos, nuevos servicios
  • Ofertas, descuentos, promociones
  • Asistencia a eventos, ferias, congresos…
  • Acuerdos con socios
  • Nuevos clientes
  • Nuevos proyectos desarrollados para clientes
  • Mejoras en infraestructura
  • Incorporación de nuevos trabajadores
  • Mejoras en recursos humanos
  • Nueva web
  • Y, por supuesto, conocimiento, know how (glosarios, tutoriales, páginas de ayuda, consejos avanzados, estudios del sector, compendios de noticias…)

Todas las organizaciones pueden crear contenido a partir de su actividad. Sin embargo, en muchas ocasiones no lo hacen. El motivo es que crear contenido es costoso, requiere tiempo valioso por parte de personas en la organización o pagar para que ese contenido se cree de forma externa. Aunque las organizaciones sean muy activas y quieran ser protagonistas en su sector, no es lo mismo hacer que explicar. Alguien debe narrar y difundir la actividad de la organización.

Las organizaciones deben ser conscientes de que deben dedicar recursos a ello, y conviene que sean personas preparadas, dedicadas a esta tarea. ¿Por qué? Porque toda la estrategia de creación de contenido debe estar orientada a potenciar la influencia y el protagonismo de la organización en su sector, y eso incluye por supuesto el conseguir más enlaces. Esa estrategia de creación de contenido enlazable debe ser desarrollada por profesionales especializados con conocimientos de SEO, o en el marco de una estrategia SEO.

Queremos insistir en la conveniencia de definir una estrategia de contenido que permita saber cuántas personas pueden dedicarse a crear contenidos con enlaces y cuánto tiempo le pueden dedicar, porque de otra forma a menudo las cuentas, canales y perfiles creados quedan abandonados, no se actualizan lo suficiente y la imagen de la organización se resiente.

También es importante para la gestión de recursos definir, en función de nuestro público objetivo, en qué canales no nos interesa estar, porque ellos no estén allí.

La forma que demos a este contenido y su adecuación a cada canal será esencial en el éxito que tengamos a la hora de conseguir enlaces.

Por ejemplo, tras asistir a un importante evento, una nota de prensa sobre ese evento puede proporcionarnos bastantes enlaces, pero también debe valorarse la posibilidad de retransmitir ese evento en directo (por ejemplo vía Twitter).


Muchos sitios web tecnológicos, por ejemplo, utilizan esta técnica en eventos de presentación de producto de Apple para suscitar el interés de los curiosos y fans de la marca y obtener enlaces, ya que el contenido de la retransmisión queda publicado al finalizar el evento. Sin embargo, para el caso de la mayor parte de organizaciones, simplemente creando contenido es poco probable conseguir un gran volumen de enlaces. Es importante que nosotros mismos demos difusión a ese contenido. ¿Cuáles son los principales canales de difusión de contenido en Internet de que dispone una organización hoy en día?

  • Sitio web propio
  • Blog propio
  • Redes sociales: página de Facebook, Twitter, Pinterest, Flickr
  • Vídeos: canal de Youtube
  • Presentaciones PPT: Slideshare, Authorstream…

Es importante comprender que un mismo contenido puede ser adaptado a cada canal para ser publicado muchas veces y suponer un enlace o más desde cada una de estas plataformas. Por ejemplo, sobre un nuevo producto se puede crear:

  • Una nota de prensa para el sitio
  • Una entrada en el blog, con un tono más informal y fotos complementarias
  • Una entrada en Facebook, varios twitteos en el mes en que el producto se lance, agrupar fotos en Pinterest, subir también las fotos a Flickr.
  • Publicar el vídeo sobre el producto en nuestro canal de Youtube
  • Hacer un PPT con la ficha técnica y los beneficios y subirlos a los canales de PPT

En todos estos contenidos, que no son duplicados puesto que tienen textos distintos y adaptados a cada canal, se puede incluir enlaces hacia el nuevo producto. Además, esta publicación propia de contenido aumenta las opciones de que nuestro nuevo producto sea descubierto por clientes potenciales, que a su vez pueden enlazar de manera natural hacia él.

Difusión de contenido

Hemos visto cómo una organización dispone de muchas formas para promocionar sus productos y publicar en Internet, por sus propios medios, informaciones en distintos formatos con enlaces en muchos dominios y plataformas para obtener beneficio. Pero aún quedan muchas posibilidades de sumar enlaces, consiguiéndolos en dominios y canales en los que no tenemos el control, que no pertenecen a la organización.

Notas de prensa

Además de publicar las notas de prensa en su propio sitio web, las organizaciones pueden difundirlas por Internet: existen sitios de buena calidad que son plataformas de publicación de notas de prensa.

Las hay de pago y gratuitas, de más o menos calidad y con más o menos tráfico, pero lo que más nos interesa desde el punto de vista de los enlaces es que algunos de ellos no aceptan enlaces en los textos de las notas de prensa, otros aceptan enlace sin anchor text y otros aceptan enlace con anchor text. Lógicamente los que más nos interesan son estos últimos, aunque los que aceptan enlace sin anchor text también pueden ser valiosos, especialmente si aportan tráfico.

En general, es correcto incluir entre 1 y 3 enlaces en una nota de prensa: poner más puede ser visto como spam. Por ejemplo, se puede incluir un enlace a la página de inicio y dos enlaces hacia las páginas web de productos o servicios relevantes.

Blogs

Los blogs han triunfado como herramienta para publicar en Internet porque son plataformas de publicación de contenido de muy fácil uso. Sin conocimientos técnicos resulta sencillo publicar. Por ello, son utilizados por personas y organizaciones para publicar contenido. Además de disponer de su propio blog, conviene que las organizaciones conozcan cuáles son los blogs de referencia en su sector, para así poder entrar en relación con los responsables de estos blogs.

Es muy importante entender que un blog no es un medio de comunicación tradicional ni una plataforma de notas de prensa: si enviamos una nota de prensa a un blog las probabilidades de que nos la publiquen son prácticamente nulas. Con los blogs se debe actuar de manera distinta.

Tras identificar los blogs de referencia, debemos seguirlos por un tiempo, entender su frecuencia de publicación y los tipos de contenidos que trata. Como habla de nuestro sector, es muy posible que tengamos opiniones sobre muchos de los artículos que publique. Podemos publicar nuestra opinión en los comentarios de los artículos. Esa es una primera oportunidad para conseguir enlaces, ya que en muchas ocasiones los comentarios en los blogs permiten incluir un enlace en la firma, a veces con anchor text, a veces sin él.

Una vez estemos familiarizados con el blog, podemos escribir directamente al responsable con alguna propuesta que pueda ser de interés. Veamos algunas posibilidades:

  • Enviarle un producto nuevo para que lo pueda evaluar. El responsable del blog es un experto en nuestro sector, es un líder de opinión para sus lectores, y nos interesa que haga una prueba de nuestro producto y publique los resultados. Es muy probable que en su evaluación incluya un enlace.
  • Proponerle escribir un artículo en su blog hablando de un aspecto concreto que dominamos y él todavía no ha cubierto en sus artículos. En ese artículo lógicamente enlazaremos a nuestro sitio web de la forma que acordemos con el bloguero.
  • Si nuestro sitio ofrece algo que su blog no ofrece y que pueda ser de interés para sus usuarios, también podemos preguntarle por la posibilidad de incluir un enlace hacia nosotros en el menú o blogroll. Es cierto que en el capítulo anterior dijimos que un enlace en el blogroll es menos valioso que uno en la parte central del contenido, pero si la temática de la web está relacionada, son buenos enlaces aunque tengan menos peso.
  • Informarle sobre una oferta o descuento para que pueda publicarlo. La única diferencia con los sitios de notas de prensa es que no debemos enviarle la nota de prensa, sino escribirle personalmente y comentarle que existe esta oferta, por si desea publicarla en su blog.

Como se puede advertir, este proceso de seguimiento de los blogs, de mantener una relación con el bloguero supone una inversión de tiempo. Y es necesario dedicar ese tiempo para conseguir una relación fluida y conseguir enlaces con una cierta regularidad. De otra forma, solo mediante el envío de la nota de prensa no obtendremos esos enlaces.

Redessociales

Los buscadores siguen atentamente la evolución de las redes sociales, su gran impacto en cómo las personas utilizamos Internet. Y están especialmente interesados en indexar los contenidos que se generan en estas redes. Y también en tener en cuenta qué contenidos son considerados relevantes por los usuarios en cada red social.

Para el posicionamiento de un contenido concreto, cada vez tiene más importancia lo que se ha dado en llamar “señales sociales”. De forma oficial, Google tiene en cuenta los +1 (votos positivos a piezas de contenido) de nuestros contactos en los resultados de búsqueda que nos enseña. Y aunque no hay confirmación oficial de Google sobre otras redes sociales, nuestra experiencia nos indica una influencia de los retweets de Twitter y los “like” de Facebook en el posicionamiento.


Por tanto, es importante tener una estrategia en redes sociales, que consista no solo en tener nuestro perfil en ellas y publicar contenidos, sino que debemos ser activos de otra forma, relacionándonos con los perfiles de quienes sean líderes e importantes en nuestro sector.

Como en el caso de los blogs, además de disponer de nuestro propio perfil en las redes sociales y publicando contenido, es importante que seamos activos en esa red social: debemos estar atentos a quiénes son las organizaciones y personas relevantes en nuestro sector con más autoridad: los que más publican, los que aportan más valor, los que más seguidores tienen, los que son mencionados en más ocasiones, y debemos tratar de intervenir en la conversación: podemos seguirles, comentar sus publicaciones, aportar nuestro punto de vista y, cuando sea posible, siempre que quede natural, podemos incluir enlaces: hacia nuestra propia página en el perfil social, hacia nuestro blog, incluso hacia nuestro producto o servicio cuando sea pertinente y aporte valor.

Una vez más, como en el caso de los blogs, esto requiere tiempo de forma continuada, pero es la mejor estrategia posible de linkbuilding, porque está directamente relacionada con los contenidos valiosos que se generan en nuestro sector: además de conseguir enlaces estamos haciendo branding, aprendiendo más cosas sobre nuestro sector y mejorando nuestro negocio.

Avid Media

Queremos que las personas y organizaciones más relevantes de nuestro sector nos conozcan y sepan nuestras opiniones. ¿Cómo nos van a enlazar en caso contrario?

Análisis de la competencia

En el capítulo 8 hemos visto las herramientas que podemos utilizar para descubrir y evaluar nuestro perfil de enlaces. Es necesario seguir su evolución para comprobar periódicamente si mejoramos en cantidad y calidad de los enlaces. Ahora bien, así como utilizamos estas herramientas para conocer nuestro perfil de enlaces, podemos aplicarlas a nuestros competidores.

Tiene toda la lógica desde el punto de vista del negocio: existen posibilidades claras de que aquellas páginas y sitios que enlacen a nuestros competidores y no nos enlacen a nosotros lo hagan, ya que están hablando de nuestro sector de actividad.

  • Si nuestros competidores se han dado de alta en un directorio en el que todavía no aparecemos, podemos hacer la solicitud de alta.
  • Si hablan de ellos y les enlazan desde un blog del sector que aún no nos ha mencionado en sus artículos, podemos empezar a seguir ese blog para descubrir la mejor oportunidad de enlace para nosotros.
  • Tal vez nuestros competidores estén publicando notas de prensa en canales que aún no conocemos.

Disponer del perfil de enlaces de la competencia es un buen sistema para mejorar el nuestro.

Optimización de los enlaces existentes

Aunque nunca nos hayamos preocupado de obtener enlaces externos para nuestro sitio web, esto no significa que no tengamos enlaces, ya que la mayoría de los sitios que poseen información relevante atraen enlaces orgánicos. Un buen inicio para comprobar los enlaces entrantes de un sitio webconsiste en acceder a la información de enlaces que proporcionan las Herramientas para Webmasters de Google. A partir de los resultados elaboraremos una lista en la que se recopilen los elementos siguientes:

  • URL de los sitios web con el enlace
  • Las páginas de destino de los enlaces

Después de haber recopilado esta información se pueden revisar uno por uno los sitios web, pero antes de hacerlo es mejor haber decidido qué términos de búsqueda se desea optimizar, ya que así se pueden incluir en los enlaces existentes. Entonces se puede entrar a cada una de las páginas para revisar y ajustar el anchor text y la página de destino (a la que refieren cada uno de los enlaces). También se recomienda enviarle un correo electrónico al webmaster para sugerirle que cambie el anchor text, en caso de que no se ajuste al deseado, como suele ocurrir.

Por regla general, el porcentaje de enlaces que tienen como anchor text el nombre de marca o el dominio en un sitio web es del 90%. A la hora de solicitar la modificación del anchor text, hay que tener en cuenta que el enlace y el anchor text deben estar relacionados con el contenido de la página web a la que enlazan.

En este punto queremos volver a hablar de Google Penguin, modificación algorítmica con la que Google se ha marcado como objetivo penalizar aquellos sitios que hacen un uso abusivo de las palabras clave en el anchor text. Es conveniente que más del 50% de los anchor text hacia tu sitio web sean con el nombre de tu marca, imagen, logo o texto poco significativo. Un 30% de los anchor text pueden contener las palabras principales para tu sitio, aquellas que te aportan mucho tráfico, conversiones, ventas. Las esenciales para tu negocio. Y nuestra experiencia nos indica que es importante disponer de un 20% de anchor text con palabras clave long tail. Son palabras que no son esenciales para tu negocio, pero que ayudan a definir temáticas de las páginas de tu sitio web y refuerzan el valor global del sitio.

Por ejemplo, si tu sitio web trata sobre los televisores LED, lógicamente puedes tener la tentación de intentar que el anchor text de tus enlaces sea “tv led”, pero puede ser muy interesante tener anchor text con “soporte tv led”, “que tv led comprar”, “muebles para tv led” “diferencia entre tv led y lcd” o “distancia para ver tv led”. Lógicamente deberás tener contenido de calidad que responda de forma adecuada a estas búsquedas que hacen los usuarios interesados. Y, si no lo tienes, documéntate y créalo.

¿Compra de enlaces? ¡Nunca!

La compra de enlaces para mejorar el posicionamiento web va contra las reglas de Google. Es lícito comprar enlaces para obtener tráfico, pero debemos asegurarnos de que son enlaces no follow, que no influyan en el posicionamiento de nuestras páginas.

Comprar enlaces es una estrategia que puede funcionar a corto plazo, pero suele provocar disgustos a largo plazo, bien porque terminado el acuerdo con los proveedores los enlaces desaparecen, bien porque Google lo descubre y aplica penalizaciones. Hace muchos años que Google detecta con facilidad las granjas de enlaces, redes de blogs y otros sitios web que se utilizan para crear contenidos de baja calidad e incluir enlaces en ellos hacia los suscriptores (quienes pagan por el servicio). En 2012 Google ha decidido modificar ligeramente su estrategia: además de restar el valor de estos enlaces, ha aumentado de manera muy significativa los mensajes que envía a los propietarios de sitios web en las Herramientas para Webmasters de Google avisando sobre prácticas black hat que ha detectado en los sitios, tanto relacionadas con compra de enlaces como de otro tipo.

Y, tal y como hemos mencionado en varias ocasiones anteriormente en el libro, desde abril de 2012 Google Penguin se encarga de perjudicar el posicionamiento de aquellos sitios web que tienen un perfil de enlaces poco natural, con un uso sistemático de palabras clave para posicionar en los anchor text de los enlaces que apuntan hacia ellos.

Conclusión

Es muy importante ser consciente de la importancia de los enlaces para los buscadores. Las técnicas que hemos descrito en este capítulo están íntimamente ligadas al buen desarrollo de cualquier negocio, fundamentalmente intentan traducir en enlaces la actividad y la relevancia de nuestro negocio dentro de su sector.

Si utilizas las técnicas que hemos descrito en este capítulo verás mejorar tu perfil de enlaces de forma progresiva, lenta pero continuada: conseguirás enlaces que perdurarán en el tiempo y que siempre aportarán valor al posicionamiento de tus páginas.

Lista de verificación

A la hora de buscar enlaces:

  • Solicitar enlaces en nuestro entorno: clientes, proveedores, distribuidores, trabajadores, ferias, eventos, contactos profesionales…
  • Dar de alta en directorios y sitios sociales de calidad.
  • Crear contenido y darle difusión en todos nuestros canales, en formato adaptado a esos canales.
  • Crear y publicar notas de prensa con enlaces.
  • Mantener una relación fluida con blogueros y otras personas influyentes de nuestro sector, allí donde publican: blogs, Twitter, Facebook, Google Plus…
  • Buscar los enlaces que tienen nuestros competidores y tratar de conseguir enlaces en esas páginas también.
  • Buscar aquellos sitios que nos mencionan pero no nos enlazan y contactar con ellos para solicitarles que lo hagan.

Catalogando los diferentes tipos de enlaces

 

El tipo de enlace dependerá del sitio web que enlaza, así, podemos dividirlos en dos categorías diferentes:

1. Por relevancia:
  • Temáticos

Sitio web que trata el mismo tema y tiene contenido relevante.

  • De portales

Un portal es un sitio web que aglutina todo tipo de información y recursos sobre un sector determinado y, por ello, tiene muchos enlaces entrantes y salientes.

2. Por autoridad

Se afirma que un sitio web tiene autoridad cuando es un referente en su área de especialidad, ha logrado un posicionamiento alto en su sector y ofrece información de calidad. Obviamente, un enlace desde estos sitios web mejora la credibilidad de nuestro sitio. Por ejemplo, en el caso de sitios web de información al consumidor en España, un buen ejemplo de un sitio web con autoridad es consumer.es.

A su vez, la autoridad se puede dividir en dos tipos:

1) Autoridad local/sectorial

Es la autoridad basada en un tema o sector, como pueden ser: http://www.universia.es o http://www.imdb.com

2) Autoridad mundial

Es la autoridad basada en los enlaces mundiales como son los casos de Apple.com, Microsoft.com, Wikipedia.org y W3c.org.

Definición de autoridad

La autoridad en el campo de los buscadores tiene el mismo significado que en el mundo ‘real’: un experto cuya opinión es importante y valiosa.

No obstante, los buscadores determinan la autoridad de una forma diferente ya que se basan en un algoritmo según el cual cada enlace es percibido como una opinión o voto. Obviamente, la autoridad offline no tiene necesariamente que coincidir con la autoridad online.

Johan Cruyff sería un ejemplo de autoridad en el tema de fútbol o Eduard Punset en el área de la divulgación científica. Otros ejemplos de autoridades locales o sectoriales son: Gabriel García Márquez, John Williams o Pedro Almodóvar.

Algunos ejemplos de autoridades mundiales son: Leonardo da Vinci, Dalai Lama, Mahatma Gandhi, Freud y Einstein. Tal y como sucede en el mundo real, las autoridades globales son escasas online.

El equilibrio en el perfil de enlaces

Para crear un perfil de enlaces eficaz conviene obtener enlaces relevantes y de sitios con autoridad y mantener un equilibrio adecuado, en cuanto al anchor text de los enlaces entrantes, el PR de los sitios que enlazan, el porcentaje de enlaces con no follow, etc.

Autonomos

¿Cómo ver el perfil de enlaces del sitio web?

Hasta finales de 2011 era Yahoo quien ofrecía los datos más detallados sobre el perfil de enlaces de un sitio web, pero la compañía cerró este servicio a finales de 2011, coincidiendo con el final de la integración de Bing como motor de búsqueda en todos los sitios web de Yahoo.

Para ver unos pocos enlaces entrantes también se puede utilizar el comando “link” en Google (ejemplo: link: www.casadellibro.com), aunque Google solo ofrece una pequeña muestra de todos los enlaces entrantes al sitio web. La fuente más fiable para conocer los enlaces entrantes que tiene un sitio web son las Herramientas para Webmasters de Google (www.google.com/webmasters/tools) aunque solo se puede analizar el sitio web del que somos propietarios.

¿Qué herramientas tienen la capacidad de indexación necesaria para facilitar un perfil de enlaces cercano a la realidad de cualquier sitio web? Dos organizaciones que sí disponen de esta capacidad son SEOmoz (con Open Site Explorer) y Majestic SEO. Sin embargo, sus versiones gratuitas ofrecen realmente información incompleta, y el acceso a la información completa es de pago. Hay que tener en cuenta que la mayoría de programas gratuitos o de pago que analizan el perfil de enlaces de un sitio web trabajan la información a partir de los datos de una de estas fuentes mencionadas (SEOmoz o Majestic SEO).

Linkdiagnosis.com

Linkdiagnosis utiliza los datos de Open Site Explorer. Funciona a partir de una extensión para el navegador Firefox, y ofrece una visión de conjunto de los diferentes datos del perfil de enlaces.

Los enlaces

Se trata de una visión de conjunto de las páginas que enlazan el sitio web. En este punto es importante averiguar si se trata de enlaces de temática relevante o no. Obviamente, no todos los sitios web tienen que versar sobre el mismo tema pero si la mayoría de los enlaces no son temáticos, esto podría indicar que el perfil de enlaces es pobre. Lo mismo sucede con los enlaces de sitios web poco fiables o de baja calidad (por ejemplo, las 3P del marketing online: Porno, Póker y Píldoras).

El anchor text

El anchor text hace referencia al contenido del enlace y es importante porque contiene los términos de búsqueda que contribuirán a mejorar el posicionamiento del sitio web. Es vital comprobar que los anchor text están en sintonía con el contenido del sitio web y contienen las palabras clave objeto de posicionamiento. Por ejemplo, los textos del tipo: ‘Haz clic aquí’ no aportan información al buscador sobre la temática del sitio web. Si el objetivo es posicionar cierto término de búsqueda, es importante que estas palabras se utilicen con frecuencia en el anchor text, pero se recomienda usarlas en sus diferentes variantes (sinónimos, singular, plural…). Si los buscadores encuentran el mismo anchor text repetido pueden llegar a sospechar que el perfil de enlaces no es orgánico, sino que responde a una estrategia de obtención de enlaces, e investigar el perfil de enlaces por si se hubiera incumplido alguna de sus directrices.

La distribución del PageRank

Aunque el PageRank no es uno de los factores más fiables, puede ser un indicador de la calidad de los enlaces hacia la página web. Una gran cantidad de enlaces con un PageRank bajo pueden indicar un perfil de enlaces pobre.

Los tipos de enlaces

La herramienta muestra varios tipos de enlaces: los “buenos” (good), que son enlaces que pasan PR; los que ya no existen (missing), significa que los enlaces han sido eliminados; “no follow”, indica que el enlace no pasa PR; y, “N/A”, quiere decir que no se han encontrado datos sobre los enlaces.

Las trampas de los enlaces externos

Los enlaces patrocinados

En el verano de 2007 se suscitó una fuerte discusión sobre los enlaces patrocinados. En diciembre de ese mismo año Google implementó algunos cambios en las Directrices para Webmasters dejando claro que tomarían medidas contra los sitios web que comprasen o vendiesen enlaces. Hasta la fecha se ha podido apreciar que los sitios web que compran enlaces son penalizados a partir de una disminución del PageRank o la pérdida del posicionamiento. La razón por la cual Google ha tomado esta postura contra los enlaces patrocinados se debe a que buena parte de su algoritmo para determinar el posicionamiento de un sitio web depende de la distribución de los enlaces. Así, comprar enlaces distorsiona la imagen real de la popularidad de una página web ya que estos enlaces no se obtienen a partir de la relevancia o autoridad del sitio web, sino a golpe de talonario, y alteran los resultados de búsqueda orgánicos que ofrece Google.

Los enlaces en función de su ubicación en la página

Es importante precisar que los buscadores entienden que un enlace en la parte central del contenido es más valioso que un enlace en el pie de página de un sitio web o en el blogroll de un blog. Es lo que se conoce como ‘sitewide-links’. ‘Sitewide’ significa que el sitio web obtiene enlaces desde cada página dentro de otro sitio. Para un perfil de enlaces, esto significa que se obtendrán muchos enlaces que no están relacionados con el tema del sitio web y, por ende, serán irrelevantes para Google. Además, la falta de relevancia de estos enlaces también está relacionada con el escaso número de dominios desde los que un sitio web tiene enlaces, si ese es el caso. En efecto, es importante tener buenos enlaces (calidad y tema), un volumen de enlaces considerable (cantidad, que dependerá fundamentalmente de la competencia) y desde cuantos más dominios mejor (diversidad de dominios).

Por poner un ejemplo, tendrá mejor perfil de enlaces un sitio web con 25 enlaces desde 20 dominios distintos relacionados con su temática que un sitio web con 100 enlaces desde un único sitio (un blogroll de un blog, por ejemplo).

Los enlaces recíprocos


El término enlaces recíprocos se utiliza para indicar dos sitios web que se enlazan el uno con el otro. La página A pone un enlace a la página B y la página B coloca un enlace a la página A. Otro término para referirse a este fenómeno es: intercambio de enlaces. Obviamente, si los enlaces recíprocos se utilizan frecuentemente para construir una red de enlaces los buscadores podrán detectar rápidamente esta estrategia. Es preferible conseguir enlaces de forma natural, y que los sitios en los que conseguimos enlaces no nos exijan poner un enlace recíproco, pero tener unos cuantos enlaces recíprocos en el perfil no supone un problema, especialmente si los sitios con los que intercambiamos enlaces tienen una temática relacionada.

Conclusión

La obtención de enlaces externos es una parte importante de la optimización del sitio web. En función de la competencia que haya en un sector determinado, los enlaces externos pueden convertirse en una parte esencial del marketing online o pueden ser una herramienta muy eficaz para el posicionamiento de términos de búsqueda altamente competitivos. La obtención de enlaces externos es un proceso a largo plazo que puede incluirse en todas las actividades del marketing online u offline. De hecho, uilizar nuestra red de contactos para obtener enlaces externos puede ser muy beneficioso. Si se tienen en mente estos presupuestos se podrá comenzar a obtener enlaces externos inmediatamente y esta se convertirá en una actividad cotidiana. No obstante, primero es necesario asegurarse de que todos nuestros esfuerzos son compatibles con las Directrices de Google.

Lista de verificación

Analizando la calidad de los enlaces:

  • ¿Son relevantes para el tema de nuestra página?
  • ¿Hay palabras clave en el anchor text?
  • Los anchor text tienen variaciones en las palabras usadas? ¿Incluyen la marca en ocasiones?
  • ¿Tiene autoridad el dominio en el que está el enlace?
  • Los enlaces que compramos por tráfico o branding, ¿tienen la etiqueta no follow?
  • Nuestros enlaces recíprocos, ¿se dan con otras webs de temática relacionada o similar?
  • ¿Nuestros enlaces provienen de una diversidad aceptable de dominios?

Los enlaces externos

 

El linkbuiding o búsqueda de enlaces externos consiste en conseguir enlaces entrantes al sitio web con el objetivo de aumentar su valor de cara a los buscadores.

Internet es básicamente una red de enlaces y sitios web que se refieren los unos a los otros y esto es lo que posibilita que las arañas de un buscador puedan rastrear todo el contenido de Internet. Si un sitio webtiene un gran número de enlaces que apuntan hacia él, su valor aumentará y se encontrará con más facilidad. Un buen posicionamiento en los buscadores está determinado por tres factores:

  • La calidad desde el punto de vista técnico de la plantilla del sitio web y el sistema de gestión de contenido (la arquitectura del sitio)
  • La calidad del contenido
  • Los enlaces externos desde otros sitios web

La importancia de cada uno de estos factores es relativa y cambia constantemente, pero en los últimos años ninguno de los tres ha tenido una relevancia menor del 20%. Normalmente los enlaces externos poseen un peso que oscila entre el 40-60% para el posicionamiento. Obviamente, los factores “on-site” son más fáciles de optimizar, ya que se pueden controlar totalmente, mientras que para obtener los enlaces externos se necesita de terceros por lo que es mucho más difícil ejercer el control. Así, en el momento de optimizar el sitio web, la obtención de enlaces externos se convierte en la parte más intensa del trabajo.

Es importante entender que a menudo los enlaces externos son el factor que marca la diferencia entre un buen posicionamiento y un mal posicionamiento, para prestarle la atención que merece.

En este capítulo aprenderás:

En este capítuloaprenderáslos fundamentos del linkbuilding. También aprenderásacerca de los factoresde calidaddel perfl deenlacesdeun sitio web ylos factores de calidadde un enlace.Podrás utilizar lo que aprendas de inmediato, haciendo linkbuilding para tu propio sitio web. En este capítulo se repetirá la idea de que el linkbuilding es una actividad a largo plazo, que de hecho debe estar incluida en todas las actividades de marketing de cualquier organización.

¿Qué es un enlace?

Un enlace es una referencia de un sitio web hacia otro y, en cierta manera, puede entenderse como un voto al sitio. Según esto, ¿cuál es el aspecto de un enlace?

En el código HTML el enlace aparecerá así:

<a href=»http://www.sitio.es»>Texto del enlace<a>

El atributo href es el que apunta a la página de destino, la página enlazada. Los enlaces pueden ser de texto, como el que acabamos de ver, pero también pueden tomar otras formas, por ejemplo, una imagen.

¿Por qué los enlaces externos son tan importantes?

El proceso de optimización de un sitio web se puede dividir en dos fases: optimización on-site y off-site. La optimización on-site se refiere a todas las acciones SEO realizadas dentro del sitio web, mientras que la obtención de enlaces externos es un proceso de optimización off- site.

En SEO la relación entre on-site y off-site es de 40/60; un 40% para las técnicas que se aplican dentro de la página web y un 60% para el proceso externo a la página. Obviamente, esta proporción depende mucho del mercado ya que en un sector altamente competitivo (como el de los viajes, por ejemplo) el sitio web necesitará más enlaces para lograr un buen posicionamiento.

Los enlaces externos son imprescindibles para cualquier sitio web que pretenda posicionarse bien en los buscadores: permiten que una página web alcance un buen posicionamiento en los términos de búsqueda y las palabras altamente competitivos.

Finalmente, debe puntualizarse que los buscadores utilizan el perfil del enlace de la página para determinar el tema del sitio web, así como para determinar la autoridad.

¿Cómo calcular el valor del enlace?

Los buscadores valoran los enlaces a una página web por dos factores: la calidad y la cantidad. A su vez, la calidad se divide en cuatro factores:

  • tema / relevancia
  • anchor text
  • poder / autoridad
  • legitimidad

Estos cuatro factores son esenciales para comprender el proceso de obtención de enlaces externos. Los analizamos uno a uno a continuación.

  • Tema / Relevancia

Un enlace desde una página donde aparece una reseña de libros hacia un sitio web sobre los seguros de vida no es relevante para los usuarios ni para los buscadores. Sin embargo, un enlace desde esa misma página de reseña de libros hacia un sitio web de una librería (como podría ser www.casadellibro.com), es altamente relevante. Es decir, es importante atraer enlaces de las páginas que tratan temas similares, ya que así ayudamos a los buscadores a determinar el tema de la página y de todo el sitio web.Además, otro punto importante es que los enlaces que provienen de sitios web de carácter informativo y no comercial, a menudo tienen mucho más valor que los enlaces de los sitios web comerciales.

  • Anchor text

El texto que se utiliza para enlazar una página web es la primera indicación (tanto para los usuarios como para los buscadores) sobre el contenido de la misma. En pocas palabras, este texto debería de ser esencialmente una descripción corta de la página web a la que enlaza, es decir, utilizar las palabras clave que la definan. Además, si se utiliza con frecuencia el mismo anchor text para enlazar una página, los buscadores entenderán que esas palabras son altamente relevantes para la página. Por ende, cuantos más enlaces existan con el anchor text ‘libros de cocina’, mejor se posicionará la página para ese término de búsqueda.

Variar el anchor text de los enlaces externos

Si todos los enlaces externos hacia una página web tienen el mismo anchor text los buscadores sospecharán que los enlaces no se han obtenido de forma natural, es decir, sin que medie un intercambio o una búsqueda de enlaces. En ese caso, se corre el riesgo de que los buscadores consideren esta página como spam o de que la investiguen. Por ello, es recomendable variar el anchor text, utiliza sinónimos, singular o plural…

  • Valor/Autoridad

El valor de un enlace depende de diferentes factores, los tres más importantes son:

  • ¿Cuántos enlaces entrantes tiene la página web que enlaza?
  • ¿Cuántos enlaces salientes tiene la página web que enlaza?
  • ¿Cuántos enlaces entrantes tiene el dominio de la página web que enlaza?

Obviamente, un sitio web atraerá una gran cantidad de enlaces si ofrece información de calidad y es percibido como una autoridad en un determinado sector. El estatus y la autoridad a menudo proporcionan enlaces que aportan grandes beneficios en términos de posicionamiento.

  • Legitimidad

A ojos de los buscadores, los enlaces válidos son aquellos que se hayan obtenido de forma natural, es decir, un sitio webque ofrece contenido de calidad y que, en consecuencia, recibe un gran número de enlaces que apuntan hacia el mismo. En este sentido, los buscadores penalizan la compra de enlaces como método para lograr un mejor posicionamiento en sus resultados de búsqueda. Por supuesto, es legítimo comprar enlaces en sitios web que generan mucho tráfico relevante (por ejemplo, un portal dentro de nuestro sector), para obtener tráfico directo, pero estos enlaces deberían tener la etiqueta “no-follow”, de manera que indicamos al buscador que no lo tenga en cuenta en su algoritmo. De esta forma el enlace no contribuirá a mejorar el posicionamiento pero no nos arriesgamos a ser penalizados por incumplir las directrices de calidad de los buscadores en contra de la compra de enlaces.

La etiqueta nofollow

Un enlace con la etiqueta ‘nofollow’ se muestra de la siguiente forma:

<a                                href=»http://www.casadellibro.com/libros/coaching»

rel=»nofollow»>Libros sobre Coaching</a>

La etiqueta nofollow asegura que el enlace no será tomado en cuenta cuando se calcule el valor de la página web de destino, ya que los buscadores entienden que no deben tenerlo en cuenta para el posicionamiento de la página enlazada.

El PageRank

El PageRank es una parte integrante del algoritmo de Google, junto a otros centenares de factores. Es muy popular, incluso entre los no especialistas en posicionamiento en buscadores, porque fue una importante innovación en su momento, y contribuyó a destacar a Google de otros buscadores.

El PageRank de una página se define en función de la cantidad y calidad de páginas que la enlazan. O dicho de otra forma, el PR de una página es el resultado de una «votación» entre todas las demás páginas de Internet acerca de la importancia que tiene esa página (en función de si la enlazan o no).

Google.es tiene un PageRank 7

Se suele decir que el PageRank de Google es un buen indicador del valor que tiene una página web y, por tanto, un buen indicador del valor que puede tener para tu página el hecho de que esa página te enlace, pero esto no es totalmente cierto, porque conseguir enlaces desde páginas temáticamente relacionadas con la nuestra pero en las que el PR es muy bajo, por ejemplo, porque son muy nuevas, es algo muy bueno.

El Page Rank se basa en el cálculo de dos factores: el número de los enlaces entrantes y su valor. Así, el valor de los enlaces depende en parte del número de enlaces entrantes que tenga la página web.

El PageRank puede compararse con el índice de impacto que utilizan las publicaciones científicas. El índice de impacto se basa en el número de citas que tiene la revista en otras publicaciones. Esto significa que el índice de impacto siempre será más alto en las áreas generales respecto a los sectores más específicos. Así, el PageRank solo sería útil cuando se intente establecer una comparación entre sitios web dentro del mismo sector del mercado.

El PageRank se actualiza continuamente pero el índice que se aprecia en la barra de instrumentos de Google solo se actualiza 3 o 4 veces el año, por lo que este valor resulta poco fiable.

La cantidad

Aunque en ocasiones un solo enlace de calidad puede tener más valor que 500 enlaces irrelevantes, la cantidad también es importante, sobre todo en el caso de Bing.

¡Atención con los enlaces de mala calidad!

Los enlaces de mala calidad también pueden afectar el posicionamiento del sitio web. Un gran número de enlaces irrelevantes puede tener un efecto negativo sobre el posicionamiento, incluso si existen enlaces de calidad que contrastan su efecto.

La coherencia y el equilibrio de todos los factores

Cuando se plantea una estrategia de búsqueda de enlaces externos, conviene tener en cuenta la coherencia y el equilibrio de los enlaces que se quieran obtener. Es muy fácil optar por la cantidad en vez de la calidad, usar continuamente el mismo anchor text y dirigirse solo a las páginas web donde se pueden obtener enlaces de manera sencilla y rápida. No obstante, para que la campaña de linkbuilding tenga el efecto deseado es importante que todos los factores estén adecuadamente equilibrados.

Podemos guiarnos por una regla de oro: aquel enlace que todo el mundo puede conseguir fácilmente no es un enlace de valor. Conseguir enlaces externos es una inversión a largo plazo que demanda tiempo y esfuerzo, pero que reporta grandes beneficios y, por ello, debe formar parte de la estrategia de posicionamiento de un sitio web.

Catalogando los diferentes tipos de enlaces

El tipo de enlace dependerá del sitio web que enlaza, así, podemos dividirlos en dos categorías diferentes:

1. Por relevancia:
  • Temáticos

Sitio web que trata el mismo tema y tiene contenido relevante.

  • De portales

Un portal es un sitio web que aglutina todo tipo de información y recursos sobre un sector determinado y, por ello, tiene muchos enlaces entrantes y salientes.

2. Por autoridad

Se afirma que un sitio web tiene autoridad cuando es un referente en su área de especialidad, ha logrado un posicionamiento alto en su sector y ofrece información de calidad. Obviamente, un enlace desde estos sitios web mejora la credibilidad de nuestro sitio. Por ejemplo, en el caso de sitios web de información al consumidor en España, un buen ejemplo de un sitio web con autoridad es consumer.es.

A su vez, la autoridad se puede dividir en dos tipos:

1) Autoridad local/sectorial

Es la autoridad basada en un tema o sector, como pueden ser: http://www.universia.es o http://www.imdb.com

2) Autoridad mundial

Es la autoridad basada en los enlaces mundiales como son los casos de Apple.com, Microsoft.com, Wikipedia.org y W3c.org.

Definición de autoridad

La autoridad en el campo de los buscadores tiene el mismo significado que en el mundo ‘real’: un experto cuya opinión es importante y valiosa.

No obstante, los buscadores determinan la autoridad de una forma diferente ya que se basan en un algoritmo según el cual cada enlace es percibido como una opinión o voto. Obviamente, la autoridad offline no tiene necesariamente que coincidir con la autoridad online.

Johan Cruyff sería un ejemplo de autoridad en el tema de fútbol o Eduard Punset en el área de la divulgación científica. Otros ejemplos de autoridades locales o sectoriales son: Gabriel García Márquez, John Williams o Pedro Almodóvar.

Algunos ejemplos de autoridades mundiales son: Leonardo da Vinci, Dalai Lama, Mahatma Gandhi, Freud y Einstein. Tal y como sucede en el mundo real, las autoridades globales son escasas online.

El equilibrio en el perfil de enlaces

Para crear un perfil de enlaces eficaz conviene obtener enlaces relevantes y de sitios con autoridad y mantener un equilibrio adecuado, en cuanto al anchor text de los enlaces entrantes, el PR de los sitios que enlazan, el porcentaje de enlaces con no follow, etc.

¿Cómo ver el perfil de enlaces del sitio web?

Hasta finales de 2011 era Yahoo quien ofrecía los datos más detallados sobre el perfil de enlaces de un sitio web, pero la compañía cerró este servicio a finales de 2011, coincidiendo con el final de la integración de Bing como motor de búsqueda en todos los sitios web de Yahoo.

Para ver unos pocos enlaces entrantes también se puede utilizar el comando “link” en Google (ejemplo: link: www.casadellibro.com), aunque Google solo ofrece una pequeña muestra de todos los enlaces entrantes al sitio web. La fuente más fiable para conocer los enlaces entrantes que tiene un sitio web son las Herramientas para Webmasters de Google (www.google.com/webmasters/tools) aunque solo se puede analizar el sitio web del que somos propietarios.

¿Qué herramientas tienen la capacidad de indexación necesaria para facilitar un perfil de enlaces cercano a la realidad de cualquier sitio web? Dos organizaciones que sí disponen de esta capacidad son SEOmoz (con Open Site Explorer) y Majestic SEO. Sin embargo, sus versiones gratuitas ofrecen realmente información incompleta, y el acceso a la información completa es de pago. Hay que tener en cuenta que la mayoría de programas gratuitos o de pago que analizan el perfil de enlaces de un sitio web trabajan la información a partir de los datos de una de estas fuentes mencionadas (SEOmoz o Majestic SEO).

Sistemas Gestion de Calidad

Linkdiagnosis.com

Linkdiagnosis utiliza los datos de Open Site Explorer. Funciona a partir de una extensión para el navegador Firefox, y ofrece una visión de conjunto de los diferentes datos del perfil de enlaces.

Los enlaces

Se trata de una visión de conjunto de las páginas que enlazan el sitio web. En este punto es importante averiguar si se trata de enlaces de temática relevante o no. Obviamente, no todos los sitios web tienen que versar sobre el mismo tema pero si la mayoría de los enlaces no son temáticos, esto podría indicar que el perfil de enlaces es pobre. Lo mismo sucede con los enlaces de sitios web poco fiables o de baja calidad (por ejemplo, las 3P del marketing online: Porno, Póker y Píldoras).

El anchor text

El anchor text hace referencia al contenido del enlace y es importante porque contiene los términos de búsqueda que contribuirán a mejorar el posicionamiento del sitio web. Es vital comprobar que los anchor text están en sintonía con el contenido del sitio web y contienen las palabras clave objeto de posicionamiento. Por ejemplo, los textos del tipo: ‘Haz clic aquí’ no aportan información al buscador sobre la temática del sitio web. Si el objetivo es posicionar cierto término de búsqueda, es importante que estas palabras se utilicen con frecuencia en el anchor text, pero se recomienda usarlas en sus diferentes variantes (sinónimos, singular, plural…). Si los buscadores encuentran el mismo anchor text repetido pueden llegar a sospechar que el perfil de enlaces no es orgánico, sino que responde a una estrategia de obtención de enlaces, e investigar el perfil de enlaces por si se hubiera incumplido alguna de sus directrices.

La distribución del PageRank

Aunque el PageRank no es uno de los factores más fiables, puede ser un indicador de la calidad de los enlaces hacia la página web. Una gran cantidad de enlaces con un PageRank bajo pueden indicar un perfil de enlaces pobre.

Los tipos de enlaces

La herramienta muestra varios tipos de enlaces: los “buenos” (good), que son enlaces que pasan PR; los que ya no existen (missing), significa que los enlaces han sido eliminados; “no follow”, indica que el enlace no pasa PR; y, “N/A”, quiere decir que no se han encontrado datos sobre los enlaces.

Las trampas de los enlaces externos

Los enlaces patrocinados

En el verano de 2007 se suscitó una fuerte discusión sobre los enlaces patrocinados. En diciembre de ese mismo año Google implementó algunos cambios en las Directrices para Webmasters dejando claro que tomarían medidas contra los sitios web que comprasen o vendiesen enlaces. Hasta la fecha se ha podido apreciar que los sitios web que compran enlaces son penalizados a partir de una disminución del PageRank o la pérdida del posicionamiento. La razón por la cual Google ha tomado esta postura contra los enlaces patrocinados se debe a que buena parte de su algoritmo para determinar el posicionamiento de un sitio web depende de la distribución de los enlaces. Así, comprar enlaces distorsiona la imagen real de la popularidad de una página web ya que estos enlaces no se obtienen a partir de la relevancia o autoridad del sitio web, sino a golpe de talonario, y alteran los resultados de búsqueda orgánicos que ofrece Google.

Los enlaces en función de su ubicación en la página

Es importante precisar que los buscadores entienden que un enlace en la parte central del contenido es más valioso que un enlace en el pie de página de un sitio web o en el blogroll de un blog. Es lo que se conoce como ‘sitewide-links’. ‘Sitewide’ significa que el sitio web obtiene enlaces desde cada página dentro de otro sitio. Para un perfil de enlaces, esto significa que se obtendrán muchos enlaces que no están relacionados con el tema del sitio web y, por ende, serán irrelevantes para Google. Además, la falta de relevancia de estos enlaces también está relacionada con el escaso número de dominios desde los que un sitio web tiene enlaces, si ese es el caso. En efecto, es importante tener buenos enlaces (calidad y tema), un volumen de enlaces considerable (cantidad, que dependerá fundamentalmente de la competencia) y desde cuantos más dominios mejor (diversidad de dominios).

Por poner un ejemplo, tendrá mejor perfil de enlaces un sitio web con 25 enlaces desde 20 dominios distintos relacionados con su temática que un sitio web con 100 enlaces desde un único sitio (un blogroll de un blog, por ejemplo).

Los enlaces recíprocos


El término enlaces recíprocos se utiliza para indicar dos sitios web que se enlazan el uno con el otro. La página A pone un enlace a la página B y la página B coloca un enlace a la página A. Otro término para referirse a este fenómeno es: intercambio de enlaces. Obviamente, si los enlaces recíprocos se utilizan frecuentemente para construir una red de enlaces los buscadores podrán detectar rápidamente esta estrategia. Es preferible conseguir enlaces de forma natural, y que los sitios en los que conseguimos enlaces no nos exijan poner un enlace recíproco, pero tener unos cuantos enlaces recíprocos en el perfil no supone un problema, especialmente si los sitios con los que intercambiamos enlaces tienen una temática relacionada.

Conclusión

La obtención de enlaces externos es una parte importante de la optimización del sitio web. En función de la competencia que haya en un sector determinado, los enlaces externos pueden convertirse en una parte esencial del marketing online o pueden ser una herramienta muy eficaz para el posicionamiento de términos de búsqueda altamente competitivos. La obtención de enlaces externos es un proceso a largo plazo que puede incluirse en todas las actividades del marketing online u offline. De hecho, uilizar nuestra red de contactos para obtener enlaces externos puede ser muy beneficioso. Si se tienen en mente estos presupuestos se podrá comenzar a obtener enlaces externos inmediatamente y esta se convertirá en una actividad cotidiana. No obstante, primero es necesario asegurarse de que todos nuestros esfuerzos son compatibles con las Directrices de Google.

Lista de verificación

Analizando la calidad de los enlaces:

  • ¿Son relevantes para el tema de nuestra página?
  • ¿Hay palabras clave en el anchor text?
  • Los anchor text tienen variaciones en las palabras usadas? ¿Incluyen la marca en ocasiones?
  • ¿Tiene autoridad el dominio en el que está el enlace?
  • Los enlaces que compramos por tráfico o branding, ¿tienen la etiqueta no follow?
  • Nuestros enlaces recíprocos, ¿se dan con otras webs de temática relacionada o similar?
  • ¿Nuestros enlaces provienen de una diversidad aceptable de dominios?

El contenido duplicado

 

Uno de los problemas más comunes de un sitio web es el contenido duplicado. Cuando nos referimos al contenido duplicado estamos hablando de dos o más URL diferentes que refieren el mismo contenido. Existen varias situaciones en las que esto puede suceder:

  • La página incluye un artículo y una versión para imprimir.
  • Los productos se encuentran listados en diferentes categorías y cada una tiene una URL distinta.
  • Los sitios web que no han elegido una versión canónica (dominio.com y dominio.com)

El problema que acarrea el contenido duplicado es que los buscadores no desean mostrar el mismo contenido más de una vez, por lo que optan por elegir una URL y descartan el resto. Esto significa que las páginas web que no se muestran pierden el valor del enlace y, además, puede ocurrir que el buscador no devuelva la URL del contenido original o la que por diferentes motivos interese mostrar.

Aun así, el problema del contenido duplicado usualmente se subestima. Cuando se construye un sitio web se debe intentar por todos los medios que este problema no se presente, la forma más sencilla de evitarlo es crear páginas web con URL únicas. Cuando esto no sea posible, por ejemplo, en el caso de las versiones para imprimir con otra URL, se puede aplicar un atributo nofollow a la URL e incluir la URL en el fichero robots.txt (en la sección siguiente se explica qué son los ficheros robots.txt).

La forma más correcta desde el punto de vista semántico, es mediante el uso del atributo rel=“print” dentro del enlace, que indicará a los buscadores que se está enlazando a la versión imprimible.

Otra situación en la que puede aparecer contenido duplicado es a través de los buscadores internos. Pongamos por caso que los buscadores internos permiten buscar todos los elementos dentro de una categoría y que las páginas resultantes serán (al menos en gran parte), una copia de la página de categorías. Hay que intentar evitar esta situación personalizando el contenido para las páginas de resultados, así como revisando la paginación de los resultados. En este ejemplo, deberemos asegurarnos de que las páginas de resultados no sean indexadas ya que, además, estas páginas difícilmente atraerán enlaces y no acumularán ningún valor. Para excluir estas páginas de la indexación basta añadir una meta etiqueta robots con el siguiente contenido: noindex, follow.

Este error de paginación lo podemos encontrar en las páginas de contenidos o categorías, y habrá que estar antento a personalizar losmetas title y description de la cabecera.

Los robots.txt

Los robots.txt son un fichero de texto que le indica a los buscadores qué páginas web hay que indexar y cuáles no. Este fichero se sitúa en la raíz del sitio web de forma que los buscadores llegan al mismo a través de www.sitio.es/robots.txt, y lo pueden leer antes de comenzar a rastrear el sitio web.

Localización del CMS en robots.txt

Como el fichero debe situarse en la raíz del dominio: www.sitio.es/robots.txt, puede ser accesible para todos. Por lo tanto, si este fichero se coloca en el gestor de contenidos (CMS por sus siglas en inglés) todo el mundo podrá localizarlo, incluidos los hackers.

A continuación ofrecemos un ejemplo de un fichero robots.txt:

Sitemap: http://www.sitio.es/sitemap.xml User-agent: *

Disallow: /cgi-bin/

Disallow: */tmp*

Disallow: /junk/

Este fichero indica que ningún buscador está autorizado a rastrear estos directorios, incluido cualquier otro tipo de fichero interno dentro de los mismos. Por ejemplo, www.site.es/tmp/tmp2/tmp3.html no se podrá rastrear.

Además estamos reafirmando al buscador en qué URL dónde está alojado el sitemap principal de la web.

El código que aparece debajo se utiliza para determinar qué directorios no deben ser rastreados, con este objetivo se usa el comando ‘disallow’ mientras el comando ‘allow’ le indica a los buscadores qué directorios están abiertos para ser indexados, pese a que últimamente el comando ‘allow’ no tiene ningún efecto ya que si no se incluye ningún comando, los buscadores lo rastrearán todo por defecto. No obstante, el comando ‘allow’ también es útil para especificar que un archivo no debe ser indexado pero sí un fichero en su interior. Esto se puede hacer con el siguiente fragmento de código:

User-agent: *

Disallow: /hidden-folder/

Allow: /hidden-folder/access-file.html

Obviamente, no es práctico incluir en un fichero robots.txt todo lo que debe ser indexado y lo que no, sobre todo si se trata de un sitio web grande. Afortunadamente, los buscadores comprenden los caracteres comodín (en inglés, wildcards). Los caracteres comodín son signos que representan otros signos. Por ejemplo, * indica una serie de al menos un carácter. Si por alguna razón particular, no queremos que nuestras imágenes aparezcan en los resultados de búsqueda, el carácter comodín puede ser útil para asegurarnos de que estas no aparecerán listadas en el Buscador de Imágenes. El siguiente código permite hacerlo:

User-agent: *

Disallow: /*.jpg$

Disallow: /*.gif$

El signo $ indica el final de la URL. Con este fragmento de código robots.txt, todos los ficheros con la extensión .jpg o .gif no serán indexados. Otro ejemplo podría ser cuando no se desea indexar una URL que no sea apta para buscadores. Estas URL incluyen un ? por lo que puede utilizarse el código que se muestra a continuación con el que se excluyen todas las URL que contienen el signo ?, es decir, que incluyen variables:

User-agent: *

Disallow: /*?

Más adelante en este mismo capítulo analizaremos las Herramientas de Google para webmasters, que también pueden ser útiles en temas relacionados con los robots.txt. Google utiliza las Herramientas para webmasters para indicar qué páginas web no han sido encontradas ya que han sido excluidas del fichero robots.txt. Estas herramientas también pueden usarse para conocer si los robots.txt están cumpliendo adecuadamente con su trabajo.

Community Manager

Se recomienda limitar el número de páginas que no se quieren indexar, por temas de seguridad.

Los robots.txt por sí solos no son suficiente

Cuando a través del fichero robots.txt se excluye una página web de los buscadores, es importante que todos los enlaces hacia esta página que posean el atributo rel=”nofollow” pasen a ser reescritos mediante JavaScript. En caso de que no se haga, el valor del enlace pasará inútilmente a esta página weby es posible que Google continúe indexando la página durante un tiempo. En este caso, estaríamos malgastando el valor del enlace hacia una página web que no será indexada y que, además, continuará apareciendo la página en los resultados de búsqueda a pesar de que no es lo que se pretende.

Sitemaps XML

Existen dos tipos de sitemaps web; el primero de ellos, el mapa web, ya se mencionó con anterioridad y sirve para ofrecer al usuario una visión de conjunto del sitio web, mientras que el segundo se denomina sitemap XML. Este sitemap no está dirigido a los usuarios sino exclusivamente a los buscadores y se utiliza como repositorio de todas las URL del sitio web. De esta forma los buscadores podrán indexar con mayor facilidad las páginas del sitio web. Además, también se les puede dar información adicional del tipo: cuándo se realizó la última modificación de la página, con qué frecuencia se cambia el contenido de la página web, etc.

Google indica que un sitemap XML es útil para indexar el contenido que no ha sido rastreado a través de la estructura normal. Y, así es, no solo indicamos al buscador cuál es la estructura de la web sino que incluimos todas las URL, de forma que tendrá acceso a aquellas que no tengan enlaces.

No obstante, también es importante señalar que el sitemap XML no es una solución propiamente dicha para mejorar el posicionamiento de las páginas web, sino que es solo una ayuda para su indexación. Es decir, gracias al sitemap XML Google logrará acceder a estas páginas web y rastrearlas, pero si no existe ningún enlace que dirija hacia ellas, será muy difícil que logren un buen posicionamiento.

La estructura de los sitemaps ha evolucionado desde el primer archivo de texto plano a sitemaps construidos en XML que permiten indexar URL o llegar más lejos añadiendo imágenes y vídeos.

En sitios webs grandes hay que tener en cuenta los límites del fichero que no pueden exceder las 30.000 URL’s y 10Mb por sitemap. En el caso de exceder estos límites se recomienda crear un sitemap índice y los sitemaps de URL necesarios según el tamaño de la página.

Se recomienda tener una estrategia de sitemaps adecuada para la estrategia de cada página web, de forma que según la estructura de sitemaps elegida, se puede potenciar la indexación de la página ajustando la frecuencia de indexación y el tipo de sitemap en función de su contenido, importancia y estructura dentro de la web.

En la estrategia de sitemaps, en el caso en que la web tenga alojados videos, tener un sitemap específico de video, y añadri en los sitemaps de productos la imágenes adoptando para este sitemap el protocolo adecuado.

Encontrarás más información sobre el sitemap XML en: http://www.sitemaps.org/.

Las Herramientas para Webmasters de Google

Cuando los buscadores indexan un sitio websuelen aparecer todo tipo de errores: algunas páginas simplemente no existen, otras dan error 404, hay URL que no pueden rastrearse porque así lo indica el archivo robots.txt por error, etc. Afortunadamente, Google tiene un programa denominado Herramientas para Webmasters (Google Webmaster Tools) que muestra qué encontró el buscador al indexar el sitio web.

Puedes acceder a las Herramientas para Webmasters a través del enlace: www.google.com/webmasters/tools. Deberás crear la cuenta y demostrar que eres el propietario del sitio web. Para hacerlo existen varias posibilidades: incluir un meta-tag en la cabecera de la web, subir un archivo a la raíz del servidor, ser administrador de la página mediante Google Analytics o mediante la configuración de las DNS del dominio.

Una vez que se ha validado la propiedad de la web, se le pide a Google que verifique la cuenta. Después de esto, se puede iniciar la sesión.

Algunos de los informes destacados de las herramientas de Google para Webmasters son:

  • Configuración geográfica de la página web.
  • Sitemaps de la web.
  • Consultas de búsqueda por las que la web aparece en resultados de Google.
  • Enlaces entrantes.
  • Impacto en Google +.
  • Monitorización de errores de la web.
  • Rendimiento de la página respecto al resto de webs.

*** 08-02 Herramienta para Webmasters de Google

Esta herramienta es extremadamente útil, especialmente para los sitios web nuevos o cuando se hace un cambio de web, ya que permite controlar si Google ya ha encontrado el sitio y si ha comenzado a indexarlo. Además, puede ser interesante ver si el número de páginas rastreadas aumenta tan pronto como se comience a añadir contenido con regularidad al sitio web.

Algunos de los informes que muestra Google Webmaster Tools no son

tan valiosos, como el informe de enlaces entrantes, ya que únicamente muestra una representación del total de enlaces que apuntan a la web y los mostrados suelen ser poco representativos o de dudosa calidad como para poder tomar decisiones al respecto.

Para poder ver la evolución de los enlaces conseguidos por una web, se puede recurir a herramientas como SpyGlass o MagesticSEO, ambas ofrecen una muestra del total de enlaces que obtiene la página web, en este caso más representativa que la que nos ofrece Google, además permite hacer un seguimiento cualitativo.

En definitiva, las Herramientas para Webmasters de Google ofrecen una gran cantidad de posibilidades a la hora de hacer el seguimiento de la evolución del sitio web y son un buen recurso que es recomendable utilizar.

Las Herramientas para Webmasters de otros buscadores

Bing tiene una aplicación similar, pero los datos mostrados son más reducidos que en la herramienta de Google y algunos de ellos también son poco representativos para poder tomar decisiones.

Conclusión

Como habrás podido apreciar al leer este capítulo, es importante no descuidar los aspectos técnicos del sitio web. Un sitio web con contenido duplicado no logrará un buen rendimiento hasta que este problema no se resuelva y lo mismo sucede con la reescritura de URL, que contribuye a mejorar tanto la experiencia del usuario como el posicionamiento en los buscadores.

Todos estos aspectos técnicos no deberían ser un ‘debería’sino que son la base técnica y de correcta indexación de una página web, no son temas complicados o imposibles y para cualquier web con intención de posicionar en un mercado mínimamente competitivo, es una obligación tenerlos bien resueltos. Una auditoría anual o semestral de estos parámetros puede ser una buena forma de no perderlos de vista.Muchas veces nos preguntamos ¿por qué nuestra competencia posiciona tan rápido o en peores condiciones SEO y en total consigue mejores resultados que tu web? Tener la base de SEO técnico resuelto puede ser la respuesta.

Lista de verificación

Analizar los aspectos técnicos siguientes:

  • ¿Usas la redirección 301 para redireccionar una página web?
  • ¿La página 404 realmente devuelve un código de respuesta 404?
  • ¿Las URL son aptas para buscadores y usuarios?
  • ¿Has escogido la versión canónica?

¿Tienes contenido duplicado?

  • ¿En las páginas para imprimir?
  • ¿En las páginas de los productos que están listados en diferentes categorías?
  • ¿La página de inicio es accesible a través de diferentes URL?

¿Es correcto el archivo robot.txt?

  • ¿No habrás excluido demasiado contenido?

¿Has añadido el sitemap XML (en el caso de que tengas uno) a los buscadores? ¿Tienes una estrategia de sitemaps?

¿Has creado una cuenta en las Herramientas para Webmasters de Google?

18http://www.w3.org/Protocols/rfc2616/rfc2616-sec 10.html 19ISBN-10: 1590595610; ISBN-13: 978-1590595619

El servidor

Como ya mencionábamos anteriormente las arañas de los buscadores son, en realidad, un navegador muy sencillo. Los navegadores solo interpretan HTML, pero el SEO va mucho más allá del HTML. Además, existen diferentes técnicas para ayudar a los buscadores a indexar el sitio web tan rápido como sea posible. Este capítulo es muy técnico pero es un conjunto de recomendaciones que vale la pena implementar, lo notarás en los resultados.

En este capítulo aprenderás:

En este capítulo analizaremos los aspectos relacionados con el servidor que son importantes para SEO, abordaremos los temas siguientes:

  • Velocidad de descarga de la web
  • Las redirecciones
  • La reescritura del URL
  • El contenido duplicado
  • Los txt
  • Los sitemaps XML
¿Cómo funciona un servidor?

Un navegador construye una página web usando HTML, CSS y en ocasiones JavaScript, pero para que eso ocurra, el servidor también tiene que hacer su parte. El servidor procesa las peticiones, genera el HTML, lo sirve y envía un código de respuesta del servidor (que indica si se ha procesado todo adecuadamente o si se ha presentado algún error). He aquí una lista con algunos de los códigos más importantes:

  • 200 – Página encontrada
  • 301 – Redirección permanente
  • 302 – Redirección temporal
  • 404 – Página no encontrada
Códigos de respuesta del servidor

Hay varios grupos de códigos de respuesta: los mensajes que se encuentran dentro del grupo 200 indican que todo ha ido bien, y los que están incluidos en la serie 300 señalan la existencia de múltiples páginas enlazadas. La serie 400 indica que el navegador no puede mostrar la página web de forma adecuada y, finalmente, la serie 500 señala los errores de servidor.

Una buena configuración del servidor tiene un impacto extremadamente positivo en el posicionamiento en buscadores, en este capítulo analizaremos algunos de los aspectos más importantes; aunque podría parecer que son dos áreas diferenciadas y sin relación entre sí, trataremos de exponerlos de forma que se entienda la repercusión. En primer lugar, analizaremos la velocidad de descarga de la web, las redirecciones y la reescritura del URL y, posteriormente, examinaremos el contenido duplicado; además, explicaremos cómo indicarle a los buscadores las páginas webqué deben o no indexar y analizaremos el alcance de los sitemap XML o los robots.txt.

Velocidad de descarga de la web

En los últimos meses, la velocidad de descarga de la web se ha convertido en un factor SEO muy relevante. Hay diversas técnicas que contribuirán a mejorar la velocidad de descarga, a saber:

Hosting/housing

Este apartado es primordial, ya que dependiendo del datacenter donde se inserta el servidor y datacenter donde se aloja la web, habrá mayor conectividad y posibilidad de servir mayores peticiones en menor tiempo. Para webs con mucho tráfico o webs orientadas al e- commerce este factor se convierte en una prioridad.

A la hora de elegir dónde se va a alojar una web, conviene hacerse las siguientes preguntas:

  • Sistema de tráfico contratado: por volumen de tráfico o por ancho de banda de la línea asignada al servidor.
  • Capacidad del datacenter para absorber peticiones.
  • Capacidad del servidor, desde la memoria RAM, tipo de CPU, a porcentaje de CPU consumida. Posibilidad de personalizar la memoria asignada a procesos del servidor.

En el caso de tener un servidor compartido o utilizar cloud computing, hay que asegurarse de que el resto de webs con las que se comparte infraestructura no afecten a la capacidad de dar respuesta a peticiones.

Este apartado se puede valorar principalmente mediante dos indicadores: tiempo medio de resolución de peticiones, velocidad de descarga (en kb/seg).

Importancia de la velocidad de carga de la página web

Algunas páginas son muy lentas y esto es negativo para la experiencia del usuario que incluso puede llegar a abandonar el sitio web. El mismo principio se aplica a los buscadores, que favorecen de cara al posicionamiento a aquellas páginas web que cargan más rápido, en su afán por aumentar la satisfacción del usuario. Por esta razón es importante, tanto para los usuarios como para los buscadores, que la página web cargue rápidamente.

Desde junio de 2010, con la entrada del algoritmo Google Caffeine, la velocidad de carga se ha convertido en uno de los factores de posicionamiento más importantes, ya que desde entonces, Google mide activamente la velocidad de carga de las webs. Para reducir la velocidad de carga hay que mejorar el rendimiento de la web a nivel de servidor y de compilación de los scripts.

A nivel de servidor, es importante tener en cuenta desde la configuración del sistema operativo, al tipo de máquina y especificaciones técnicas de esta, hasta poder llegar a utilizar sistemas de caché y proxy-cache, para poder aumentar el número de peticiones y reducir la compilación de las mismas.

A nivel de código fuente, hay que intentar que el mismo esté bien estructurado, reducir las peticiones internas a la misma máquina y hay que utilizar técnicas de caché y reducir el peso de los archivos a descargar (tanto de código fuente como tamaño y número de las imágenes), con el objetivo de reducir el tiempo de carga.

Optimización de peticiones/conexiones

Una web se puede programar de diferentes formas, si nuestro objetivo es aumentar la capacidad de respuesta, podemos utilizar varias técnicas, incluso varias de ellas a la vez. Algunas de estas técnicas son las siguientes:

  • Utilización de sistemas de caché de script.
  • Utilización de caché de base de datos.
  • Utilización de caché a nivel de servidor.
  • Implementación de sistemas de CDN.
  • Reducción del número de peticiones a bases de datos durante la carga de la web.
  • Uso de CSS sprites para reducir el número de imágenes cargadas.

Todas estas técnicas aceleran el tiempo de descarga de la web y el volumen de uso de CPU, con lo que no sólo se reducirá el tiempo de descarga, sino que podremos aumentar las peticiones por segundo al liberar uso de la CPU para absorber más peticiones.

Las redirecciones

Si hablamos de SEO y servidores, uno de los aspectos más importantes, por su repercusión y porque suele acarrear infinitos problemas, son las redirecciones. Antes o después, todo sitio web tendrá que enfrentar la necesidad de trasladar contenido de una página a otra, por ejemplo, un producto que se retira de la tienda, o en la creación una nueva estructura para el sitio web.

La importancia reside en que la URL del producto que se retira tiene un historial, y puede haber atraído enlaces desde otros sitios web, de manera que si se elimina la página y se muestra un código de respuesta 404 (página no encontrada), se perderá para siempre el valor de los enlaces, con lo que implica. Además, las páginas web que tienen cierta antigüedad, independientemente de que tengan enlaces entrantes o no, tienen un valor, es decir, por el hecho de haber estado online han acumulado peso y esto contribuye a mejorar su posicionamiento. En resumen, es importante redirigir las páginas que tienen enlaces entrantes o cierta antigüedad en vez de eliminarlas.

Existen varias formas de configurar una redirección: mediante las meta etiquetas, JavaScript, código de script del servidor (php, asp, jsp, …), usando JavaScript e incluso a nivel de reglas de servidor (.htaccess para php isapi para .asp). El problema de estas técnicas es que los buscadores no siempre las comprenden adecuadamente y optan por no seguir los enlaces. Esto significa que la redirección, sea como sea debe ser 301 si tiene fines SEO.

Los códigos de respuesta

En el protocolo http existen diferentes códigos de respuesta para indicar una redirección (en el World Wide Web Consortiuml8se puede encontrar una lista con todos los códigos y su significado). No obstante, los dos códigos más populares son: la redirección 301 y 302, que tienen una diferencia fundamental:

301:        Trasladado permanentemente

302:        Trasladado temporal

Muchos sitios web utilizan automáticamente la redirección 302, pero los buscadores no interpretan este código como una redirección real. Es decir, esta redirección indica exactamente que se sustituye una URL por otra, pero solo de manera temporal por lo que los buscadores solo recordarán la antigua URL.

Por el contrario, la redirección 301 le indica a los buscadores que el antiguo enlace ha sido eliminado definitivamente por lo que tendrán que borrarlo de su memoria y reemplazarlo con el nuevo enlace. Así, dentro de todas las opciones de redirección disponibles, la redirección 301 es la única que comprenden los buscadores. En este punto, la redirección con JavaScript y el uso de las etiquetas meta para refrescar la redirección no son aplicables.

Las redirecciones 302 suelen ser la redirección por defecto en un servidor, ya que históricamente se han utilizado con fines de seguridad y privacidad. La imagen a continuación muestra cómo todos los enlaces de la antigua URL se refieren a la nueva URL.

Fuente: www.eniance.com
Una página de error debe mostrar un código 404

Una página de error del tipo ‘esta página no se pudo encontrar’ debe mostrar un código de de respuesta 404, si mostrara un código 200 sería indexada y crearía una mala experiencia en los usuarios y un factor negativo de cara al posicionamiento.

Uno de los usos de las redirecciones 301 es solucionar los problemas de páginas 404 de un sitio web, muy habitual en migraciones y en sitios que no tienen un mantenimiento SEO. Este seguimiento es especialmente importante en e-commerce con rotación de productos.

Hay técnicas para evitar las páginas de error 404, pero hay que tener planificado cómo se va a dar respuesta a estos errores, ya sea mediante un seguimiento activo de resolución como a un análisis de cuáles son y por qué se están produciendo.

Se puede hacer el seguimiento de las páginas 404 desde la herramienta de analítica web si previamente se ha implementado el seguimiento, así como desde las herramientas de Google para Webmasters (más adelante en este mismo capítulo nos referimos a esta herramienta).

Cómo hacer la redirección 301

Una redirección 301 se puede colocar en el fichero .htaccess o en cualquier otro lenguaje de programación (ya que el .htaccess solo está disponible si se utiliza un servidor webApache. La principal ventaja del fichero .htaccess es que permite redireccionar un gran número de URL estableciendo reglas. A continuación mostramos varios ejemplos de una redirección 301 en diferentes lenguajes de programación:

.htaccess

Redirect 301 /antigua.html

http://www.onetomarket.es/nueva.html

PHP

<?php

headerHTTP/1.1 301 Moved Permanently«);

headerLocation: http://www.onetomarket.es/nueva.html«);

?>

ASP

<%

Response.Status=»301 Moved Permanently»

Response.AddHeader «Location»,

«http://www.onetomarket.es/nueva.html»

%>

ASP.NET

<scriptrunat=»server»>

prívate void Page_Load(object sender,

System.EventArgs e)

{

Response.Status = «301 Moved Permanently»;

Response.AddHeader(«Location»,»http://www.onetomarket.es/nueva.ht }

</script>

Versión canónica. ¿Insertar o no las www?

Muy pocos saben que www es un subdominio, por eso, desde el punto de vista técnico, http://casadellibro.com es diferente de http://www.casadellibro.com, así, los buscadores comprenden que ambas URL son distintas. No obstante, en muchas ocasiones tomamos la vía más fácil y tecleamos simplemente: ‘casadellibro.com’; entonces el navegador lo reemplaza con:http://casadellibro.com, una dirección que continúa siendo diferente de http://www.casadellibro.com. A pesar de estas diferencias, casi siempre las versiones con o sin www muestran el mismo sitio web por lo que existe el peligro del contenido duplicado.

Normalmente se opta por crear con www la versión principal, sería la versión canónica, y se redirige desde la versión sin www a la versión con www con un fichero .htaccess (siempre que se utilice un servidor Apache). Se puede utilizar el siguiente código:

RewriteEngineOn

RewriteCond %{HTTP_HOST} Acasadellibro\.com [NC] RewriteRule a(.*) http://www.casadellibro.com/$1 [l,R=30i]

Las URL aptas para usuarios y buscadores

Echemos un vistazo a dos URL diferentes:

www.web.es/index.php?mainID=26&sectionID=43&itemID=327

www.web.es/categoria-principal/subcategoria-palabra-dave/

Es obvio que la segunda versión da una impresión mucho mejor, indica el tema de la página web, y se puede memorizar y reproducir, mientras que la primera URL es menos atractiva porque utiliza todos los ID técnicos para encontrar el elemento adecuado dentro de la base de datos. Si mostramos ambas URL en los resultados de búsqueda, el segundo enlace seguramente atraerá más clics simplemente porque es más informativo y atractivo. Además, la segunda URL también se indexa con mayor facilidad por parte de los buscadores y representa una oportunidad más para reforzar la estructura del sitio web.

Lo ideal sería que la URL indicase el tema de la página web, por ejemplo,          /libros-historia/las-venas-abiertas-de-america-latina, representa un fichero existente pero no tiene que ser necesariamente así, es decir, el fichero puede existir solo en la URL pero no físicamente en el servidor. Existen diferentes métodos para crear una URL-ID apta para buscadores, en este capítulo analizaremos dos formas de hacerlo.

Alergenos Alimentarios

Método 1: mod_rewrite en Apache

mod_rewrite es un módulo del servidor Apache al que se puede acceder ubicando un fichero .htaccess en la raíz del sitio web. En este fichero se indicará que el RewriteEngine debe estar activado:

RewriteEngine on

Si la estructura de la URL se muestra de la siguiente manera:

1) www.site.es/index.php?mainID=26&sectionID=43&itemID=327

La URL no tiene términos de búsqueda, de manera que si la optimizamos y eliminamos las variables, nos queda:

2) www.site.es/26/43/327/

El mod-rewrite debe reescribir la URL 2 de forma tal que trabaje intermitentemente con la URL 1, para lograrlo se usa RewriteRule. Antes de explicar esto con más detalle, he aquí el código de la regla:

RewriteRule *(0-9+)/(0-9+)/(0-9+)

index.php?mainID=$1&sectionID=$2&itemID=$3 [L]

El signo A indica el nombre del dominio, por ejemplo www.site.es. A continuación se incluye (o-9+)listado tres veces y separados por una barra. (0-9+) describe una serie de números donde el signo + indica que la serie debe continuar hasta que se encuentre un carácter que no sea un número. Al usar este método las series de números que se encuentran entre las barras se reemplazan con una variable. Las primeras series se convierten en $1, la segunda en $2y la tercera en $3. Después, las series de números se sitúan en la URL, que inicia con index.php.

Todo el fichero .htaccess se mostrará de la siguiente manera:

RewriteEngine On

RewriteRule *(0-9+)/(0-9+)/(0-9+)

index.php?mainID=$1&sectionID=$2&itemID=$3 [L]

A continuación, se deben reemplazar todas las antiguas URL del sitio web para pasar a usar las nuevas URL según el formato número 2. No obstante, como la antigua URL tiene historial, se debería colocar una redirección a la nueva tal y como explicábamos al principio de este capítulo.

Evaluación de este método

El método que hemos mostrado funciona bien y puede programarse con rapidez, el único problema que presenta es que el uso de ReWriteRules puede ser complejo. De hecho, a veces ReWrite Rules es tan complicado que para poder realizar todo el trabajo se necesita un conocimiento básico de las expresiones regulares (entiéndase estas como una vía para describir los patrones utilizados por el ordenador para comprender el texto).

Método 2: Reemplazar la URL con PHP

Existe otra forma para reescribir las URL basada en el uso de PHP (o cualquier otro lenguaje de programación de servidor) y no en el mod_rewrite. Una vez más, se deberá crear un fichero .htaccess pero el contenido será diferente:

RewriteEngine on

RewriteRule !\.(gif|jpg|png|css|js)$

/home/httpd/vhosts/site.es/httpdocs/site.php

Ruta de raíz

El archivo /inicio/httpd/vhosts/site.es es una ruta de raíz hacia el fichero. Como la ruta es diferente para cada servidor, se deberá descubrir cuál es la propia ruta de raíz.

Esto significa que cada fichero que no tenga las extensiones .gif, .jpg, .png, .css o .js se reescribirá en el fichero site.php. Ahora se puede leer la URL desde el fichero site.php y ver qué contenidos se mostrará. También es posible no reescribir todos los archivos, para lograrlo basta con excluir los archivos que no se quieran reescribir. En el ejemplo a continuación se muestran los archivos/stats que no se reescribirán:

RewriteEngine on

RewriteRule Astats/.*$ – [L]

RewriteRule Astats/$ – [L]

RewriteRule Astats$ – [L]

RewriteRule !\.(gif|jpg|png|css|js)$

/var/www/dominio.com/index.php

Todas las URL que no comiencen con /stats se reescribirán a index.php. Ahora se puede usar index.php para determinar qué páginas se deben mostrar basándose en la URL semántica.

Usaremos la siguiente URL como ejemplo: /libros-historia/lasvenas- abiertas-de-america-latina. Necesitamos usar libros-historia y las- venas-abiertas-de-america-latina para determinar qué URL se mostrará. Esto se puede hacer usando el siguiente código PHP:

<?php

$parts = explode($_SERVER[‘REQUEST_URI’]) ;

// $parts[0] = «»;

// $parts[1] = «libros-historia»;

// $parts[2] = «las-venas-abiertas-de-america-latina «;

?>

Ahora se pueden usar las variables para determinar el contenido que se mostrará.

Evaluación de este método

Este método no requiere ningún tipo de conocimiento sobre las expresiones regulares ya que la mayor parte del trabajo de reescritura se realiza a nivel de PHP. No obstante, es necesario excluir los archivos que no quieran redireccionarse.

El uso de estas técnicas requiere hacer un cambio a nivel de página, de forma que tenemos que ser capaces no sólo de leer nuevas URL, sino que tenemos que ser capaces de generarlas.

Más bibliografía sobre mod_rewrite

Aún queda mucho que decir sobre mod_rewrite pero sería imposible abarcarlo todo en este libro. Quienes deseen profundizar en este tema tienen a su disposición otras fuentes bibliográficas, una de las mejores es la explicación de Apache que puede encontrarse en: http://httpd.apache.org/docs/1.3/mod/mod_rewrite.html. A los lectores que estén interesados en profundizar aún más en este tema les recomendamos: La Guía Definitiva para Apache mod_rewrite, escrita por Rich Bowen 19.

La segunda capa – Plantilla

En la sección anterior hemos analizado el HTML semántico. Sin embargo, la semántica va mucho más allá del HTML. Por ejemplo, si utilizamos el elemento font en la cabecera para definir la tipografía de un texto, aparecerá otro problema: no hay una diferenciación clara entre la estructura y la plantilla. Aquí el problema no radica exclusivamente en que el elemento font carezca de una semántica adecuada, sino que se ha usado el HTML con el propósito de crear la plantilla. Debe quedar claro que el HTML se usa para realizar la estructura mientras que el diseño de la plantilla se define mediante el uso de CSS.

¿Qué es CSS y por qué usarlo?

CSS son las iniciales de Cascading Style Sheets (en español, hojas de estilo en cascada) y se refiere a una técnica utilizada para determinar la apariencia de una página web. El HTML son las paredes de la casa y el código CSS sería la pintura y las cortinas que hacen que el HTML adquiera una apariencia atractiva. La plantilla lo incluye todo, desde el color de los encabezados o los enlaces, hasta la posición de los elementos dentro de la página web.

¿Por qué usar CSS? Si has leído con atención la sección anterior, la respuesta es obvia: se comienza construyendo la estructura (HTML), pero la plantilla aún debe terminarse y para lograrlo se utiliza la hoja de estilo. Entonces, para separar la estructura de la plantilla, a partir de este punto no se usarán más las tablas ni las etiquetas font, solo CSS.

El ejemplo que se muestra a continuación permite comprender con mayor profundidad el significado del término CSS. Retomando el código HTML del menú que usamos anteriormente, el código HTML

es: <ul>

<li> <a                 href=»http://www.onetomarket.es/sem-campanas-ppc/»

title=»SEM, campañas PPC»>SEM, campañas PPC</a></li>

<li><a                                  href= «http: / / www. onetomarket. es/estrategia-de- redessociales/» title=»Estrategia de Redes sociales»>Estrategia de Redes sociales</ a></li>

<li> <a                        href=»http://www.onetomarket.es/email-marketing/»

title=»Email marketing»>Email marketing</a></li>

</ul>

Sin CSS su aspecto visual será el siguiente:

  • SEM; campanas PPC
  • Estrategia de Redes sociales
  • Email marketing

Con CSS el menú adquiere un aspecto más elegante. El código CSS que se muestra a continuación ayuda a crear un fondo naranja para el menú, el texto es en color negro, se utiliza otro tipo de letra, se han eliminado los puntos que fungían como viñetas y se ha creado un efecto mouse over (cambio de color al pasar el cursor por el menú). A continuación se puede ver una imagen del resultado final.

Menú con hoja de estilo

El poder del CSS radica en que permite cambiar la plantilla del sitio web sin tener que variar el código HTML. Esto se ilustra en el ejemplo que aparece a continuación: con el mismo código HTML que se había utilizado para crear el menú, ahora hemos realizado un menú horizontal, ajustando solamente el código CSS.

CSS y navegadores

Años atrás, el uso de CSS tenía un gran inconveniente: no todos los navegadores lo soportaban correctamente y en ocasiones algunos lo interpretaban erróneamente. Por ejemplo, Internet Explorer era uno de los navegadores que presentaba dificultades con el CSS. Esto hacía que fueran necesarios una gran cantidad de cambios para que la apariencia del sitio webfuese atractiva en todos los navegadores. No obstante, esta situación ha mejorado, pese a que todavía hay muchas diferencias en la visualización en pantalla entre los navegadores más utilizados.

Para desarrollar sitios web se recomienda visualizar con varios navegadores el resultado obtenido ya que la interpretación del CSS difiere entre navegadores como Firefox13, Opera14, Safari15 y Chrome8. Nuestra experiencia demuestra que, cuando se trata de crear una página web que funcione bien en todos los navegadores, seguir este consejo puede ahorrar mucho tiempo. Mediante un el uso avanzado de CSS, en la actualidad es posible crear menús desplegables y otras funcionalidades que hasta el momento estaban reservadas exclusivamente a JavaScript, en un futuro con CSS3 se ampliarán mucho más las posibilidades de diseño e interacción por lo que a nivel SEO será interesante poder potenciar interactividad y optimización para buscadores.

La tercera capa: Funcionalidad

Después de haber creado la estructura y la plantilla, el sitio webya está básicamente operativo. Para continuar con la analogía que venimos utilizando: la casa ya está lista para entrar a vivir. No obstante, al sitio web aún pueden añadírsele otras funcionalidades que faciliten su uso. Para lograrlo se utiliza JavaScript (se podrán reemplazar imágenes dinámicas, validar formularios o hacer cálculos) y funcionalidades que hacen que la págna sea más interactiva como el uso de ajax mediante librerias como jquery, Dojo, Mootools, …

JavaScript: Cómo usarlo

Lamentablemente, JavaScript se utiliza a menudo de forma incorrecta. Por ejemplo, con JavaScript se puede crear un menú desplegable (un menú con múltiples niveles que se muestran cuando se hace clic o mediante un efecto mouse over), pero como los buscadores no comprenden este lenguaje, no podrán seguir los enlaces que se encuentran en el menú. Esto significa que para los buscadores será difícil, o incluso prácticamente imposible, rastrear el sitio web. Lo mismo ocurre con los enlaces dentro del contenido o en cualquier otro lugar del sitio web. Cuando un enlace tiene el atributo onclick pero no incluye el elemento a junto al atributo href, los buscadores no lo seguirán.

Código htmlÚtil para SEO
<a href=”#” onclick=”window.location=’ http://www.miweb.com’;”>sitio web A</a>No
< a href= ”j avascript:window.location=’ http://www.miweb.com’;”>sitio web A</a>No
<img src=”lees-meer.gif” alt=”Lees meer” onclick=”window.location=’ http://www.miweb.com’;”>No
<ahref=”http://www.miweb.com”>sitio web A</a>

La única forma correcta de enlazar una página web es usando el elemento a con el atributo href.

Además, los buscadores no leerán el contenido cargado a través de JavaScript por lo que es importante incluir todo el contenido que se desea indexar en el código HTML. Un ejemplo muy usual es la navegación por pestañas, donde cada pestaña posee su propio contenido. Sí que se puede usar JavaScript con este fin si primero se incluye todo el texto en el código HTML y a continuación coloca la pestaña de navegación usando JavaScript.

Una vez más, al igual que con el CSS, la inserción de esta capa no debe ser un requisito para utilizar el sitio web, solo debe ser una herramienta para mejorar la usabilidad y apariencia del mismo.

¿Quieres hacer tu página más interactiva y aplicar JavaScript de forma que no afecte al SEO? Prueba jQuery9. Esta es una biblioteca donde se encuentra un gran número de aplicaciones JavaScript que han sido creadas de manera adecuada (como menús desplegables, funcionalidades arrastrar y soltar, etc).

En ocasiones puede ser interesante utilizar JavaScript para determinados enlaces, para no comprometer el uso de enlaces con anchor text específico, en ese caso puede ser interesante utilizar javascript como método para construir el enlace, pero esto ocurre en casos muy reducidos. Esta técnica puede resultar igual de peligrosa como avanzada si no se supervisa correctamente a nivel de SEO técnico.

AJAX

AJAX es una técnica que permite ejecutar secuencias de comandos del servidor usando JavaScript. Normalmente, es necesario recargar la página web pero AJAX hace esto de forma automática por lo que es muy útil, después de todo, ¿no es extremadamente positivo que el usuario pueda navegar por el sitio web sin tener que esperar continuamente que carguen las páginas?

Sin embargo, de su principal beneficio surge su debilidad: como las páginas web no se recargan, la URL no cambia por lo que se puede acceder a todas las páginas desde una misma URL. Esto hace que una página específica no se pueda incluir dentro de favoritos o enviar a un amigo, tampoco funciona el botón atrás del navegador, de manera que la usabilidad de la página se limita.

El principal problema de AJAX es de cara a los buscadores, los buscadores no leen JavaScript ni navegan utilizándolo, los buscadores no verán más allá de la primera página web desde la que entraron. En síntesis, los buscadores y AJAX no se llevan muy bien por lo que regresamos al punto anterior: una capa extra no puede ser un requisito para que una webfuncione adecuadamente o se indexe por completo.

¿Significa esto que no se debe usar AJAX? Por supuesto que no, AJAX es una opción excelente para mejorar la usabilidad de un sitio web en otros supuestos. Por ejemplo, la posibilidad de arrastrar y soltar elementos en el carro de la compra, o en formularios que se agrupan a partir de decisiones anteriores. De hecho, son muchos los ejemplos que podrían citarse en los que AJAX mejora la usabilidad, pero siempre se debe tener en cuenta que el sitio webtambién debe funcionar sin AJAX.

Los buscadores han hecho grandes esfuerzos por mejorar su lectura de JavaScript, pero aún queda mucho camino por andar. La razón principal por la que se ejecuta JavaScript es para detectar el cloaking (véase el capítulo 1) y el spam.

Flash

Todas las reglas de JavaScript se aplican a Flash. Flash puede ser una gran herramienta que mejore la usabilidad y cree efectos visuales sorprendentes, pero debemos asegurarnos de que no se convierta en un requisito imprescindible para que el sitio web funcione adecuadamente. Si se utiliza la navegación Flash (como por ejemplo, en un mapa del mundo), también debe existir un HTML alternativo a disposición del usuario.

De la misma forma, el contenido mencionado en Flash no será indexado. En los últimos años los buscadores han perfeccionado la indexación del Flash, pero aún existen algunos problemas que dificultan una integración total. Hay que tener en cuenta que esta indexación que se ha producido durante los últimos años de archivos flash no se ha traducido en posicionamiento, que son dos términos diferentes.

Trucos y consejos

Menú desplegable con CSS

Como decíamos, los buscadores no leen ni ejecutan JavaScript por lo que es importante que todos los elementos del menú estén incluidos en el HTML. No obstante, esto puede ser un problema en el caso del menú desplegable, ya que todos sus elementos son visibles de forma

instantánea en el sitio web. Suckerfish-menu16 es la solución ideal para este problema: el menú tiene tanto HTML, como CSS e incluso un poco de JavaScript. En este ejemplo, se incluye JavaScript para asegurar la compatibilidad con navegadores más antiguos como Internet Explorer 6 o sus versiones anteriores. Los nuevos navegadores como Firefox, Internet Explorer 7, Opera y Safari solamente necesitarán HTML y CSS.

Reemplazo de las imágenes

Por razones técnicas, en el diseño del sitio webexiste un límite máximo de tipos de letras que se pueden utilizar. Esta restricción se debe a que los tipos de letra instalados en un ordenador personal pueden no estar disponibles en otros. Como regla general, existe aproximadamente solo una docena de tipos de letras que siempre están instaladas en la mayoría de los sistemas operativos. Aun así, si se quiere llamar la atención del usuario utilizando un tipo de letra diferente, se pueden crear imágenes para la cabecera o los encabezados. No obstante, este cambio puede hacer que los buscadores necesiten más tiempo para comprender el contenido o incluso, podrían ser incapaces de leerlo. La solución a este problema está en lo que se conoce como “reemplazo de imágenes”. Existen dos formas de hacerlo:

Reemplazo de imagen con CSS

Un reemplazo de imagen con CSS funciona de la siguiente manera: el contenido HTML incluye un elemento h1 que los buscadores leerán e indexarán normalmente. Entonces se usa el CSS para reemplazar el texto con una imagen; el texto desaparecerá de la pantalla y se coloca la imagen en su lugar. Código con el encabezado h1.

El código HTML

<hi>Este es el encabezado</hi>

El código CSS

hi {

text-indent: -999em;

overflow: hidden;

height: 25px;

background: url(«achtergrond.png») no-repeat;

}

Siempre debemos asegurarnos de que el texto en la imagen sea el mismo que el texto en HTML. Antiguamente esta técnica se utilizaba indiscriminadamente para incluir textos ocultos por lo que en la actualidad los buscadores son muy cautos en su análisis. No obstante, siempre que el texto de la imagen y el código HTML coincidan, no habrá problemas.

Reemplazo de imagen con Flash

El método que se ha descrito con anterioridad funciona perfectamente pero su desventaja es que habrá que crear una imagen para cada encabezado, opción no muy operativa si existen 10 páginas web por la cantidad de trabajo que implicaría. Otra opción sería generar automáticamente estas imágenes basándose en el contenido, pero es una tarea laboriosa que ralentiza el sitio web.

Una buena alternativa es un reemplazo de imagen con Flash. El reemplazo de imágenes con Flash sIFR17 es una de las herramientas que está ganando cada vez más popularidad. Al usar IFR se puede convertir el texto HTML a flash on-the-fly (en español, flash al vuelo) mediante JavaScript. Esto proporciona un método de trabajo rápido y funcional con el que se puede utilizar cualquier tipo de letra.

CorelDraw

El inconveniente principal de utilizar estas técnicas es a nivel visual ya que muchos usuarios verán la versión html y como en esta se transforma la tipografía. Puede llegar a ser molesto o ralentizar la carga de la página.

Los editores de HTML

Hay infinidad de programas que permiten crear de manera sencilla y rápida un sitio web, con solo arrastrar y soltar se pueden crear páginas web aparentes. Sin embargo, suele ocurrir que estos programas no son tan perfectos como parecen a primera vista, ya que hacen caso omiso de casi todos los aspectos que se han analizado en este capítulo. Muchos de ellos utilizan tablas para crear la plantilla y esto genera una cantidad de código innecesario considerable; además, la construcción por capas no es precisamente su punto fuerte. Por eso, para crear un sitio weblo mejor es utilizar un editor de texto simple (después de todo, no se aprende matemáticas usando la calculadora). Dedicar tiempo y esfuerzo a escribir el código nospermitirá aprender cómo funciona el HTML y el CSS y conocer qué beneficios aportan al sitio web.

Conclusión

En este capítulo hemos abordado la importancia de crear un sitio weben capas. Se comienza con la estructura y se van añadiendo capas encima de esta. Es importante asegurarse de que cada capa se haya añadido separadamente de manera que no se mezcle con el resto de las capas.

Sobre todo, es importante usar el sentido común. Cuando se escribe el HTML se deben considerar las funciones que cumplen cada una de las partes del sitio web, ya que así será relativamente fácil hallar el código que necesitamos. De esta forma se puede crear un sitio web optimizado, tanto para los buscadores como para los navegadores.

En los últimos meses, los navegadores empiezan a interpretar HTML5 y CSS3, que es la norma del W3C por la que se se regirán las webs en un futuro, de hecho, hay ya muchas webs desrrolladas con esta tecnología y a nivel SEO la experiencia es bastante satisfactoria.

HTML5 va a suponer un cambio en la concepción de las estrategias SEO ya que su código fuente facilita la comprensión del contenido a los buscadores, y mediante el uso de microdatos, se abre una nueva dimensión SEO.

Lista de verificación

Html semántico

  • Uso de divs vs tablas
  • Utilizar listas para maquetar menús
  • Utilizar H1 en todas las páginas y H2, H3 correctamente anidado
  • Utilizar correctamente las metaetiquetas
  • Verificar el diseño en varios navegadores
  • Revisar funcionalidades respecto a la indexación (uso de flash, javascript, ajax, …)