Optimización y posicionamiento SEO en buscadores

Transcripción

Optimización y posicionamiento SEO en buscadores
Optimización y posicionamiento SEO en
buscadores para servicios de información
Módulo 2: Consideraciones estratégicas
1. Consideraciones previas
1.1. Análisis SEO del sitio web (en rediseños)
1.2. Herramientas de análisis
1.3. Análisis cualitativo y cuantitativo de links
2. Metodología de optimización SEO
2.1. Search Analytics: análisis de las palabras clave (keywords)
2.2. Análisis estratégico del sitio web
2.2.1. Relación entre Arquitectura de Información y SEO
2.2.2. Estacionalidad de búsquedas
2.2.3. Internacionalización SEO
2.2.4. Accesibilidad y SEO
1
1. Consideraciones previas
1.1. Análisis SEO del sitio web (en rediseños)
En el caso de que estemos pensando en rediseñar un sitio web que ya esté
funcionando, deberemos realizar algunas tareas de auditoría de optimización y
posicionamiento, para conocer en qué punto estamos como situación de partida, y qué
mejoras se imponen por orden de prioridad. Para ello desarrollaremos las siguientes
tareas:
1. Saber qué queries / keywords nos interesa estudiar. Lo veremos más en
detalle, pero es un error pensar que si tenemos una web dedicada a dar
formación sobre bibliotecas, queramos posicionar la web para la búsqueda
“formación”. ¿Por qué? Véase el capítulo 2.1.
2. Conocer nuestra posición y la de la competencia. Establecer un punto de
partida en la posición en que aparecemos en los buscadores de nuestro interés
(como por ejemplo Google) nos permitirá conocer nuestras limitaciones y
oportunidades, y asignar objetivos deseables versus factibles. Este control de
posiciones deberá ser periódico, ed forma que monitoricemos la evolución de
nuestras acciones y sus efectos, tanto positivos como negativos.
3. Generamos un cuadro de control de:
–
Factores internos positivos
–
Factores externos positivos
–
Factores internos negativos
–
Factores externos negativos
Que detallaremos en el siguiente capítulo.
2
1.2. Herramientas de análisis
Hay muy distintas herramientas que nos van a permitir analizar nuestro sitio web
desde distintos puntos de vista, tanto un análisis más manual o cualitativo como un
análisis más automatizado, más circunscrito a la parte más técnica y cuantitativo.
Dependiendo del tamaño y objetivos de nuestro sitio web optaremos por unas o por
otras.
Aparecen constantemente nuevas herramientas, y nunca encontraremos una que
satisfaga todas nuestras necesidades. Por eso, aquí sólo podemos destacar algunas
herramientas, que nos permitirán evaluar la utilidad de otras que encontremos o que
aparezcan en el futuro:
Análisis de keywords:
https://adwords.google.com/select/KeywordToolExternal
http://inventory.overture.com/searchinventory/suggestion
Comparaciones:
http://www.marketleap.com/publinkpop/
Emulación de spider:
http://www.seo-browser.com/
Plantillas de control:
http://www.yourseoplan.com/download-worksheets.html
Varias herramientas más:
http://www.webuildpages.com/tools/default.htm
http://www.webuildpages.com/cool-seo-tool/
3
1.3. Análisis cualitativo y cuantitativo de links
Un apartado que merece especial atención es el análisis de enlaces. Antes de haber
delimitado para qué palabra o palabras claves queremos aparecer y ser posicionados,
será interesante conocer cuántos enlaces apuntan a nuestro sitio web y a los
competidores que aparecen mejor posicionados para determinada palabra clave.
Para conocer el número de enlaces que apuntan a un determinado sitio web, podemos
utilizar comandos similares en los distintos grandes buscadores:
Debe hacerse notar aquí que los resultados serán muy distintos. Los resultados que
ofrece Google serán notoriamente menores que los que encontraremos en Yahoo,
puesto que Google es utilizado con tanta intensidad que prefiere no dar tantas pistas.
Por tanto, se recomienda Yahoo para analizar los enlaces entrantes a un sitio web. No
sólo eso, sino que Yahoo ha dispuesto toda una herramienta con una API que permite
análisis más exhaustivos.
De este análisis, podremos aprender valiosas lecciones, como cuántos enlaces tiene
mi sitio web, cuántos tienen los competidores, cuáles son esos enlaces, y visitando las
páginas que han enlazado a nuestros competidores y el contexto en el que aparece el
enlace, también por qué han enlazado a esos competidores. Sólo saber cuántos
enlaces tienen mis competidores en comparación con los que apuntan a mi sitio web,
nos permitirá imaginar la magnitud de la tarea que nos espera.
4
Aunque no sea el único factor, como veremos más adelante, no será lo mismo
competir con sitios que tienen unas decenas o centenas de enlaces apuntando hacia
ellos, que otros a los que apuntan miles o decenas de miles de enlaces. Incluso nos
hará desistir de intentar posicionar para esta o aquella expresión, en aras de objetivos
más realistas.
Muy importante también es analizar cuáles de esos enlaces nos interesa conseguir, lo
que podemos averiguar a través de herramientas como Touchgraph, que realiza un
gráfico en el que podemos visualizar los nodos o sitios web más interrelacionados
entre sí con respecto a un sitio web dado, por lo que podremos inferir que ésos serán
los sitios con mayor autoridad (los Einstein relacionados con la palabra clave por la
que quiero posicionar mi sitio web) y por tanto, aquellos enlaces que deberemos
intentar conseguir en primer lugar.
Todo este análisis cualitativo es válido en el caso de sitios web pequeños-medianos,
con pocas palabras clave como objetivo. En el caso de grandes portales o webs que
quieran aparecer para cientos o miles de palabras clave, lógicamente no sería
escalable un análisis tan exhaustivo.
Cada cual deberá en su caso, establecer el nivel y profundidad del análisis, pero sí
que será interesante tener siempre al menos alguna medida cuantitativa en número de
enlaces que nos permita hacernos una idea de la tarea por venir.
5
2. Metodología de optimización SEO
Hay 5 fases básicas que hay que controlar en una estrategia de SEO:
–
Análisis de palabras clave (keywords) por las que queremos posicionarnos
en primeras posiciones y benchmarking (comparativa con otros sitios web
para descubrir best practices o mejores prácticas).
–
Análisis
estratégico
del
sitio
web:
arquitectura
de
información,
accesibilidad…
–
Acciones de optimización del código y el texto dentro del sitio web
–
Acciones de optimización fuera de la web (popularidad, netweaving…)
–
Seguimiento de resultados y reajustes.
2.1. Search Analytics: análisis de palabras clave (keywords)
Al comenzar a establecer nuestra estrategia de optimización y posicionamiento, antes
de empezar es condición sine qua non hacernos algunas preguntas:
–
¿Qué términos / palabras clave son los que queremos posicionar?
–
¿Cuál es nuestro negocio / servicio y qué buscan nuestros usuarios?
–
¿Qué palabras se buscan más en relación a los temas que abarca nuestro
negocio / servicio?
–
¿Qué palabras son más útiles y para qué queremos estar posicionados con
ella?
–
¿Cómo trata la competencia las mismas palabras clave que yo quiero
posicionar y por qué están posicionados los primeros?
–
¿En qué nos diferenciamos de la competencia?
–
¿Quiero estar posicionado para pocos términos muy buscados, o para
muchos términos muy poco buscados?
Antes de seguir, es necesario entender mejor cómo buscan los usuarios en los
buscadores, porque de este entendimiento se derivarán todas las acciones
posteriores, y la monitorización que hagamos en el futuro de nuestros éxitos o
fracasos.
6
Cómo buscan los usuarios
Las búsquedas en cualquier buscador, tanto uno de una intranet, de un buscador
interno dentro de un portal, o de un buscador generalista en internet, siguen una
distribución según la llamada ley de Zipf, que como antes comentábamos se deriva de
fenómenos como las redes de escala libres y las leyes de potencias o power laws.
Según un corolario de la ley de Zipf, al analizar los serch logs de un buscador, el
archivo en el que se contabilizan todas las veces que se busca una expresión de
búsqueda (frecuencia de búsqueda) descubriremos un conjunto pequeño de
búsquedas más comunes, y un gran grupo de multitud de búsquedas (palabras clave,
queries) que tienen muy poca frecuencia, se buscan poco o muy poco.
FUENTE: Louis Rosenfeld
Como vemos en el gráfico, en la parte de la izquierda observamos un grupo pequeño
de palabras (probablemente unas decenas) que se han buscado hasta 2500 veces
más que las palabras situadas en el borde del gráfico en la parte de la derecha. Este
dato nos induciría a pensar que es mejor aparecer por palabras más buscadas y
olvidarnos de las menos buscadas. Pero…
Tradicionalmente se ha comprobado al analizar search logs que las expresiones más
buscadas son las formadas por una sola palabra, búsquedas genéricas como “pisos”,
“turismo”, “bibliotecas”, etc.
7
Diversos datos muestran que la longitud media de las queries o búsquedas ha ido
aumentando en los últimos años. Así Yahoo, en mayo de 2006, mostraba una
frecuencia media de 3.3 palabras por búsqueda, frente a las 2.5 palabras por
búsqueda en 2004 y las 1.2 palabras que se contabilizaban en 1998. AOL confirma
unas 2.8 palabras por consulta en la actualidad, y aunque Google no ofrece datos
directos, las pistas nos la da la barra de Google, en la que podemos observar dos
tendencias interesantes:
–
Por un lado, cuando empezamos a teclear una búsqueda (buscamos por
“perro” y al empezar a teclear “perr”, la barra comienza a darnos debajo
diversas alternativas para que no tengamos por qué seguir tecleando) la
barra de Google nos ofrece búsquedas que ya hemos hecho (sacadas de
nuestro historial de búsqueda) lo que indica que Google se ha dado cuenta
de que solemos buscar lo mismo una y otra vez. No recordamos los sitios a
los que hemos acudido, sino que recordamos lo que hemos buscado.
–
Por otro lado, debajo de esas búsquedas repetitivas, nos ofrece búsquedas
que han hecho muchos otros usuarios (búsquedas frecuentes) que
comienzan por la palabra que estamos escribiendo. Estas búsquedas
suelen estar compuestas por dos o tres términos, y dada la capacidad que
tiene Google para modificar nuestras costumbres de búsqueda, será cada
vez más normal ver más y más búsquedas repetitivas con más términos, de
forma que la gráfica sea más “plana”, haya menos divergencias, aunque la
tendencia inicial básica de la ley de Zipf se mantenga.
Además, el conjunto sumado de búsquedas menos frecuentes probablemente será
mayor que el subconjunto de búsquedas muy frecuentes, fenómeno conocido como
Larga Cola o Long Tail, por lo que grandes sitios web dinámicos, compuestos de miles
de páginas, que utilizan Gestores de Contenidos (Content Management Systems o
CMS) sobre bases de datos, así como proyectos Web 2.0 tipo Loquo o Wikipedia,
pueden optar por luchar por miles de palabras clave muy poco buscadas, en lugar o
además de luchar por unas pocas palabras más buscadas.
Es decir, no tiene por qué ser la mejor estrategia elegir las palabras más buscadas (o
no sólo) sino –dependiendo de nuestro presupuesto y grado de esfuerzo a emplearaquellas que:
8
–
Tienen un ratio equilibrado entre número / cualidad de los competidores
versus volumen de búsquedas (se buscan bastante, pero no hay tantos
competidores tan bien posicionados como para que el esfuerzo sea
demasiado caro)
–
Tienen más probabilidades de ser rentables (“comprar piso” versus “trucos
decoración pisos”)
Herramientas de ayuda en la selección:
Depende del momento en que nos encontremos, podremos utilizar unas herramientas
u otras, dibujando dos escenarios distintos:
–
Diseño desde cero, o prediseño
–
Rediseño del sitio web
En el caso de un prediseño o diseño desde cero:
Herramienta de sugerencias de Google Adwords en
https://adwords.google.es/select/main?cmd=KeywordSandbox
Herramienta de sugerencias de Overture:
http://inventory.overture.com/searchinventory/suggestion
Wordtracker:
http://www.wordtracker.com/
9
10
11
Plan
12
Pensiones
Plan Pensiones
13
Una vez localizada una Palabra clave o Keyword inequívocamente relevante para
nuestra estrategia, hay que tener en cuenta:
–
singulares y plurales
–
acentos
–
todas las variaciones y extensiones de ese término.
Recordemos que, si estamos desarrollando una pequeña página web estática y no
tenemos mucho presupuesto, seremos humildes y buscaremos 5-10 expresiones de
búsqueda interesantes. Si tenemos presupuesto, un CMS sobre una base de datos,
etc., podemos pensar en estrategias de gestión de contenidos que nos lleven a luchar
por cientos o miles de expresiones, muchas de ellas combinaciones de diferentes
palabras clave.
Por ejemplo, para un portal de venta y alquiler de pisos de ámbito nacional, se pueden
concatenar diferentes palabras y obtener de forma automática o semiautomática miles
de expresiones. Así:
comprar
piso
Barcelona
compras
pisos
Madrid
…
…
…
14
Concatenando estos términos obtendríamos:
Comprar
Compras
Piso
Pisos
Barcelona
Madrid
Comprar piso
Comprar pisos
Comprar Madrid
Comprar Barcelona
Compras piso
Compras pisos
Compras Madrid
Compras Barcelona
Piso Madrid
Piso barcelona
Comprar piso Madrid
Comprar piso Barcelona
Comprar pisos Madrid
Comprar pisos Barcelona
Compras piso Madrid
Compras piso Barcelona
Compras pisos Madrid
Compras pisos Barcelona
Y ahora imaginemos esa lista para todos los pueblos de España, todos los sinónimos y
palabras relacionadas con “pisos”, etc. etc.
Como podemos suponer, diferentes expresiones de búsqueda tendrán cada cual sus
distintas frecuencias de búsqueda (unas se buscarán más, otras menos, configurando
esa gráfica tipo ley de Zipf o Long Tail) pero en un portal donde hay “de todo”, el
esfuerzo económico será menor, más escalable (con el mismo esfuerzo, podemos
luchar por todas estas expresiones) y la rentabilidad final será mayor, puesto que,
gracias al efecto de la Larga Cola, la suma de las pequeñas ganancias obtenidas en
multitud de expresiones muy poco buscadas, será enorme.
15
En el caso de un rediseño:
Podremos combinar la utilización de herramientas externas, como las que antes
hemos comentado, y herramientas de análisis del portal, como Google Analytics (que
dejaremos para el capítulo 5.9.4) o el buscador interno en el caso de que haya, que
nos proporcionará información cuantitativa y cualitativa de mayor profundidad, a través
del análisis del search log.
Un search log en crudo nos indica de:
–
La palabra clave o expresión de búsqueda
–
El momento de la búsqueda
–
La IP o dirección del ordenador desde el que se ha buscado
A partir de ahí podemos obtener un search log más elaborado, por ejemplo:
Período: Noviembre 2003
Palabra Clave: talleres teatro niños
Nº búsquedas: 16
% del total de búsquedas del portal para ese período: 12,29%
Nº palabras: 3
Resultados búsqueda: 0
Usuarios que han buscado: Pepe, Juan, ...
Del cual podremos extraer al menos una conclusión muy interesante: nuestro
buscador da 0 resultados para el 12,29% de las búsquedas: ¡PROBLEMAS!
El cruce entre datos del buscador interno y los buscadores externos (como Google)
nos informará por un lado de lo que los usuarios están buscando, encuentran o no, y
cómo nuestro buscador les aporta respuestas, y por otro lado de palabras clave que
probablemente no sabíamos que se buscaban y que son relevantes para nuestro sitio
web, deberían aparecer en él.
El análisis de search log, dentro de las disciplinas llamadas user search behaviour e
information seeking, se puede cruzar con otra potente herramienta, un sistema de
Business intelligence.
16
Una herramienta de Business Intelligence genera un cubo de datos de un log de
visitas, con 3 dimensiones o coordenadas, XYZ:
–
X: páginas vistas
–
Y: perfil de los usuarios (más completo si los usuarios aportan información
personal)
–
Z: tiempo
Este tipo de herramientas permiten segmentar por X,Y o Z, por lo que podemos
realizar estimaciones cuantitativas muy precisas e incluso generar simulaciones a
futuro.
Y mezclado con search log podríamos preguntarle cosas como: “¿Qué
porcentaje de usuarios mayores de 30 años varones de Valencia buscaron “pañales” a
las 12 de la noche de ayer y no encontraron contenido satisfactorio?”
17
2.2. Análisis estratégico del sitio web
2.2.1. Relación entre Arquitectura de Información y SEO
Si antes decíamos que el posicionamiento en buscadores debía ser visto siempre en
relación con otras necesidades a la hora de diseñar un sitio web, el lector habrá
supuesto tras consultar el último capitulo, que el estudio de lo que más buscan los
usuarios relacionado con el tema de nuestro sitio web y las palabras clave más
interesantes para posicionar, nos está dando pistas fehacientes de cómo debe ser el
contenido de nuestro portal: su lenguaje natural, complejidad lingüística e incluso la
cuantía y profundidad de subtemáticas que podemos abarcar.
Por tanto, veamos cómo el estudio de la conducta de búsqueda del usuario (User
Search Behaviour) puede ayudarnos, no sólo con el posicionamiento en buscadores,
sino también con la estructura del sitio web o arquitectura de información (AI)
disciplinas ambas que deberían ir indisolublemente unidas.
Al estudiar las palabras clave de mayor interés para el posicionamiento averiguaremos
cuándo se buscan, qué segmentos de población las buscan, cómo las buscan
(variantes, plural/singular, misspellings o errores de escritura más comunes) y
conceptos relacionados. Pero indirectamente, este estudio también nos dará pistas de
cómo podríamos estructurar nuestro sitio web en categorías y subcategorías:
–
Categorías (+ buscado) > Subcategorías (- buscado)
–
Categorías (- palabras) > Subcategorías (+ palabras)
Hay dos aproximaciones básicas para construir categorías de contenidos dentro de un
sitio web:
–
Top-down: de arriba a abajo. Se piensan primero las categorías principales,
y se van desglosando subcategorías jerárquicas.
–
Bottom-up: de abajo arriba. Se listan todos los ladrillos básicos (términos,
conceptos…) que puede contener el sitio web, y posteriormente se
organizan, creando subcategorías, y sobre ellas, las categorías jerárquicas
principales.
18
Siguiendo la técnica bottom-up, trabajaremos a partir de la identificación de palabras
clave mediante search logs y Google Adwords, agrupando las palabras clave según su
afinidad, dividiéndolas en grupos que compartan la misma temática.
Después se deberá decidir si se realizan subsecciones o incluso páginas específicas
dedicadas a cada palabra clave a posicionar. Recordemos que para un buscador, un
sitio web es el portal como tal (un dominio, misitioweb.com) y también cada una de las
páginas que la componen (misitioweb.com/categoria1/palabra_clave1.htm) y ambos se
tendrán en cuenta para el posicionamiento.
Normalmente, la página de inicio servirá para palabras más genéricas, mientras que
las subsecciones y páginas individuales, se posicionarán para distintas expresiones o
palabras clave específicas.
19
2.2.2. Estacionalidad de búsquedas
Un elemento importante a la hora de diseñar una estrategia de posicionamiento en
buscadores es el tiempo. Dependiendo de la palabra clave a posicionar, una campaña
puede tardar de seis meses a un año en surtir efectos visibles, por lo que deberemos
planificar con tiempo cuándo comenzará.
Para averiguar si debemos posicionar todas las palabras clave con el mismo esfuerzo
en el mismo momento, o si podemos realizar esfuerzos adicionales durante períodos
fijos a lo largo del año, deberemos estudiar la estacionalidad de las búsquedas, los
momentos o períodos del año en que más se busca esta palabra.
Un ejemplo sería la expresión o término de búsqueda “fallas”. Con la herramienta
Google Trends, podremos averiguar en qué momentos del año se busca más.
Fallas (búsqueda mundial 2004 – 2006)
Como podemos ver justo antes de la fiesta de las fallas cada año, se busca más esta
expresión. Si un portal de turismo de la Comunidad Valenciana quisiera posicionar sus
contenidos para esta búsqueda, el momento en que más prominente deberá ser ese
contenido será unos meses antes del momento de mayor frecuencia de búsquedas.
20
21
2.2.3. Internacionalización SEO
Un error clásico en internacionalización es traducir contenidos de un idioma a otro sin
más análisis, directamente una traducción exacta.
La segmentación de usuarios provocará rápidamente que descubramos pautas en la
forma en que usuarios de distintos países y culturas busca. En ocasiones,
comprobaremos que hay diferencias entre las necesidades de información de estos
usuarios, y que deberemos preparar nuestro contenido, su estructura y presentación
de forma específica para cada segmento de población objetivo. Asimismo, hablaremos
de palabras clave distintas o con distintas prioridades.
Un ejemplo, la Universidad Politécnica de Valencia, que ofrece con mayor prominencia
contenidos diferenciados para usuarios de procedencias distintas:
Página de inicio de la UPV en español
22
Página de inicio de la UPV en inglés
23
2.2.4. Accesibilidad y SEO
A muchos dueños de sitios web no les interesa la accesibilidad, pues implica tener en
cuenta una serie de directrices mundiales y dedicar esfuerzo y atención a un tipo de
público del que no cree que vaya a obtener rentabilidad.
La realidad nos dice que diseñar páginas accesibles no es sólo éticamente
responsable, sino rentable, por diversos motivos:
–
Google es el usuario ciego más famoso del mundo. Sólo lee texto
–
Cuanto más se siguen las directrices de accesibilidad web, más compatible
es el portal con diferentes dispositivos y navegadores, lo que redunda en
más posibilidades de que su contenido sea usado por más usuarios.
–
Diseñar para la accesibilidad implica mejorar las explicaciones en texto del
portal, lo que implica más posibilidades de ser encontrados por los
buscadores para más palabras clave.
Algunas herramientas interesantes que nos pueden ser útiles para introducirnos en el
diseño accesible:
–
http://www.sidar.org/que/g1/util.php#taw
–
http://www.nils.org.au/ais/web/resources/toolbar/
Prohibida la reproducción total o parcial de estos contenidos
© Jorge Serrano Cobos
© SEDIC
24

Documentos relacionados