CREIX AMB INTERNET POSICIONA TU EMPRESA EN LOS BUSCADORES

CREIX AMB INTERNET POSICIONA TU EMPRESA EN LOS BUSCADORES Posiciona tu empresa en los buscadores 1. Los buscadores y el marketing Toda la filosofía

3 downloads 159 Views 768KB Size

Recommend Stories


Arma tu Negocio en Internet
2008 Arma tu Negocio en Internet Horacio Felauto Arma tu negocio en Internet www.armatunegocioeninternet.com www.horaciofelauto.com www.facebook.co

controla tu casa desde Internet
controla tu casa desde Internet >Windows Mobile >Windows Media Center >Media Center Extenders >Web (PC, Tablet, UMPC) >iPhone y iPod Touch >Smartphone

damos valor a tu empresa
ROLY 2011 CARTA En un momento como el actual, el valor de marca potencia las cualidades alcanzadas por las empresas. La trayectoria empresarial se

Story Transcript

CREIX AMB INTERNET

POSICIONA TU EMPRESA EN LOS BUSCADORES

Posiciona tu empresa en los buscadores 1. Los buscadores y el marketing Toda la filosofía de la WWW se basa en la posibilidad de compartir información. Y los buscadores tienen la misión de ofrecerla a los usuarios, ordenada y clasificada de manera que sea lo más útil y relevante posible. Ofreciendo esta información, los buscadores representan ahora un canal crítico de marketing, puesto que la búsqueda es una actividad para nada intrusiva, y sus resultados (las respuestas que recibe el usuario a su demanda de información) no son nunca interpretados como publicidad, aunque al final muestran empresas, productos y servicios en demanda a la consulta realizada. Si queremos obtener resultados de Internet, las tareas de promoción y tráfico vinculadas a los buscadores serán fundamentales, con el objetivo de que la mayoría del tráfico del web venga desde buscadores lo que implica: a) Tráfico nuevo, que nos llega buscando productos o servicios b) Tráfico de repetición que accede con las palabras clave vinculadas a nuestra marca o los nombres de producto. La dificultad de las estrategias basadas en los buscadores se encuentra en el propio comportamiento de Internet y de los usuarios cuando buscan. Por lo que respecta a Internet, se trata de un entorno en evolución y cambio constante, con millones de páginas que aumentan diariamente. En cuanto al usuario, reflexionemos sobre 3 datos (iProspect Search Engine Use Behavior, 2006): • 62% usuarios hacen clic en la 1ª pág. de resultados (10 resultados) y sólo 10% usuarios llega a la 3ª pág., o sea, llega a leer el resultado #30. • 41% usuarios cambia la consulta si no encuentra lo que quiere en la 1ª pág. Y el 82% de estos modifica la consulta, normalmente añadiendo una palabra adicional. • 36% usuarios cree que las primeras posiciones tienen relación con la “calidad” de la oferta. Parece que una empresa es más “buena” si aparece más arriba en los resultados. Vemos así que la posición es realmente un factor determinante para obtener visitas de los buscadores, con la dificultad de tener que aparecer entre las 30

2

primeras posiciones de búsquedas que, en muchas ocasiones, ofrecen resultados correspondientes a millones de páginas

1.1 Diferentes resultados Los buscadores actualmente están presentando distintos tipos de información (ejemplo Google) a) Por un lado, resultados correspondientes a la búsqueda de documentos dentro de la WWW, lo que llamamos resultados naturales o orgánicos b) Anuncios del programa publicitario Google Adwords o enlaces patrocinados, etiquetados de manera inequívoca y en una zona separada. c) Contenido secundario obtenido de la búsqueda local (mapas) imágenes, noticias y videos. La mayoría de clics e interés de los usuarios (entre 60-70%) es centra en los resultados orgánicos, aunque depende del tipo de búsqueda, la importancia de los anunciantes que aparezcan, el contenido secundario etc. La optimización de los anuncios es otra disciplina que llamamos SEM (Search Engine Marketing) para diferenciarla del SEO (acrónimo del inglés Search Engine Optimization) que son un conjunto de técnicas para optimizar los webs mejorando aquellos aspectos del web (externos e internos) que influyen en la posición que los documentos tendrán en los rankings, es decir, para mejorar la capacidad del web de obtener tráfico desde los buscadores.

1.2 Google arrasa

3

Google domina el mercado de las búsquedas, con muchísima diferencia, especialmente en España como verás en este gráfico correspondiente al 2008.

En USA, la cuota de mercado de Google (2009) es del 64,6% y el reparto de los actores más relevantes es: Yahoo (16%), Bing (10,7%) y AOL (3,1%), datos de Nielsen. 2. Cómo funciona un buscador Un buscador es un software, un programa informático que ordena y clasifica información de Internet con la intención de ofrecer resultados relevantes cuando los usuarios los usan para encontrar respuestas a sus consultas. 2.1 Robots/directorios El software de estos buscadores visita documentos con una cierta frecuencia, según la frescura de los contenidos y su actualización. Después, una fórmula matemática –el algoritmo- se encarga de ordenar los resultados en función de la relevancia respecto de la búsqueda de un usuario, usando una combinación de más de 200 variables diferentes como la repetición y ubicación de las palabras clave, antigüedad, enlaces internos y externos etc. Los principales motores de búsqueda son: Google, Bing (acuerdo de Yahoo i MSN) i Ask. No confundir buscadores con DIRECTORIS, una base de datos de enlaces clasificada por categorías, dónde tenemos control (humano) de la información, ya sea porque la solicita el sistema al procesar el alta o bien una persona la introduce y la revisa. 2.2 Como ordena los resultados el robot 4

Los motores de búsqueda siguen un proceso en 4 etapas para proveer la información relevante: a) Rastrear la WWW. Ejecutan unos programas (se les llama bots o spiders) que, siguiendo enlaces, capturan el contenido de las páginas y documentos que se encuentran en la WWW. Un documento se encontrará si tiene un enlace a otra página o documento. b) Indexación Una vez la página ha estado encontrada y capturada, los contenidos serán indexados, o sea almacenados en una enorme base de datos de documentos. Tiene sentido que los documentos sean almacenados, ya que la búsqueda sería inviable en tiempo real si estuviéramos hablando de búsqueda entre millones de páginas en 3 o 4 segundos. c) Procesar la consulta Cuando el usuario introduce la consulta en el buscador, el motor consulta en su índice de millones de documentos para encontrar el resultado que encaja. En principio la concordancia de la consulta con el documento es el primer factor clave a tener en cuenta para que se decida mostrar o no un resultado. d) El ranking Un vez que el sistema ha elegido qué resultados encajan con la consulta del usuario, hay que ordenarlos y presentarlos siguiendo un criterio concreto de relevancia (ya hemos visto que el orden es muy importante para los usuarios). Para decidir este orden, el ranking de resultados, los buscadores usan una fórmula matemática (algoritmo, se llama) que calcula el orden según una ponderación de diferentes factores –a criterio particular de cada motor de búsqueda- que determinaran qué resultado es el más relevante, el más bueno para aquella consulta concreta.

5

2.2.1 El algoritmo. Como medir la relevancia Hasta 1998, todos los motores de búsqueda ordenaban basándose en etiquetas o palabras dentro del documento como únicos elementos para tener en cuenta, lo que, en un entorno comercial e interesado, resultó poco fiable y fácil de manipular en perjuicio de los usuarios. Hoy en día todos los buscadores usan 2 criterios básicos (con su combinación personalizada, claro): •

Relevancia o sea, hasta qué punto el documento encaja, es concordante, con las palabras clave (e intenciones) de la consulta. Se trata de analizar la concordancia de la palabra clave (la consulta) en diferentes ubicaciones importantes del documento (título, cabeceras, texto del web etc.).



Popularidad medida como la importancia relativa del documento para “la comunidad” entendida como las citas o referencias desde otros documentos. Cuántas más citas (enlaces) tenga un documento, más popular será y más oportunidades tendrá de posicionarse mejor. Además, también se analiza cuál es la fuente que enlaza – autoridad y confianza- y el texto cercano o que contiene el enlace.

6

Como acabemos de ver, se trata de tener en cuenta que cuántos más y mejores enlaces tengamos (y cuánto más populares e importantes sean estos sitios web que nos enlazan), mejores posiciones tendremos en el ranking. El algoritmo de Google, de nombre PageRank (en honor al nombre de uno de sus fundadores Larry Page) fue el primero en incorporar la popularidad como un factor clave para determinar la clasificación de los resultados. Según la propia definición de Google que encontrarás en http://www.google.com/intl/es/corporate/tech.html Tecnología PageRank: PageRank realiza una medición objetiva de la importancia que tienen las páginas web. Para ello, resuelve una ecuación que contiene más de 500 millones de variables y 2.000 millones de términos. En lugar de contar los vínculos directos, PageRank interpreta un vínculo de la Página A a la Página B como un voto que recibe la Página B de parte de la Página A. PageRank evalúa, de esa manera, la importancia que tiene una página determinada al contar la cantidad de votos que recibe. PageRank también considera la importancia de cada página que emite un voto, dado que a los votos procedentes de determinadas páginas se les otorga un valor mayor, incrementando así el valor de la página vinculada. Las páginas importantes reciben una valoración de PageRank más alta y aparecen en la parte superior de los resultados de búsqueda. La tecnología de Google emplea la inteligencia colectiva de la web para determinar la importancia de una página. Los resultados se obtienen sin ningún tipo de participación humana; por este motivo, los usuarios han llegado a confiar en Google como fuente de información objetiva, libre de la manipulación que se genera cuando los sitios pagan por ocupar determinada posición en los resultados. Teóricamente podemos saber cuál es el valor PageRank de una página mediante un componente de la barra de herramientas de navegador de Google (Google Toolbar).

7

La verdad es que parece que esta cifra que Google ofrece de manera pública tiene realmente un valor dudosa, aunque sí nos puede servir para orientarnos no como dato totalmente fiable, pero para guiarnos sobre el acierto de nuestras estrategias SEO. Pensemos además que estos valores sólo se actualizan cada 3/6 meses. 2.3 El web invisible El bot o spider accede a los webs siguiendo hiperenlaces desde otras páginas y es así como encuentra nuevos documentos y revisita aquellos que han estado modificados. En principio estas arañas se tragan el documento sea como sea pero desgraciadamente hay determinados tipos de webs que presentan obstáculos técnicos que dificultan que el robot acceda al contenido del documento y que , en la práctica, sea imposible la captura de la información –lo que imposibilita que después el documento pueda aparecer en los rankings. Los problemas más comunes para que un web tenga dificultades de rastreo (crawling) son: • Redireccionamientos antes de mostrar contenidos • Páginas accesibles vía menú desplegable (tipo javascript) • Páginas accesibles vía formulario y botón de enviar • Páginas accesibles vía login • Documentos a los que se debe acceder mediante caja búsqueda • Contenido o menús dentro de películas de Flash • Páginas con marcos “frames” • Páginas que piden una sesión ID o cookie para posibilitar la navegación (los robots no navegan como una sesión de usuario) Recuerda que para el buscador no hemos de pensar en el web sino de documentos. Cada documento será rastreado, indexado y presentado de manera individualizada si cumple los requerimientos. Para que el robot no tenga problemas para acceder, es necesario que cada documento tenga enlaces entrantes (desde la página principal sobretodo) y si no es posible por qué la navegación tiene muchos niveles, incorporar un mapa del web que facilitará enlaces a todos los documentos del web que nos interesen y le dará parte del trabajo de ya hecho, un mapa al que deberemos poder acceder desde un enlace que ubicaremos en todas las páginas. 2.4 Comprobando la accesibilidad para los robots

8

RECUERDA: Antes de empezar con las técnicas SEO debes asegurarte que tu web es suficientemente accesible para los robots. Esto implica estar seguro que cada una de las páginas cumple con los estándares de accesibilidad y visibilidad para ser indexadas correctamente. Los webs desarrollados 100% con Flash son todavía ahora un obstáculo para un buen posicionamiento, ya que su contenido no es “visible” para los robots de los motores de búsqueda. Hay una lista de recomendaciones en http://www.google.com/webmasters/docs/search-engine-optimization-starterguide.pdf. Tendrás una idea muy aproximada de tus posibles problemas de rastreo usando site: tudominiaqui.com:

¿Cuántas páginas están indexadas? ¿Encaja con el número de páginas y de contenido del web? Y la versión “en caché”.

Que te permite ver cuál es la última versión de nuestro contenido y la versión texto que ha almacenado el robot. Si existe poco contenido o la versión caché tiene poco texto... ¡es el momento de parlar con tu programador y revisar los obstáculos técnicos! 2.5 Más cuestiones técnicas Otro factor a tener presente en el posicionamiento, es la antigüedad del dominio, aunque este es un factor sobre el que difícilmente tenemos la posibilidad de influir. Si queremos evitar problemas con los buscadores, y mejorar las posibilidades de aparecer bien posicionados en el ranking es interesante tener en cuenta la 9

funcionalidad de las páginas y el código y componentes del web. A tener en cuenta: • No tener enlaces robots. Además de que la página no será encontrada, podría ser un inconveniente para la valoración de la página o web. • No esconder los contenidos que deben ser indexados detrás de formularios, javascripts o menús de selección que no pueda completar el robot. • Tener HTML validado y un buen uso del CSS. Usar CSS permite tener todo el texto junto y al principio del documento, con independencia de la complejidad del código. • Si deseamos un rastreo óptimo, mejor páginas por debajo de 150K, ya que los robots no leen mucho más para optimizar el ancho de banda y el tiempo que dedican a cada servidor. También es interesante que el servidor ofrezca una velocidad de transferencia óptima y sin errores. Para comprobar todo esto, recomendamos la instalación (gratuita) de las herramientas para webmasters de Google http://www.google.com/webmasters que permitirá detectar enlaces rotos, errores, problemas de rastreo y configurar el robots.txt. El robot TXT El archivo “robots .txt” se encuentra en la carpeta raíz del dominio y contiene instrucciones para el robot, que este leerá sólo aterrizar en el documento. El archivo indica qué sitios del web son o no accesibles, qué contenido queremos excluir para que no pueda aparecer en los resultados de búsqueda que son públicos. La exclusión se puede hacer por directorios o carpetas o a nivel de archivos concretos como vemos en estos ejemplos diferentes: User-Agent: * Disallow: /

(en este caso todas las carpetas)

______________________________________________________________ User-Agent: * Disallow: /carpetaexcluida

(sólo 1 carpeta excluida)

______________________________________________________________ User-Agent: Google Disallow: /carpetaexcluida

(sólo 1 carpeta excluida por Google)

3. La importancia de los contenidos para el posicionamiento 10

En líneas generales, el mismo texto que usan los buscadores como elementos para clasificar y encontrar la correspondencia comparando con lo que buscan los usuarios, es el mismo contenido que ven los usuarios cuando navegan por el web. Incluir palabras clave, mejor aún incluir “frases clave” en las páginas de contenido, es así la tarea fundamental que debe tenerse en cuenta desde el punto de vista de la redacción, si queremos generar copy que, además de cumplir la función de informar, orientar y convencer, contribuya al objetivo de aparecer en los buscadores. La optimización para buscadores de las páginas que se basa en el contenido de estas es una excelente estrategia para las búsquedas no excesivamente competitivas, sin requerir ninguna tarea adicional de codificación o de metadatos. Si se trata de búsquedas súper competitivas estas estrategias se deben combinar con la obtención del número suficiente de enlaces desde otras webs y la optimización del anchor text. Las ideas básicas para entender el proceso de textos optimizados para los buscadores son: • Frases, no palabras. Tenemos que pensar mejor en frases clave que no “palabras clave”. No sólo porque los usuarios han ido evolucionando hacia consultas de 2, 3 o 4 palabras en vez de la búsqueda de una palabra, sino porque en realidad garantiza un usuario más afín a nuestra oferta de contenidos. Este estudio de Rankstat (Enero 2007) muestra las preferencias de los usuarios en cuanto al número de palabras con las que buscan: • • • •

28,38% de las búsquedas incluyen 2 palabras 27,15% 3 palabras 16,42% 4 palabras 13,48% 1 palabras

Los usuarios se han vuelto con los años mucho más sofisticados con los buscadores y ya han aprendido como usarlos, así que es normal que las palabras de búsqueda hoy en día estén muy bien enfocadas y que sean más frases que palabras. EL enfoque en frases en vez de palabras permite atrae usuarios que están buscando exactamente lo que ofrecemos. Además piensa que cuando optimizas el contenido para frases con varias palabras, en realidad también estás trabajando estas palabras que, aunque combinadas, aparecen en la frase clave y por tanto también será posible conseguir tráfico por éstas. • Documentos (páginas), no web. Hay que optimizar todas las páginas para que cada una de ellas sea una vía de entrada al web. Cada página

11

(documento) tiene unos contenidos únicos que la hacen susceptible de ser encontrada en relación con la consulta del usuario. • Los buscadores no deberían ser el objetivo principal del texto. Nunca se debe sacrificar el tono o la facilidad de lectura o de comprensión para adecuar el texto a los buscadores. La clave está en escribir de manera natural en el estil más idóneo para la audiencia y tener les frases clave pensadas desde el principio para intentar añadirlas. 3.1 La elección de palabras Encontrar las palabras o frases clave adecuadas para incluir no es fácil. Hay que estudiar y observar lo que realmente está buscando la audiencia. ¿Qué patrones de palabras usan esos usuarios cuando piensan sobre algún tema o asunto y lo buscan? Algunas herramientas te pueden ayudar en la investigación de palabras clave como AdWords Keywords Tool o Wordtracker (wordtracker.com de pago). Con la lista preparada, hay que mejorarla teniendo en cuenta estos consejos básicos: • Tú no eres tu usuario. Piensa como ellos, no como un experto en el tema. • ¿Tenemos públicos diferentes? • ¿Son búsquedas probables? ¿En qué volumen? • ¿Es importante la ubicación geográfica? • ¿Tenemos marcas reconocidas por las que nos podrían buscar? • Contempla variaciones de la palabra (singulares, plurales, acentos, género, adjetivos y complementos del nombre...) • La visión multilingüe no es traducir las palabras, sino pensar como un usuario nativo y en sus búsquedas reales • ¿Qué usa la competencia? Observemos su web y el su contenido estratégico

3.2 Optimización de la página Para cada página será relativamente fácil de apuntar cuáles son las palabras clave ya que el propio contenido, el propósito de cada uno de los documentos ya las define. Cada documento, si el web está bien diseñado, tendrá una temática o contenido que lo harán único y que estará vinculado a diferentes frases clave.

12

La idea es encontrar una frase de 3 o 4 palabras que contenga el máximo de palabras clave, que tenga sentido (semánticamente correcta) y coherente con el contenido de la página. Para cada página web no recomendamos trabajar más de 2 o 3 de estas frases clave. Una vez elegidas estas 2 (o 3) frases incorpóralas al texto, haciéndolas el término principal o prominente del documento. Para incluir les palabras/frases clave lo ideal es esparcirlas por el texto. En la práctica podemos encontrarnos con frases que serían buenas para las búsquedas pero que no casan con el contexto o redactado. En vez de forzarlas es preferible descartarlas y substituirlas por una variante que encaje más. Estas técnicas no deben de sacrificar el flujo de la comunicación. Llena el texto del documento con las palabras clave y frases por las que quieres que te encuentren. Es interesante trabajar la repetición sin caer en el abuso y en un resultado poco natural o robótico. Escribe para humanos.

Compra mobiliario de oficina a los mejores precios posibles. No te pierdas nuestras ofertas de muebles para tu oficina...

Recuerda que el texto contenido en imágenes no será capturado por el robot, sólo el texto “seleccionable”. 3.2.1 Title Tags o etiquetas de título. El título de la página HTML debe describir la página incluyendo palabras clave. Añade de 5 a 9 palabras, la más importante en las primeras posiciones de esos 65 caracteres. También ayudan al usuario a decidirse por este resultado. Por ejemplo: ABZ Muebles oficina- Mobiliario para oficinas 3.2.2. URL (dominio) La URL del documento debería ser lo más descriptiva posible. Si el web tiene diferentes niveles de archivos y documentos, la URL idealmente debería reflejar la estructura de carpetas y subcarpetas. No sólo por el posicionamiento, la URL descriptiva (y con palabras clave) ayuda al usuario a elegir este resultado porque le ofrece una mejor idea del contenido del documento. Por ejemplo: http://www.abzmobles/mesas/oficina en vez de http://www.abzmobles/producte/B0015484/102-5023 Evita muchos parámetros, mejor si son menos de 3. 3.2.3 Meta Tags 13

Habían sido críticas para el posicionamiento en etapa pre-Google, pero han ido perdiendo peso para el posicionamiento. La etiqueta meta description tag puede aparecer en los resultados de la búsqueda, sustituyendo el “snippet” o texto por defecto que aparece debajo del título de página en los resultados. Una buena etiqueta puede ayudar a mejorar el ratio de click through, aunque no afecta directamente al ranking, lo que algunos llamamos “la relevancia humana”. Deben ser 1 o 2 frases motivadoras y se recomienda que tenga entre 25-150 caracteres. La etiqueta meta keywords no sirve actualmente para trabajar el posicionamiento pero tenerlas no te hará ningún daño. Son palabras separadas por comas (no más de 8 o 10) que deben tener vinculación con el contenido del documento. 3.2.4 Cabeceras y ordenación del contenido Es una manera de enfatizar los contenidos más importantes. Usa el tag por página con las palabras estratégicas. Usa también otras etiquetas destacadas como (, , etc) para trabajar variaciones y añadir más palabras clave. Muebles de oficina Mesas de oficina

... información sobre mesas de oficina

Armarios oficina

... información sobre armarios de oficina

3.2.5 Atributo ALT Los robots no leen imágenes pero sí las descripciones textuales asociadas a sus atributos . Estos atributos estaban pensados para mostrarse sustituyendo imágenes que tardaban en cargarse o para lectores sonoros de navegadores (para invidentes). Los robots usan esta información en el enlace de la imagen, que incluye el nombre de la imagen y este atributo y también para saber cuál es el contenido de la página donde enlaza la imagen. Llena estos tag con algunas de les palabras clave de la página. 4. Enlaces En el momento de decidir la estrategia de los enlaces externos, debes tener en cuenta cómo valora el sistema (hablemos de PageRank) cada uno de estos –en opinión de SEOMOZ.org: • El texto o etiqueta que forma el enlace. Lo que llamamos Anchor Text o texto ancla. Son las palabras que enlazan al documento por ejemplo en: “este es el mejor curso de marketing que se puede recibir en BCN”, curso de marketing es el anchor text, es el texto que contiene el enlace, dónde hay que hacer clic para acceder al documento correspondiente.

14

Un enlace estándar es: < a href=”http://www.cibernarium.cat”>Cibernarium Y se mostrará Cibernarium Fíjate que el texto entre y es el anchor text y que el contenido de a href = indica la página de destino del enlace. La página a la que se dirige el hipervínculo queda “etiquetada”, relacionada con este texto, pero no marcada por un texto oculto o etiquetas en el código fuente, sino por una etiqueta que como aparece en el texto visible, el mismo que ven los usuarios, es mucho más difícil de manipular y, por lo tanto, debe responder a un contexto real de utilización de estas frases clave. Es como si le diera mucha importancia para la relevancia y la calidad a lo que otros piensan de la página (los que la enlazan) y con qué palabras se refieran a ella. Es tan importante el anchor text que si muchos documentos enlazan a otro usando palabras concretas en el enlace, esta página que recibe los enlaces puede posicionarse muy bien en el ranking, aunque estas palabras no aparezcan en el documento, como son los ejemplos de los Google Bombings (ver el caso de “ladrones” y la SGAE). Aún se puede sofisticar un poco más: < a href=”http://www.cibernarium.cat” Activa”>Cibernarium

title=”Barcelona

y se mostrará igualmente Cibernarium pero ahora habremos añadido un atributo adicional de información, el del título del enlace, que Cibernarium está también vinculado a BCN activa. La solución es así, siempre que tengamos control sobre los enlaces (por lo menos esto será siempre posible si nos referimos a los enlaces internos) intentar que se haga este enlace conteniendo las frases clave estratégicas en el anchor text en vez de usar un clic aquí, ver aquí, o quizás un enlace que por no ser tan repetitivo es menos explícito. • La popularidad global del web. Cuánto más popular sea un web (es decir, cuántos más enlaces y de más valor tenga), más atributo de popularidad pasará a los webs que enlaza. • Popularidad del web en determinadas comunidades o vinculada a determinados temas. Los buscadores pueden analizar el peso del web o 15

documento en comunidades temáticas o en webs que pertenezcan estas comunidades así como la relación entre el tema de la página y la de los webs que enlazan. • Texto o palabras cerca del anchor text. Valen más estos enlaces que otros en las barras de navegación o pie. 4.1 No follow El atributo nofollow está pensado específicamente para los enlaces y su valor para los buscadores. Nofollow (no seguir) indica al buscador que no ha de tener en cuenta este enlace a efectos del ranking ni considerarlo “un voto” a efectos de popularidad. Fíjate como modifica el enlace aunque de una manera no visible: < a href=”http://www.cibernarium.cat” title=”Barcelona Activa” rel=”nofollow”>Cibernarium La proliferación del atributo nofollow hay que explicarla por el abuso (spam) al que estaban sometidos comentarios en blogs, foros y, en general, cualquier web en la que pudieran añadirse enlaces (Wikipedia...) por parte de personas que añadían enlaces indiscriminadamente con el único objetivo de mejorar la popularidad, sin tener en cuenta el perjuicio causado en los usuarios del web. Las consecuencias del nofollow a efectos de Google: • No sigue el enlace (no indexa página, aunque esto se podría conseguir de otras maneras) • No contabiliza el enlace para calcular la popularidad • No tiene en cuenta el anchor text para determinar qué palabras tienen relevancia para el enlace. Por otro lado, el hecho de que los enlaces no cuenten, desincentiva la participación de personas en estas plataformas colaborativas si no van a obtener a cambio algún beneficio colateral por contribuir. 4.2 Comprobando enlaces Para tener una idea aproximada del peso de los enlaces hacia tu web, puedes usar el valor de PageRank en la barra de navegación Google Toolbar. Otras herramientas te permitirán tener una cifra de los enlaces detectados: a) En Google, con el comando link:ponaquitudominio.xxx

16

la herramienta b) Con (http://siteexplorer.search.yahoo.com)

Yahoo

SIte

Explorer

5. Técnicas penalizadas Esta es una lista de las técnicas que pueden ser penalizadas por los buscadores, ya que incumplen su política editorial. • Texto oculto. Se trata de esconder texto ya sea porque tiene el mismo color que el fondo, tamaño minúsculo, detrás de imágenes o películas de Flash etc. También se esconde texto en otras codificaciones como el Noscript por ejemplo. • Cloaking. Identificar las visitas del robot –por su IP- de manera inequívoca y servirle una página totalmente distinta, llena de contenidos superoptimizados, de la que ven las sesiones de usuario normal. • Granjas de enlaces. Webs creadas sólo con la finalidad de dar enlaces para manipular la popularidad de los documentos a base de enlaces “falsos”.

17

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.