Encubrimiento es el mal? - Cazador de ganancias

Encubrimiento es el mal? - Cazador de ganancias Antes de leer el artículo de Rand Fishkin en SEOmoz, pensé que encubrir en cualquier forma es un método de promoción excepcionalmente negro que puede obtener de Google que todo lo ve y que todo lo sabe. Pero me equivoqué (lo cual, en general, no es para nada sorprendente). Simplemente no tuve la sensatez de adjuntar la característica principal de la ocultación: emitir contenido diferente para los robots de búsqueda y los usuarios normales, a los sitios blancos que utilizo todos los días.

* Esta publicación estará dedicada por completo a varios tipos de camuflaje ya cuáles de ellos tolera Google y cuáles no. No habrá "temas" aquí, solo información interesante para ampliar la perspectiva.

Aquí hay una lista no débil de sitios web débiles que usan el encubrimiento con éxito para sus propios fines:

  • Google (sí, es lo más). Busque los servicios de Google de Google como traductor de Google , adwords , adsense , etc., y vea qué URL proporciona Ahora vaya al enlace y vea en qué se convierte la dirección de la página a medida que se carga. Además, el contenido de la página de destino a veces es diferente de lo que se almacena con el caché, independientemente de si está conectado Google o no.
  • NYTimes.com . Páginas de publicidad incorporadas, una invitación para iniciar sesión / registrarse en el sitio después de 5 clics, datos de archivo: una persona lo ve de forma diferente a los robots de búsqueda.
  • Forbes. Com . En este sitio, es imposible siquiera mirar la página principal sin antes disfrutar del anuncio en media pantalla. Las páginas en caché también suelen ser diferentes de lo que las personas ven en el sitio.
  • Vino. com . Incluso si no tiene en cuenta las redirecciones, cada usuario antes de mirar los precios (como, por cierto, la página), debe elegir el estado. Apenas se requiere de los robots de búsqueda.
  • WebmasterWorld. com . Este sitio fue uno de los primeros en introducir la práctica (ahora generalmente aceptada) de unos pocos clics gratuitos en el sitio, después de lo cual hay una propuesta para unirse al sitio. Pero esto no es aplicable a los bots de Google.
  • Yelp. com . Uso activo de geo-targeting basado en cookies.
  • Amazon. com . Gracias a las cookies y los datos de visitas anteriores, Amazon puede variar, por ejemplo, el problema de los productos recomendados.
  • iPerceptions. com . De hecho, el sitio no utiliza el camuflaje, pero la ventana emergente en el sitio solo es visible desde aquellas computadoras donde los navegadores admiten cookies (y no solo en este sitio, sino también en otros cien). Sin mencionar que el sitio pertenece a uno de los empleados de Google.
  • ComputerWorld. com . Si fueras un bot, nunca verías anuncios en toda la pantalla, ventanas emergentes e incluso algunos javascripts que solo funcionan cuando una persona real visita el sitio.
  • Scribd. com . La máquina ve en el sitio sólo texto-html. El hombre ve lo que ve.
  • Nike. com . Google muestra que el sitio consta de más de un millón y medio de páginas. Pero por alguna razón, todas estas páginas comienzan con la misma película flash.
  • Wall Street Journal . El bot de Google no ve el pago para acceder al enlace , después del primer párrafo, en algunos artículos del sitio.

Esta lista sigue y sigue, pero la esencia está clara sin ella: no siempre es malvado , especialmente si eres:

  • grande y mundial marca famosa; o
  • enmascarar páginas para que no solo los bots de búsqueda, sino también los visitantes en vivo del sitio se beneficien de ello.

Aquí hay una clasificación de los tipos de camuflaje de Rand Fishkin:

1. Cristal blanco :

  • Métodos permitidos: reconocimiento de cookies, javascripts.
  • Objetivo: optimizar las páginas de destino, proporcionar contenido a los usuarios registrados.

En el mismo SEOmoz hay una suscripción paga, cuyos contenidos solo pueden ver sus miembros. Técnicamente, los robots de búsqueda y algunos visitantes ven cosas diferentes, pero todas se basan en cookies y se ejecutan en estricta conformidad con los requisitos de los motores de búsqueda.

2. Casi blanco :

  • Trucos permitidos: todos arriba + Agente de usuario.
  • Propósito: orientación geográfica, determinación del tipo de navegador, minimización del tráfico a los bots.

Geo-Targeting salpica en Craigslist. org. Los representantes de Google declararon abiertamente que mientras Craigslist muestre a los bots las mismas páginas que los visitantes, este comportamiento del sitio no viola las reglas. Solo aquí los bots ven las páginas equivocadas que los visitantes, lógicamente no deberían ver, porque el bot necesita alimentar todo el contenido del sitio, y no solo los anuncios de Nueva York o San Francisco. Sin embargo, tal violación de las reglas no conlleva serias consecuencias, ya que, en general, tanto los usuarios como los motores de búsqueda obtienen lo que necesitan.

3. Ligeramente gris :

  • Trucos permitidos: lo que esté arriba, + Agente de usuario / ver información de la dirección IP.
  • Objetivo: redirigir el peso del enlace a páginas similares, mostrar contenido oculto.

En los sitios donde se colocan artículos grandes, como regla general, hay enlaces como "leer el artículo" o "imprimir el artículo", etc. con el mismo espíritu. Cuando aparecen varios enlaces de diferentes fuentes (blogs, sitios sociales) en estas versiones del mismo artículo, los motores de búsqueda comienzan a indexarlos y penalizan los contenidos duplicados. Para evitar esto, las redirecciones secundarias 301 se colocan en enlaces secundarios, y luego se envía todo el peso de referencia al propio artículo. Pero una vez más, a pesar de la violación de las reglas, este método beneficia tanto a los visitantes (que cambian al artículo original) como a los motores de búsqueda (Yahoo y MSN aún tienen problemas con la definición de contenido duplicado). Es decir, los sitios autorizados para ello ciertamente no amenazan nada.

4. Gris oscuro :

  • Trucos permitidos: todos.
  • Propósito: mostrar menos contenido optimizado, redirigiendo el peso de referencia a las páginas de la izquierda.

Algunos afiliados, en lugar de redirigir el peso de referencia de los enlaces de los afiliados a las páginas a las que deben dirigirse, lo redirigen a las páginas que deben incluir enlaces y avances en el tema. Tales gestos están muy cerca de los métodos negros, por lo que los motores de búsqueda son castigados por esto.

5. Negro :

  • Trucos permitidos: todos.
  • Propósito: mostrar contenido que no corresponde en absoluto a la consulta de búsqueda.

Aquí, Rand da un ejemplo de cómo ingresó la consulta inurl: sitemap en la búsqueda. xml y en el noveno lugar del problema, se encuentra el enlace www. acta-endo. ro / new / viagra / sitemap. xml. html, lo que lo llevó ... pero usted mismo sabe adónde conducen tales enlaces. Para esto, los motores de búsqueda prohíben los sitios tan pronto como se encuentran.

Conclusión: Todo lo que es blanco o ligeramente gris es aceptado por los motores de búsqueda, a pesar de las declaraciones públicas de algunos interlocutores, ya que no viola los intereses de las partes. Para todo lo demás banyat.

Entradas relacionadas:

  • Al llamar a un barco, flotará
  • Herramientas útiles para estudiar la audiencia objetivo del sitio
  • Método de hierro para aumentar el tráfico de búsqueda
  • 10 maneras de aumentar rápidamente el tráfico del blog

¿Te gustan los artículos? ¡Suscríbete al boletín!

Buscar

Artículos relacionados