Denken Über El weblog de Mariano Amartino donde escribo sobre tecnología, estrategias y cosas de internet.

Hace 2 años

Google penalizará a sitios con denuncias de copyright

Y finalmente Google oficialmente va a incluir en su algoritmo las denuncias que un sitio tenga por violar derechos de autor, con un detalle interesante: si Google borrara de los resultados a estos sitios estaría censurando así que simplemente va a ponerlo como puntaje negativo para el posicionamiento orgánico como explican por arriba en su blog.

pedidos de remocion de URLS en google

¿Que implica esto? Básicamente que los sitios que viven haciendo scrapping de contenidos de terceros y lo publican en sus sitios pero con mejores técnicas de SEO (o apalancando el peso total de su URL) van a aparecer abajo de los sitios que crean el contenido original… ¿algo lógico?

Claro que si pero hay dos detalles que no me parecen correctos

  • Por un lado esto solo va a ser una “señal” dentro de su algoritmo y va a generar que haya muchas denuncias falsas como técnica de black-hat seo
  • por otro lado, si quieren ponerse en serio a “ayudar usuarios encontrar fuentes de contenido legítimas y de calidad más fácilmente” deberían entender que el scrapping no es sólo automático

Porque mientras las denuncias de copyright para grandes estudios es simple, los webmasters chicos solo encuentran formularios complicados, procesos automatizados y CERO ayuda por parte de la empresa… mientras tanto esos sitios siguen generando miles de dólares diarios usando… AdSense :)

Actualización: NO SE PENALIZARÁ A YOUTUBE Y A BLOGGER

There’s no way to treat YouTube — or Blogger — like any other site in the search rankings, when those sites have special takedown forms that don’t allow their alleged infringing activity to measured up against other sites. Via Danny Sullivan

5 comentarios por ahora

j0an

el problema es como determinan quien es el original y quien la copia..

veo una bocha de falsos positivos.

mariano

@joan en realidad hay formas de determinarlo… pero no le prestan atención ni siquiera hoy que podrían hacerlo hasta con los sitemaps

lmuran

los algoritmo de google son una bosta, fue en su momento lo mejor pero hoy deberian hacer un reset, todo lo “malo” de la red es gracias a la indexation de sus arañas… cualquiera puede subir contenido sucio y seguir manchando internet

Fabio

considerando que las técnicas de Google han hecho bajar un 40% el tráfico en mi sitio (actualmente sólo un 20% entra por Google, imaginate) y es un blog donde el 95% del contenido es original (y clonado por otros que no tengo forma de denunciar) me parece que esto logrará que, en definitiva, el tráfico a mi blog por parte de Google sea del 1%

Es decir, no nos ayudará en nada, seguirá castigando a los generadores de contenido y nada cambiará, el problema de Google es la priorización que hace de granjas de contenido para poder vender más tráfico en Adwords.

Todo esto es mentira, a ellos les importa un pito que la web sea mejor y que el mejor contenido sea accedido por la gente. Es hora de cambiar Google por otro.

cesar gomez - emprendedor

Creo que usted tiene razón cuando se refiere al scrapping y al black-hat seo, también en parte tiene razón Imuran, aunque Google no es dueño de Internet, lo que creo que Google debería hacer es crear algoritmos para eliminar contenidos basura de los motores de búsqueda.