Cuando la escala de datos es irrelevante hasta en Internet

Hay un debate genial dando vueltas entre Yahoo! Microsoft y Google sobre la necesidad de una empresa de lograr escala de agregación de datos para tener una ventaja competitiva en la web 2.0 como se creía, firmemente, desde que Tim O’Reilly popularizó el término.

El este debate surge porque Steve Ballmer dice que la alianza con Yahoo! es necesaria para que mejoren sus algoritmos de datos para lograr, a su vez, mejor capacidad de análisis de Internet y de los resultados que muestran (tanto orgánicos como patrocinados) a los navegantes… a lo que Hal Varian, Economista Jefe de Google, dice que es un argumento falso ya que ellos son capaces de hacer pruebas y mejoras al algoritmo tomando muestras inferiores al 2% de la base de usuarios o querys a su buscador.

Y es interesante porque el argumento no sólo tira abajo la explicación de Ballmer de porque necesitaban a Yahoo! (ok, yo tampoco se lo creí pero al menos tenía sentido teóricamente) sino que tira abajo una de las creencias fundamentales de la web 2.0: la presunción de la dinámica de rendimientos crecientes en la recopilación de datos es falsa directamente.

Ahora, pese a que el debate es realmente interesante me pregunto si esto se da porque realmente es una presunción errónea o es simplemente porque en la escala de Google todos los “efectos de red” se vuelven irrelevantes.

Hay mucha data interesante en el blog de Nick Carr y datos en Search Engine Land y una nota excelente de Daniel Tunkelang

5 opiniones en “Cuando la escala de datos es irrelevante hasta en Internet”

  1. Y el 2% de google no es la RE cantidad de informacion?

    Sera el 15% de lo de msn/yahoo…

    Gugel guarda muuuucha mas data de los users…

  2. En mi opinión, lo importante no es el tamaño de la muestra, un 2% es bastante a efectos estadísticos, sino la variedad de datos que contiene la muestra.
    Google tiene información de muchas procedencias, no solo de las búsquedas, sino de los emails, de las estadísticas de blogs, de google maps, etc, etc, de forma que de ese 2%, tiene una visión global más perfecta que la que tenía Microsoft.

    Ahora Microsoft, mejora su “visión lateral” de la muestra, puesto que une la información que tiene de un sujeto, a la información que tiene Yahoo.

    Puede que solo tenga en cuenta un 2% de sus datos, pero a la hora de ofrecer publicidad contextual, lo que pueda deducir de ellos es superior a lo que deducía antes.

  3. Yo creo que Ballmer no van tan errado, es más, no le queda opción si quiere estar a la altura. Lo que pasa es que incluso Bing y Yahoo juntos ya ni le pueden llegar a los talones a Google, ni en calidad ni en cantidad de data. Por eso Google puede tener el tupé de decir que es irrelevante y que con analizar el 2% de sus bases de datos ya pueden lanzar un nuevo paradigma de búsquedas jajajaja. Es nada más que una competencia para ver quién las tiene más grandes. Y Google lleva amplia ventaja.

  4. Creo que el tema de la escala no es falso, sino que el Economista de Google lo interpreta como más le conviene.

    Cuando MS dice “el futuro de search” no creo que se refiera a las mejoras al algoritmo de resultados de búsqueda tal como los conocemos en 2009, sino más bien a temas de personalización y relevancia de anuncios (behavioral targeting). Para eso sí es necesario tener escala.

Comentarios cerrados.