Intel Research: 50GB por segundo

En 2008 tuve la suerte de viajar a los Laboratorios de Intel y poder ver como se estaba preparando algo que parecía imposible y que era la unión de chips de silicio y germanio con lásers en fibra óptica para llegar a unos 40GB/seg como decían en ese momento.. hoy su departamento de Silicon Photonics mostró que lograron crear una solución end-to-end… pero con 50Gbps y quieren llegar a los 100Gbps

¿que implica eso? transferir una película HD o 100 horas de música o 45 millones de tweets… en menos de un segundo. El cambio que esto puede llevar a los datacenters, a los centros de investigación y a los productos de “último metro” como los usados en el NASDAQ es impresionante.

No, no esperen verlo pronto en el mercado pero en menos de dos años lo que parecía algo teórico ya es una solución armada :)

Directo de las fuentes: DocumentCloud

Frases del estilo “una alta fuente del gobierno me confirmo” han sido una muletilla constante en notas periodísticas desde hace muchos años. A veces usadas por los periodistas para darse importancia, esas frases daban a entender que existían pruebas documentables detrás de lo que se estaba reportando.

Si bien en Argentina en los últimos años la verificación de las fuentes (y de los datos) es una costumbre que parece caer en desuso, la validez de la información que se brinda depende -en muchos casos- de la veracidad y confiabilidad de as fuentes. Es la gente que informa a los periodistas lo que mantiene, entre otras cosas, a los medios como algo diferenciado de los blogs. Pocos bloggers dicen “mis fuentes me informan… “.

Todo ese universo de información en crudo sigue perteneciendo a un sub-mundo, al detrás de escena. Poco sabemos de quién provee qué información. Hasta cierto punto es la propia naturaleza de la fuente la que ha hecho que sea así, pero han sido los medios los que más energía han puesto en que solo llegue al público el contenido pre-masticado.

Irónicamente es una iniciativa impulsada -en parte- por el New York Times la que promete cambiar esto. La idea de la que poco se sabe (y que poco ruido viene haciendo por ahora) es Document Cloud.

Document Cloud, para decirlo lisa, simple y brutalmente, pretende ser un repositorio indexado y colaborativo de documentos originales. Lo interesante es que la gente que lo ha pensado planea desarrollarlo no solo como un servicio sino también como un set de estándares.

Si a todo esto le sumamos una alianza estratégica con “Open Calais” de Reuters la cosa se pone cada vez más interesante.

Por ahora está en fase de Closed Beta para unos pocos y selectos Medios.

Open Cloud promete revolucionar el “backend investigativo” del periodismo. ¿Podrá lograrlo?

[Antes de que acusen a Mariano por su baja en la calidad narrativa de Uberbin les comento que esto lo escribió Esteban Panzeri]

Facebook y Nielsen forman una alianza de market research

facebook-marketingInteresante noticia sobre la alianza entre Facebook y Nielsen para hacer investigación de mercado en forma conjunta; sobre la base de 300 millones de usuarios de Facebook y la experiencia de Nielsen para “masajear” datos, pueden salir cosas interesantes. Su primer producto es Nielsen BrandLift y va a tener una especie de promoción en la que van a analizar los resultados que están viendo los anunciantes en la red social…. ¿Datamining de 300 millones de personas que comparten datos sin siquiera pensar en que están compartiendolo y con quien? Una mina de oro para cualquier marketinero.

Facebook Lexicon, tendencias masivas en tiempo real

Aunque no es tan público como Twitter Search o Twist para ver comparaciones, Facebook Lexicon es una herramienta de seguimiento de tendencias de keywords como no hay otra en el mercado y, gracias a la cantidad de datos que hay creados por los usuarios y asociados a las keywords, no creo que nadie pueda acercarsele siquiera.

facebook-tendencias-lexicon

Y si Google temía que Twitter lo ataque en el mercado de búsquedas en tiempo real, debería tenerle mucho más miedo a las búsquedas con metadata de Facebook en esta herramienta porque no sólo te permite ver tendencias, sino asociaciones demográficas, términos asociados que estan apareciendo o desapareciendo y… lo mejor de todo el “sentimiento positivo o negativo” de una keyword con lo que te permitiría definir que es lo que quieren más ej: Baseball o Basketball, Obama o McCain, Maradona o Riquelme ;)

Continuar leyendo “Facebook Lexicon, tendencias masivas en tiempo real”

Seis grados de separación analizados por MSFT

Microsoft está empezando a hacer cosas interesantes en sus laboratorios de MSN y de Microsoft Research; el nuevo estudio que lanzaron analizan si esa teoría se replica en la web, para analizarlo tomaron una muestra gigantesca: 255.000 millones de mensajes enviados durante 30.000 millones de conversaciones de 240 millones de personas durante Junio de 2006 con el MSN Messenger.

¿La conclusión? la distancia promedio entre los usuarios de MSN Messenger es de 6.6 pasos, apenas un 10% arriba de la teoría de los seis grados:

Los seis grados de separación se refieren a la idea de que, si una persona esta a un grado de distancia de cada persona que conoce y a dos grados de las personas que es conocida por cada persona que ella conoce, entonces todo el mundo está a apenas seis pasos de distancia de cualquier otra persona en la tierra

Link: Worldwide Buzz: Planetary-Scale Views on an Instant-Messaging Network y hay algunas otras conclusiones además de esta.

Searchme: un buscador a là Coverflow

Sequoia Capital a veces casi siempre invierte en proyectos interesantes, esta vez en SearchMe un buscador de Internet que quiere competir con su interfaz y la agrupación de resultados por categorías.

Es bastante raro ver los resultados en este tipo de interfaz, para los que tengan algo de Apple van a ver que es un Coverflow, quizás porque uno no está acostumbrado o porque tenga cierto temor de consumo de recursos a lo bestia.

Pero más allá de eso, también meten en la ecuación otra tecnología conocida que es la agrupación por temática (clusterización de resultados) para poder ir reduciendo los resultados presentados en base al tema al que pertenecen las keywords que estás buscando.

En la demo, la beta privada no se puede bloggear ni nada por el estilo, el resultado es genial pero me quedo preguntando si lo que quiere la gente al hacer una búsqueda es un resultado rápido o un resultado “lindo”, ¿es la interfaz la forma de competirle a Google? (en realidad ¿alguien puede competir con G? :P)

Busquedas colaborativas en Microsoft Research

Algunas de las inicitivas de búsquedas colaborativas o sociales que hay en Microsoft Research.

Search Together es la que mas me gusta; la posibilidad de usar un plugin que te permite no sólo compartir lo que buscás sino subirte a una sesión abierta donde alguien está investigando algo en Internet es genial… si estás buscando “Comprar iPod” no lo veo útil pero si estás haciendo algo mas complejo y grupal me parece el mejor acercamiento que vi ultimamente.

SearchBar es, en realidad, un plugin que te permite guardar, calificar, y organizar tus búsquedas en una barra lateral que incluye desde el sistemita de calificación de utilidad de los resultados o combinaciones de keywords hasta un bloc de notas.

CoSearch es un paper de Meredith Ringel Morris /este nombre no deja de aparecer cada vez que uno mira investigaciones sobre buscadores/.. lo interesante es que te permite hacer busquedas conjuntas.. pero en una sola PC y al mismo tiempo ¿como? usando varios mouse o teléfonos como dispositivos de ingreso de datos.

Lo vi en On10 donde, además, descubrí MSLive Labs con cosas interesantes como el PhotZoom y DeepZoom que son implementaciones de Silverlight ;)