Qué es la Web 2.0: Los datos son el próximo Intel Inside

Aquí tienen la traducción de la tercera parte del texto de Tim O'Reilly sobre el concepto "Web 2.0". El aporte ahora es de Francisco J. León:

Qué es la Web 2.0. Patrones del diseño y modelos del negocio para la próxima generación de software
Por Tim O’Reilly.

3. Los datos son el próximo Intel Inside

Cada aplicación para Internet de relevancia a la fecha ha estado respaldada por una base de datos especializada: web crawl en el caso de Google, el directory (y web crawl) de Yahoo!, la base de datos de productos de Amazon, la de productos y vendedores de eBay, las bases de datos de mapas de MapQuest, la base de datos distribuida de canciones en el de Napster. Como lo hacía notar Hal Varian en una conversación que sostuvimos el año pasado, “SQL es el nuevo HTML”. La administración de bases de datos es el conocimiento de las empresas Web 2.0, tanto es así que en ocasiones nos hemos referido a estas aplicaciones como “infoware” en vez de meramente software.

Este hecho nos lleva a una pregunta clave: ¿a quién pertenecen los datos?

En la era de Internet uno ya puede ver un número de casos en que el control sobre la base de datos ha llevado al control del mercado y a retornos financieros descomunales. El monopolio del registro de nombres de dominio que inicialmente se concedió por decreto gubernamental a Network Solutions (posteriormente adquirida por Verisign) fue uno de los primeros grandes generadores de divisas de Internet. Si bien hemos argumentado que tener ventaja comercial por la vía del control del software de interfaz de programación de las aplicaciones es mucho más difícil en la era de Internet, el control de fuentes de datos clave no lo es, particularmente si la creación de esas fuentes de datos es cara o son susceptibles de generar ingresos cada vez mayores por efectos de las redes.

Fíjense en los avisos de copyright que aparecen en la base de cada mapa que proporciona MapQuest, maps.yahoo.com, maps.msn.com o maps.google.com y verán la frase “copyright de los mapas: Navteq, TeleAtlas” o con los nuevos servicios de imágenes satelitales “copyright de las imágenes: Digital Globe”. Estas empresas han invertido cuantiosas sumas en sus bases de datos (sólo Navteq, según se dice, ha invertido US$750 millones para construir su base de datos de direcciones y ubicación de calles. Digital Globe gastó US$500 millones en lanzar su propio satélite y mejorar así el repertorio de imágenes suministradas por el gobierno. Navteq ha llegado incluso a imitar el característico logo “Intel Inside” de Intel: los automóviles con sistemas de navegación llevan el sello “NavTeq Onboard” (NavTeq a bordo). Los datos son, en efecto, el “Intel Inside” de estas aplicaciones, un componente de una sola fuente en sistemas cuya infraestructura de software es mayoritariamente open source o de una u otra forma un commodity.

La ahora acalorada disputa por los servicios de mapas en la web demuestra cómo el no comprender la importancia de poseer los datos fundamentales (core data) de una aplicación en definitiva minará su competitividad. MapQuest fue pionera en la categoría de servicios de mapas en la web en 1995, sin embargo cuando Yahoo! y luego Microsoft y más recientemente Google, decidieron entrar al mercado pudieron ofrecer con facilidad una aplicación competitiva simplemente adquiriendo una licencia para usar los mismos datos.

Contrasten, sin embargo, la posición de Amazon.com. Al igual que competidores tales como Barnes & Noble, su base de datos original provino del proveedor del registro ISBN, RR Bowker. Pero a diferencia de MapQuest, Amazon fue sistemáticamente mejorando los datos, agregando datos suministrados por las editoriales, tales como portadas, índices y material de muestra. Más importante aún, aprovecharon a sus usuarios al permitir que hicieran observaciones a los datos, de manera que 10 años más tarde es Amazon, no Bowker la fuente primaria de datos bibliográficos sobre libros, una fuente de referencia para académicos y bibliotecólogos como también consumidores. Amazon también introdujo su propio identificador, el ASIN, que corresponde con el ISBN cuando éste existe y crea un namespace equivalente para productos que no lo tienen. Efectivamente, Amazon “acogió y amplió” los datos suministrados por sus proveedores.

Imagínense si MapQuest hubiera hecho lo mismo, explotando el potencial de que sus usuarios anotaran mapas e indicaciones, agregando capas de valor. Hubiera sido mucho más difícil para los competidores entrar al mercado por la vía de la simple adquisición de una licencia para usar los datos de base.

La reciente aparición de Google Maps proporciona un laboratorio en vivo para la competencia entre vendedores de aplicaciones y sus proveedores de datos. El modelo de programación de peso ligero de Google ha llevado a la creación de numerosos servicios con valor agregado en la forma de mashups que vinculan Google Maps con otras fuentes de datos accesibles a través de Internet. Housingmaps.com de Paul Rademacher, que combina Google Maps con los datos de arriendo de departamentos y compras de casas de Craiglist para crear una herramienta de búsqueda interactiva de viviendas, es un ejemplo sobresaliente de tales mashups.

En la actualidad, estos mashups son en su mayoría experimentos innovadores, obra de hackers. Pero la actividad empresarial sigue sus pasos de cerca. Y desde ya uno puede observar que para al menos una clase de desarrollador, Google ha asumido el rol de fuente de datos distinta de NavTeq e insertándose como intermediario privilegiado. Esperamos ver batallas entre proveedores de datos y vendedores de aplicaciones en los años venideros, a medida que ambas partes se den cuenta de cuán importantes llegarán a ser determinadas clases de datos como componentes fundamentales para (el desarrollo) de aplicaciones Web 2.0.

La carrera por la propiedad de ciertas clases de core data ya partió. Ubicación, identidad, agenda de eventos públicos, identificadores de productos y namespaces. En muchos casos, cuando la creación de los datos conlleva un costo significativo, puede que exista una oportunidad para una dinámica del estilo “Intel Inside”, con una única fuente de datos. En otros, quien gane será la empresa que primero alcance masa crítica por la vía de la agregación de usuarios y convierta esos agregados de datos en un servicio sistematizado.

Por ejemplo: en el área de la identidad, PayPal, 1-click de Amazon y los millones de usuarios de los sistemas de comunicación pudieran todos convertirse en legítimos contendores para construir una base de datos de identidad en todo el espectro de la red. (En este sentido, el reciente intento de Google de usar números de teléfonos celulares como identificadores de las cuentas de Gmail puede ser un paso en la dirección de “acoger y expandir” el sistema telefónico). Mientras tanto, startups como Sxip están explorando el potencial de la identidad federada, en búsqueda de una suerte de “un solo clic distribuido” que proporcionará un subsistema continuo de identidad Web 2.0. En el área de las agendas, EDVD es un intento de construir la agenda compartida más grande del mundo por vía de una arquitectura de participación estilo wiki. Si bien aún no hay claridad respecto del éxito de un enfoque o startup en particular, es claro que los estándares y soluciones en estas áreas, que efectivamente conviertan ciertas clases de datos en subsistemas confiables del “sistema operativo de internet”, serán los que harán posible la próxima generación de aplicaciones.

Un punto adicional debe hacerse notar con respecto a los datos y esa es la preocupación de los usuarios respecto a su privacidad y a los derechos sobre sus propios datos. En muchas de las primeras aplicaciones web, el copyright sólo se ejerce de manera laxa. Por ejemplo: Amazon reclama derechos sobre las críticas de libros que se hacen llegar al sitio, pero como no se hacen valer, la gente puede publicar nuevamente las mismas críticas en otro medio. Sin embargo, a medida que las empresas comiencen a tomar conciencia de que el control sobre los datos puede ser la fuente principal de ventajas competitivas, es posible que observemos un mayor esfuerzo por controlarlos.

Tal cual el surgimiento del software con derechos de propiedad generó el movimiento Free Software, esperamos que el surgimiento bases de datos protegidas por derechos de propiedad genere un movimiento Free Data dentro de la próxima década. Uno ya puede ver signos de esta tendencia opuesta en proyectos open data tales como Wikipedia y Creative Commons, y en proyectos de software como Greasemonkey, que permiten a sus usuarios controlar la forma cómo aparecen los datos en sus computadores.

jorge schaulsohn Says:
Sáb, 2005-10-15 18:51

jorge schaulsohn

The Next Pandemic?
U.S. Foreign Policy Survey
George Kennan Memorial

Which Broadband Nation?
Philip J. Weiser and Thomas Bleha
From Foreign Affairs, September/October 2005

Topics:
U.S. Policy and Politics;
Science and Technology
Economics
Trade and Finance

PHILIP J. WEISER

Like monetary policy and antitrust regulation, telecommunications policy is a major driver of economic growth rarely debated in public. During the last presidential campaign, for example, issues related to the United States' technological leadership were either marginalized or ignored altogether. By highlighting the importance of this overlooked topic, Thomas Bleha ("Down to the Wire," May/June 2005) performs an important public service. Unfortunately, in criticizing Washington's approach to the issue, he misidentifies the challenge and offers a problematic solution.

Opciones de visualización de comentarios

Seleccione la forma que prefiera para mostrar los comentarios y haga clic en «Guardar las opciones» para activar los cambios.