¿Cómo será la Web 3.0?

Autor: Salvador Pérez Crespo.
El año 2006 fue el de la irrupción de las ideas que hay detrás del “web 2.0” en el público mayoritario. Sin embargo, el proceso de innovación que había caracterizado los años anteriores parece querer tomarse un receso, al menos temporal. Así lo muestra el descontento por la falta de innovaciones de los asistentes al tercer “Web 2.0 Summit” celebrado en noviembre o las críticas al evento “Le Web 3” celebrado en París en diciembre. Otro síntoma es la aparición de servicios tan controvertidos como PayPerPost o ReviewMe dedicados a pagar a particulares para hacer críticas de productos.


Todo indica que comienza un periodo de maduración y generalización de las ideas recién llegadas y que para encontrar las próximas revoluciones habrá que buscar entre los proyectos de más largo plazo que a día de hoy están en marcha. La prensa generalista apunta a la web semántica como próximo gran hito mientras en círculos más especializados se mira también hacia mejoras significativas en la interacción web y a la combinación con la inteligencia artificial. Aunque, tal vez, el verdadero cambio venga de otro lado.

Los avances del web 2.0
El término web 2.0 es, cuando menos, un concepto difuso. Tanto que el difuso documento escrito por Tim O'Reilly que acuña la terminología tiene plena vigencia precisamente por su falta de concreción. Aún así, a lo largo del tiempo la gente ha ido tomando conciencia, al menos en parte, de su significado.


Un buen resumen de lo que significa es obra de Wade Roush, quien en el Technology Review del MIT argumentaba que el término web 2.0 se refiere a tres cosas: nuevos mecanismos de relación y comunicación entre las personas utilizando las tecnologías de redes sociales (con servicios como MySpace, YouTube, Digg o Wikipedia), la utilización de estándares web para la creación de servicios distribuidos en Internet (léase “mashups” como Housing Maps, un servicios inmobiliario que combina datos propios con mapas de Google Maps) y la mejora en los interfaces de las páginas web hasta llegar a imitar, casi a la perfección, la experiencia de usuario de las aplicaciones clásicas que se ejecutan en un ordenador.


Se superaron ya las “guerras de estándares” que caracterizaron la primera década de la web, los 90, y que dejaron como triunfador al navegador de Microsoft Internet Explorer, que pasó a ser casi el único utilizado ante la necesidad de disponer de una referencia común de desarrollo. La nueva fase, caracterizada por la adhesión de los desarrolladores de páginas web a los estándares, reabre la guerra de los navegadores y pone un nuevo y duro competidor en la pelea, Firefox.
La web semántica y los microformatos


El término web 3.0 es asociado por la prensa generalista (léase New York Times o en España El País) al concepto de web semántica que se está desarrollando bajo la tutela de Tim Berners-Lee, el mismo que inventó la web a principios de los 90.


La idea subyacente es muy antigua (antigua si hablamos en tiempo de Internet). Los contenidos publicados en páginas web, salvo raras excepciones, son difícilmente entendibles por los ordenadores y tienen significado principalmente para las personas. Se trata, pues, de añadir información adicional con una estructura tal que pueda ser entendida por los ordenadores quienes por medio de técnicas de inteligencia artificial serían capaces de emular y mejorar la obtención de conocimiento hasta el momento reservada a las personas. Se trata de dotar de significado a las páginas web, y de ahí el nombre de web semántica. Se llega incluso a acuñar el término de Sociedad del Conocimiento a aquel grado de evolución de la

Sociedad de la Información en el que se alcanza ese estadio.
El ejemplo clásico de web semántica sería aquella que permitiría que se formularan consultas como “busco un lugar para pasar las vacaciones con mi mujer y mis dos hijos de 5 y 2 años, que sea cálido y con un presupuesto máximo de 2000 euros”. El sistema devolvería un paquete de vacaciones tan detallado como los que vende una agencia de viajes pero sin la necesidad de que el usuario pase horas y horas localizando ofertas en Internet.


Como se decía antes, la idea es antigua y sin embargo todavía no hay signo claro de su puesta en marcha y existen dudas de cuando llegará. Sobre este punto los optimistas creen que el momento está próximo pues aunque la investigación se circunscribe aún a entornos universitarios está apareciendo capital dispuesto a ser arriesgado en empresas que saquen partido de este conocimiento. Entre los ejemplos habitualmente citados se encuentra la empresa RadarNetworks que busca explotar el contenido suministrado por los usuarios en las redes sociales, o el proyecto KnowItAll, desarrollado en la Universidad de Washington y financiado por Google, que busca obtener y agregar información de usuarios de productos.

Los pesimistas aducen que tal grado de complejidad no será alcanzado porque existirá una fuerte reacción de quienes ahora disponen de la información que no querrán compartirla o porque fenómenos como el “spam semántico” la harán poco utilizable.

Para complicar aún más la situación, en la actualidad surge una corriente paralela de quienes buscan un enfoque más pragmático que pueda tener utilidad a más corto plazo. Así, frente a la web semántica tradicional, conocida en círculos especializados como RDFa, aparecen los microformatos.


El modelo RDFa tiene a sus espaldas varias cargas. Tiene una definición compleja, no asequible para todo el mundo, por el notable componente matemático de su estructura, lo que puede hacer necesario la creación de sistemas automáticos para su implantación. Utiliza una versión del lenguaje de escritura de páginas web que a día de hoy no utiliza casi nadie, aunque se espera que en el futuro se evolucione hacia él. A cambio, proporciona un marco más general que el que proporcionan los microformatos.


Los microformatos surgen del trabajo de la comunidad de desarrolladores de Technorati, uno de los sitios web 2.0 “de referencia”. Su objetivo es estandarizar un conjunto de formatos en los que almacenar conocimiento básico, como la información de contacto de una persona (microformato hCard), una cita (microformato hCalendar), una opinión (microformato hReview), una relación en una red social (microformato XFN) y así hasta un total de 9 especificaciones concluidas y 11 en proceso de definición1. La principal limitación es que cada tipo de significado requiere de la definición de un microformato específico. A cambio ya es posible utilizarlos, como así lo hace un conjunto reducido de sitios web.


Todo parece indicar que nos encontramos ante la clásica disyuntiva del estándar “de jure” frente a estándar “de facto”. Por el lado de los microformatos se encuentran empresas web 2.0 y un grupo desconectado de bloggers, que buscan soluciones a problemas frecuentes. Por el otro lado se encuentran las organizaciones de estandarización que tienen el poder moral de dirigir el desarrollo de la web en nuevas direcciones. Afortunadamente las dos corrientes no tienen que ser forzosamente disjuntas y podrían adoptarse soluciones de consenso en el caso de que ambas tendencias evolucionaran por separado con igual fuerza.


A corto plazo los microformatos serán los triunfadores. Ya están siendo incluidos en algunas páginas web y, lo que es más importante, en la actualidad se está estudiando como integrarlo en los navegadores web. De hecho esta será una de las características principales de la próxima versión del navegador Firefox. Según su visión, el navegador web se convierte en un gestor que distribuye la información almacenada en forma de microformatos en una página web a la aplicación adecuada para su manejo: una cita a la agenda, un lugar a una aplicación de cartografía, etc.


Mejoras en la interacción web
Como se comentaba anteriormente una de las mejoras significativas de la web 2.0 ha sido la referente a la interacción de los usuarios con los servicios online. La aparición de herramientas automáticas que simplificaban la creación de páginas web permitió poder dedicar un mayor número de recursos a las labores de diseño. El aumento de diseñadores en los productos trajo como consecuencia diseños de páginas web más limpios y mecanismos de interacción más apropiados para el uso del público en general que para ingenieros entusiastas. El nuevo estilo se está imponiendo y extendiendo a los sitios web más tradicionales que con ello mejoran considerablemente la facilidad de uso. De forma anecdótica es destacable señalar la excepción de MySpace, cuyo poco atractivo diseño no ha sido óbice para convertirse durante el año 2006 en el sitio web más visitado del mundo.


El siguiente paso sería alcanzar un grado de homogeneidad en la forma en la que se utilizan los servicios online de manera que los usuarios no tuvieran que aprender, por muy sencillo que sea, la forma de utilizar cada nuevo servicio disponible. Se trataría de reproducir lo acaecido con las aplicaciones informáticas para ordenadores personales. Originalmente los primitivos procesadores de texto, hojas de cálculo ó bases de datos, utilizaban procedimientos distintos para realizar idénticas funciones (como guardar un archivo, imprimir, …). En su versión actual el funcionamiento de la mayoría de aplicaciones es muy similar lo que reduce notablemente los tiempos de aprendizaje.


Entre las iniciativas en desarrollo destaca el proyecto Parakey liderado por Blake Ross, uno de los desarrolladores clave de Firefox. Se trata de un proyecto de código abierto que pretende crear una especie de sistema operativo web que permita a un usuario hacer lo mismo que haría con un sistema operativo tradicional. Se trataría de unificar el escritorio y la web de forma que existiera una forma única de hacer las cosas y no dos. De esta forma, actividades ya frecuentes entre los usuarios como subir fotos o vídeos a servidor de Internet se realizarían siguiendo siempre el mismo procedimiento.


Las nuevas posibilidades para la inteligencia artificial
La web 3.0 sería una revolución si como se ha dicho antes se logra una combinación efectiva entre la inclusión de contenido semántico en las páginas web y el uso de inteligencia artificial que saque partido de ella. En este sentido los recelos son muchos pues tradicionalmente los avances de esta ciencia han sido lentos y cargados de dificultades.


Lo novedoso podría estar en la combinación de las técnicas de inteligencia artificial con el acceso a capacidad humana de realizar tareas extremadamente complejas para un ordenador y de esa forma rellenar los huecos que impiden progresar esta disciplina.


Ya en la web 2.0 se hace un uso extensivo del “tagging” como forma de clasificación de la información. En esencia consiste en que los usuarios que suben contenidos a Internet clasifican el contenido mediante el uso de palabras clave simples (mar, Madrid, tristeza, …). Gracias a este mecanismo los buscadores son capaces de identificar información que utilizando técnicas tradicionales hubiera sido imposible localizar.


Entre los pioneros del nuevo tipo de servicios por llegar podrían mencionarse al menos dos. El servicio Mechanical Turk de Amazon permite a los desarrolladores que aquellas partes de un servicio que requieran de intervención humana puedan ser redirigidas a un grupo pagado de participantes voluntarios de manera muy similar al modo en el que se desarrollan aplicaciones distribuidas en Internet. De esta forma el trabajo humano se convierte en parte de un proceso de actividad que principalmente se realiza de manera automática.


Otro ejemplo primitivo sería el experimento de Google en modo de juego llamado Google Image Labeler. Durante un periodo de 90 segundos, dos participantes en el juego, elegidos al azar por el sistema, tienen que etiquetar un conjunto de imágenes con tantos términos como les sea posible. De esta forma los usuarios obtienen diversión mientras que Google obtiene miles de imágenes clasificadas con etiquetas relevantes.


Sin embargo el próximo gran avance puede ser otro
Como se ha visto buena parte de lo descrito va a necesitar de una cantidad de tiempo significativa antes de que se traduzca en servicios concretos. Por ello no sería de extrañar que el próximo avance viniera de un lugar completamente distinto: la movilidad. Tras años de infructuosos intentos por conseguir lograr una web móvil, los recientes avances en esta área podrían acelerar la adopción de este tipo de servicios. Pero éste, sería un tema a tratar en otro artículo.
Tomado de: http://lasocdelainfo.blogspot.com/2009/06/como-sera-la-web-30_21.html

Comentarios

Entradas populares