LasIndias.blog

Conquistar el trabajo es reconquistar la vida

Grupo de Cooperativas de las Indias

videoblog

libros

Freenet, la próxima frontera

Tal vez la expresión “protocolo de enrutamiento” o las siglas NGR no le digan nada. Pero la presentación de NGR, el protocolo de enrutamiento para Freenet supone un importante paso en el desarrollo de redes que garanticen la completa privacidad, independencia y seguridad del individuo. Desde sus inicios en 1999, Freenet, el proyecto de una red libre distribuida, se ha convertido en una de las batallas claves para garantizar las libertades civiles en el nuevo siglo.

La implantación de Internet en todo el mundo despertó el interés de muchas personas que veían en la red una nueva forma de comunicación en la que podían difundir contenidos que apenas eran tenidos en cuenta por los medios habituales. Durante los dos o tres primeros años, se convirtió en un extenso campo de pruebas al que cualquier persona podía acceder: tan sólo se necesitaba un ordenador y una conexión. Sin embargo, la afluencia de público cada vez mayor llamó la atención de diversos grupos empresariales que comenzaron a comprar a golpe de talonario sus nuevos derechos sobre la red y que alteraron las relaciones paritarias que se habían establecido. La situación había cambiado: la información comenzaba a ser controlada de nuevo por los poderosos consorcios de comunicación

En el principio fue Napster

En mayo de 1999 Shawn Fanning y Sean Parker revolucionaron la Red al poner en marcha su proyecto Napster Inc., un servicio de intercambio de ficheros desarrollado a partir de los modelos de programas de comunicación IRC y de los buscadores de contenidos que en aquel momento comenzaban a aparecer. Sin embargo, a diferencia de ellos, se basaba en la comunicación directa entre ordenadores: los usuarios almacenaban y descargaban los contenidos que les interesaban en sus propios discos duros, sin recurrir a ningún servidor. La nueva arquitectura, denominada peer to peer (P2P), fue aceptada de inmediato y propició la implantación de un formato de codificación para archivos musicales, el MP3, que se ha convertido en la actualidad en uno de los estándares más empleados

Lo que después ocurrió es de sobra conocido: el uso masivo de este servicio llevó a las compañías discográficas a temer por su futuro y, en lugar de adaptarse a la nueva situación, tal como han hecho muchos músicos, comenzaron a emprender acciones legales ese mismo año a través de la RIAA, que culminaron con el juicio y la posterior sentencia que condenaba a Napster al cierre. El caso habría quedado en un simple pleito entre compañías si los representantes de Metallica no hubiesen entregado en los juzgados un listado con las IP y los nombres de 335.000 usuarios que habían intercambiado archivos musicales del grupo. A partir de ese momento, la responsabilidad penal recaía tanto en los suministradores del servicio como en sus clientes.

La revolución de las redes P2P

Aunque la tecnología P2P se consideró en un principio válida sólo para redes de trabajo pequeñas que funcionasen a modo de intranets, el éxito de Napster, Gnutella, Kazaa o Emule demuestra todo lo contrario. Sin embargo, las implicaciones de este nuevo modo de conexión son mucho más importantes de lo que pudiera parecer a primera vista, ya que el almacenamiento de los contenidos no requiere un servidor al uso, sino simplemente una carpeta situada en el disco duro de un ordenador personal a la que pueda accederse desde cualquier punto de la Red. De este modo, cualquier usuario gestiona directamente la información que desea publicar, sin depender de ninguna empresa de servicios y, lo que es mejor, sin correr el riesgo de que alguien desee bloquear el acceso al servidor donde los aloja por considerarlos molestos, inadecuados o peligrosos. El P2P, por su propia naturaleza, subvierte las restricciones inherentes a Internet.

El nacimiento de Freenet

En 1999, el mismo año en que aparecía Napster como red de intercambio libre, un estudiante de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Edimburgo, Ian Clarke, presentaba su trabajo de final de carrera, A distributed decentralised information storage and retrieval system (Un sistema de almacenamiento y recuperación de información distribuido y descentralizado), en el que describía un algoritmo que, ejecutado en un grupo de ordenadores interconectados, permite gestionar grandes cantidades de información sin que fuese necesario un control centralizado y garantiza un uso anónimo de los ficheros, así como su duplicación dinámica y la transferencia de su localización según la demanda. No era más que un prototipo: las simulaciones realizadas hasta el momento, escritas en Java, habían dado buenos resultados, pero no podía asegurarse su eficacia en un entorno tan extenso y complejo como la World Wide Web.

Tras licenciarse, Clarke comenzó a simultanear su trabajo en la empresa británica Logica UK con el desarrollo de su proyecto. En poco más de un año, las simulaciones sobrepasaban los 200.000 nodos y la construcción de la red estaba cada vez más cerca. El interés por los resultados crecía: desde el año 2000, las reuniones anuales del Intel Developer Forum han seguido los progresos de Clarke, quien finalmente, junto con su equipo, ha conseguido desarrollar un protocolo de enrutamiento (NGR) que asegura la plena estabilidad de la red.

La arquitectura de Freenet

El sistema se basa en el modelo descentralizado de Gnutella, en el que cada ordenador se convierte en un nodo que funciona como cliente y servidor al mismo tiempo. De este modo, mientras el usuario busca información en otros nodos, el suyo ofrece la que desea compartir. Este modelo de organización permite una mayor capacidad de cómputo, ya que se basa en un procesamiento en paralelo, una propagación por inundación, una búsqueda mucho más rápida en comparación con los motores actuales que, con excepción de Google, no suelen rebasar un 20% del total de sitios existentes y, en la medida en que no depende de ningún nodo principal, una gran estabilidad ante posibles caídas del sistema.

Sin embargo, Gnutella cuenta también con dos inconvenientes: en la medida en que la información fluye libremente por esa red, el mantenimiento de los índices de contenidos exige un esfuerzo mayor y aumenta el peligro de que los archivos sean interceptados y se localice el ordenador de donde proceden. Freenet solventa esos dos problemas mediante la incorporación de un robusto sistema de encriptación que garantiza el anonimato completoasí como de un algoritmo de búsqueda que determina los archivos más visitados y genera rutas adicionales para evitar una sobrecarga de la red. Para ello, se ha dispuesto que cada nodo ofrezca el índice de contenidos más completo posible, tanto de los archivos públicos que almacena en su disco duro como de los que pueden encontrarse en los demás ordenadores conectados.

Por otra parte, el mecanismo de duplicación de ficheros está diseñado de manera que, ante una avería o un ataque a un nodo, la información que se halle contenida en éste sea copiada en otros nodos para evitar su desaparición, lo cual hace de Freenet un medio completamente autónomo que se adapta y se organiza sin cesar según el número de ordenadores conectados en ese preciso momento.

Las implicaciones políticas de Freenet

A diferencia de muchas otras tecnologías, Freenet fue desarrollado bajo una premisa política concreta: el derecho de toda persona a compartir información sin correr ningún riesgo. A finales de los años noventa se vislumbraron algunos de los riesgos que planteaba Internet. El desmantelamiento de algunos sitios que distribuían contenidos perseguidos por las leyes internacionales o que servían de tapadera o enlace de diversas organizaciones criminales hizo que las autoridades de diversos países comenzaran a pensar en la posibilidad de crear leyes que castigaran los usos y comunicaciones electrónicas que entrañasen algún peligro para sus ciudadanos o para la estabilidad de sus propias instituciones. Algunos, como Arabia Saudí, la República Popular China o España, bloquearon en mayor o menor medida los servidores DNS que podían albergar informaciones ilegales. Otros, como Estados Unidos, desarrollaron sofisticados sistemas de control como Echelon o Carnivore con los que se podía espiar y registrar cualquier mensaje transmitido a través de medios electrónicos.

Pese a que estas medidas han dado ciertos resultados, éstos han sido bastante discretos, pues las redes criminales o terroristas son mucho más difusas y complejas de lo que se preveía, y aunque los atentados del 11 de septiembre de 2001 han puesto en evidencia que el espionaje e inteligencia de señales, sigint, por muy competente que sea, no asegura la desarticulación de estos grupos, todavía se considera que el uso de la criptografía en la Red supone un peligro muy grave para todos los ciudadanos.

La garantía de privacidad en todas las comunicaciones es una de las reivindicaciones más importantes de nuestra época, ya que asegura no sólo la libertad de pensamiento, sino también la de acción. Freenet, al no depender de ningún servidor, se ha convertido en una de las armas más poderosas para que los disidentes de países que restringen el acceso a Internet mediante el bloqueo de DNS puedan comunicarse y denunciar los atropellos contra las libertades que sufren continuamente, ya que no sólo les permite conectarse de manera anónima, sino que les garantiza la permanencia de sus contenidos a pesar de la desconexión o destrucción de los nodos que empleasen.

Un reflejo de nuestro mundo, no una utopía

El uso favorable o no de Freenet no es una cuestión que preocupe demasiado a Clarke y a sus compañeros de proyecto. Cualquier tecnología, por sí misma, no es buena ni mala y sus efectos dependen obviamente del uso que se le dé. Las redes de comunicaciones son una parte de nuestra organización social y, en consecuencia, su mayor o menor bondad dependerá de cómo se organice la sociedad. No obstante, Freenet, por sus propias características, ofrece una cierta resistencia a ser manipulada: la dispersión de los contenidos y la encriptación no sólo evitan la interceptación y destrucción de los mensajes, sino también la apropiación de la red por parte de colectivos, empresas o instituciones, ya que no hay manera de asegurar los derechos por los contenidos ni tampoco la identidad de los usuarios. Su uso comercial es inviable y no podrá ser colonizada como Internet.

Esta vocación acomercial no la convierte en un medio marginal. Aunque por el momento la mayor parte de los contenidos que se encuentran en Freenet podrían tildarse de alternativos o minoritarios, no se trata de una red underground. La programación en Java garantiza que los programas de transmisión de comunicaciones puedan funcionar en cualquier plataforma, sea Windows, Linux, Unix o Apple, y su instalación no requiere ningún tipo de conocimiento informático especializado. Tan sólo basta con descargar el archivo adecuado a cada sistema, descomprimirlo y comenzar a navegar (aunque no es recomendable el uso de Internet Explorer, por sus fallos de seguridad). De este modo, cualquiera puede gestionar la información de la manera que crea más conveniente. El objetivo de Clarke y sus compañeros es volver, en cierto modo, a los orígenes de Internet y reinventar las relaciones entre usuarios para alcanzar la realización plena de la nueva sociedad de la información. Pocas veces en la historia hemos tenido la oportunidad de dar marcha atrás y enmendar nuestros pasos. Ahora podemos hacerlo.

«Freenet, la próxima frontera» recibió 0 desde que se publicó el Miércoles 12 de Noviembre de 2003 . Si te ha gustado este post quizá te gusten otros posts escritos por Javier Lorente.

Deja un comentario

Si no tienes todavía usuario puedes crear uno, que te servirá para comentar en todos los blogs de la red indiana en la
página de registro de Matríz.