INFORMACIÓN TECNOLÓGICA
Internet: borrón y cuenta nueva
Si bien Internet tardó casi cuatro décadas en alcanzar el nivel actual, distintos investigadores universitarios, con el apoyo de sus respectivos gobiernos, pretenden reestructurar todo y comenzar de nuevo.
La idea parecería inconcebible, incluso absurda, pero muchos creen que una estrategia de "borrón y cuenta nueva" representa la única manera de atender verdaderamente los desafíos de seguridad, portabilidad y otros temas que han surgido desde que Leonard Kleinrock, un profesor de la UCLA, ayudó a supervisar el primer intercambio de texto significativo entre dos computadoras, el 2 de septiembre de 1969.
Internet "funciona muy bien en muchas situaciones, pero fue diseñada con premisas completamente distintas", dijo Dipankar Raychandhuri, profesor de la Universidad de Rutgers, quien supervisa los proyectos de reestructuración. "Es una suerte de milagro que esto siga funcionando bien hoy".
Ahora que Internet no está limitada ya por la lentitud en las conexiones o en los procesadores de las computadoras, ni por los altos costos del almacenamiento de datos, los investigadores consideran que ha llegado el momento de replantear la arquitectura subyacente de la red, un paso que implicaría la necesidad de reemplazar el equipo existente y de reprogramar el software para encaminar mejor el tráfico del futuro sobre los canales disponibles.
Incluso Vinton Cerf, quien ayudó en el desarrollo e las técnicas para las claves de comunicaciones y es considerado el padre de Internet, aseguró que la iniciativa de reforma es "saludable en general", porque la tecnología actual "no satisface todas las necesidades".
Pero para cualquier reconstrucción, uno de los desafíos consistirá en alcanzar el equilibrio entre los intereses de varios grupos. La primera vez, los investigadores pudieron trabajar en paz dentro de sus laboratorios.
Esta vez, la industria tiene una influencia más importante, y las autoridades quieren que sean tomadas en cuenta sus necesidades de intervención de las comunicaciones.
No hay evidencias de que esos grupos estén actuando ya, pero una vez que cualquier investigación parezca promisoria, "numerosas personas querrán participar en el diseño", dijo Jonathan Zittrain, profesor de derecho afiliado a las universidades de Oxford y Harvard.
Algunos proyectos . La Fundación Nacional de Ciencias (NSF) quiere construir una red experimental de investigación conocida como Ambiente Global para Innovaciones en Red (GENI, por sus siglas en inglés), y está financiando varios proyectos en las universidades y en otras instituciones, mediante el proyecto de Diseño de la Red Futura de Internet (FIND).
Las universidades de Rutgers, Stanford, Princeton, Carnegie Mellon y el Instituto Tecnológico de Massachusetts figuran entre las instituciones que han emprendido proyectos individuales. Las dependencias gubernamentales, incluido el Departamento de la Defensa han explorado también el concepto.
La Unión Europea ha apoyado investigaciones de iniciativas semejantes, mediante un programa conocido como Investigación y Experimentación de la Internet Futura (FIRE). Funcionarios e investigadores se reunieron el mes pasado en Zurich, para discutir sus primeros hallazgos y metas.
Una nueva red funcionaría paralela a Internet actual y la reemplazaría a la postre, o quizás algunos aspectos de la investigación se aplicarían a una reestructuración de la arquitectura existente.
Estas propuestas están todavía en sus etapas tempranas, y no darían frutos en unos 10 o 15 años, en caso de que el Congreso aprobara la financiación.
Guru Parulkar, quien asumirá la dirección general de la iniciativa de Stanford, tras encabezar los programas de la NSF, estimó que tan sólo la propuesta GENI costará 350 millones de dólares, mientras que el gasto del gobierno, la universidad y la industria en proyectos individuales ascendería en conjunto a 300 millones de dólares.
Hasta ahora, el gasto ha sido de unas decenas de millones de dólares. El reemplazo de todos los programas y computadoras para implementar la nueva red podría agregar miles de millones de dólares al costo.
Otros tiempos . Los defensores del "borrón y cuenta nueva" dicen que el mundo más cómodo de los investigadores en las décadas de 1970 y 1980 no necesariamente se ajusta a las realidades y necesidades de la actual Internet comercial.
"La red es ahora una herramienta crítica para demasiadas personas, mientras que en sus primeros días era sólo algo experimental", dijo Zittrain.
Los primeros arquitectos de la Red de redes construyeron el sistema sobre el principio de la confianza. La mayoría de los investigadores no se conocía entre sí, de modo que se mantuvo apertura y flexibilidad al compartir la red, características que fueron cruciales para su crecimiento rápido.
Pero los remitentes de una oleada de correo indeseable y los piratas informáticos llegaron a medida que la red se expandía y pudieron actuar libremente porque la red no tiene mecanismos integrados para saber con certeza quién envió qué.
Los diseñadores de la red supusieron también que las computadoras estarían en lugares fijos y siempre conectadas. Ello no ocurre ya, con la proliferación de las computadoras portátiles y de bolsillo, y los teléfonos celulares provistos cada vez de más funciones. Todos esos sistemas van de un punto a otro de conexión inalámbrica, y pueden perder la señal en ciertos lugares.
Los ingenieros aplicaron mejoras a la seguridad y realizaron cambios para permitir la portabilidad de la Web, pero los investigadores señalan que todo ello agrega complejidades, afecta el desempeño y en el caso de la seguridad, se limita a hacer reparaciones, en un riesgoso juego del "gato y el ratón".
Las reparaciones provisionales para los dispositivos celulares "pueden funcionar bien si una pequeña fracción del tráfico es de ese tipo, pero pueden saturar los procesadores de las computadoras y crear fallas de seguridad cuando un 90% o más del tráfico es móvil, sostuvo Nick McKeown, codirector del programa de Stanford.
Internet seguirá enfrentando retos, mientras las aplicaciones requieren de transmisiones garantizadas, y no de una estrategia que da sólo su "mejor esfuerzo" y que funciona mejor para el correo electrónico y otras tareas menos dependientes del factor del tiempo.
Hay que pensar en un médico que utilizará las videoconferencias para practicar una cirugía remota, o en un consumidor de un servicio de telefonía mediante Internet que necesita hacer una llamada de emergencia. En esos casos, el retraso más pequeño en el envío de los datos puede ser fatal.
En vez de crear paliativos para cada problema, los investigadores de esta nueva propuesta quieren rediseñar el sistema para albergar fácilmente cualquier tecnología futura, dice Larry Peterson, presidente del consejo de ciencias informáticas en Princeton y jefe del grupo de planificación de GENI.
Incluso si los diseñadores originales hubieran sido más visionarios, no habrían podido incorporar estas funciones desde el comienzo. Las computadoras eran mucho más lentas entonces como para realizar los cálculos necesarios para, por ejemplo, autentificar la identidad de un usuario.
Kleinrock, pionero de Internet en UCLA, cuestionó la necesidad de hacer una transición, pero agregó que estas iniciativas resultan útiles para el avance tecnológico.
"Algo llamado GENI seguramente no se convertirá en la nueva Internet, pero algunas partes de esto podrían integrarse a la red mientras progresa", vislumbró.
Los desafíos de la nueva Internet
A continuación, algunos de los retos que llevaron a los investigadores a emprender una estrategia de "borrón y cuenta nueva" sobre la Red de redes:
Seguridad
El desafío: Internet fue concebida como un medio abierto y flexible, y se consideraba que todos los usuarios eran de fiar. Así, sus protocolos no fueron diseñados para verificar la identidad de los usuarios ni para autentificar sus datos, lo que ha permitido que los grupos que envían cantidades masivas de correo indeseable y los piratas informáticos se oculten al adjuntar direcciones falsas de remitentes en los paquetes de datos.
La solución actual: las aplicaciones de Internet, como los sistemas de protección de la red (firewalls) y los filtros de correo no solicitado intentan enfrentar las amenazas de seguridad. Pero dado que esas técnicas no penetran a una profundidad suficiente en la red, los datos perniciosos siguen llegando para saturar los sistemas y eludir la tecnología de seguridad.
La propuesta: la red debe ser rediseñada para que sospeche de todos los usuarios y datos desde el comienzo. Los datos no pasarán a menos que sean autentificados. Las computadoras más rápidas que existen ahora podrían manejar el procesamiento adicional necesario dentro de la red.
Tecnologías inalámbricas
El desafío: antes las computadoras permanecían en un solo sitio, de modo que las direcciones numéricas de internet eran asignadas a los dispositivos con base en su ubicación. En la actualidad, las computadoras portátiles están en tránsito constante.
La solución actual: una computadora portátil cambia su dirección y se reconecta a medida que se desplaza entre un punto de acceso inalámbrico y otro, lo que interrumpe el suministro de datos. Otra solución temporal consiste en que todo el tráfico de información se dirija de vuelta al primer punto de acceso, mientras la computadora se mueve a una segunda o tercera ubicación. Sin embargo, pueden ocurrir retrasos por la distancia adicional recorrida.
La propuesta: el sistema de direcciones debe reestructurarse para que las direcciones se basen más en el dispositivo y menos en la ubicación. De esta forma, una computadora portátil conservaría su dirección mientras se mueve por varios puntos de acceso inalámbrico.
Ubicuidad
El desafío: Internet fue diseñada cuando había relativamente pocas computadoras conectadas a ésta. La proliferación de las computadoras personales y de los dispositivos móviles evidenciaron las limitaciones del sistema inicial de direcciones. Habrá incluso más demanda de direcciones a medida que los sistemas de aire acondicionado y numerosos aparatos electrodomésticos incorporen capacidades de internet. Además, se prevé la instalación de innumerables sensores para medir desde la temperatura hasta la disponibilidad de espacio en un estacionamiento.
La solución actual: los ingenieros ampliaron el universo de direcciones con un sistema llamado IPv6, pero casi una década después de que se completó el trabajo para implementarlo, la gran mayoría de los programas y computadoras emplea aún la tecnología IPv4, más vieja y saturada. Incluso si más tecnologías emigran a IPv6, el procesamiento de las direcciones para todos los sensores representará todo un reto.
La propuesta: los investigadores preguntan si realmente todos los dispositivos necesitan direcciones. Quizás los sensores en una vivienda podrían comunicarse con otros en cierto lugar, y enviar los datos más importantes con un dispositivo que sí posea una dirección. Así, los "routers", considerados los policías del tránsito en la internet, no tendrían que seguirle el rastro a cada sensor, lo que mejoraría la eficiencia.
Fuente: Agencia de noticias TotalNews