¿Quién está en la nube?

La computación en la nube, con riesgos, pero tentadora.

Con frecuencia nos encontramos con sucesos que generan enfoques pesimistas, y otros optimistas, y la informática es un campo clásico para esta dualidad de posturas.

Por ejemplo, teóricos del primer bando, los pesimistas, anuncian tremebundos, que el fin de la computadora personal ha llegado, basándose en que muchas de sus actuales funciones están pasando a ser desempeñadas por otros aparatos.

Sin embargo, el segundo bando de teóricos, los optimistas, no ven en estos hechos riesgos, sino evidencias de que la humanidad, convencida de la imposibilidad de logar la supervivencia sin el apoyo de la herramienta informática, necesita llevarla con ella a todas partes y a toda hora, por lo que la multiplicó y reprodujo en cuantas variantes se le ocurrieron, logrando avances en el sentido del desarrollo tecnológico que apuntan hacia el logro de sustanciales mejoras en lo relacionado con la calidad de vida.

Ya desde 2008 hemos estado asistiendo a un hecho generalizado : atributos inicialmente privativos de las computadoras (en su forma convencional) se están trasladando a otras herramientas. Veamos un ejemplo.

Hasta hace corto tiempo, navegar por INTERNET a la búsqueda de una cierta información o servicio era algo que solo podía lograrse a partir del uso de la herramienta computacional, en su forma convencional. Recibir un mensaje de correo electrónico o enviarlo también era motivo de uso de una computadora.

La aparición, en los ya lejanos 90 de herramientas que permitieron a los conectados en red intercambiar textos cortos en una conversación en lo que se denominó CHATEAR vino a confirmar a la computadora personal como la herramienta por excelencia para desarrollar nuevas prácticas socializantes, y justo recién esta posibilidad de chatear también esta trasladándose a los teléfonos móviles, en lo que, de hecho, se convierte en una competencia a la hora de ocupar la atención del humano.

Recientemente estuvimos comentando sobre algunas líneas de probable desarrollo en lo relacionado con las tecnologías informáticas, y veíamos como una franca contradicción el que, por un lado se nos anuncie la aparición de nuevas supercomputadoras personales que superan con creces la potencialidad de los más avanzados modelos de la actualidad (incluyendo los flamantes Core2 Quad), y por el otro aparezca en el mercado una nueva modalidad de computadora que hace dejación de las potencialidades locales (y por ende resulta especialmente tentadora en lo relacionado con su precio de mercado) en función de lo que obtendrá al conectarse (y trabajar “en equipo”)con otras computadoras especialmente poderosas a través de una red que ha alcanzando velocidades de transferencia de datos que están resultando sumamente gratificantes.

¿Qué hacer? ¿Invertir en una nueva súper máquina que, según la experiencia acumulada, dejará de serlo en breve?¿O contratar los servicios de empresas que ofertan prestaciones de sus servidores que pueden satisfacer a los más exigentes usuarios promedio?¿O las dos cosas?

Los conceptos de trabajo relacionados con estos nuevos matices de la informática son diversos, y simples de entender, sobre todo si pensamos que una gran parte de las veces en que acudimos a una computadora, lo hacemos a la búsqueda de informaciones pre elaboradas por otras personas, y que recibimos en forma de documentos, informes, tablas, imágenes y sonidos.

Por tanto, si recibimos los resultados, ya no necesitamos la capacidad de cálculo y procesamiento del lado nuestro, con excepción de cuando no nos basta con lo recibido y queremos -a su vez- generar nuevas informaciones, y entonces si necesitamos de cierta potencialidad en nuestra máquina “local”.

Una aclaración importante a la hora de pensar en estos temas, es la siguiente : la tenencia de una potente computadora en nuestro puesto de trabajo no necesariamente repercute en el aumento de la velocidad de acceso a las redes informáticas.

Esto puede significar que, dos personas conectadas a la misma red, una con una potente computadora con procesador de última generación, grandes discos duros y mucha memoria operativa, y la otra con una simple configuración, de poca talla de procesador, limitado disco duro y reducida memoria operativa, obtengan, a la larga, las mismas prestaciones de su conexión a este sistema, pues lo que están haciendo es -simplemente- accediendo a documentos depositados en computadoras remotas geográficamente hablando, y la agilidad en este acceso viene dada más por el equipamiento telefónico que sirve de sustento a la comunicación que por la plataforma desde donde se realice la citada conexión.

Los modelos desarrollados para el uso de computadoras que trabajen en “equipo” son diversas, y van desde los llamados bancos de procesadores, donde se encuentran instalados numerosos procesadores independientes que trabajan coordinadamente en una misma computadora, hasta hábiles estrategias donde computadoras de uso general y -relativo- bajo costo se interconectan en redes locales, y trabajan como equipo en la obtención de un resultado.

En particular en esta ultima familia, denominada frecuentemente como computación distribuida, suelen usarse programas que son capaces de dividir las tareas a resolver en bloques de cálculo independientes, que no se ensamblarán inmediatamente después de terminados, sino que deberán esperar a que todos los demás eslabones estén listos. Igualmente estos programas, ante una demanda inusual de un cierto recurso, redireccionan a otros integrantes del equipo para que apoyen la respuesta a las solicitudes realizadas, todo esto de forma transparente para el usuario.

Esta estrategia ha permitido, y esto parece muy inteligente, usar la capacidad de cálculo ociosa de numerosas computadoras conectadas a la red y que no están siendo usadas en determinados momentos. Esto significa que estos programas detectan en que lugar de la red hay una computadora que no está usando sus potencialidades en este momento (hora de almuerzo o fuera de la jornada laboral) y les asignan pequeños bloques de cálculos independientes que son devueltos luego de ser resueltos.

Obviamente, antes de que esto suceda, los operadores de las computadoras conectadas en red han de ponerse de acuerdo, e instalar los programas que permiten el desarrollo de esta maniobra de trabajo.

De cualquiera de estas formas, es saludable entender que, entonces cuando nos sentamos frente a un teclado y una pantalla, puede que no solo estemos usando las potencialidades de nuestra computadora “local” sino que estemos haciendo uso de un anónimo y potente sistema de computadoras que se alinearán en la búsqueda de las respuestas a las interrogantes que estamos planteando a la supuestamente sencilla configuración que tenemos al frente. Y esto, de funcionar bien, puede ser muy conveniente.

Lógicamente pueden surgirnos dudas (enfoque pesimista).

· ¿Qué pasa si la red deja de funcionar?

· ¿O si hay muchos usuarios conectados a la misma vez, y el sistema no solo me está atendiendo a mí?

· ¿Quién garantiza la estabilidad de este gran grupo de equipos?

Seguramente la última palabra está por decirse aún, pero podemos ver que también hay otra cara del problema (enfoque optimista).

· De funcionar bien este esquema de trabajo, obviamente voy a obtener prestaciones no soñadas con mi herramienta informática individual, por muy elevadas que sean sus potencialidades, cuando pongamos a trabajar para nosotros múltiples computadoras.

· No requiero de ninguna nueva inversión, al final se van a usar las mismas conexiones de red que hoy día se usan en un reducido por ciento de sus potencialidades reales.

· Nuestra computadora actual (año 2009) suele trabajar bajo esquemas secuenciales, lo que significa que hacen una cosa, y solo después que la terminan, pasan a otra. Pero si tengo varias computadoras bajo mi mando, puedo desarrollar estrategias de procesamiento paralelo, y obtener resultados muy superiores, siempre y cuando adecue mi pensamiento a este nuevo esquema de trabajo, a esto volveremos próximamente.

· Hemos dejado para el final un detalle, un gran detalle, que puede pesar de forma definitoria en el juicio que nos hagamos sobre este tema, y es la llamada Tolerancia a Fallos. Esta consiste en que si un componente del sistema se descompone otro componente debe de ser capaz de reemplazarlo, de forma transparente para el usuario, que puede seguir desarrollando sus tareas normalmente.

No queremos dar por terminado el tema sin unas últimas observaciones, que pueden resultarnos atractivas y preocupantes a la vez.

Estas modalidades de trabajo con computadoras interconectadas en red incluyen cambios en la forma en que estamos habituados a pensar desde los años 80 del siglo pasado, en los que, a la usanza de los señores feudales, íbamos a resolver en nuestro feudo (nuestra computadora de escritorio) todos los temas relacionados con las tareas que queríamos desarrollar.

Esto significaba que, a nivel local, íbamos a tenerlo todo : el sistema operativo, los programas específicos que nos hacían falta para nuestro desempeño profesional, los antivirus, los dispositivos de entrada salida, en fin, nos veíamos como en un peñón aislado en el medio del océano, donde lo que no estuviera previamente instalado y desarrollado, no podía formar parte del armamento con que enfrentaríamos los embates del enemigo (o sea, los problemas).

Los resultados obtenidos a partir de nuestro -más o menos hábil accionar- quedaban igualmente a nivel local, brindando limitados beneficios y almacenándose celosamente en los graneros del castillo (léase los discos duros de nuestra computadora).

Pero esa visión tiene que cambiar, no sin antes vencer barreras de todo tipo. El cambio se avecina, ya está a las puertas, y va a significar(tal vez), entre otros muchos detalles :

Que no vamos a tenernos que preocupar por instalar los mamotréticos sistemas operativos en sus reiterados cambios. Obviamente vamos a tener alguno de sus representantes en nuestra computadora personal, pero seguramente resultará de menor envergadura y complejidad que los actuales que merodean (léase WINDOWS Vista y compañía), dado el hecho de que no correremos localmente con el grueso del procesamiento.

Que no vamos a tenernos que preocupar por instalar los programas específicos que necesitemos (que suelen ser bien veleidosos a la hora de configurarse).

Que en nuestro trabajo podremos consultar los resultados de numerosas personas que laboren en nuestra propia línea.

Que nuestros resultados serán consultados por numerosas personas, e incorporados a sus particulares creaciones.

Que la potencialidad de la herramienta que usemos al sentarnos en nuestro puesto de trabajo excederá con creces a la que obtendríamos de estar desconectados de la red, en una estrategia de trabajo independiente o aislada.

Para terminar, podemos preguntarnos ¿estamos obligados a alterar nuestras estrategias de trabajo por esta nueva oferta -una vez más- supuestamente novedosa?

Si esbozáramos una primera variante de respuesta, tendríamos que reconocer que no parece simple aislarse de esta nueva dirección del desarrollo, en primer lugar porque verdaderamente puede llegar a dar resultados antes no imaginados, al desarrollar estilos colectivos de trabajo que ya han dado muestras de gran efectividad, y en segundo lugar porque somos consumidores de un mercado tecnológico que muy posiblemente seguirá los pasos de estas propuestas, y debe tomarse en cuenta que ya empresas como IBM y Microsoft han anunciado su participación irrestricta en el desarrollo de nuevas herramientas de software y hardware que apoyen la llamada “computación en la nube” (del inglés cloud computing).

¿Y quién garantiza que, estando la infraestructura principal de esta nueva forma de trabajo en el probadamente elitista primer mundo, no sea utilizada como otra herramienta más que intente dejar fuera de sus beneficios a los países en desarrollo?

La lista de preguntas avaladas por oscuras experiencias previas puede crecer…pero, y siempre hay un pero, a estos temores podemos enfrentar el conocimiento que obtengamos de los detalles de las nuevas herramientas, el que nos permitirá usarla a nuestro favor, y anticipar cualquier maniobra discriminatoria, de las que, sin dudas, existirán las mas diversas variantes.

Por el momento, es verdad que están sucediendo cosas preocupantes, la omnipotente y omnipresente computadora de mesa se está….dividiendo… o multiplicando, no es fácil emitir una opinión estable en el tiempo.

Sus potencialidades están influyendo en otras herramientas que toman para sí parte de su desempeño, mutando en nuevos artilugios a los que aún no se les ha dado un nombre, como es el caso de los DISPOSITIVOS MOVILES MULTIPROPOSITO ¿ya había oído de ellos?.

Ya veremos….

No hay comentarios: