
Fuente: http://www.cinismoilustrado.com/2011/10/lecciones-de-superacion-personal-en.html
Cuando un terrorista destruye el Kremlin con una bomba, el gobierno de Estados Unidos inicia una “operación de seguridad” denominada “protocolo fantasma” y cancela todas las operaciones de la Fuerza Misión Imposible. Ethan Hunt y su equipo son acusados del ataque, pero se les permite escapar, como parte de un plan que les permita operar afuera de la agencia. Sin embargo se le advierte a Hunt que si algún miembro de su equipo es capturado durante la misión, se le tomará como el terrorista que orquestó un plan para iniciar una guerra nuclear a nivel global. Ethan se ve forzado a trabajar con con el ex-agente de FMI Brandt, que sabe más sobre Hunt y su pasado que él mismo.La sinopsis esconde lo que realmente está detrás del dichoso “Protocolo Fantasma”, algo que queda claro en este nuevo tráiler. Échenle la culpa a… Mejor vean.
Cuando un terrorista destruye el Kremlin con una bomba, el gobierno de Estados Unidos inicia una “operación de seguridad” denominada “protocolo fantasma” y cancela todas las operaciones de la Fuerza Misión Imposible. Ethan Hunt y su equipo son acusados del ataque, pero se les permite escapar, como parte de un plan que les permita operar afuera de la agencia. Sin embargo se le advierte a Hunt que si algún miembro de su equipo es capturado durante la misión, se le tomará como el terrorista que orquestó un plan para iniciar una guerra nuclear a nivel global. Ethan se ve forzado a trabajar con con el ex-agente de FMI Brandt, que sabe más sobre Hunt y su pasado que él mismo.
El mestraje de seis minutos de “The Dark Knight Rises” será exhibido sólo en pantallas IMAX 70mm de alta resolución. No se verá en pantallas IMAX digitales. Las locaciones no se han confirmado aún.¿Será a nivel internacional? Esperemos que así sea. Mientras tanto, “Mission Impossible - Ghost Protocol” llegará a los cines IMAX el 16 de diciembre, su distribución regular inicia el 21 de diciembre, esto en Estados Unidos.
Estamos observando cada vez más aplicaciones que manejan muchos datos y necesitan acceso a ellos de manera intensivaOusterhout y su equipo están aplicando esta tesis en un proyecto de nombre RAMCloud y que, en cierta medida, tiene ciertas similitudes con el Cloud Computing. RAMCloud se basa en un sistema realizado a base de memoria DRAM (dynamic random access memory) y toma como base el funcionamiento normal de cualquier PC: después de que un dato se extraiga del disco duro, éste se almacena temporalmente en la memoria RAM para poder acceder, de nuevo, mucho más rápido. La idea es asumir este funcionamiento que es capaz que un PC acceda a los datos entre 100 y 1.000 veces más rápido que en un acceso a disco.
Este esquema podría hacer que pudiésemos diseñar nuevas aplicaciones que, hasta ahora, no podríamos hacer. ¿Acaso una mejora de la velocidad en un factor de 1.000 no hará cambiar las cosas?Aunque la mejora de la velocidad podría estar bien, los costes son un asunto bastante espinoso que, además, podrían echar abajo cualquier tipo de planteamiento comercial.RAMCloud se ha dimensionando en una infraestructura de 2.000 servidores que podrían ofrecer 48 TB de memoria DRAM, es decir, un coste de 65 dólares por cada gigabyte de memoria disponible, es decir, entre 50 y 100 veces más caro que el almacenamiento en disco duro. Con esos costes RAMCloud difícilmente podría ser asumible, sin embargo, si se mira desde la óptica del volumen de datos al que se tiene acceso (el número de bytes por segundo), este proyecto arroja un factor que oscila entre 10 y 100 veces más barato.
Me esperaba un argumento mucho más convincente.Luiz André Barroso, un ingeniero de Google, es algo menos escéptico con esta solución pero no lo ve tan claro:
RAMCloud puede ser la solución para algunos de los problemas que surgen al manejar un gran volumen de datos pero no es competitivo en soluciones con menores requerimientos de cargaLa verdad, creo que Barroso ha dado en el clavo y RAMCloud puede ser una solución que solvente grandes problemas de procesamiento de datos pero no es asumible en todos los escenarios y, mucho menos, un modelo que actualmente se pueda implantar en todos los centros de datos. Quizás, para el año 2020 (que es lo que augura este grupo de investigación), podría llegarse a una solución híbrida y con un coste asumible. Como investigación, desde luego, es un planteamiento bastante llamativo.