jueves, 7 de abril de 2011

Charly Alberti lanza una ONG ambientalista

El ex baterista de Soda Stereo busca concientizar sobre los riesgos del calentamiento global en la región.

<br />							“Me di cuenta de la complejidad y la gravedad del cambio climático”, declaró el ícono musical latinoamericano Charly Alberti. “Me di cuenta que podía hacer algo al respecto. Ser un músico popular en la región me da la posibilidad de concientizar y luchar contra la ignorancia que existe al respecto en América Latina”.<br />

“Me di cuenta de la complejidad y la gravedad del cambio climático”, declaró el ícono musical latinoamericano Charly Alberti. “Me di cuenta que podía hacer algo al respecto. Ser un músico popular en la región me da la posibilidad de concientizar y luchar contra la ignorancia que existe al respecto en América Latina”.

CALGARY, Canadá – El ícono de la música latinoamericana Charly Alberti concentra la energía que ante dedicaba a la batería, en aumentar la concientización sobre los peligros que acarrea el cambio climático en la región.

Alberti, de 48 años, ex baterista de la legendaria banda de rock argentino Soda Stereo, recientemente presentó su nueva ONG ambientalista, R21, en la Conferencia sobre Juventud para el Desarrollo y Desarrollo para la Juventud llevada a cabo en la 52ª reunión anual del Banco Interamericano del Desarrollo (BID), realizada en Canadá el mes pasado.

R21 busca concientizar sobre cómo la gente joven puede desempeñar un rol fundamental en detener el calentamiento global en América Latina y el mundo.

En entrevista con Infosurhoy.com, Alberti habló sobre su compromiso con el medioambiente, las soluciones al cambio climático, su actual banda, Mole, y el legado de Soda Stereo.

<br />							Charly Alberti sobre cómo reducir el calentamiento global: “Si los seis mil millones de personas que habitan la tierra deciden reducir sus emisiones apagando luces, utilizando bicicletas y haciendo un millón de cosas como esas, tenemos una solución. Los gobiernos y las industrias deberán imitarlo. No es demasiado, pero debemos hacerlo”.  <br />

Charly Alberti sobre cómo reducir el calentamiento global: “Si los seis mil millones de personas que habitan la tierra deciden reducir sus emisiones apagando luces, utilizando bicicletas y haciendo un millón de cosas como esas, tenemos una solución. Los gobiernos y las industrias deberán imitarlo. No es demasiado, pero debemos hacerlo”.

Infosurhoy: Eres un reconocido músico y empresario e integrante de probablemente la mayor banda de rock que existió en América Latina. ¿Por qué decides involucrarte en una organización ambientalista?

Charly Alberti: Me di cuenta de la complejidad y la gravedad del cambio climático. Me di cuenta que podía hacer algo al respecto. Ser un músico popular en la región me da la posibilidad de concientizar y luchar contra la ignorancia que existe al respecto en América Latina.

La gente en nuestra región cree que el cambio climático es algo que nunca los va a afectar. Piensan que es algo que solamente ocurre en el Hemisferio Norte. Pero la realidad es exactamente lo opuesto: en este momento, nos está afectando considerablemente. Observen las inundaciones en Venezuela y Colombia y la sequía en Argentina.

Infosurhoy: El daño provocado por el cambio climático, ¿es reversible?

Charly Alberti: Enfrentamos grandes problemas, y lo peor es que nadie está preparado, simplemente vean lo que ocurrió en Japón. Las ciudades latinoamericanas no están preparadas para enfrentar una situación similar ya que no hay infraestructura adecuada.

Necesitamos comunicación masiva acerca del cambio climático en la región, y tenemos que llegar a aquellos que no han prestado atención a la problemática.

<br />							“La gente en nuestra región cree que el cambio climático es algo que nunca los va a afectar”, afirmó Charly Alberti, fundador de la ONG ambientalista R21. “Piensan que es algo que solamente ocurre en el Hemisferio Norte. Pero la realidad es exactamente lo opuesto: en este momento, nos está afectando considerablemente. Observen las inundaciones en Venezuela y Colombia y la sequía en Argentina”.<br />

“La gente en nuestra región cree que el cambio climático es algo que nunca los va a afectar”, afirmó Charly Alberti, fundador de la ONG ambientalista R21. “Piensan que es algo que solamente ocurre en el Hemisferio Norte. Pero la realidad es exactamente lo opuesto: en este momento, nos está afectando considerablemente. Observen las inundaciones en Venezuela y Colombia y la sequía en Argentina”.

Creo que hay una solución, y no es volver a [como estaba el mundo en] 1700. Si los seis mil millones de personas que habitan la tierra deciden reducir sus emisiones apagando luces, utilizando bicicletas y haciendo un millón de cosas como esas, tenemos una solución. Los gobiernos y las industrias deberán imitarlo.

Infosurhoy: ¿Qué significa R21?

Charly Alberti: “Revolución” es una palabra muy latinoamericana. Y realmente necesitamos una revolución de conciencia y comenzar a pensar formas sostenibles para detener el calentamiento global. Necesitamos crear una “Re-evolución”, algo que traiga más valor a nuestros países en América Latina, logrando que nuestras economías avancen de forma sostenible pero comprendiendo las realidades del mundo moderno.

Infosurhoy: ¿Estás trabajando en algún otro proyecto?

Charly Alberti: Cuando termine el lanzamiento de R21, a mediados de este año, daré algunos shows con Mole. Pero no estoy seguro si podré hacer una gira internacional, ya que la industria está muy afectada en este momento debido a la piratería. No trabajo más con una discográfica. Ya no pueden apoyarnos como [hacían] antes.

Infosurhoy: ¿Cuál es el legado de Soda Stereo?

Charly Alberti: Soda Stereo fue un proyecto espectacular, un proyecto que los tres disfrutamos enormemente. Nuestra reunión [en 2007] fue espectacular a nivel humano, musical, y a nivel de concierto. Me siento muy orgulloso de Soda Stereo porque fue algo que hicimos con dignidad. Y a la gente le encantó, lo cual no tiene precio. Tenemos un lugar en América Latina y la gente todavía nos quiere.

Fuente: http://infosurhoy.com/cocoon/saii/xhtml/es/features/saii/features/society/2011/04/06/feature-02

Acerca de los valores ISO nativos

En este comienzo de semana les hablare acerca de algo que se viene discutiendo desde hace tiempo y nunca parecía haber un consenso claro. Es algo mas técnico de lo que usualmente pueden encontrar por aquí, pero es sumamente interesante para los usuarios de cámaras reflex, sea cual sea su gama y modelo. Si eres algo novato en el tema, la velocidad ISO es un factor que afecta el nivel de exposición de la imagen. Tal como en la época de negativos, el rollo tenia una velocidad ASA que básicamente era el factor de sensibilidad a la luz. Cuanto mas alto este valor, mas sensible era la película y por lo tanto mas rápidamente se exponía. Con películas de, por ejemplo, 1600 ASA, era muy sencillo tomar fotografías de noche o con poca luz, ya que la emulsión reaccionaba rápidamente y no eran necesarias exposiciones largas.

El equivalente actual en su versión digital es el valor ISO. Cuanto mas alto este valor, mayor sensibilidad analógica se le dará al sensor y por lo tanto menor tiempo de exposición será necesario. No es exactamente lo mismo que en su versión fílmica, pero están muy relacionados. Hace bastante tiempo circula una especie de rumor/comentario acerca de los valores “nativos” de las cámaras digitales, cuestión que se ha discutido hasta el cansancio. Si tienes una reflex digital, notaras que los valores ISO saltan en múltiplos de 2. Arracan en ISO 100 y continúan en 200, 400, 800, 1600, 3200 y así sucesivamente.Algunas cámaras de gama media/alta permiten valores intermedios, mas flexibles y que no necesariamente son múltiplos de 2.

El argumento de los ISO nativo es que las cámaras digitales traen ciertos valores “por defecto” en los que el sensor reacciona correctamente a la luz, los “nativos”, y por el otro lado existen los valores que la cámara trae como seleccionables, que se obtienen fotografiando en el valor nativo mas cercano y luego compensando digitalmente hasta alcanzar el valor seleccionado. Estos valores “mágicos” son aquellos múltiplos de 160, es decir, 160/320/640/etc. mientras que el resto son valores que son alcanzados de manera digital. Suena complicado, pero el siguiente ejemplo clarificará las cosas: según esta teoría, la disparar en ISO 200 por ejemplo, no se esta haciendo el disparo en ese valor, sino que en realidad se lo hace en ISO 160 y luego la cámara eleva la imagen digitalmente hasta 200. El argumento de los defensores del ISO verdadero es que los ISO nativos muestran menos ruido que los ISO falsos y se han hecho varias pruebas que así lo demuestran. Las siguientes imágenes son una comparación de distintos valores realizadas con una Canon EOS 7D (el gráfico completo que llega hasta ISO 6400 puedes verlo en Marvels Film):

A simple vista se puede ver que claramente los valores múltiplos de 160 son visiblemente menos ruidosos que aquellos que son múltiplos de 100. Una conclusión apresurada le daría la razón los evangelizadores del ISO nativo, pero un reciente articulo de Shootin the shot ha aclarado el tema. La razón por la cual los ISO multiplos de 160 son menos ruidosos es que en realidad son la compensación negativa de los ISO múltiplos de 100 mas altos y cercanos. Es decir, al disparar en ISO 160 el sensor no fue configurado a ISO 160, sino que lo hizo a ISO 200 y luego fue subexpuesta digitalmente la imagen hasta alcanzar el valor de ISO 160. Al oscurecer la imagen para compensar esa diferencia de ganancia, parte del ruido es enmascarado y disimulado. En realidad no existe un ISO nativo, sino que es fabricado digitalmente en forma de subexposicion.

Ahora, ¿esto significa que no se debería usar ISO múltiplos de 160 y solo utilizar los “clásicos”? En realidad depende de la finalidad de la imagen. Si utilizas los supuestos valores nativos, la cámara compensará digitalmente la diferencia, por lo que el rango dinámico de la imagen sera menor (la diferencia entre luces y sombras sera menor) pero tendrás una imagen con menos ruido. Si realmente es una cuestión importante el hecho de ruido, puedes utilizar estos valores. Si no es así, los valores clásicos te darán una imagen limpia y sin ningún retoque. Tal vez tengas algo mas de ruido que con otros valores, pero el software de hoy en día es lo suficientemente poderoso e inteligente para compensarlo y eliminarlo de alguna u otra manera.

Foto: Andres Rey | Comparaciones ISO: Marvels Film

Fuente: http://altfoto.com/2011/03/acerca-de-los-valores-iso-nativos

Fotografía HDR con toque surrealista

La fotografía HDR suele dividir y enemistar personas. Existen aquellos que están completamente de acuerdo con ella y la disfrutan y aquellos que la simplemente les parece abominable. Lo cierto es que una imagen de alto rango dinámico mal ejecutada suele ser bastante irritante, pero aquellos ejemplos que se destacan siempre dejan un buen legado y colocan a esta técnica en un buen lugar.

Una imagen High Dinamic Range, su nombre en ingles, se trata de una composición digital, donde utilizando varias fotografías de diferentes exposiciones de un mismo paisaje u objeto se las combina para dar a una imagen final. El beneficio de esto es que las imágenes al tener una exposición diferente se logra incluir en la imagen final la información de los lugares mas brillantes, los tonos medios y los mas oscuros al mismo tiempo. Al juntar toda esta información en un solo lugar, el resultado es una imagen con un alto rango dinámico, que por regla general es imposible de obtener con una única toma. Usualmente se utilizan tres imágenes, una expuesta correctamente, una sobreexpuesta y otra subexpuesta. Existen programas especializados para hacer este sándwich de imágenes, como Photomatix o el propioPhotoshop.

El requerimento son tres imagenes de un mismo paisaje u objeto, pero ¿que pasa si esto no se cumple? De eso se tratan los Mixes HDR. Consiste en tomar dos imágenes al estilo tradicional y luego un “intruso” que no tenga nada que ver con las dos fotos anteriores. Puedes tomar dos imágenes, una sobreexpuesta y una subexpuesta, de por ejemplo una calle y luego utilizar cualquier foto correctamente expuesta que tengas en tu archivo. Al introducirlas en el programa de composición, este intentara combinar estas tres imágenes. Esta técnica ofrece cierta flexibilidad ya que como en las fotografías HDR tradicionales puedes modificar los valores y obtener imágenes radicalmente distintas, en este caso las variaciones serán mas notables. ¿El resultado? Unas imágenes de lo mas surrealistas, bañadas en esa peculiar mezcla de matices que tienen las HDR.

Esta idea fue desarrollada por Paul Little y tiene una pequeña galería con unas pocas imágenes, pero que son de lo mas inspiradoras. Ha logrado ciertamente unas mezclas de lo mas surrealistas, que hasta en algunos casos son muy sutiles, haciendo que uno tenga que dedicar un buen momento a descubrir cual es la foto principal y donde esta el intruso. Como ya has leído, es una técnica de lo mas simple, si te animas a realizarlo, no olvides agregar tus resultados a nuestro pool de Flickr.

Foto: avaviel | Vía: Petapixel

Fuente: http://altfoto.com/2011/03/fotografias-hdr-con-toque-surrealista

2x1 Lo próximo de Pixar: “Brave” + Clip de “Cars 2”

Primeras imágenes conceptuales de “Brave”, lo próximo de Pixar

Aunque queda más de un año para que se estrene “Brave”, la producción que Pixar tiene pensado llevar a las pantallas en 2012,muy a cuentagotas nos dejan caer información de lo que será la siguiente película del estudio después de que estrenen este verano “Cars 2”. La primera imagen que nos mostraron servía para hacernos una idea de cómo sería la obra final, aunque tampoco desvelaba más detalles, pero al menos supimos que se trataría de una película ambientada en la Edad Media.

Ahora nos han llegado nuevas imágenes, gracias a Collider, que revelan muchos más detalles y permiten hacernos una idea de lo que será el producto final. No son fotogramas de la película o bocetos del storyboard preparado por los animadores del estudio, pero al menos son un interesante material para cualquiera que quiera ver la película y que se agradecen debido a la poca información que ha trascendido hasta ahora.

En ellas podemos ver principalmente elementos de la naturaleza, sobre todo frondosos bosques y rocas. Además aparecen unos misteriosos personajes que supongo será la protagonista, la princesa Merida, mientras tira de lo que parece un caballo. No sé qué opinaréis vosotros sobre las imágenes pero a mi me han recordado mucho a “Mononoke-hime” de Hayao Miyazaki. Es posible que desde Pixar quieran rendir un pequeño homenaje al director japonés, del que siempre se han declarado fans, con una obra que implique temas sobre la naturaleza y cómo el ser humano la está destruyendo.

Además de estas, hay otra imagen en la que podemos ver una torre fortificada de piedra, lo que podemos suponer que es un elemento arquitectónico que aparecerá en la película en referencia a la historia de la princesa, ya sea porque es propiedad de su padre o porque aparece como fondo en algún momento. Esta es la imagen más diferente de las otras dos, que están más enfocadas en mostrar elementos de la naturaleza y al misterioso personaje.

En cuanto a la producción en sí, finalmente no hubo conflicto con Brenda Chapman y se encargará de co-dirigir la cinta junto con Mark Andrews. Donde sí ha habido cambios ha sido en el reparto de las voces originales, ya que en principio el papel de la princesa estaría a cargo de Reese Witherspoon ahora pasará a tener la voz de Kelly Macdonald. Tampoco creo que sea un cambio demasiado significativo, mientras sea lo que quieren los directores. La fecha de estreno está prevista para el 15 de junio de 2012, por lo que nos tocará esperar.

Fuente: http://extracine.com/2011/03/primeras-imagenes-conceptuales-brave-proximo-pixar

Para muestra un rugido de motor: clip de “Cars 2”

Si más allá de los trailers que se han visto hasta la fecha, estabas interesado en ver cómo lucían los coches de “Cars 2”, la secuela de la película menos valorada de Pixar, “Cars”, que vuelve a integrar su equipo de dirección al mítico John Lasseter, estás de enhorabuena pues con la excusa de la presentación de la película en WonderCon, ya puedes disfrutar de una estupenda secuencia completa llena de acción, que tan sólo es una muestra de lo que se verá el 6 de junio en las salas de cine.

Fuente: http://extracine.com/2011/04/clip-de-cars-2

2x1 Batman: Juno Temple confirmada y… Ya pensando en otro reboot?

“The Dark Knight Rises” confirma a Juno Temple

The Dark Knight Rises”, de Christopher Nolan, continúa armando su extraordinario reparto. Para acompañar al caballero de la noche, Christian Bale, tenemos confirmados a: Tom Hardy, quien dará vida a Bane ; Anne Hathaway, como Catwoman; Joseph Gordon-Levitt, cuyo personaje podría ser Alberto Falcone — tal vez sí, tal vez no… el hecho es que Gordon-Levitt formará parte del proyecto —. El pasado fin de semana se mencionaba, con la confirmación de dicho actor, el nombre de una joven actriz, quien se encontraba en negociaciones con la producción. Y así de rápido llega la confirmación: Juno Temple se integra al reparto.

El personaje que interpretará la actriz inglesa, de 21 años,queda sin identificarse. Por el momento se describe como una «chica astuta de ciudad Gótica»; este es el único dato que se ha dado a conocer, ni más, ni menos. De acuerdo con Collider — en un mar de suposiciones —, Temple podría interpretar a cualquier personaje femenino del cómic, desde la sidekick de Catwoman hasta Stephanie Brown, conocida como Batgirl. Considerando la lista de personajes confirmados en “The Dark Knight Rises”, corre el rumor de que Temple interpretará a Holly Robinson, una joven prostituta que vive con Selina Kyle a.k.a. Catwoman.

Juno Temple viene de una familia de cineastas, de madre productora y padre director: Amanda Pirie y Julien Temple. Se da a conocer a nivel internacional gracias a su participación en “Atonement”, donde interpreta a Lola Quincey. La hemos visto también en “The Other Boleyn Girl”, como una adolescente con un desorden alimenticio en “Wild Child”, entre otros filmes. Próximamente la veremos en “The Three Musketeers”, bajo la dirección de Paul W. S. Anderson.

Otro gran fichaje para la película. Esperaremos atentos la confirmación de su personaje — así como el indicado para Joseph Gordon-Levitt —. “The Dark Knight Rises” comienza su rodaje en mayo y tiene como fecha de estreno el 20 de julio de 2012.

Foto: GATW

Fuente: http://extracine.com/2011/03/the-dark-knight-rises-juno-temple

¿Lo qué?: confirmado el reboot para Batman

A ver, el tema es muy raro y se necesita algo de tiempo para digerirlo del todo, así que vamos por parte. Parte I: es sabido queMarvel, la gran competidora de DC Comics, se encuentra realizando un proyecto para poner en la gran pantalla al super grupo por excelencia de la editorial, The Avengers. Parte II: ambas empresas editoriales, en la actualidad, se encuentran controladas por empresas que se dedican a los entretenimientos integrales, desde muñecos hasta películas, algo así como dos gigantescas creadoras de franquicias: Marvel es de Disney y DC de Warner. Parte III: Christopher Nolan advirtió que despues de“The Dark Knight Rises”, película que en la actualidad está siendo filmada, no dirigirá más cintas del personaje. Conclusión: Warner-DC tienen planeado realizar un reboot de Batman con la última película de la trilogía de Nolan aún sin terminar. Una locura, aparentemente.

Según lo que leemos tanto en el LA Times como en diversos medios de internet, Jeff Robinov, responsable de DC en su vertiente fílmica, quien ya había dado declaraciones bastante polémicas en torno al proyecto de la película de la Justice League, ha declarado:

Tenemos la tercera de Batman, pero luego vamos a tener que reinventar al personaje [para colocarlo en una planeada cinta de la Justice League en el 2013, claro]… Christopher Nolan y Emma Thomas la producirán, así que estamos hablando con ellos acerca de la siguiente fase del proyecto.

La idea es básicamente competir con el concepto de un grupo de super-héroes reunidos que luchen contra una amenaza común: si bien históricamente DC siempre consiguió mejores resultados en este concepto desde la Golden Age para adelante, Marvel ha sabido siempre ganar por el lado de historias mucho más interesantes para el planteo de grupo, pese a que sus super-héroes, individualmente, carecían a veces del mismo peso que los de DC: piensen en la importancia de Batman y Superman contra la deCaptain America e Iron Man, sólo por mencionar a las dos cabezas de cada uno de los conjuntos. No es para desmerecer ni a uno ni al otro, lo importante siempre son las historias, pero en líneas generales me parece necesario afirmar que DC logro cuajar mejor en un primer momento -la década de los 60, e inclusive antes- esto de cómo funciona un súper-grupo compuesto por personajes que cuentan con sus series individuales, potenciando a los más secundarios y utilizando con destreza a los más vendedores.

Ahora bien: en términos de películas, si nos dejamos guiar por los sucesos de los últimos años, pasa lo contrario: Marvel ha sabido potenciar con destreza personajes que antes no vendían casi nada de historietas, como el mismísimo Iron Man, aprovechando la posibilidad de un nuevo medio que se abría para este tipo de historias. DC ha hecho lo mismo con Batman, claro, pero con una trilogía que pronto va a culminar que no da mucho espacio para la sociabilidad del personaje: el Caballero Oscuro siempre fue un character complicado para juntar con el resto de los super-héroes, y después de ver la oscuras historias en las que Nolan lo ha metido, no se me ocurre cómo se puede hacer para poner a un simpático Flash o un tirando-a-alegrónGreen Lantern con el ronco Batman de Christian Bale.

Hacer una película de la Justice League es un proyecto más que complicado, pero creo que la mayoría me seguirá con el hecho de que hacer un reboot de Batman no es la mejor idea del universo ni por casualidad: corre peligro una exitosa franquicia, mis queridos, espero equivocarme y que todo salga medianamente bien.

Fuente: http://extracine.com/2011/03/lo-que-confirmado-el-reboot-para-batman

Añade tus contactos solo manualmente en Gmail

Google Mail: Manual Option To Add Contacts

mail settingsI have more than 1000 contacts in Google Mail, all people that I know and hold dear. Just kidding. Everyone, and I mean everyone, who send you an email in the past was automatically added to your contacts, as was everyone that you send an email to. That was not really comfortable considering that spammers and god knows who were added to the list of your contacts without your doing. Most email programs only add contacts to your address book if you write a message, or add the contact manually.

In Google Mail, this was not possible until now. Until now? Yes, Google finally came to their senses and added an option to switch from the automatic contact creation mode to a manual mode.

You need to change a configuration setting in your Gmail account settings to switch from automatic to manual mode. Open the Google Mail website and log in. Click on the Settings icon in the upper right corner of the screen and select Mail Settings from the options.

Scroll down on the settings page until you see the new entry Create contacts for auto-complete.

google contacts

Switch from the default mode When I send a message to a new person, add them to Other Contacts so that I can auto-complete to them next time to I’ll add contacts myself. Scroll down to the bottom of the screen and click the Save Changes button.

Contacts will not be added automatically to your contacts list from that moment on. You are on the other hand still stuck with all the automatic contacts that have been added to the address book in the past.

The Gmail blog has posted a rundown of other features that they have added to the email service.

This, in short, includes better warnings for typos in email addresses, fewer error pop-ups, the transition from a refresh link to a refresh button, an always-on keyboard shortcut help page (Shift-?) and better transitions between certain actions.

keyboard shortcuts

Especially the new keyboard shortcut help page can be a productivity booster as it provides quick access and look-up options (what was that shortcut again?). Gmail blog via Caschy.

Fuente: http://www.ghacks.net/2011/04/07/google-mail-manual-option-to-add-contacts/

2x1: Especial 20 aniversario de Linux con concurso anual de videos y sus comienzos

Linux anuncia que su concurso anual de videos celebrará los 20 años de vida del sistema operativo

La Fundación Linux ha lanzado su concurso anual de vídeos, y las creaciones que se presenten a esta edición deberán demostrar el impacto que ha tenido el sistema operativo durante los últimos 20 años en el mundo de la informática, empresarial y/o cultural.

Linus Torvalds tendrá que decidir sobre el vídeo ganador, una vez que la comunidad de usuarios de la Fundación Linux, haya señaladocuáles son sus videos favoritos.

Se da la circunstancia de que esta será la primera vez que el ingeniero finlandés tenga esa responsabilidad, ya que en anteriores ediciones se optó por un panel de expertos para el veredicto final.

Además, la Fundación Linux ha lanzado el video titulado “The Story of Linux” para conmemorar ese 20º aniversario, y servir a la vez de inspiración para los que participen en la competición.

Desde la fundación Linux aclaran que aquellos que deseen participar en el concurso podrán hacerlo hasta el 2 de julio, y anuncian que el ganador tendrá derecho al billete de avión, entrada y alojamiento gratuitos para asistir a uno de los siguientes eventos: LinuxCon North America, LinuxCon Europe, la conferencia SXSW 2012 o el festival de cine de Los Ángeles.

En la siguiente dirección podéis acceder a las reglas oficiales de la competición y debajo tenéis el video editado por Linux.

vINQulos The Linux Foundation

 

Así fueron los comienzos de Linux

Con motivo del vigésimo aniversario del nacimiento de Linux, la fundación que lleva su nombre ha echado la vista atrás para recordar como fueron los primeros pasos del sistema operativo libre.

La Fundación Linux sitúa el inicio de Linux antes de que Linus Torvalds comenzara a trabajar en el kernel, concretamente en 1983 cuando “Richard Stallman anunció el Proyecto GNU con las palabras “¡el Unix libre!”.

En aquel momento, Stallman aseguró que “la regla de oro requiere que si me gusta un programa lo pueda compartir con otras personas”, por este motivo señaló que no se podía “firmar un acuerdo de confidencialidad o un acuerdo de licencia de software”.

Mientras Stallman se proponía crear un reemplazo libre para Unix, Linus Torvalds comenzaba a sentir interés por el mundo de la informática mientras estudiaba en la Universidad de Helsinki (Finlandia).

En 1991, Torvalds inició el desarrollo del kernel de Linux y lanzó la primera versión “oficial” 0.02 en octubre de este mismo año. En aquel momento Linux era poco usable y probablemente no habría llegado muy lejos en su desarrollo si Torvalds no hubiera decidido hacerlo público y pedir ayuda para su desarrollo.

Aún así, Linux no fue “aceptado universalmente como una buena idea en aquel momento” y recibió algunas críticas, pero Torvalds se mantuvo en su empeño de construir un sistema operativo libre que veinte años después sigue vigente.

Además de hacer un repaso a la historia de Linux, la fundación ha puesto en marcha otras actividades conmemorativas como el concurso de vídeos, otro para diseñar la camiseta oficial del 20 aniversario, un portal en el que dejar comentarios o escribir anécdotas relacionadas con el uso de Linux.

vINQulos The Linux Foundation

Fuente:  http://www.theinquirer.es/2011/04/06/linux-anuncia-que-su-concurso-anual-de-videos-celebra-los-20-anos-de-vida-del-sistema-operativo.html - http://www.theinquirer.es/2011/04/07/asi-fueron-los-comienzos-de-linux.html

El marketing de Call of Duty y Battlefield 3 superará los 200 millones de dólares

Así lo asegura John Riccitiello, CEO de Electronic Arts


Todos los años disfrutamos de una entretenida batalla entre dos sagas muy famosas, FIFA y Pro Evolution Soccer, pero este 2011 parece que nos va a ofrecer una nueva guerra entre dos pesos pesados de esta industria: Electronic Arts y Activision.

Los contendientes de esta batalla ya tienen nombre: Battlefield 3 y Call of Duty, que buscarán la supremacía en el género de los juegos de acción, cuya corona la ostenta la multimillonaria franquicia de Activision, que entrega tras entrega bate todo los récords de ventas en la industria del entretenimiento.

Pero las tornas pueden cambiar este año, así pues, según ha explicado John Riccitiello, presidente de Electronic Arts, la guerra entre ambos títulos, que se librará a finales de año, será vital para el año fiscal de ambas compañías que "se gastarán un par de cientos de millones de dólares en marketing en la guerra entre estos dos títulos".

Como no podía ser de otro modo, el máximo responsable de Electronic Arts barre para casa y apuesta por Battlefield 3: "Con diseños similares, creemos que tenemos un producto mejor".

Riccitiello finaliza afirmando que esta batalla será similar a la que mantienen "Google y Microsoft".
Se abren las apuestas por el ganador.

Fuente: http://www.vadejuegos.com/noticias/2011/04/07/el-marketing-de-call-of-duty-y-battlefield-3-superara-los-200-millones-de-dolares-113044.html

BlueStacks: Tus aplicaciones de Android en Windows

Si, habéis leído bien. El titulo y también la imagen. No os estamos engañando, desde BlueStacks System Inc, han desarrollado una aplicación que cambiará la forma de utilizar nuestros terminales con el ordenador.

El placer de poder emular un juego de Android en Windows, ya es posible, de virtualizar una aplicación en nuestro PC no sólo vale como curiosidad o una herramienta más para los desarrolladores, si no que abre un camino interesante a la hora depoder probar aplicaciones como ya ocurre en la Amazon Store que ya explicamos, y es que cada vez será más importante poder probar las aplicaciones en un entorno neutro para saber si nos va a interesar.

De momento y aunque esta en fase beta, es capaz de emular todo tipo de Apps Android en Windows ( Win7, Win Vista y Win XP), y según deja ver, también sera posible emular las aplicaciones de Windows en Android, por lo que la facilidad de estar trabajando en un  documento Word en el PC, o incluso en el Photoshop y poder emularlo en nuestro pequeño Android, (siempre que el procesador y la memoria acompañen) sera un auténtico puntazo.

Estaremos atentos a los próximas noticias y a ver que tal funciona esta aplicación, que sin duda, va a ser muy beneficiosa para la experiencia de usuario, y ahora que se acerca la era de los tablets, aún más y ahora que el hardware de unos y otros (y próximamente el software también) se empieza a parecer mucho, habrá que seguir de cerca la pista este tipo de emuladores.

En fin, un pequeño paso para la humanidad, pero un gran salto para los Androides.

Fuente: Engadget

Sitio: BlueStacks

Via: http://www.elandroidelibre.com/2011/04/bluestacks-tus-aplicaciones-de-android-en-windows.html

Todo lo que quieres saber de Android en una imagen

Muchas veces nos encontramos una tras otra vez con las mismas dudas por parte de quienes haciendo uso de un teléfono Android quieren adentrarse más en cada recoveco del sistema operativo para exprimirlo al máximo. ¿Qué tipo de tarjetas puedo usar?, ¿de qué hablamos cuando decimos que hay que entrar en modoRecovery?, ¿que significa si tu teléfono sufre un “brick”?, ¿qué diferencia hay entre tener cobertura GPRS, 3G o HDSPA?, ¿está el teléfono actualizado a la última versión de Android?.

Pues en Emezeta podemos encontrar una forma muy útil de conocer más sobre las entrañas del robot verde en un vistazo, o lo que es lo mismo una infografía que ayudará al que quiera pasar de hacer llamadas a saber los tipos de memoria usados, de particiones soportadas y qué es la Dalvik Virtual Machine entre otras cosas.

La imagen:

Por motivo de espacio se ha dividido en tres la imagen (por si quereis descargarlas) aunque aquí las mostramos de forma consecutiva.  Eso sí, lo suyo sería poder tenerla unida en una gran pantalla, o impresa en un póster (si no te da miedo lo que piensen tus visitas al verlo).

En la primera infografía podemos ver los tipos de inicio del sistema y como podemos acceder a ellos, que es la Radio y que es la ROM, y cuales son los distintos cargadores que utiliza Android al arrancar.

En la segunda podemos apreciar los distintos reseteos, qué significa realizar un Wipe, los tipos de memoria que usa el terminal y sus velocidades, el árbol de directorios del sistema, etc.

En la última imagen queda la estructura de directorios para Data y System, así como los posibles errores que muestra Android, la Dalvik VM, la estructura de una aplicación, las redes de datos disponibles y las distintas versiones de Android entre otros datos.

Como os hemos dicho, un gran trabajo para poder acceder a todos los secretos de Android en una única imagen pero si tanta información os abruma porque estais empezando no olvideis pasar por nuestra sección Soy Principiante, por la sección deRoot, o visitar nuestro Foro para preguntarnos directamente.

Vía Emezeta.com.

Fuente: http://elandroidelibre.com/2011/03/todo-lo-que-quieres-saber-de-android-en-una-imagen.html

Las 16 peores computadoras de todos los tiempos

The 16 Worst Failed Computers of All Time

George Jones - Maximum PC — Greetings. And welcome to. The Old PC Yard.

There are. Bzzzzt. Numerous. Failures in PC history. We've isolated the. Worst 16. Around.

We are certain that a smart human such as yourself. Will. Have strong opinions on this list. If TRUE, then replay in. Comments. If FALSE, have a. Nice day.

Initiating countdown module in 5…4…3…2…

Full size

16. IBM PCjr (1984): Nicknamed the Peanut, the PCjr was surprisingly expensive given its similarities to the Commodore 64 and Atari systems. It came in two models-a 64KB 4860-004 at $670 and a 128KB 4860-067 at $1270. Each offered color CGW graphics, a 4.77MHz Intel 8088 proc, wireless keyboard, lightpen port, two ROM cartridge slots, two joystick ports, and full PC compatibility. Critics universally panned the chiclet-style keyboard, and gamers maintained their loyalty to the Apple II.

Full size

15. Mac Portable (1989): With a hinged black and white active matrix LCD screen, a removable trackball for a mouse, expandable SRAM, a fairly speedy boot from sleep mode, a SCSI mode that allowed it to be used as a hard drive, video out, and a low-power 16MHz Motorola 68HC000, Apple's very first portable computer was ahead of its time. Unfortunately, it was neither light in weight (16.5 pounds) nor a commercial success.

Full size

14. Commodore Plus/4 (1984):Commodore released like 2,000 computers in about 5 years time. That's baffling. The Plus/4 was a home computer with a built-in software suite-word processor, spreadsheet, database, and graphs. It had 64kb of memory, a MOS 8501 proc, and a pretty snazzy-looking chassis. Unfortunately, Commodore 64 fans called it the Minus 60. ‘Nuff said.

Full size

13. GateWay Destination (1996):Gateway's $4,000 PCTV was ahead of its time, so much so that it never really sold that well. The system came with a set of surround speakers, a tuner card, and a 36" 640 x 480 CRT monitor. We take the HTPC for granted today, but in an era where Windows was still fairly crash-prone, a home theater slash computer made no sense at all.

Full size

12. IBM PS/2 (1987): How ya' gonna' do it? PS/2 It! Or not. The Personal System/2 was IBM's failed attempt to regain control of the clone market via a closed, proprietary architecture. IBM originally intended for OS/2 (get it?) to be the OS, but at the time of release, it wasn't ready. Consumers balked en masse at IBM's evil empire play. But the system introduced several important new standards, including Micro Channel Architecture, the PS/2 interface, VGA connectors, and 3.5" floppies.

Full size

11. Sinclair QL (1984): The QL in the name was short for quantum leap, and with a Motorola 68008, 128KB of memory (expandable to 640KB), LAN ports, two built-in ZX Microdrive tape cartridges, and a built-in multi-tasking OS named QDOS, it certainly seemed advance. Unfortunately, the Sinclair QL shipped five months late and was buggy enough to doom it to failure…FOREVER.

Full size

10. Apple III (1980): It was essentially an Apple II designed for the business crowd, and was powered by an 8-bit 1.8MHz SynterTek 6502A processor. It also had 16-color high-res graphics, an 80-column display with upper AND lowercase characters, and a numeric keypad. All of this cost between $5,000 to $7,000, making it outrageously expensive and wildly unpopular.

Full size

9. Go L Mach L 3.8 (never released):We're ashamed to admit that Maximum PC got suckered into the hype around Liebermann Inc's PC-on-steroids. The company promised outrageous speeds and features that went way beyond the state of the art in 2003, including 5.0GHz systems, five-screen displays, outrageous cooling schemes, Solid State Drives, and data throughput speeds of 8GB/s. The company went out of business in 2004, having never shipped a single product.

Full size

8. Apple Lisa (1983): In the words of The Arnold, Apple's first crack at a GUI-based business computer was one ugly muthableep. It was, however, a powerful machine for its time, with a 5MHz 68000 CPU, 1MB RAM, two 5.25-inch drives, a hard drive, and a paper calculator. Unfortunately, it cost $10,000. Success: denied.

Full size

7. Commodore 128 (1985): If you're a way-back Commodore geek, you were probably excited about the Commodore 128. It sported 128KB of memory, an 80-column display, and two dedicated processors-a 2 MHz 8502 and a Zilog Z80. (They didn't work in tandem.) A dedicated C64 mode ensured 100% compatibility. Ultimately, however, the masses didn't want a low-cost, business-oriented machine. We wanted games, awesome music, and great graphics. We wanted the Amiga.

Full size

6. Osborne Executive (1982): Adam Osborne's self-named 1980 portable sold surprisingly well. The Osborne Executive? Not so much. As legend has it, the Executive played a direct role in shutting down Osborne Computers. Once it was announced, computer retailers immediately began cancelling orders for the Osborne 1. The company declared bankruptcy later in 1983. Forever after, the Obsorne effect would refer to a company obsolescing an existing product by pre-hyping the successor.

Full size

5. NeXT Computer (1988): Based on the Motorola's new 25MHz 68030 CPU and including 8MB-64MB of RAM, a 330MB hard drive and an 1120x832 grayscale display, Steve Jobs' NeXT station cost $10,000 a pop. It was inaccessible to most and didn't sell very well. Despite its limited commercial success, NeXT played a pivotal role in history. Tim Berners-Lee used a NeXT Computer at CERN as the world's first web server. And much of the Mac OS X environment is built on OPENSTEP's foundation.

Full size

4. Atari Falcon (1992): Technically named the Falcon030, the final computer Atari Corp produced embodied the disarray that must have existed at the company during its final years. A 32-bit 68030 CPU in a 16-bit data bus? FAIL. Well, at least it had a Motorola DSP56000. Atari canceled the Falcon in 1993 to focus on the, ahem, Jaguar. Ahem.

Full size

3. Coleco Adam (1983): Released in time for the holidays in 1983, the Adam was plagued with issues. Defective tape drives, an electromagnetic surge on startup that was capable of nullifying tapes or discs left in the system, and a power supply that was located in the printer. Hey, at least it played Colecovision games. Unfortunately, it didn't do much else. Returns killed the company, and even a newer Adam that cost less and offered a $500 scholarship for kids couldn't compensate.

Full size

2. Power Mac G4 Cube (2000): Measuring 8 cubic inches and suspended in an acrylic enclosure-bah, pretty G4 Cube and pretty G4 fanboys make Hulk mad. Critics agreed-most argued that it was too expensive, didn't include a display, and worst of all, had a "manufacturing issue" that led to cracks in the fancy, newfangled case. We'll say no more.

Full size

1. Babbage's Difference Engine (1822):Like so many other computer makers on this list, Charles Babbage was ahead of his time. WAY ahead. Unfortunately, high costs prevented the mathematician from realizing his dream of building a steam-powered mechanical machine that could compute values of polynomial functions. The London Science Museum did realize his dream, however. In 1991, using some of the original parts, scientists completed a working version of the difference engine.   

Image credit: Shutterstock

The 16 Worst Failed Computers of All TimeMaximum PC brings you the latest in PC news, reviews, and how-tos.

Via: http://gizmodo.com/#!5789924/the-16-worst-failed-computers-of-all-time

La Commodore 64 resucita de entre los muertos con hardware modernizado

Geniales noticias para todos los nostálgicos del Commodore 64, uno de los ordenadores con más éxito en sus tiempos, como si de Jesucristo se tratara y tardando 30 años en lugar de 3 días, regresa de entre los ordenadores retro muertos para volver a predicar entre nosotros en una versión mejorada.

Aunque puede que su palabra no llegue a la gente tan fácilmente como antes, ahora que estamos en un mundo donde se le da culto a Apple, como si de Seth en Conan el Bárbaro se tratara.

El remake del Commodore 64 tiene una carcasa prácticamente idéntica al original pero en su interior hay un procesador Intel Atom de doble núcleo a 1,8GHz, chipset NVIDIA Ion 2, puertos HDMI, DVI, 4 USB, Ethernet, de audio y ranuras para tarjetas de memoria.

Además tiene lector de DVDs con la posibilidad de usar en su lugar un lector de Blu-rays. En cualquier caso mejor que usar cassettes. Podrá albergar un máximo de 4GB de RAM.

Teóricamente saldrá a finales de mes y habrá varias configuraciones rondando su precio entre 250 y 900 dólares.

A pesar de que las intenciones de la nueva Commodore son buenas, relanzando un formato ya olvidado (ordenador embebido en un teclado) sus características no es que sean para tirar cohetes y con su precio sólo tiene sentido para aquellos que quieran recordar una vieja gloria o tener un ordenador a prueba de niños alemanes enojados por el lag del Unreal Torunament

Fuente: http://www.gizmodo.es/2011/04/07/el-commodore-64-resucita-de-entre-los-muertos-con-hardware-modernizado.html