Friday, August 25, 2006

Para Calentar los Motores

Los siete problemas del concurso Millennium Prize Problem, que convoca el Instituto Clay de Matemáticas, están dotados con un premio de un millón de dólares. Con el propósito de celebrar la llegada del nuevo milenio, el Instituto Clay seleccionó siete problemas no resueltos que habían resistido los intentos de resolución de muchos matemáticos.
La lista de problemas abarca las más importantes áreas de las matemáticas y es la siguiente:

1. P versus NP. Formulado por Stephen Cook en 1971; puede ser el problema central de las Ciencias de la computación y de especial importancia para los sistemas criptográficos utilizados en la actualidad. Consiste en demostrar que en determinados problemas es mucho más difícil encontrar una solución que comprobar si una solución es correcta.

2. La Conjetura de Hodge. Relacionada con la investigación de las formas de objetos complicados mediante la aproximación a partir de combinaciones de bloques geométricos más simples de dimensión creciente.

3. La Conjetura de Poincaré. Propuesto en 1904 por el famoso matemático francés Jules Henry Poincaré (1854-1912) se ha convertido en el problema abierto más importante de Topología Geométrica con muchas implicaciones para la física. En la actualidad, la comunidad matemática está revisando la solución propuesta por el matemático ruso Grigori Perelman.

4. La Hipótesis de Riemann. Considerada como la pregunta abierta más importante en las matemáticas y que trata sobre los números primos, cuyo estudio ha atraído a numerosos matemáticos: Euclides, Gauss, Riemann, Tchebychef, etc. En particular se refiere a la distribución de los números primos en la serie de números naturales, que está muy relacionada con el comportamiento de la llamada función Zeta de Riemann.

5. El problema de Yang-Mils. Está planteado como un problema matemático y se refiere al estudio de las ecuaciones de Yang-Mills, fundamentales en la unificación de la electrodinámica cuántica con la teoría electrodébil.

6. El problema de Navier-Stokes. El estudio de la existencia de soluciones para las ecuaciones básicas del movimiento de los fluidos incompresibles: las Ecuaciones de Navier-Stokes (Navier 1822 y Stokes 1842).

7. La Conjetura de Birch y Swinnerton-Dyer. Conduce al estudio del carácter infinito o finito del número de soluciones racionales de una curva algebraica elíptica o de género

1.¿Cómo conseguir el premio?En varias ocasiones se han presentado soluciones a algunos problemas que más tarde resultaron no ser correctas; por esta razón, el Instituto Clay ha establecido unas normas muy estrictas, que establecen que las posibles soluciones deben superar varias fases antes de ser merecedoras del cuantioso premio. La solución propuesta debe ser publicada en alguna prestigiosa revista matemática y debe conseguir una aceptación general de la comunidad matemática durante dos años. Superado este plazo un comité científico del Instituto Clay (SAB: Scientific Advisory Board) decidirá si la solución merece ser tenida en cuenta, en cuyo caso, se constituye una comisión especial con miembros del comité anterior y otros miembros que deberán ser expertos en el área del problema. Esta comisión especial elaborará un informe en el que se basará el comité del Instituto Clay para hacer su recomendación final a los directores del mismo. El informe podría recomendar que el premio fuera dividido entre varias personas que han participado en su resolución, que se cite al autor de algún trabajo anterior decisivo para llegar a la resolución del problema e incluso que se le incluya en el premio.En la página web oficial del Instituto Clay puede consultarse la descripción oficial de los problemas escrita por matemáticos de prestigio mundial y especialistas en el tema. Entre ellos están Cook, Deligne, Milnor, Bombieri, Jaffe, Witten, Fefferman y Wiles, cinco de ellos han recibido el máximo galardón al que puede aspirar un matemático: la Medalla Fields.

Monday, August 21, 2006

ROBOTICA


En Busca del Robot "Personal"

Foto: ISTLa tecnología robótica está avanzando rápidamente, y ahora un equipo vanguardista de científicos e ingenieros europeos espera hacer posible la transición desde las máquinas "tontas" de una sola función, a máquinas con aprendizaje adaptativo.

El concepto de un acompañante robótico cognitivo inspira algunas de las mejores obras de ciencia-ficción, pero un día puede ser un hecho científico derivado del trabajo del proyecto COGNIRON, un programa de cuatro años financiado desde enero de 2004 por la iniciativa de Tecnologías Futuras y Emergentes (FET por sus siglas en inglés) de la IST (Information Society Technologies), en Europa. Pero ¿qué podría hacer un robot cognitivo acompañante?

"Bien, esa es una pregunta difícil. El ejemplo que a menudo se usa es un robot capaz de satisfacer las necesidades del usuario, como alcanzarle una bebida o ayudarle en las tareas cotidianas", explica el Dr. Raja Chatila, director de investigación del Laboratorio de Análisis y Arquitectura de Sistemas del Centro Nacional de Investigación Científica en Francia (LAAS-CNRS), y coordinador del proyecto COGNIRON.

"Esto pudiera parecer un tanto trivial, pero déjeme preguntarle: En los años 70, ¿cuál era el uso de un ordenador personal?", plantea Chatila.

Ciertamente, éste es un buen punto. De hecho, entonces era imposible imaginarse cómo los PCs cambiarían la sociedad, la economía y la política mundiales en apenas 30 años. Los usos finales, una vez que la tecnología se desarrolló, estaban lejos de lo trivial.

COGNIRON parte del mismo principio, dado que la sociedad está evolucionando constantemente, y las entidades asociadas al proyecto esperan abordar algunas de las cuestiones clave que se necesitan resolver para desarrollar un robot cognitivo acompañante, que podría ser utilizado como ayudante para personas mayores, discapacitados, o la población en general. ¿Quién no quisiera, por ejemplo, su desayuno listo al despertar, recibir envíos a domicilio mientras está fuera trabajando, y encontrar su apartamento limpio al regresar?

La cuestión clave que gobierna estas tareas es la inteligencia. Y desarrollar el comportamiento inteligente en varios frentes, constituye el principal trabajo de COGNIRON.

La investigación de COGNIRON se centra en cuatro capacidades básicas requeridas por un acompañante robótico cognitivo: percepción y comprensión del entorno; aprendizaje mediante la observación; toma de decisiones; comunicación e interacción con humanos.

La toma de decisiones es una capacidad fundamental en un robot cognitivo, ya sea para la deliberación autónoma, la ejecución de tareas, o la solución de problemas de colaboración humano-robot. También integra las otras tres capacidades: interacción, aprendizaje y comprensión del ambiente.

Conseguir que un robot se mueva alrededor de un ser humano, sin lastimarlo, al tiempo que lo haga sentir confortable, es una tarea vital. Esto significa que un robot debe captar señales sutiles. Si por ejemplo, un ser humano se inclina adelante para levantarse, el robot necesita entender el propósito de ese movimiento. Más aún, gran parte de la comunicación humana es no verbal, y tales máquinas cognitivas necesitan entender esa clase de comunicación si se quiere que sean útiles.

Thursday, August 17, 2006

Los 50 años del primer Hard Disk

The Hard Disk That Changed the World
IBM delivered the first disk drive 50 years ago. It was about the size of two refrigerators and weighed a ton.


August 7, 2006 issue - If there's a bottle of vintage champagne you've been saving, next month is the time to pop it open: it's the 50th anniversary of hard-disk storage. Don't laugh. On Sept. 13, 1956, IBM shipped the first unit of the RAMAC (Random Access Method of Accounting and Control) and set in motion a process that would change the way we live.
The RAMAC, designed in Big Blue's San Jose, Calif., research center, is the ultimate ancestor of that 1.8-inch drive that holds 7,500 songs inside your pocket-size $299 iPod. Of course, the RAMAC would have made a lousy music player. The drive weighed a full ton, and to lease it you'd pay about $250,000 a year in today's dollars. Since it required a separate air compressor to protect the two moving "heads" that read and wrote information, it was noisy. The total amount of information stored on its 50 spinning iron-oxide-coated disks—each of them a pizza-size 24 inches—was 5 megabytes. That's not quite enough to hold two MP3 copies of Elvis Presley's "Hound Dog."
Yet those who beheld the RAMAC were astonished. "It was about the size of two large refrigerators, about as tall as a person stands, and though it used vacuum tubes, it was always running," recalls Jim Porter, who worked at Crown Zellerbach in San Francisco in the mid-'50s and would proudly take people to the basement to see what he claims was the very first unit delivered by IBM. "It really turned the tide [in the Information Age]," he says. "It was the first to offer random access, whereas before you would have to wind a tape from one end to the other to access data."
That feature, and the fact that every year scientists have managed to compress more and more information on hard drives for less and less cost, has led to a revolution just as dramatic as the one triggered by the much more celebrated microprocessor. Massive storage has allowed huge businesses to thrive. Without astronomically capacious random-access hard disks, you couldn't imagine the likes of Google, eBay or Amazon. Yet the wizards in the storage field, who constantly fight the boundaries of physics to eke out more density on increasingly tiny disks, don't get respect. "Instead of Silicon Valley, they should call it Ferrous Oxide Valley," says Mark Kryder, chief technical officer of Seagate. "It wasn't the microprocessor that enabled the personal video recorder, it was storage. It's enabling new industries."
Experts agree that the amazing gains in storage density at low cost will continue for at least the next couple of decades, allowing cheap peta-bytes (millions of gigabytes) of storage to corporations and terabytes (thousands of gigs) to the home. Meanwhile, drives with mere hundreds of gigabytes will be small enough to wear as jewelry. "You'll have with you every album and tune you've ever bought, every picture you've ever taken, every tax record," says Bill Healy, an executive at Hitachi, which acquired IBM's hard-disk business in 2003.

Monday, August 14, 2006

Y la PC apenas cumplio 25


Los PC intervienen en nuestras vidas, sobre todo desde que se han puesto en contacto unos con otros a través de sistemas de comunicación a distancia, y se han convertido en la pieza clave de las redes como Internet, que permiten procesar, almacenar, trasmitir y recuperar información en formato digital.

Pero las cosas eran distintas hace un cuarto de siglo, el 12 de agosto de 1981, cuando la compañía International Business Machines, conocida por su sigla IBM, lanzó al mercado un modelo que rápidamente popularizaría la computación personal.

La máquina IBM PC estaba equipada con un procesador que trabajaba a la velocidad de 4,77 MHz, casi una “tortuga” en comparación con los equipos actuales, y que disponía de una memoria de apenas 16 kilobytes, una cantidad de información equivalente a la de un documento de texto, como el que leemos ahora.

Aunque hoy parecería lenta, torpe y poco eficaz, en aquella época el PC de IBM fue un producto innovador que marcó el inicio de una revolución que transformó la industria informática y a partir de allí, las más diversas ramas de la actividad humana.

Era una computadora de escritorio de dimensiones no muy diferentes de las actuales, equipadas con tubo catódico, cuyo monitor era monocromático, tenía una resolución relativamente baja, y que mostraba letras verdes sobre una pantalla negra. Almacenaba los datos en un casete y su teclado era complejo.

La PC de IBM no fue la primera de su familia. El primer computador personal, el MITS Altair 8800, había llegado al mercado en 1974, y le sucedieron otros dispositivos, como el modelo Apple I, en 1976, al que algunos expertos consideran como el primer computador personal auténtico.

En 1980, cuando la empresa del “Gigante Azul” reunió durante un año y en medio del más absoluto hermetismo a un equipo de ingenieros electrónicos para diseñar el modelo 5150, ya se habían vendido 200 millones de dólares del modelo Apple II, mientras que muchos comercios se vendían cientos de unidades del artesanal Tandy TRS-80, el popular computador de Radio Shack.

La compañía IBM le pidió a un grupo de doce investigadores, reunidos en un laboratorio situado en Boca Ratón, en Florida, EE.UU. que produjeran la computadora mejor y más barata que hubiera en el mercado en ese momento en un tiempo récord.

El resultado fue el PC: un equipo que sobrepasó largamente todas las expectativas, ya que se esperaban vender 240.000 unidades en un lapso de cinco años, y ese fue el número de órdenes de compara que se recibieron en el primer mes en el mercado. En 1986, el computador de IBM era el más vendido del mundo.

En 1981 ya circulaban diversos equipos personales por el mercado, como los productos basados en los microprocesadores Commodore ó Altair, pero sólo interesaban a los técnicos, expertos y entusiastas de la aún incipiente computación.

La gran revolución del PC de IBM consistió en que llegó a la gente común y corriente, a la que convenció de que la capacidad de procesar datos de una microcomputadora cambiaría su vida y su trabajo. Introdujo no sólo un producto sino también un concepto, que se popularizó con el nombre de PC y que acabó por dominar el mercado, desplazando a los de ese momento.

Así como se discute la autoría de la computación personal, al margen de los productos lanzados por las distintas compañías, también existen diversas teorías sobre las razones que impulsaron a IBM a dejar de lado su de control tecnológico para fabricar un computador cuyos componentes podían comprarse en el mercado, como el microprocesador 8088, de Intel.

Algunos directivos de la propia empresa han explicado por qué IBM se decidió a construir un computador personal. Señalan que hasta ese momento, las microcomputadoras eran considerados por la mayoría de la gente como curiosidades técnicas o juguetes sofisticados utilizados por aficionados a las computadoras, coleccionistas, o personas con altos conocimientos técnicos.

Para algunos expertos, la empresa IBM no tiene intención de festejar “por todo lo alto” el aniversario del computador que cumple 25 años, porque en el 2005 lo vendió al fabricante chino Lenovo. En cambio, buena parte de la Humanidad tiene razones para celebrar el lanzamiento de un producto, ahora omnipresente .

Saturday, August 12, 2006

Internet celebra sus 15


Para los que creen que las PC y el Internet han existido toda la vida la red mundial celebra apenas sus 15 .

En pocos años, la red se ha hecho tan familiar que es difícil imaginar la vida sin ella.
Además de nuestra familiaridad con los navegadores y marcadores, conocemos tres o cuatro cosas sobre la historia de la red.

Muchos usuarios saben, por ejemplo, que el físico británico Tim Berners-Lee la desarrolló en el Laboratorio Europeo de Física de Partículas (CERN), situado cerca de Ginebra, Suiza.
Pero los detalles sobre el crecimiento de la red mundial son poco conocidos, entre otras cosas porque todavía no se ha escrito la historia definitiva de cómo ocurrió.

Un día clave fue el 6 de agosto de 1991, hace exactamente 15 años, cuando Berners-Lee publicó su código en ciernes del World Wide Web (www) en el boletín de noticias alt.hypertext de USENET para que los demás usuarios pudieran experimentar.
Sencillez

Jeff Groff, quien colaboró con Berners-Lee en la creación del primer código, señaló que la red se basaba en una idea muy sencilla.

La visión era que los usuarios no tuvieran que preocuparse por la parte tecnológica Jeff Groff
"La visión era que los usuarios no tuvieran que preocuparse por la parte tecnológica", dijo.
La red era una capa que trataba de esconder la complejidad subyacente de los datos y documentos que proliferaban en internet.

Gracias a ese compromiso con la sencillez nacieron las direcciones que comienzan con http:// y que ahora nos resultan tan familiares.

"Islas de información"

A principios de los '90 la posibilidad de acceder por una vía común a la información almacenada en muchas computadoras diferentes tenía un gran atractivo, dijo Paul Kunz, científico del Centro del Acelerador Linear de Stanford (SLAC, por sus siglas en inglés), Estados Unidos.
Él fue el primero en establecer un servidor web fuera de Europa, en diciembre de 1991.
Hasta ese momento, según él, las computadoras eran islas de información. Con una contraseña, sólo se podía acceder a los recursos distantes de máquinas individuales.

Cambiar de computadora implicaba tener que volver a usar la contraseña y probablemente recurrir a un conjunto de comandos diferentes para buscar y obtener los datos.
Navegación Kunz comenzó a interesarse por la red cuando Berners-Lee mostró cómo se le podía emplear para consultar una base de datos de artículos sobre física, en una computadora central IBM. "Yo sabía como debían aparecer los resultados en la pantalla y eran idénticos en el navegador web", explicó Kunz.

El servidor establecido por Kunz les permitió a los físicos acceder a cerca de 200.000 resúmenes de artículos con una facilidad sin precedentes.
Esto resultó tan útil que pronto los científicos del CERN, en Europa, comenzaron a hacer búsquedas en la base de datos a través de la página web de SLAC, en EE.UU., en vez de usar la copia que tenían en su propia red.


A pesar del interés creciente de los físicos por las promesas de la red, en los primeros años muy pocas otras personas se dieron cuenta de su potencial. Kunz dice que eso se debía a que había varias otras tecnologías que desempeñaban un papel similar. Muchos utilizaban el protocolo de transferencia de archivos (FTP, por sus siglas en inglés) para obtener documentos importantes y se comunicaban escribiendo notas en los boletines de USENET.

Una tecnología estadounidense muy popular era Gopher, que en parte se llamaba así en honor a un equipo deportivo, Golden Gophers (Ardillas de tierra doradas), de la Universidad de Minnesota, donde fue creada. Gopher también les brindaba a los usuarios una forma fácil de acceder a la creciente complejidad de las computadoras conectadas a internet.
Esta tecnología se dio a conocer a principios de 1991 y, según las estadísticas, durante varios años generó mucho más tráfico en internet que la WWW.
Durante ese tiempo, Mr Berners-Lee, Jeff Groff y otros colegas vinculados al proyecto de la red mundial estaban enfrascados en dar a conocer su creación en conferencias, reuniones y en línea.

El proyecto recibió una inyección de vitalidad en abril de 1993, cuando apareció Mosaic, el primer navegador web para PC. Fue creado por Marc Andreessen en el National Center for Supercomputing Applications de la Universidad de Illinois, EE.UU., y no en CERN porque, según explicó Jeff Groff, el equipo no contaba con suficiente personal para escribir los programas de navegación para máquinas PC, Mac o Unix.

Mosaic tuvo tanto éxito que estableció muchas de las convenciones actuales de uso de la red, dijo Groff, por ejemplo el empleo de marcadores o favoritos, que no estaban incluidos en la concepción original de la red. También, en 1993 la Universidad de Minnesota comenzó a cobrar por la utilización de Gopher, lo que obligó a muchas personas a considerar seriamente otras alternativas.

Mientras que los sistemas de Gopher y FTP normalmente eran establecidos por compañías o instituciones de envergadura, y USENET no ofrecía permanencia y sus usuarios tenían que republicar sus opiniones con frecuencia, las nuevas páginas web les permitían a los interesados expresarse por medios que las demás tecnologías no facilitaban.
Vielmetti dijo que el código de la red toleraba muchos errores y estimulaba a la gente a que experimentaran con él.
"Los sitios web nos ofrecían un espacio como personas, no como entidades corporativas, y uno podía transformar una página en algo muy suyo", señaló.
Permanencia
Cada ola de interés en la red ha surgido como resultado de la aparición de herramientas que facilitan la expresión personal, por ejemplo los blogs .
La previsión de Berners-Lee y los primeros programadores posibilitó que incluso en la actualidad se pueda ver muchas de las páginas web originales.
Esa permanencia puede durar décadas.
"El destino de las PC cambió con la hoja de cálculo, el de las Mac con la edición electrónica y el de internet con la red mundial", dijo Paul Kunz.
"Tim Berners-Lee estaba tratando de resolver un problema relacionado con la física de alta energía y encontró una solución a problemas que la gente no sabía que tenía", añadió.
Sólo el principio
A fines de 1994, el tráfico de la red sobrepasó al de Gopher y nunca más volvió atrás.
En la actualidad existen unos 100 millones de sitios web y muchas personas consideran que la red e internet son indistinguibles.
Pero, según Groff, es sólo ahora que la red mundial está cumpliendo las expectativas que tenían sus creadores.
La idea original era establecer un medio que le permitiera al público leer y contribuir.
Muchas herramientas nuevas -como los sitios para compartir fotos, las redes sociales, los blogs y los wikis - están cumpliendo esa promesa temprana, dijo.
La red podrá tener alcance mundial, pero en términos reales apenas está comenzando.