Supercerebros de silicio
Fecha Monday, 08 December a las 15:12:37
Tema Ciencia y Tecnología


La vida, que se manifiesta en una extensa e increíblemente diversificada variedad de organismos vivos, tiene en el carbono su elemento químico fundamental. Se trata de un elemento no metálico cuyas combinaciones con el hidrógeno, el oxígeno y el nitrógeno son esenciales en la materia viva y son estudiadas por la química orgánica.

Desde hace alrededor de medio siglo otro elemento químico no metálico, el silicio, ha comenzado a desempeñar un rol transformador, revolucionario. Muy abundante en la naturaleza -representa un 28% de la corteza terrestre-, se ha constituido en el material básico de la tecnología microelectrónica. Con procesos de fabricación altamente elaborados, es la tecnología de fabricación de los circuitos integrados, usualmente llamados chips ; en ellos los transistores se graban sobre pequeñas placas de silicio muy puro. Se construyen así los microprocesadores y memorias, utilizados profusamente en computadoras, sistemas de comunicación y dispositivos electrónicos. El silicio es el corazón material de toda la moderna tecnología electrónica. Es interesante señalar que en la tabla periódica de los elementos químicos, conocida como tabla de Mendeleyev, el carbono y el silicio pertenecen al mismo grupo de elementos, dado que tienen el mismo número de electrones en la capa externa de los átomos y, en consecuencia, el comportamiento químico de ambos es similar. Inventado a fines de la década del cincuenta, el chip ha tenido un extraordinario progreso en lo que respecta a la cantidad de transistores grabados sobre las placas de silicio. Esa cantidad, 3500 en 1972, alcanzó los 7.500.000 un cuarto de siglo después, en 1997. Esa progesión se ajusta a la ley de Gordon Moore, cuya versión actual dice que la cantidad de transistores se duplica cada dos años. Con mayor cantidad de transistores en los chips aumenta la velocidad de cálculo de las computadoras. Esa velocidad ha alcanzado, en las supercomputadoras, los mil millones de operaciones aritméticas por segundo. El continuo aumento de la velocidad de operación y, simultáneamente, de la capacidad de las memorias se ha traducido en una creciente capacidad de las computadoras para resolver problemas complejos y con mayor volumen de operación. De ahí la aparición de programas que han permitido solucionar problemas en áreas tan diversas como el ajedrez, la investigación científica, la comprensión del lenguaje natural, la traducción de idiomas y la demostración de teoremas. Ya en 1957, A. Newell, J. C. Shaw y H. Simon crearon el programa Solucionador General de Problemas y demostraron en forma original algunos teoremas de teoría de conjuntos planteados por los célebres matemáticos B. Russell y A. N. Whitehead. Pasadas cuatro décadas, la computadora Deep Blue derrotó al campeón mundial de ajedrez Gary Kasparov. En el intervalo, muchas otras realizaciones -entre las cuales corresponde citar los sistemas expertos , con excelentes aplicaciones en la medicina- fueron conformando la disciplina denominada inteligencia artificial. No obstante, y a pesar de la breve y sorprendente, a veces espectacular, historia de realizaciones, las computadoras no demuestran inteligencia cuando enfrentan la ejecución de numerosos problemas. Se estima que dicha insuficiencia se debe a que las actuales computadoras son todavía mucho menos complejas que el cerebro humano. Este último tiene alrededor de 100.000 millones de neuronas y, con un promedio de mil conexiones entre cada neurona y sus vecinas, alcanza un total de 100 billones de conexiones, con capacidad para acciones simultáneas. Esta estructura neuronal del cerebro es increíblemente más lenta que la computadora digital en el cálculo aritmético, pero sus formas masivas de operar superan ampliamente a las computadoras en muchos procesos, entre ellos los requeridos para el reconocimiento de formas , por ejemplo, la identificación de la figura de un pájaro en la fotografía de un paisaje. Sin embargo, todo indica que esa desventaja será superada por los avances que se lograrán en las próximas décadas en dos aspectos. En primer término, la microelectrónica producirá gigachips, es decir, se integrarán 1000 millones de transistores en un chip; por otra parte se diseñarán y fabricarán circuitos integrados, y computadoras, capaces de funcionar como redes de neuronas. En función de estos desarrollos se estima que alrededor de 2020 el hardware -estructura física- de las computadoras tendrá una complejidad similar a la del cerebro humano. Y, además, esa potencia de proceso ocupará un espacio del tamaño de una caja de zapatos y su costo oscilará en los mil dólares. No obstante, ése no es el fin de la historia; los avances continuarán con la tecnología microelectrónica o con alguna tecnología alternativa como la cuántica, y el hardware de las computadoras será miles o millones de veces más complejo que el cerebro humano El célebre físico inglés Stephen Hawking reseñó en 1998 la evolución futura de las computadoras: "En la actualidad las computadoras no muestran signos de inteligencia. Esto no es sorprendente, porque nuestras computadoras son menos complejas que el cerebro de un gusano. Pero me parece que si las muy complicadas moléculas químicas pueden operar en los seres humanos y hacerlos inteligentes, entonces los circuitos electrónicos igualmente complicados pueden también hacer que las computadoras actúen en forma inteligente". En síntesis, el advenimiento de los supercerebros de silicio hará posible la solución de problemas actualmente inabordables en ciencia, ingeniería y medicina y la robotización modificará profundamente el trabajo en las industrias y los servicios. Es muy difícil prever la naturaleza precisa de los cambios que se producirán, pero serán impactantes y no exentos de consecuencias no deseadas. El autor es miembro de la Academia Nacional de Ingeniería y del consejo académico del Instituto Tecnológico de Buenos Aires. Por Eitel H. Lauría
Para LA NACION

El autor es miembro de la Academia Nacional de Ingeniería y del consejo académico del Instituto Tecnológico de Buenos Aires.
LA NACION - 5 de Diciembre de 2003 http://www.lanacion.com.ar/03/12/05/do_551615.asp





Este artículo proviene de Portal AAIQ
http://www.aaiq.org.ar

La dirección de esta noticia es:
http://www.aaiq.org.ar/modules.php?name=News&file=article&sid=172