Desarrollo del computador

Tuvieron que pasar más de 30 años (tiempo durante el cual se dieron grandes descubrimientos como el tubo de vacío inventado por Lee De Forest en 1906), para que alguien retomara el interés por eliminar el tedio de los cálculos con una visión más allá de máquinas calculadoras mecánicas. Fue en 1939 cuando el físico John V. Atanasoff comenzó a trabajar en una máquina que utilizaba impulsos eléctricos para representar la información.

La idea de codificar eléctricamente la información tenía funcionando alrededor de cien años desde que se inventó el telégrafo, incluso la máquina de Hollerith utilizaba señales eléctricas; pero Atanasoff y su ayudante Clifford Berry, utilizaron las ventajas de la tecnología eléctrica para eliminar muchos dispositivos mecánicos en el funcionamiento de su nueva máquina. Utilizaron tubos de vacío (bulbos) de 3 elementos para activar o interrumpir las señales, lo que resultaba más rápido, más fiable y mucho más económico que usar ejes, engranes y palancas para realizar la misma función. Su computadora ABC (de “Atanasoff-Berry Computer”) estaba diseñada para un solo propósito: encontrar la solución a sistemas de ecuaciones lineales y su rapidez de respuesta sería alrededor de cinco veces más rápida que la de una persona utilizando una calculadora de escritorio.

Casi simultáneamente, un ingeniero alemán de nombre Konrad Zuze y su ayudante Helmut Schreyer desarrollaron un proyecto para crear una computadora de propósito general (similar a la máquina analítica de Babbage). Su creación fue la Z1, que tuvo varias versiones, y la diseñaron para efectuar tareas bajo el control de un programa de instrucciones.

Hubo un tercer proyecto independiente bajo la dirección de Howard Aiken (especialista en física y matemáticas aplicadas de la Universidad de Harvard) que fue presentado a la IBM y posteriormente recibiría el apoyo de la Marina estadounidense: un dispositivo electromecánico controlado por dispositivos que se basaban en relevadores que usaban un imán, controlado por otro circuito eléctrico, para poder moverse. Los relevadores resultaban más lentos que los bulbos, pero tenían otras ventajas respecto a éstos, no se quemaban, usaban muy poca energía y eran baratos.

Hacia el año 1939 la Universidad de Harvard firmó el convenio de trabajo con la IBM, que permitió realizar el proyecto de Aiken y que sería conocido como la primera computadora (al menos americana) funcional: la Harvard Mark I. Ésta procesaba información en cintas perforadas, demorándose un segundo por cada 10 operaciones. Medía más de 15 metros de longitud y 2,5 metros de alto. Posteriormente se construyeron dos versiones más: MARK II y MARK III.

Aunque Harvard e IBM produjeron la primera computadora electromecánica, en otras universidades trabajaban en máquinas similares, éstas llenaron rápidamente su atraso superando tecnológicamente la innovación de Aiken. Así, John Mauchley y J. Presper Eckert construían en 1946, en la Universidad de Pennsylvania, la ENIAC (Electronic Numerical Integrator And Calculator), la primera computadora electrónica diseñada con el fin de producir tablas de disparos balísticos para la artillería (calcular las trayectorias de proyectiles), una tarea de cálculo muy compleja, que estaba en funciones al final de la guerra.

El proyecto ENIAC tuvo la fortuna de contar con el talento de Jonh von Neuman, quien fue el primero en proponer la idea de almacenar los datos de entrada y el programa de la computadora en la memoria de la misma usando el código binario (codificación mediante bits; es decir, unos y ceros). Esta fue la idea que llevó finalmente a la aplicación práctica de la nueva tecnología y resolvía el problema de recablear la máquina después de realizar cada operación (debido al calor generado por los tubos de vacío). De estar forma, la ENIAC podía calcular la potencia 5000 de un número de 5 cifras y llegó a ser 1500 veces más potente que la MARK I.

Estos y otros proyectos surgidos posteriormente tenían bases de conocimiento e investigación de personas intelectuales en países distintos. Por ejemplo; en 1937 el norteamericano Claude Shannon, creador del término “bit”, demostró que la programación de las computadoras era primordialmente una cuestión de lógica, evidenciando la importancia del álgebra de Boole, a la vez que sugirió el uso de sistemas de conmutación (como en centrales telefónicas). En Gran Bretaña, Alan Turing concibió en 1937 un proyecto (teórico) de cerebro artificial. Turing había tenido una participación importante en la construcción de “Colossus“, una computadora capaz de descifrar los mensajes nazis generados por su contraparte, la máquina alemana “Enigma” y en 1947, Turing publicó el libro “Maquinaria Inteligente” donde acercándose al tema de la inteligencia artificial comparaba las computadores con el cerebro de los niños recién nacidos (listos para ser programados). Inventó la prueba de diálogo conocida con su nombre: “si no podemos distinguir entre un interlocutor vivo y una máquina, esta puede ser considerada como inteligente” (prueba de Turing).

Hasta la década de 1950 todas las computadoras eran creadas para propósitos especiales que sólo instituciones enormes como los gobiernos, los ejércitos y las universidades podían costear, pero a partir de 1951, año en que se crea la UNIVAC (Universal Automatic Computer), se da el paso hacia la comercialización y masificación de las computadoras. Las computadoras, como la ENIAC y la UNIVAC, eran tan grandes que abarcaban un gran espacio. Aún con sus enormes “cerebros electrónicos”, estas máquinas maravillosas tenían poco más de poder de cómputo que un reloj de pulsera digital o una calculadora de bolsillo modernos.

En la década de 1960, las computadoras modernas empezaron a revolucionar el mundo de los negocios (IBM en auge con su macrocomputadora sistema/360). En la década de 1970, IBM empezó a fabricar computadoras de distintos tamaños, para satisfacer distintas necesidades y presupuestos. Esto dio a las computadoras un uso más común.

Desde entonces, las computadoras continúan reduciendo su tamaño a la vez que proporcionan más potencia con menos dinero. Hoy en día, el tipo más común de computadora se llama computadora personal, o PC, porque está diseñada para ser usada por una persona a la vez. A pesar de su tamaño pequeño, la computadora personal moderna es más potente que cualquiera de las máquinas del tamaño de un cuarto de las décadas de 1950 o 1960.

Se puede decir que a principios de los 80 la mayoría de la gente tenía muy poco que ver con las computadoras, al menos de manera directa. Es decir, a pesar de que la gente llenaba formas, presentaba exámenes y pagaba cuentas computarizados, el trabajo directo y real con las computadoras era cuestión de especialistas: programadores, personal de incorporación de datos y operadores de computadoras.

Pero llegaron las microcomputadoras (PC) y todo cambió. Hoy en día casi cualquier persona debe usar una computadora, ya que es una herramienta común en todas las áreas de la vida (escribir, dibujar, hacer cálculos, etc.), gracias a ésta se han desarrollado nuevas formas de aprendizaje, ya que personas que deben permanecer en su hogar, que viajan constantemente o que trabajan en horarios inusuales, pueden tomar sus cursos por computadora a través de un enlace telefónico. También representa un medio importante para comunicarse y coincidir con personas con intereses similares a los nuestros. Toda clase de personas está haciendo uso de Internet para conocerse y compartir ideas.

Por todo lo anterior, las computadoras son imprescindibles para las personas de negocios. A la gente que hace uso de microcomputadoras o tiene acceso a una computadora más grande, se le conoce como “usuario final”. Para satisfacer sus necesidades particulares de información es necesario que esta gente aprenda a usar programas de computación en paquetes. Cuando una persona aprende a usar la computadora para satisfacer no sólo sus necesidades sino las de una empresa, entonces elevará su productividad y esto lo convertirá en un empleado más valioso.

Fuente: Informática I de la facultad de contaduría y administración, UNAM.

Publicado en Informática

Suscríbete:

who's online