Generaciones y tecnologías en la informática

Ha sido sorprendente el avance de la tecnología de las computadoras desde los primeros años del siglo XX. Con el descubrimiento de nuevos dispositivos electrónicos, los avances de la programación y el desarrollo de los nuevos sistemas operativos, se han marcado fechas importantes para clasificar a las computadoras de acuerdo con sus componentes y con su capacidad de procesamiento, agrupándolas por “generaciones”, mismas que van aumentando en número a medida que se hacen nuevos descubrimientos y aplicaciones en la ciencia de la computación.

La primera generación de computadoras (entre 1951 y 1959 aproximadamente) se caracterizó por el uso de bulbos o de relevadores que propiciaban un consumo excesivo de energía eléctrica y las salas donde se instalaban requerían de costosos sistemas de enfriamiento debido al calor generado.

Los operadores ingresaban los datos por medio de tarjetas perforadas y la programación solamente se desarrollaba en “lenguaje de máquina” o “binario”. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas.

Otra característica de las computadoras de esta generación es su limitada capacidad de memoria y procesamiento. Ejecutaban los procesos de una manera netamente secuencial; es decir, toda la información debía ser almacenada en memoria antes de que el programa pudiera ser ejecutado, y no se podía alimentar a la computadora con nueva información hasta que el programa actual terminará de ejecutarse.

Generalmente se considera que empezó con la presencia de la primera computadora electrónica digital comercialmente viable la UNIVAC; esta computadora se instaló en 1951 en la oficina de censos de Estados Unidos y tuvo una gran difusión al predecir la victoria de Dwight Eisenhower sobre Adlai Stevenson en las elecciones presidenciales, con tan sólo el 5% de los votos cuantificados.

Fue hasta que ocurrió el éxito de la UNIVAC I cuando IBM se decidió a desarrollar y comercializar computadoras. El ingreso de esta empresa en este campo se dio con la IBM 701 en 1953. No obstante la IBM 650 introducida en 1954, probablemente sea la razón de que IBM disfrute de una porción considerable del mercado actual de computadoras.

El transistor es inventado en 1948 en los laboratorios Bell por John Bardeen, Walter H. Brattain y William Shockley. Este elemento podía realizar las mismas tareas que los bulbos con muchas más ventajas, por lo que éstos pronto fueron reemplazados.

La segunda generación, se inicia cuando aparecen las primeras computadoras a partir de transistores, sustituyendo a las que funcionaban con bulbos. Los laboratorios Bell construyeron en 1954 la primera computadora transistorizada, la TRADIC (Transistorized Airborne Digital Computer) cuya estructura interna incluía 800 transistores.

El cambio de tecnología logró un aumento de la confiabilidad de las computadoras en un factor de 10, así como logró disminuir el costo de los mismos, al reducir las necesidades de mecanismos de refrigeración, debido a que los transistores generan muchísimo menos calor que los tubos de vacío (bulbos). Además de estas ventajas la tecnología de los transistores incrementó significativamente la velocidad de procesamiento.

Respecto a la programación, siguen dominando las sistemas de tarjeta perforada o cinta perforada para la entrada de datos. Pero en esta época se desarrolló el primer “lenguaje de alto nivel”, el FORTRAN (FORmula TRANslator) que es muy apropiado para trabajos científicos, matemáticos y de ingeniería. Hubo otras aportaciones importantes en esta rama, como el lenguaje LISP (acrónimo de LISt Processor) que permite el manejo de símbolos y listas; pero sin duda, lo más sorprendente hasta entonces, fue el lenguaje de programación COBOL (COmmon Business Oriented Language) uno de los primeros programas que se pueden ejecutar en diversos equipos de cómputo después de un sencillo procesamiento de compilación.

Grace Murray Hopper (1906-1992), quien en 1952 había inventado el primer compilador, fue una de las principales figuras del CODASYL (COmmittee on DAta SYstems Languages), que se encargó de desarrollar el proyecto COBOL”

Otro cambio notable en las computadoras de esta generación fue su tamaño, gracias a la inclusión de memorias de ferrita (redes de núcleos que contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podrían almacenarse datos e instrucciones), reduciendo también su consumo de energía eléctrica y el calor generado, y aunque aún necesitaban los sistemas de enfriamiento, este nuevo elemento les permitía trabajar más tiempo sin presentar problemas.

En esta generación, IBM lanza sus primeros modelos de computadoras basadas en el uso de transistores, la 1401 resultó ser una de las más vendidas. Ésta era aproximadamente siete veces más rápida que el modelo 650 de la primera generación. Sin embargo, IBM no era la única empresa dedicada a la construcción y venta de computadoras, HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras y pronto hubo otras empresas en la misma rama.

Las computadoras de la segunda generación se utilizaban para gestionar los sistemas de reservación de aerolíneas, control de tráfico aéreo y simulaciones de uso general. En las empresas comenzaron a usarse en tareas de almacenamiento de registros como manejo de inventarios, nómina y contabilidad. Fueron computadoras de esta generación las que utilizó la Marina de EU para crear el primer simulador de vuelo (Whirlwind I).

Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. El principal descubrimiento fue el primer “circuito integrado” que consistió en empaquetar cientos de transistores en un delgado chip de silicio.

En lo que respecta a la programación en esta generación proliferan los lenguajes de alto nivel (más cercanos al lenguaje humano), los cuales llegaron a clasificarse en tres tipos:

– los comerciales (de los cuales el COBOL y el RPG eran los que habían tenido mayor aceptación),
– los científicos (el FORTRAN era el de mayor uso y el PASCAL el favorito en los principales centros de enseñanza),
– y los de uso general, entre los cuales destacaban el PL/1, el BASIC y el C. También se destaca la introducción de programas para facilitar el control y la comunicación entre el usuario y la computadora (sistemas operativos).

Se empiezan a utilizar los medios magnéticos de almacenamiento (cintas magnéticas de 9 canales o discos rígidos). Aunque algunos sistemas aún usan las tarjetas perforadas para la entrada de datos, las lectoras de tarjetas ya alcanzan una velocidad respetable.

Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. La IBM 360 se lanzó al mercado en abril de 1964; y tuvo tal impacto, que se fabricaron más de 30 000. Fue entonces cuando IBM se conoció como sinónimo de computación. En ese mismo año, Control Data Corporation presenta la supercomputadora CDC 6600, considerada la computadora más poderosa de la época ya que tenía la capacidad de ejecutar unos tres “millones de instrucciones por segundo” (mips). Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La fecha que marca el límite entre la tercera y la cuarta generación de las computadoras es 1971, cuando Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer “microprocesador” (chip) de 4 bits. Este chip contenía 2 250 transistores en aproximadamente 4 x 5 mm y fue bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.9

Los microprocesadores representaron un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras fabricadas con base en estos circuitos son extremadamente más pequeñas y baratas, por lo que su uso se extendió al mercado industrial.

Las PC (computadoras personales), nombre con el que se conocen a las microcomputadoras, son en la actualidad elementos comunes en oficinas, empresas, domicilios particulares, escuelas, etc., que se caracterizan principalmente por su bajo costo y su simplicidad de uso, mismas que han adquirido proporciones enormes y que han influido en la sociedad en general.

Otra de las áreas que logró un gran avance en esta generación, fue la referente a la interacción hombre–máquina. Se diseñaron interfaces gráficas más “amigables” (iconos para representar funciones, ventanas para visualizar información, etc.) mismas que facilitaban la comunicación con el usuario. También se crean otras aplicaciones, tales como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc.

Las industrias del software de las computadoras personales crecen con gran rapidez, Gary Kildall y William Gates (creadores de CP/M y de los productos de Microsoft) se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras.

Debido al gran desarrollo logrado en la miniaturización de los circuitos integrados, fue posible llevar el poder de la computación al escritorio de una oficina y hasta un maletín, incluso actualmente en los Pocket PC (computadoras de bolsillo). Sin embargo, sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, fueron desarrolladas para realizar varios cientos de millones de operaciones por segundo.

La creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, y el anuncio por parte del gobierno japonés de un proyecto que tenía por objetivo aplicar la “inteligencia artificial” (AI, Artificial Intelligence) sirven como parámetro para identificar una quinta generación de computadoras.

En particular, el concepto de procesamiento paralelo está despertando bastante interés. El concepto de paralelismo aprovecha el hecho de la existencia de varios procesos que pueden ser divididos en varios más simples y pueden ser ejecutados independientemente. La mejora en el tiempo de ejecución es una de las ventajas evidentes del procesamiento en paralelo. Sin embargo, muchas veces se hace difícil paralelizar un proceso, ya que la mente humana está acostumbrada a pensar de forma secuencial.

El llamado “programa de la quinta generación de computadoras” tenía el firme objetivo de producir máquinas con innovaciones reales que dieran al usuario la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados; además de estar compuestos por una gran cantidad de microprocesadores trabajando en paralelo, también podrían reconocer voz e imágenes y se esperaba, que aprendieran la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en “sistemas expertos” e “inteligencia artificial”. Este proyecto japonés supuestamente debería haberse concluido en 1992; sin embargo, aún no se han visto cumplidas todas las expectativas.

Pero en otros aspectos el avance ha sido significativo, por ejemplo: el almacenamiento de información ha crecido de manera exponencial al utilizar dispositivos magneto ópticos con capacidades de decenas de Gigabytes; el DVD (Digital Video Disk o Digital Versatile Disk) se convirtió en el dispositivo estándar para el almacenamiento de datos, video y sonido por esta misma razón.

Otra expectativa realizada sin interrupciones durante esta generación es la conectividad entre computadoras, que con el advenimiento de la red Internet y del Word Wide Web (www), a partir de 1994 ha adquirido una importancia vital en las empresas en general y, entre los usuarios particulares de computadoras. De ahí que se haya generado una competencia internacional por el dominio del mercado de la computación, y en un futuro se espera que la ciencia de la computación siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.

Se dice que la sexta generación se ha venido desarrollando desde principios de la década de los 90 por lo que estaríamos hablando de los más recientes avances tecnológicos, muchos de ellos aún en desarrollo, como la “inteligencia artificial distribuida”, “teoría de caos”, “sistemas difusos”, holografía”, transistores ópticos”, etc.

Las sofisticadas computadoras de este tiempo se caracterizan por contar con arquitecturas combinadas Paralelo/Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo. Se han creado computadoras capaces de realizar más de un millón de millones de “operaciones aritméticas de punto flotante por segundo” (teraflops).

Hoy en día, las redes de área mundial siguen creciendo utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes eliminando barreras de tiempo y distancia.

Fuente: Informática I de la facultad de contaduría y administración, UNAM.

Publicado en Informática

Suscríbete:

who's online