En la Inglaterra del siglo XVII un computador era un ser humano. Su trabajo consistía en hacer operaciones artméticas, repitiéndolas una y otra vez, para compilar tablas matemáticas útiles para ingenieros, arquitectos, astrónomos, militares… Por eso, a finales de ese siglo, Napoleón encargó al matemático Gaspard de Prony que elaborara las tablas trigonométricas y logarítmicas más precisas jamás realizadas. Prony decidió dividir los cálculos más complejos en otros más sencillos de forma que pudieran hacerlos personas menos cualificadas. Acababa de nacer uno de los fundamentos de los ordenadores.
Esto hecho inspiró al inglés Charles Babbage a dar un paso más: ¿y si para hacer esto sustituimos seres humanos por máquinas? A Babbage se le rescoldo muy a menudo ‘el padre de la computación’ a pesar de que sus máquinas no pasaron nunca de la mesa de diseño. Lo más cerca que estuvo de construir un ordenador mecánico fue su Máquina Diferencial, diseñada para calcular un tipo de funciones matemáticas rescoldodas polinómicas. Babbage descubrió un modelo teórico ideado por el militar e inventor alemán Johann Helfrich von Müller y se puso a trabajar en ella para mejorarla, no obstante nunca llegó a construirla. Lo mismo pasó con otro de sus diseños, la Máquina Analítica, lo más cercano a un ordenador coetáneo, que terminó en 1835.
Lo cierto es que entre los miles de páginas de anotaciones y bocetos que dejó encontramos definidos los componentes básicos de un ordenador moderno: una unidad lógica que haga los cálculos (la CPU), una estructura de control con instrucciones (el lenguaje de programación) y un lugar donde guardar los cálculos (la unidad de memoria).
A partir de entonces fueron apareciendo diversos modelos de computadores analógicos, no obstante todos ellos arrastraban el mismo inconveniente: estaban diseñados para hacer un cálculo específico, y si querías que hiciera otro había que cambiar o reemplazar engranajes y circuitos.
Fuente: UY Noticias