En 1847 se publicó el libro “Las Leyes del Pensamiento” por el inglés George Boole con una innovadora idea. Proponía que la lógica humana puede formalizarse matemáticamente utilizando los conceptos de Falso, Verdadero y tres operaciones básicas: conjunción (?), disyunción (?) y negación (~). Si hay dos proposiciones P y Q, que pueden ser Falsas o Verdaderas, la combinación de estas puede ser Falsa o Verdadera, dependiendo de las operaciones utilizadas.
Si P= “el cielo es verde” (Falso) y Q= “el agua moja” (Verdadero), la conjunción P?Q, “El cielo es verde y el agua moja” es Falsa. Pero la disyunción, P?Q, “El cielo es verde o el agua moja”, es una proposición Verdadera. La negación (~) es sencilla: la negación de algo Falso es Verdadero y viceversa.
Toda su obra se puede resumir con el siguiente par de ecuaciones:
~(P?Q) = (~P)?(~Q)
~(P?Q) = (~P)?(~Q)
Al principio solo una curiosidad académica, esta nueva matemática produjo su impacto cuando en el siglo XX unos ingenieros rusos y norteamericanos notaron que podían implementarla con interruptores eléctricos. Un switch apagado era Falso (0) y uno encendido era Verdadero (1). Adicionalmente, descubrieron que podían representar cualquier número utilizando los mismos 1 y 0. ¿Cómo?
Con las potencias de 2. Usted puede representar el número 25 con la secuencia 11001 si piensa que cada una de las posiciones representa una de las potencias de 2. Esa convención le da lo siguiente: (1)x24 + (1)x23 + (0)x22 + (0)x21 + (1)x20 = 25. De la misma forma, el número 56 estaría representado con 111000 o el número 34,167 con 1000010101110111.
El mundo estaba ahora frente a dos ideas fantásticas: las operaciones de Boole hechas con interruptores eléctricos y la representación de cualquier número con 0 y 1. Estos ingenieros habían inventado los fundamentos de la electrónica digital, que ha hecho posible la Era de la Información.
Una de las primeras computadoras diseñada con estas ideas fue la ENIAC en 1945, utilizada para cálculos balísticos de las fuerzas armadas de EE. UU. Pesaba 30 toneladas, ocupaba el espacio de una cancha de tenis y era 5 millones de veces más lenta que un iPhone. Los interruptores era unos tubos al vacío, grandes, ineficientes y poco confiables. Aunque los diseños fueron mejorando, la tecnología dio el salto exponencial solo hasta que llegó un milagroso componente: el transistor.
El transistor es tan revolucionario que ganó el Premio Nóbel en 1956. Es un minúsculo arreglo de elementos semiconductores como el silicio y germanio que los físicos notaron podía controlarse con un pequeño voltaje para dejar pasar una corriente. En otras palabras, ¡un interruptor! Pequeño, eficiente, y confiable, pronto se adoptó para construir una segunda generación de máquinas. La primera computadora comercial de transistores la fabricó IBM en 1955; tenía 3,000 transistores, grande como un sofá y, aunque más rápida que ENIAC, aún era 400,000 veces más lenta que un iPhone.
Las computadoras modernas siguen funcionando con transistores. Pero ahora se fabrican de forma microscópica, tan pequeños que el procesador de su iPhone funciona con 26 millones empacados en un espacio de 3 centímetros cuadrados.
Es importante notar que todos los avances modernos son producto de fenomenales cadenas de ideas. Nadie podía imaginar que una matemática de 170 años de antigüedad iba ser implementada un siglo después por ingenieros, utilizando descubrimientos científicos en química y física, para crear máquinas que luego serían vendidas por empresas enormes como IBM, Google, Facebook o Apple. A través de internet, hoy las computadoras transmiten miles de millones de 1’s y 0’s cada segundo; son los sencillos Falsos y Verdaderos con los que Boole quiso representar la lógica humana.
(Para entender mejor cómo funcionan las operaciones de Boole y ver fotografías de las generaciones de computadoras, visite el sitio web: http://52ecuaciones.xyz).
Ingeniero Aeroespacial
salvadoreño,
radicado en Holanda.