Al principio fue la palabra – y la palabra fue «bit«. Te contamos la historia del genio que enseñó al mundo a comunicarse en el lenguaje de los ceros y unos.

¿Qué tienen en común una computadora, un CD, un DVD, un teléfono inteligente, un módem, un disco duro, bloques de memoria, esquemas de cifrado, música MP3, televisión de alta resolución y muchas otras tecnologías modernas? Se basan en un concepto desarrollado por Claude Shannon, el hombre al que se llama el padre de la era de la información.

Una bicicleta de una sola rueda y un telégrafo de alambre

Claude Elwood Shannon nació en la pequeña ciudad de Petoskey, Michigan, el 30 de abril de 1916, en una familia de profesora de idiomas y abogado. Era un niño bastante común, no demasiado sociable pero sí amigable.

Las cualidades del futuro inventor se manifestaron por primera vez en que Claude hacía modelos de aviones y barcos radiocontrolados, le encantaba resolver acertijos matemáticos e incluso construyó un telégrafo tomando alambre de la cerca y llevándolo a la casa de su amigo. También le gustaba andar en bicicleta de una sola rueda y hacer malabares.

Foto de Claude Shannon
Foto de Claude Shannon

Después de la escuela, Shannon ingresó a la Universidad de Michigan, donde en 1936 recibió una licenciatura en ingeniería eléctrica y matemáticas. Reflexionando sobre qué hacer después, vio un anuncio: el Instituto Tecnológico de Massachusetts (MIT) buscaba un empleado para trabajar en el analizador diferencial de Vannevar Bush, uno de los primeros ordenadores analógicos. Claude envió su solicitud y fue aceptado como asistente de investigación y estudiante de posgrado en el departamento de ingeniería eléctrica del MIT.

Ahí es donde todo comenzó a girar.

La tesis más importante de la historia

Ya en Michigan, Shannon se interesó en el álgebra booleana y en el MIT decidió aplicarla a los circuitos de conmutación de las computadoras. El resultado de sus reflexiones fue su tesis de maestría sobre «Análisis simbólico de circuitos de relés y conmutación«, en la que demostró cómo utilizar el álgebra booleana para analizar y sintetizar circuitos de relés.

«Estábamos hablando de la conmutación de circuitos, y le mostré algunos diagramas de teléfonos que tenía. De repente, y realmente no sé cómo, se le ocurrió la idea de usar el álgebra booleana.»

Amos Joel, ingeniero, ex investigador de Bell Labs y amigo de Shannon. Fuente: The Essential Message

Puede que no suene tan emocionante como la invención de internet, pero los circuitos de conmutación eran de gran importancia para la industria telefónica y luego para el desarrollo de las computadoras.

Shannon, en su trabajo, básicamente propuso la base científica para toda una esfera de la conmutación. En 1940 recibió el premio Alfred Nobel del Instituto Americano de Ingenieros Eléctricos (no confundir con el premio Nobel) por el mejor trabajo en el campo de la ingeniería publicado por un autor menor de 30 años.

Claude Shannon una foto de joven
Claude Shannon una foto de joven

«Esta es una de las tesis de maestría más importantes que se hayan escrito. Convirtió el diseño de circuitos de un arte a una ciencia.»

Herman Goldstine, informático e historiador. Fuente: New Yorker

Shannon, de 22 años, demostró cómo implementar el álgebra lógica del siglo XIX de George Boole usando circuitos electrónicos de relés e interruptores. La representación de «verdadero» y «falso», cero y uno, como interruptores abiertos o cerrados, así como el uso de puertas lógicas electrónicas para realizar operaciones aritméticas, sentaron las bases para el funcionamiento de las computadoras digitales.

«Que yo sepa, esta es la primera aplicación de métodos de lógica simbólica para resolver un problema de ingeniería tan práctico. Desde el punto de vista de la originalidad, califico el trabajo como excepcional.»

Charles Rich, secretario del Instituto Americano de Ingenieros Eléctricos. De una carta a Vannevar Bush

En esencia, Shannon en su tesis sentó las bases para el diseño de circuitos digitales, un elemento clave de la microelectrónica, sin el cual las tecnologías de la información del siglo XXI serían impensables.

«Resultó que nadie más estaba familiarizado con estas dos áreas [matemáticas e ingeniería eléctrica] al mismo tiempo. Siempre me gustó esa palabra: ‘booleana’.»

Claude Shannon en una entrevista con IEEE Spectrum

El talento matemático de Shannon, que se reveló en el MIT, a veces condujo a situaciones inesperadas. Claude se inscribió en un programa de entrenamiento de pilotos, lo que preocupó mucho al profesor responsable del curso: creía que no se podía poner al joven genio en tal riesgo.

«Estoy convencido de que Shannon no es simplemente extraordinario, sino que en realidad es casi un genio, con las mayores promesas.»

De una carta del profesor Smith al presidente del MIT, Karl Compton (11 de abril de 1939)

Criptografía: del arte a la ciencia

En 1941, Shannon se unió a Bell Labs, donde trabajó en varios proyectos para el ejército, incluyendo criptografía y codificación de voz. En 1943, el famoso matemático británico Alan Turing llegó a Bell Labs, con quien Claude habló sobre la posibilidad de crear un cerebro electrónico.

«Por alguna razón, no siempre creía en mis ideas. No creía que iba por el camino correcto.»

Claude Shannon sobre Alan Turing. The Essential Message

Después de la guerra, el trabajo de Shannon se publicó en un artículo titulado «Teoría de la comunicación de los sistemas secretos«. En él, Shannon demostró que la criptografía irrompible es posible.

Claude Shannon en un 
trabajo de investigación
Claude Shannon en un trabajo de investigación

«Este artículo creó una teoría matemática para los sistemas de secreto y tuvo un gran impacto en la criptografía. El trabajo de Shannon sobre criptografía se puede considerar como la transformación de la criptografía de un arte a una ciencia.»

Robert Gallager, profesor de ingeniería eléctrica en el MIT. Fuente: Claude E. Shannon: A Retrospective on His Life, Work, and Impact

Paralelamente a todo esto, Shannon estaba pensando sobre los temas de la comunicación y la transmisión de información. Lo hacía solo, como un pasatiempo y, aparentemente, mantenía todo su trabajo en su cabeza.

«No había borradores ni manuscritos parciales. Es notable que haya podido mantener todas sus creaciones en su cabeza.»

Robert Gallager, profesor de ingeniería eléctrica en el MIT. Fuente: Claude E. Shannon: A Retrospective on His Life, Work, and Impact

El principal descubrimiento de Claude Shannon: bits, entropía y teoría de la comunicación

Aparentemente, para 1948, Shannon había encajado todas las piezas del rompecabezas. El resultado de ocho años de reflexiones fue el artículo «A Mathematical Theory of Communication«. 77 páginas, 23 teoremas y siete apéndices con pruebas cambiaron el mundo para siempre y escribieron el nombre de Shannon en la historia.

Los Bits

El descubrimiento de Shannon consistió en que cualquier información se puede medir y codificar usando un conjunto de ceros y unos, es decir, bits. Y esto abre posibilidades casi ilimitadas para su almacenamiento, procesamiento y transmisión segura a largas distancias.

Hoy en día, la palabra «digitalización» parece un cliché manido, pero en 1948, la digitalización de la información fue un paso revolucionario. En algún momento, Shannon se dio cuenta de que se podía hacer con la información digital lo que no se podía hacer con la analógica, por ejemplo, copiar sin pérdida de calidad.

«Las huellas dactilares de Shannon están en cada dispositivo electrónico que poseemos, en cada pantalla de computadora que miramos, en cada medio de comunicación digital. Él es uno de esos individuos que transforman tanto al mundo que luego el mundo antiguo se olvida.»

James Gleick, escritor. Fuente: New Yorker
De izquierda a derecha: Julius Stratton, Norbert Wiener, Claude Shannon
De izquierda a derecha: Julius Stratton, Norbert Wiener, Claude Shannon

La Entropía

Además, Shannon introdujo el concepto de entropía como una medida de la incertidumbre en los mensajes. En términos simples, la entropía es la cantidad de dígitos binarios necesarios para codificar un mensaje.

«Lo que más me preocupaba era cómo llamarlo. Quería llamarlo ‘información‘, pero estaba demasiado usado, así que decidí llamarlo ‘incertidumbre‘. Cuando lo discutí con John von Neumann, él sugirió una mejor idea: ‘Deberías llamarlo entropía por dos razones. Primero, tu función de incertidumbre ya se usaba en mecánica estadística con ese nombre, así que ya tiene un nombre. Segundo, y lo más importante, nadie sabe qué es realmente la entropía, por lo que siempre tendrás la ventaja en una discusión’.»

Claude Shannon.
Scientific American, Vol. 225, (p. 180), 1971

Shannon imaginaba la comunicación como un flujo de mensajes que pasa por varias etapas que se pueden describir convencionalmente así:

  • Fuente de información: El lugar donde se almacena el mensaje que se debe transmitir.
  • Transmisor: Codifica el mensaje fuente en un conjunto de ceros y unos, es decir, lo convierte en un flujo de bits.
  • Canal de comunicación: La red en sí, por la que los bits viajan del remitente al receptor. En esta etapa, es posible que se pierda la calidad en forma de ruido o interferencias. Es imposible deshacerse de ellas por completo: esa es la física y no le importa lo que sintamos.
  • Receptor: Un dispositivo que decodifica el mensaje y lo convierte en una forma que las personas puedan entender.
  • Destinatario: El destino al que se debe entregar el mensaje.

En su artículo, Claude Shannon representó todo este proceso en forma de diagrama de bloques:

Modelo matemático de un sistema de comunicación
Modelo matemático de un sistema de comunicación (Wikimedia Commons)

«Todos los numerosos esquemas prácticos, radio, televisión, mensajero de palomas, se pueden dividir en partes que realizan las mismas funciones que estos bloques.»

David Slepian, colega de Shannon en Bell Labs. The Essential Message

Shannon estableció que cualquier canal de comunicación tiene un ancho de banda máximo y demostró matemáticamente que incluso en un canal ruidoso con bajo ancho de banda, se puede lograr una comunicación casi perfecta si se mantiene la velocidad de transmisión dentro del ancho de banda del canal y se utilizan esquemas de corrección de errores.

«La teoría general de la comunicación de Shannon es tan natural que parece que él descubrió las leyes universales de la comunicación, en lugar de inventarlas. Su teoría es tan fundamental como las leyes físicas de la naturaleza.»

David Tse, profesor de la Facultad de Ingeniería de la Universidad de Stanford.
Quanta Magazine

De hecho, Shannon no solo creó una teoría, sino que también describió cómo se produce y transmite la información, por lo que se le considera el padre de la teoría de la información. De ella se deduce que cualquier dato se puede transmitir eficazmente usando bits, ya sea un libro de Pushkin, un álbum de Metallica o una película de Tarantino. Esta idea es la base de la era digital de la información.

Máquinas, pequeñas máquinas y ratón

Las teorías revolucionarias fueron el resultado de la curiosidad de Shannon y el producto de su genio. Pero tan pronto como llegaba al meollo del asunto, en lugar de publicar los resultados, empezaba a buscar un nuevo problema.

Dispositivo para ensamblar un Cubo de Rubik
Dispositivo para ensamblar un Cubo de Rubik

«Una vez que encontraba las respuestas, siempre me costaba publicarlas. Hice mucho, pero nunca escribí sobre ello. Flojera. Tengo una carpeta con trabajos inacabados. Pero esto es para la mayoría de los buenos científicos que conozco. Simplemente saber por uno mismo, esa es probablemente nuestra principal motivación.»

Claude Shannon en una entrevista con la revista Omni (1987)

Su verdadera pasión era diseñar todo tipo de artilugios y hacer malabares: aparentemente, apreciaba estas actividades mucho más que preparar artículos para revistas científicas.

Instrumento para medir el tiempo de permanencia de los mazos de metal
Instrumento para medir el tiempo de permanencia de los mazos de metal para malabares en los guantes de metal que usa el malabarista

«Por supuesto, el trabajo principal de Shannon fue la teoría de la comunicación, sin la cual todavía estaríamos enviando telegramas. Pero el desarrollo de esquemas, parece, era el gran amor de Shannon. Le gustaban las pequeñas máquinas, le gustaba jugar con ellas.»

Neil Sloane, matemático que trabajó en Bell Labs. New Yorker
Computadora THROBAC que realizaba cálculos usando números romanos
THROBAC una computadora que realizaba cálculos usando números romanos

Entre los inventos icónicos de Shannon se encuentran la máquina de computación THROBAC I, que realizaba operaciones aritméticas usando números romanos, un frisbee con motor de cohete y un dispositivo para armar un Cubo de Rubik.

El clásico de la inteligencia artificial, Marvin Minsky, inspiró a Shannon en su famosa «máquina final». Funciona así: se activa el interruptor On, se abre una caja de la que sale una mano mecánica que activa el interruptor Off y vuelve a la caja.

«Máquina final» de Claude Shannon

Otro invento de Shannon es el ratón mecánico «Teseo». Teseo corría por un laberinto y memorizaba el camino. Si una persona cambiaba las paredes del laberinto, el ratón reconocía los cambios y encontraba una nueva solución. En esencia, fue uno de los primeros intentos de aprendizaje automático. Shannon también fue uno de los primeros en trabajar en el desarrollo de los principios para construir programas de ajedrez.

Claude Shannon muestra el proyecto «Teseo»

La casa de Shannon, a la que llamaba Entropy House (Casa de la Entropía), estaba literalmente llena de sus inventos, y en el garaje había unas 30 bicicletas de una sola rueda: una sin pedales, una con una rueda cuadrada y otra de una sola rueda para dos pasajeros.

Claude Shannon en una bicicleta de una sola rueda
Claude Shannon en una bicicleta de una sola rueda

«Entre las preguntas a las que intentaba encontrar respuesta, estaba: ‘¿Cuál es el tamaño mínimo de una bicicleta para que se pueda andar en ella?’ Tenía varias que eran muy pequeñas.»

Elwyn Berlekamp, profesor emérito de matemáticas de la Universidad de California en Berkeley y coautor del último trabajo de Shannon. New Yorker

Teoría de los malabares y pérdida de información

Mientras trabajaba en Bell Labs, a Shannon le gustaba pasear por los pasillos en una bicicleta de una sola rueda haciendo malabares con tres pelotas. Y incluso durante esta actividad divertida, el científico curioso se manifestó. Shannon decidió calcular cuánto tiempo los objetos permanecen en el aire y a qué altura hay que lanzarlos.

«Quería saber cuánto tiempo la pelota permanece en el aire y en la mano del malabarista, e hizo algunas mediciones con un cronómetro. Shannon fue el primero en aplicar los principios de las matemáticas a los malabares.»

Arthur Lubel, profesor de economía en el Boston College. The Essential Message

Basándose en estas investigaciones, Shannon creó su teorema sobre los malabares e incluso escribió un artículo para la revista Scientific American. Sin embargo, los editores pidieron algunas correcciones, pero aparentemente Shannon tenía pereza, por lo que el artículo nunca se publicó.

Claude Shannon haciendo malabares
Claude Shannon haciendo malabares

Shannon desarrolló una estrategia compleja para ganar a la ruleta, aprovechando las pequeñas desventajas en la rueda de la ruleta. Formuló varias teorías sobre el crecimiento de las inversiones y probablemente habría hecho muchas cosas más, si no fuera por la enfermedad.

Foto de mazo para malabares
Foto de mazo para malabares

En la década de 1990, Shannon fue diagnosticado con la enfermedad de Alzheimer. Y en esto se puede ver una cruel ironía del destino: el hombre que estudió la información y la comunicación comenzó a perder sus recuerdos y su capacidad de comunicarse. Los últimos años de su vida los pasó en un hospital privado y murió el 24 de febrero de 2001 a la edad de 84 años.

«Cuando vi a Claude por última vez, la enfermedad de Alzheimer se había apoderado de él. Por triste que sea ver cómo se apaga lentamente la luz de alguien, es especialmente cruel el destino de un genio. Y a pesar de la pérdida de memoria y de la razón, seguía siendo tan cálido, amigable y divertido como la primera vez que lo conocí.»

Arthur Lubel, profesor de economía en el Boston College. The Essential Message

Es imposible sobreestimar la contribución de Shannon al desarrollo de las tecnologías de la información. Sus ideas viven en cada tecnología que usamos hoy: desde relojes inteligentes hasta sondas espaciales, desde teléfonos inteligentes hasta internet, desde computadoras personales hasta inteligencia artificial.

En general, 01010010 01001001 01010000 00100000 01000011 01101100 01100001 01110101 01100100 01100101 00100000 01010011 01101000 01100001 01101110 01101110 01101111 01101110.

Categorizado en:

Fundamentos,