sábado, 30 de abril de 2016

La imagen sabatina LXXVII


Muy buenas a todos. Este sábado celebramos un día especial, hoy es el centenario del nacimiento de Claude Shannon. El gigante de la informática Google no ha querido olvidarlo y nosotros, tampoco.

Claude Elwood Shannon fue un matemático, ingeniero eléctrico y criptógrafo estadounidense conocido como ''el padre de la teoría de la información''


Shannon nació el 30 de abril de 1916 en Petoskey, Míchigan. Estudió en la Universidad de Míchigan, donde se tituló como ingeniero eléctrico y matemático. En 1936 comenzó a trabajar como asistente de investigación en el Instituto Tecnológico de Massachusetts (MIT).

Con su trabajo fin de máster, Un análisis simbólico de circuitos conmutadores y relés, demostró que se podía usar la lógica booleana para resolver problemas mediante circuitos con interruptores encendidos, los ''1'', y apagados, los ''0''. Esta tesis fundó el diseño práctico de los circuitos digitales y revelaba el potencial del sistema binario. Este trabajo hizo que Bell Laboratories se interesase por él y que finalmente lo contratase.



Shannon trabajó durante 15 años en Bell Laboratories. Esta compañía era un punto de encuentro de grandes matemáticos y científicos de la época, como John Bardeen, Walter Houser Brattain, Harry Nyquist y William Bradford Shockley, inventores del transistor, y Warren Weaver, con quien desarrolló la teoría de la información.

En sus años de trabajo para esta compañía desarrolló la teoría de la información y la publicó con la obra Una teoría matemática de la comunicación en 1948.

Diagrama de los elementos básicos de la comunicación


La teoría de la información establece los elementos básicos de la comunicación:
  • Una fuente de información que produce el mensaje.
  • Un transmisor que opera para que el mensaje se envíe a través de un canal.
  • Un canal, el medio por el que se transmite el mensaje. La información durante su viaje, puede ser contaminada por ruido, datos inservibles que infieren en la información.
  • Un receptor que transforma la señal
  • Un destino, que puede ser una máquina o una persona.
Esta teoría desarrolla los conceptos de entropía de información o entropía de Shannon, que mide la incertidumbre de una fuente de información, determinando qué datos aportan más información, y la redundancia, propiedad de la información que consiste en tener partes que se repiten que no aportan información. También introduce el término bit, como unidad básica de información. El término ''bit'' procede de Binary Digit y fue inventado por John Tukey, que también inventó el término Computer Software.



Shannon trabajó en computación e inteligencia artificial. En 1949 publicó un trabajo sobre la programación de una computadora para jugar al ajedrez. También calculó el denominado Número de Shannon, equivalente a 10120 , que estima la complejidad del árbol de juego del ajedrez. Estima que puede haber un total de 10120 partidas diferentes posibles, aunque actualmente se calcula que son 10123 partidas posibles.

También investigó en criptografía, realizando trabajos sobre el descifrado de códigos y la seguridad de las comunicaciones.

En honor a su trayectoria como investigador, recibió premios como la Medalla de honor IEEE, entregada por el Instituto de Ingeniería Eléctrica y Electrónica, la National Medal of Science y el Premio Kioto.

Claude Shannon falleció el 24 de febrero de 2001 por Alzheimer, desapareciendo una de las mentes más brillantes del siglo XX que dejó algunos de los trabajos más influyentes que revolucionaron el mundo tecnológico.

Eso es todo por hoy. ¡Espero que os haya gustado y nos vemos en el siguiente post!

No hay comentarios:

Publicar un comentario