Pensándolo bien...
Los ámbitos científicos están bien separados. La delimitación entre Ciencias, Matemáticas e Ingenieria está bien establecida. Es un mito eso de que todas están en todos los temas. Algunos aplican la sinécdoque literaria en el que se toma la parte por el todo y se apropian de otras parcelas propias de otros ámbitos científicos. Confundir la resolución de una ecuación de autovalores con la mecánica cuántica, no deja de ser una metonimia, pongamos por caso, no deja de ser tomar la cosa por lo que hace. Cada entorno científico tiene su parcela de actuación y aplicación y se reconoce su ámbito de existencia con nitidez.
Solo en raras ocasiones confluyen los elementos científicos diversos, necesarios para acometer una línea de enfoque para la resolución de problemas. Una de las que podemos destacar está relacionada con la teoría de la información y la figura de su promotor Claude Shannon. Estableció las bases estructurales que subyacen en la moderna edad de la información. Estudió ingeniería eléctrica y matemáticas en la Universidad de Michigan y la Tesis de Master la desarrolló en el MIT sobre álgebra booliana enfocada al análisis y síntesis de circuitos de interruptores. Fue el origen del diseño de los circuitos digitales. Una década después, en 1948, el año prodigioso de la década prodigiosa, publicó el trabajo titulado Una teoría matemática de la comunicación.
Para Shannon, la comunicación es una necesidad humana y su empelo es que esa comunicación tenga el mayor alcance, lo más rápido y lo más fiable posible. La cuestión era que la ingeniería de los sistemas de comunicación, estaba siempre ligada a una fuente concreta y al medio físico interpuesto. Shannon pretendió formular una teoría unificada de la comunicación. Un auténtico modelo de comunicación: el transmisor codifica la información en una señal que, debido al ruido se corrompe y, posteriormente, es decodificada por el receptor. Aparecen, al tiempo, los conceptos de señal y ruido, que hay que aislarlos. Imaginó que la fuente de información genera el mensaje a comunicar y agrega el ruido de forma probabilística para, posteriormente, alcanzar el receptor y ser de nievo separado. Inicialmente, este problema se había enfocado de forma determinista, de cara a reconstruir la señal. El genio de Shannon planteó que la clave es la incertidumbre. Esto, aunque parezca irrelevante, implica desplazar el problema de la comunicación desde el ámbito físico al entorno abstracto. Son palabras mayores, porque requieren la modelización de la incertidumbre haciendo uso de la probabilidad. Hemos trasladado el problema de una Ciencia a la Matemática.
En el entorno abstracto, Shannon planteó la determinación sistemática del límite de la comunicación. Introdujo tres conceptos relevantes: bit (binary digit), como unidad básica de incertidumbre, razón de entropía, H, para cuantificar la incertidumbre en la generación de un mensaje a comunicar y capacidad de comunicación fiable del sistema, C. El concepto de bit no está ligado al soporte físico en el que se expresa, sino a la información que conlleva el estado en el que el soporte se encuentra. No es el 1 o el 0 en la codificación binaria, sino la información que conlleva cualquiera de los dos estados. El número mínimo de bits por segundo para representar una información lo denominó razón de entropía. El valor más bajo de esta magnitud, la menor incertidumbre representa la mayor compresión posible de un mensaje. Un ejemplo lo aclara: escribir un mensaje a razón de 50 letras del alfabeto castellano por minuto, significa enviar uno de los 2750 posibles mensajes cada minuto, conformados por una secuencia de 50 letras. Pensándolo bien, esas opcipnes se pueden codificar en 238 bits, dado que 2238 ~ 2750. En el contexto de la teoría de Shannon, la razón (velocidad) de entropía será de 238 bits por minuto. Dado que algunas de las secuencias de letras son más probables que otras, de cara a tener significado, la razón de entropía será menor y la compresión posible será mayor.
En el fondo, Shannon proporcionó una fórmula que concretaba el número máximo de bits por segundo que era posible comunicar con fiabilidad, lo que denominó Capacidad del sistema, C. Este número indica la velocidad máxima a la que un receptor puede resolver la incertidumbre de un mensaje y por tanto es la velocidad límite de comunicación. Esto lleva a la consideración de que en una comunicación fiable, que parte de una fuente que se enfrfenta a un ruido que se va a superponer, solamente será fiable si se cumple que H < C. Como si se tratara de un fluido en el que, si la velocidad de ingreso de agua en un depósito es inferior a su capacidad de desague, el flujo de entrada puede ser constante, sin problemas. Aquí podemos apreciar la dualidad en la que, al tiempo, se formula una teoría de la comunicación, pero, al mismo tiempo, es una teoría de la información dado que concreta como se produce y transfiere ésta. Shannon, también es el padre de la teoría de la información.
Este fin de semana tuve la ocasión de “saborear” una de esas realizaciones endemoniadas en arquitectos que diseñan lugares de concurrencia pública sin dedicar la más minima etención al hecho de que son personas las que van a asistir y que tienen que comunicarse. Y eso se hace, por los humanos, hablando, primordialmente. Resulta muy penoso no poderlo hacer en una cena a la que van unos cuantos asistentes. Alguien debería vigilar estas cosas con cierto rigor y no permitir abusos por dejación, falta de conocimiento o el mas minimo interés en hacer las cosas de forma aceptable. Pues bien, situémonos en un lugar muy ruidoso, como la inmensa mayoría de los restaurantes conocidos, estrellados o no, el interrogante es: cómo podemos asegurar que nuestro mensaje es trasmitido de forma conveniente. Un recurso es repetirlo muchas veces, al que solemos acudir en un restaurante como primera providencia, pero resulta poco eficiente. Seguro que al repetirlo muchas veces, la comunicación es más fiable, pero lo que sacrificamos es la velocidad en aras de la fiabilidad. Shannon, nos recomienda otra cosa mejor, porque repetir un mensaje consiste en usar una y otra vez el mismo código, pero si usamos códigos mas sofisticados, lo podremos hacer más rápido, siempre que no superemos el limite de velocidad de transmisión, dado por la capacidad, C, ya que aseguraremos mantener la fiabilidad. En un restaurante incorporaríamos signos, manos fundamentalmente, y llegado el caso, pasaríamos al texto escrito. ¡Menuda faena!
Una derivada de la teroria de Shannon es la apreciación de la naturaleza de la información. Todo indica que lo mas eficiente es codificar en binario antes de transmitir desde cualquier fuente. Em una emisión de radio de forma analógica, que es muy usual todavía en estos momentos, Shannon nos advierte que se optimiza si la señal se digitaliza en bits y el mapa de bits es el que se hace cabalgar sobre la onda electromagnética. Hoy puede aceptarse como razonable, pero en la época en la que fue formulado era sorprendente la propuesta. Al final, cuando se contempla con visión retrospectiva, la aportación de Shannon resulta natural, como si se tratara de una ley universal de la comunicación, respondiendo a leyes físicas de la Naturaleza, como una ley fundamental más. Esta aportación es la que acredita como científico al autor y a su trabajo.
Por si esto no fuera suficiente, Shannon tuvo que inventar la matemática nevesaria para describir las leyes de la comunicación. Su aportación está permeada de nuevas ideas, razón de entropía de un modelo probabilístico, que después ha sido aplicado a ramas de la matemática, como la teoría ergódica, para estudiar el comportamiento de sistemas dinámicos a largo plazo. Shannon muestra su lado matemático.
Y, todavía mas, en esta disección de ámbitos de aportación, consideremos el ámbito ingenieril. Su aportación generó problemas prácticos, que hoy son sistemas básicos subyacentes en todos los sistemas de comnunicacion, desde ópticos, hasta interplanetarios, comunicación inalámbrica o la actual 5G, cuyos limites siguen regidos por las leyes de limite de velocidad de Shannon.
Una auténtica confluencia científica de ámbitos en un investigador. Cualquier suplantación resultaría inapropiada. No es corriente que el caso se dé como se ha relatado. Solamente los genios destacan, especialmente, al hacer contribuciones desde distintos entornos científicos. Puede parecer trivial, pero es complejo delimitar el ámbito de las aportaciones, sobre todo cuando se quiere confundir. Solo el concepto genérico de Ciencia es comprensible e integrador. Las aportaciones son limitadas contribuciones desde un punto de vista particular. Algunos investigadores están llamados a condensar, aunar conocimientos, entrelazar ideas y entonces es cuando surgen los avances significativos. Normalmente, son las aportaciones individuales anteriores a la formulación de grandes teorías. Por cierto, hace tiempo que navegamos en un desierto de propuestas de este tipo. Puede que se estén cocinando. Siempre hay esperanza de que algunos de los grandes problemas encuentren solución. Claro que, también es difícil que alguien como Hilbert, venga a enunciarlos, como hiciera en el congreso de 1900 en París, en el que anunció su famosa lista de 23 problemas abiertos en Matemáticas, después llamados los problemas de Hilbert. La Ciencia es amplia y requiere de amplias miras. Pero avanza, que es lo importante.
Solo en raras ocasiones confluyen los elementos científicos diversos, necesarios para acometer una línea de enfoque para la resolución de problemas. Una de las que podemos destacar está relacionada con la teoría de la información y la figura de su promotor Claude Shannon. Estableció las bases estructurales que subyacen en la moderna edad de la información. Estudió ingeniería eléctrica y matemáticas en la Universidad de Michigan y la Tesis de Master la desarrolló en el MIT sobre álgebra booliana enfocada al análisis y síntesis de circuitos de interruptores. Fue el origen del diseño de los circuitos digitales. Una década después, en 1948, el año prodigioso de la década prodigiosa, publicó el trabajo titulado Una teoría matemática de la comunicación.
Para Shannon, la comunicación es una necesidad humana y su empelo es que esa comunicación tenga el mayor alcance, lo más rápido y lo más fiable posible. La cuestión era que la ingeniería de los sistemas de comunicación, estaba siempre ligada a una fuente concreta y al medio físico interpuesto. Shannon pretendió formular una teoría unificada de la comunicación. Un auténtico modelo de comunicación: el transmisor codifica la información en una señal que, debido al ruido se corrompe y, posteriormente, es decodificada por el receptor. Aparecen, al tiempo, los conceptos de señal y ruido, que hay que aislarlos. Imaginó que la fuente de información genera el mensaje a comunicar y agrega el ruido de forma probabilística para, posteriormente, alcanzar el receptor y ser de nievo separado. Inicialmente, este problema se había enfocado de forma determinista, de cara a reconstruir la señal. El genio de Shannon planteó que la clave es la incertidumbre. Esto, aunque parezca irrelevante, implica desplazar el problema de la comunicación desde el ámbito físico al entorno abstracto. Son palabras mayores, porque requieren la modelización de la incertidumbre haciendo uso de la probabilidad. Hemos trasladado el problema de una Ciencia a la Matemática.
En el entorno abstracto, Shannon planteó la determinación sistemática del límite de la comunicación. Introdujo tres conceptos relevantes: bit (binary digit), como unidad básica de incertidumbre, razón de entropía, H, para cuantificar la incertidumbre en la generación de un mensaje a comunicar y capacidad de comunicación fiable del sistema, C. El concepto de bit no está ligado al soporte físico en el que se expresa, sino a la información que conlleva el estado en el que el soporte se encuentra. No es el 1 o el 0 en la codificación binaria, sino la información que conlleva cualquiera de los dos estados. El número mínimo de bits por segundo para representar una información lo denominó razón de entropía. El valor más bajo de esta magnitud, la menor incertidumbre representa la mayor compresión posible de un mensaje. Un ejemplo lo aclara: escribir un mensaje a razón de 50 letras del alfabeto castellano por minuto, significa enviar uno de los 2750 posibles mensajes cada minuto, conformados por una secuencia de 50 letras. Pensándolo bien, esas opcipnes se pueden codificar en 238 bits, dado que 2238 ~ 2750. En el contexto de la teoría de Shannon, la razón (velocidad) de entropía será de 238 bits por minuto. Dado que algunas de las secuencias de letras son más probables que otras, de cara a tener significado, la razón de entropía será menor y la compresión posible será mayor.
En el fondo, Shannon proporcionó una fórmula que concretaba el número máximo de bits por segundo que era posible comunicar con fiabilidad, lo que denominó Capacidad del sistema, C. Este número indica la velocidad máxima a la que un receptor puede resolver la incertidumbre de un mensaje y por tanto es la velocidad límite de comunicación. Esto lleva a la consideración de que en una comunicación fiable, que parte de una fuente que se enfrfenta a un ruido que se va a superponer, solamente será fiable si se cumple que H < C. Como si se tratara de un fluido en el que, si la velocidad de ingreso de agua en un depósito es inferior a su capacidad de desague, el flujo de entrada puede ser constante, sin problemas. Aquí podemos apreciar la dualidad en la que, al tiempo, se formula una teoría de la comunicación, pero, al mismo tiempo, es una teoría de la información dado que concreta como se produce y transfiere ésta. Shannon, también es el padre de la teoría de la información.
Este fin de semana tuve la ocasión de “saborear” una de esas realizaciones endemoniadas en arquitectos que diseñan lugares de concurrencia pública sin dedicar la más minima etención al hecho de que son personas las que van a asistir y que tienen que comunicarse. Y eso se hace, por los humanos, hablando, primordialmente. Resulta muy penoso no poderlo hacer en una cena a la que van unos cuantos asistentes. Alguien debería vigilar estas cosas con cierto rigor y no permitir abusos por dejación, falta de conocimiento o el mas minimo interés en hacer las cosas de forma aceptable. Pues bien, situémonos en un lugar muy ruidoso, como la inmensa mayoría de los restaurantes conocidos, estrellados o no, el interrogante es: cómo podemos asegurar que nuestro mensaje es trasmitido de forma conveniente. Un recurso es repetirlo muchas veces, al que solemos acudir en un restaurante como primera providencia, pero resulta poco eficiente. Seguro que al repetirlo muchas veces, la comunicación es más fiable, pero lo que sacrificamos es la velocidad en aras de la fiabilidad. Shannon, nos recomienda otra cosa mejor, porque repetir un mensaje consiste en usar una y otra vez el mismo código, pero si usamos códigos mas sofisticados, lo podremos hacer más rápido, siempre que no superemos el limite de velocidad de transmisión, dado por la capacidad, C, ya que aseguraremos mantener la fiabilidad. En un restaurante incorporaríamos signos, manos fundamentalmente, y llegado el caso, pasaríamos al texto escrito. ¡Menuda faena!
Una derivada de la teroria de Shannon es la apreciación de la naturaleza de la información. Todo indica que lo mas eficiente es codificar en binario antes de transmitir desde cualquier fuente. Em una emisión de radio de forma analógica, que es muy usual todavía en estos momentos, Shannon nos advierte que se optimiza si la señal se digitaliza en bits y el mapa de bits es el que se hace cabalgar sobre la onda electromagnética. Hoy puede aceptarse como razonable, pero en la época en la que fue formulado era sorprendente la propuesta. Al final, cuando se contempla con visión retrospectiva, la aportación de Shannon resulta natural, como si se tratara de una ley universal de la comunicación, respondiendo a leyes físicas de la Naturaleza, como una ley fundamental más. Esta aportación es la que acredita como científico al autor y a su trabajo.
Por si esto no fuera suficiente, Shannon tuvo que inventar la matemática nevesaria para describir las leyes de la comunicación. Su aportación está permeada de nuevas ideas, razón de entropía de un modelo probabilístico, que después ha sido aplicado a ramas de la matemática, como la teoría ergódica, para estudiar el comportamiento de sistemas dinámicos a largo plazo. Shannon muestra su lado matemático.
Y, todavía mas, en esta disección de ámbitos de aportación, consideremos el ámbito ingenieril. Su aportación generó problemas prácticos, que hoy son sistemas básicos subyacentes en todos los sistemas de comnunicacion, desde ópticos, hasta interplanetarios, comunicación inalámbrica o la actual 5G, cuyos limites siguen regidos por las leyes de limite de velocidad de Shannon.
Una auténtica confluencia científica de ámbitos en un investigador. Cualquier suplantación resultaría inapropiada. No es corriente que el caso se dé como se ha relatado. Solamente los genios destacan, especialmente, al hacer contribuciones desde distintos entornos científicos. Puede parecer trivial, pero es complejo delimitar el ámbito de las aportaciones, sobre todo cuando se quiere confundir. Solo el concepto genérico de Ciencia es comprensible e integrador. Las aportaciones son limitadas contribuciones desde un punto de vista particular. Algunos investigadores están llamados a condensar, aunar conocimientos, entrelazar ideas y entonces es cuando surgen los avances significativos. Normalmente, son las aportaciones individuales anteriores a la formulación de grandes teorías. Por cierto, hace tiempo que navegamos en un desierto de propuestas de este tipo. Puede que se estén cocinando. Siempre hay esperanza de que algunos de los grandes problemas encuentren solución. Claro que, también es difícil que alguien como Hilbert, venga a enunciarlos, como hiciera en el congreso de 1900 en París, en el que anunció su famosa lista de 23 problemas abiertos en Matemáticas, después llamados los problemas de Hilbert. La Ciencia es amplia y requiere de amplias miras. Pero avanza, que es lo importante.
© 2023 Academia de Ciencias de la Región de Murcia