02 Fundamentos de la teoría de la información

desde principios de la década de los cincuenta, el tema de la información ha ido despertado el interés de los científicos de tal forma que, en cierta ...

5 downloads 292 Views 83KB Size
Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

Fundamentos básicos de la Teoría de la Información Dr. Mario Pérez Gutiérrez Observatori de la Comunicació Científica Universitat Pompeu Fabra y Departamento de Lógica y Filosofía de la Ciencia Universidad Complutense de Madrid E-mail: [email protected]

1. Introducción Desde los orígenes de la historia de la humanidad, las civilizaciones se han ido transformando y estructurando alrededor de los logros conseguidos a partir del aprovechamiento de una tecnología particular. El impacto de las técnicas de transformación derivadas del fuego, del carbón o del petróleo, desde el campo de la energía, o el progreso continuo que se ha producido en el ámbito de la producción industrial con el descubrimiento de nuevos y mejores materiales como el plástico o los superconductores son claros ejemplos de este fenómeno estructurador y transformador. Hoy en día, nuestra sociedad, a diferencia de otras anteriores, ya no se articula exclusivamente alrededor de algo tan material como una fuente energética o un conjunto de materias primas, sino que se encuentra protagonizando un proceso vertiginoso en el que todo comienza a estructurarse a partir de un serie de avances técnicos —de naturaleza más etérea, por así decirlo— que los expertos han convenido en denominar “tecnologías de la información”. La influencia de este tipo de tecnologías en nuestras vidas está alcanzando proporciones considerables. Nuestras relaciones políticas, las económicas, las sociales e incluso las personales se encuentran cada día más mediatizadas por eso que llaman “información”. Cientos de empresas se dedican a la compra, a la venta, al almacenamiento y a la gestión de información. Los gobiernos invierten muchos recursos para conseguir el control administrativo y policial de la población haciendo acopio de información personal. Millones de personas se encuentran relacionadas laboralmente de una manera estrecha con algún tipo de proceso en el que se ve envuelta la gestión de flujo informativo. Y en una carrera obsesiva por el progreso en el campo de esas tecnologías continuamente aparecen nuevos avances que están llegando a provocar profundos cambios en nuestras estrategias comunicativas personales y colectivas, en nuestro ocio y, en definitiva, en nuestra realidad más cotidiana. Este proceso se ha instalado de tal manera en nuestra cultura que incluso está provocando que la civilización contemporánea comience a ser identificada como la “sociedad de la información”. Pero el impacto de esas tecnologías y, en general, del fenómeno de la información no sólo se subscribe a esas parcelas de la actividad humana que acabamos de nombrar, sino que también se ve reflejado en el ámbito de lo teórico y de la investigación. De un tiempo a esta parte, especialmente desde principios de la década de los cincuenta, el tema de la información ha ido despertado el interés de los científicos de tal forma que, en cierta manera, ha llegado a vertebrar el panorama académico e intelectual contemporáneo. No existe disciplina alguna, ya sea del ámbito de lo que tradicionalmente se ha considerado como las Ciencias de la Naturaleza o de la parcela de la Ciencias Sociales, en la que no se apueste por un tratamiento o una mirada hacia este lugar común. En las Ciencias de la Computación y en la Inteligencia Artificial, debido a su especial naturaleza, el interés dedicado a la información parece obvio: intentar crear modelos conceptuales y físicos que representen, reproduzcan y, por qué no, mejoren las estrategias que utilizamos los seres vivos para producir y procesar flujo informativo. Pero también existen ejemplos de esta traslación del punto de interés que no parecen en un principio tan obvios. En biología, por ejemplo, se están dedicando grandes esfuerzos económicos y de personal para desentrañar y descifrar el papel crucial que juega la información en el interior de los

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

organismos considerados como conjuntos de mecanismos biológicos con capacidad de procesamiento de información. En psicología, el esfuerzo se dedica a la descripción y explicación de los procesos mediante los cuales los organismos codifican y transmiten información. Incluso en disciplinas tan aparentemente alejadas de estos paradigmas como la propia filosofía, el tema de la información está adquiriendo una gran fuerza como hipótesis explicativa en el campo de la epistemología y la acción humana. Sin embargo, aunque el interés por este fenómeno haya alcanzado en mayor o menor medida a casi todas las parcelas del panorama intelectual, en el centro de todo este movimiento académico y conceptual de final de siglo, la disciplina científica de la Documentación —y, por extensión, la Biblioteconomía— aparece ubicada en un lugar teórico privilegiado. Considerada con buen criterio por algunos como la genuina Ciencia de la Información, esta disciplina tiene como principal objetivo el tratamiento científico de aquellos temas que se encuentran relacionados con los principales soportes del contenido informativo: los documentos. En este sentido, debido a su especial naturaleza, la Documentación no puede darle la espalda a ese torrente caudaloso que fluye alrededor del concepto información y que recorre el panorama intelectual que nos ha tocado vivir. La disciplina de la Documentación debe hacerse eco de las distintas propuestas de análisis que sobre la noción de información se están realizando y encontrar así un territorio cada vez más sólido desde el que abordar explicativamente y con garantías los cambios que se aproximan de la mano de la implantación global de las tecnologías de la información y las consecuencias que éstas puedan acarrear en el campo de la gestión documental. Por este motivo, creemos que toda persona que quiera introducirse o completar su formación en temas de documentación (digital) debe pasar necesariamente por la revisión de algunas de las teorías que han intentado abordar el fenómeno de la información. Entre todas estas teorías destaca una en especial, la que se ha conocido con el nombre de "Teoría Matemática de la Comunicación". Esta propuesta teórica, presentada por Shannon y Weaver a finales de la década de los cuarenta, brilla con luz propia dentro del panorama intelectual ya que supuso el espaldarazo teórico definitivo para fundamentar la mayoría de los tratamientos ulteriores que se dedicaron al fenómeno de la información. Y con esta intención presentamos este artículo dentro de la Biblioteca digital del curso de postgrado Documentación Digital. Nuestro trabajo persigue el objetivo de intentar introducir a los alumnos de este curso en los fundamentos conceptuales y las principales ideas que conforman esa teoría. Para cubrir ese objetivo, desdoblaremos nuestra tarea en dos episodios diferenciados. Por un lado, en el apartado número dos, intentaremos realizar una exposición de las principales aportaciones de la Teoría Matemática de la Comunicación. En concreto, destacaremos su modelo explicativo del flujo informativo (apartado 2.1) e introduciremos las principales magnitudes informativas y el cálculo de la cantidad de información asociada a las señales que se sigue de los trabajos de Shannon y Weaver (apartado 2.2). Y por otro lado, en el apartado número tres, el artículo finalizará con el intento de realizar una breve evaluación de las principales aportaciones y limitaciones de esa propuesta teórica.

2. La Teoría Matemática de la Comunicación En la segunda mitad de los años cuarenta, en el prestigioso Massachusetts Institute of Technology (MIT) de Cambridge (Estados Unidos) se respiraba un estimulante ambiente de efervescencia intelectual. De la mano del prestigioso matemático norteamericano Norbert Wiener se estaba gestando lo que más tarde se conoció como "Cibernética" o "Ciencia General de los Sistemas". En esos años, Wiener, profesor de matemáticas del MIT, se interesó por los resultados de algunas investigaciones realizadas por biólogos, fisiólogos, físicos y psicólogos del momento dirigidas hacia el estudio del comportamiento de los organismos y el de las máquinas. En el año 1948, a partir de esos conocimientos e influenciado además por los trabajos del también matemático John Von Neuman, Wiener concentró el fruto de sus investigaciones en una obra titulada "Cibernética: o el control y la

2

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

comunicación en los animales y máquinas".1 En esa obra se intentaba presentar las bases de una propuesta científica, la cibernética, que tenía como objetivo la formulación de las leyes comunes que rigen tanto el comportamiento de los sistemas biológicos (el sistema nervioso de un organismo vivo, por ejemplo) como el de los mecanismos o sistemas no-biológicos o técnicos (un circuito eléctrico, por ejemplo). La cibernética pretendió ser una teoría general de los sistemas concebidos independientemente de su naturaleza física (biológica o mecánica) e identificados como un conjunto de elementos que, intercambiando señales, confieren un comportamiento como resultado. Unos años antes, en medio de ese ambiente intelectual que impregnaba el MIT, se incorporó como estudiante de ingeniería Claude Elwood Shannon. Allí destacó como alumno en los cursos de matemáticas que impartía el profesor Wiener y rápidamente se integró en la línea de investigación que, dirigida por ese mismo profesor en el departamento de matemáticas, estaba sentando las bases teóricas de esa nueva disciplina de la cibernética. Después de su graduación y de acabar su doctorado, Shannon abandonó Massachusetts y se instaló en Nueva York, donde se incorporó como ingeniero de telecomunicaciones en los prestigiosos laboratorios estadounidenses Bell Telephone, que constituían una filial de la empresa de telecomunicaciones American Telegraph &Telephone (ATT). En esos laboratorios, durante la segunda mundial, se dedicó a realizar trabajos de criptografía2 para el gobierno americano. En esa misma época, manteniendo el contacto con Wiener y con sus ideas, recibió también la influencia de los avances que en el campo de la biología estaba llevando a cabo Erwin Schrödinger con sus estudios sobre el papel de la transmisión de información en las investigaciones sobre genética y entró en contacto directo con Warren Weaver, coordinador de la investigación sobre grandes computadoras durante la segunda guerra mundial. En julio de 1948, Claude E. Shannon decidió recoger todas sus investigaciones en una obra y publicó un artículo en la revista Bell System Technical Journal, bajo el título de “A Mathematical Theory of Communication”,3 donde sintetizó los trabajos precedentes y presentó algunas ideas sobre la medida de la información articulándolas dentro de una teoría. Esta teoría pasaría a la historia con el nombre de “Teoría Matemática de la Comunicación”, aunque también ha sido conocida como la "Teoría Matemática de la Información" o simplemente como la "Teoría de la Información".4 En 1949, este artículo, junto a un prólogo de Warren Weaver, fue publicado como libro, con un título casi idéntico, por la University of Illinois Press.5 Esta obra se presentaba claramente divida en dos partes. En la primera parte, que recogía la contribución de Weaver, anticipaba en un lenguaje no matemático y divulgativo los principales conceptos y resultados del trabajo de Shannon. En esa misma parte, se incluía además, un modelo teórico que intentaba representar los elementos y las relaciones implicadas en un contexto en el que se ve implicado un flujo informativo. Ese modelo propuesto llegaría a tener tanta influencia en el desarrollo posterior de la teoría de la comunicación que consiguió eclipsar en parte otros de los logros conceptuales de esa obra. Y en la segunda parte, incluyéndose de nuevo el mismo modelo, Shannon presentó y desarrolló una teoría que tenía como objetivo principal la definición matemática de todas aquellas magnitudes que intervienen en las situaciones en las que se produce un flujo o transmisión de información, y conseguir, a partir de esas definiciones, un cálculo de la cantidad de información

1 WIENER, N. (1948). Cybernetics: or Control and Communication in the Animal and the Machine.

2 Disciplina que persigue la creación o la identificación de lenguajes cifrados. Un lenguaje cifrado es un sistema de comunicación interpersonal en el que el código sólo es compartido por un número limitado y expresamente conocido de individuos. 3 Shannon, Claude (1948). “A Mathematical Theory of Communication”. 4 A partir de este momento nos referiremos a esta teoría utilizando cualquiera de esos nombres. 5 Shannon, Claude y Weaver, Warren (1949). The Mathematical Theory of Communication.

3

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

que puede ser transportada a través de un canal y la identificación, además, de las formas de maximizar la eficacia de ese proceso. 2.1. El modelo explicativo del flujo informativo

La colaboración de Warren Weaver comienza con una declaración de principios: la obra que está presentando intenta no sólo ser un modelo matemático de la información útil para los ingenieros, sino que persigue el objetivo más amplio de intentar dar cuenta de un fenómeno más general como el de la comunicación. Por "comunicación" Weaver entiende todo acto por el cual una mente (o mecanismo) puede afectar a otra mente (o mecanismo). Por tanto, dentro de los actos comunicativos hay que incluir no sólo aquellas situaciones en las que utilizamos el lenguaje natural con la intención de transmitir información a nuestros semejantes —ya sea mediante un acto de habla o de escritura—, sino que también hay que contemplar como tales la interpretación de una pieza musical, las artes plásticas, la puesta en escena de una obra de teatro, el ballet y, en general, cualquier conducta humana. En su empeño de abordar teóricamente y con garantías esta manera laxa de entender la comunicación, Weaver propone la distinción de tres tipos o niveles de problemas comunicacionales: el problema técnico, el semántico y el pragmático. Estos problemas pueden ser enunciados de manera más precisa de la siguiente manera: (i) Nivel A: ¿Con qué grado de exactitud se pueden transmitir los símbolos empleados en la comunicación? (El problema técnico). (ii) Nivel B: ¿Con qué grado de precisión transmiten el significado deseado los símbolos empleados en la comunicación? (El problema semántico). (iii) Nivel C: ¿Con qué grado de eficacia afectan los significados recibidos a las conductas? (El problema pragmático o de la efectividad). Cada uno de estos tres problemas genera una manera distinta de afrontar el tema de la comunicación. En un sentido amplio, podemos decir que si elegimos el nivel A trataremos de investigar sobre la fidelidad con la que un conjunto de símbolos es transferido o puede transmitirse desde un emisor a un receptor y, por tanto, intentaremos describir los detalles técnicos del diseño de un sistema de comunicaciones. De la misma manera, si nuestra opción es el nivel B, nuestro trabajo girará en torno al tema de la comparación entre el significado que el emisor le otorga a los símbolos empleados en la comunicación y la interpretación del significado de esos símbolos por parte del receptor. Por último, si nos concentramos en el nivel C, evaluaremos el éxito con el que la información transmitida ha afectado, en el sentido deseado, a la conducta del receptor. La dependencia entre los tres niveles puede parecer, en un principio, escasa o incluso nula. Pero, si bien los aspectos semánticos o los pragmáticos son superfluos para una descripción de los aspectos técnicos de los sistemas de comunicación, estos últimos no deben ser considerados como irrelevantes si queremos ofrecer, con garantías teóricas, un tratamiento semántico o pragmático de la comunicación. Weaver nos adelanta que el tratamiento que nos propone Shannon en la segunda mitad de la obra se concentra en el primer nivel de problemas. De todas formas, insiste en la idea de que de esa manera de acercarse al problema de la comunicación es posible extraer también un modelo que intente dar cuenta de todos los elementos y de las relaciones que forman parte de un contexto comunicativo en el que se produce un flujo o una transmisión de información. De manera general, el propio autor nos resume ese modelo a partir de la figura número 1.

4

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Fuente de Información

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

Transmisor

Señal Mensaje

Destino

Receptor

Señal Recibida

Mensaje

Fuente de Ruido

Figura número 1.6 Como se desprende de esta figura, en el proceso comunicativo en el que se transmite cierta información intervienen, por un lado, cinco elementos (la fuente de información, el transmisor, el canal de comunicación, el receptor y el destino) dotados de unas funciones concretas, y, por otro lado, un factor de disfunción (la fuente de ruido). En concreto, este proceso puede describirse de la siguiente manera. En la fuente de información se selecciona un mensaje concreto (o una cadena de mensajes) de entre un conjunto de mensajes posibles (o de cadenas de mensajes posibles). El transmisor se encarga de transformar o traducir ese mensaje produciendo para ello una señal. Esta señal circula por el canal de comunicación, adecuándose al mismo, desde el transmisor hasta el receptor. El canal no es nada más que el medio material cuya alteración permite esa transmisión de la señal. El receptor, una especie de transmisor con la función comunicativa invertida, recibe esa señal y la traduce o la transforma en un mensaje que es reconducido a su vez hasta el destino. Desgraciadamente, en muchas ocasiones, el proceso que acabamos de describir no se produce tal y como esperábamos. En algunas situaciones concretas interviene una fuente de interferencias, distorsión o ruido que produce una diferencia significativa entre la señal original emitida por el transmisor y la recibida por el receptor. Esta diferencia entre las señales provoca que el mensaje que llega al destino no coincida con el que originariamente fue seleccionado en la fuente de información, frustrándose de esta manera el proceso o el intento comunicativo. Para ilustrar con más detalle el funcionamiento de este proceso sólo tenemos que recurrir a un par de sencillos ejemplos. Imaginemos, primero, el siguiente acto comunicativo. Una persona se encuentra en casa y, recordando que hoy es el día en el que un amigo suyo cumple años, decide realizar una llamada telefónica para felicitarle. En ese contexto, podemos decir que nuestro protagonista es la fuente de información, y la proferencia del enunciado ("¡feliz cumpleaños!", supongamos) que utiliza para felicitar a su amigo es el mensaje seleccionado, el mensaje que quiere transmitir. Este mensaje — estas palabras habladas, en definitiva— ha sido elegido de entre todas las posibles producciones lingüísticas, como por ejemplo "¡enhorabuena!" o "¡feliz aniversario!", que normalmente utilizamos para felicitar a alguien en el día de su cumpleaños. Su aparato de teléfono sería identificado como el transmisor de ese proceso comunicativo. Este aparato traduciría las palabras pronunciadas, los sonidos, en una señal eléctrica. Esa señal eléctrica se transmitirá a través del tendido o cableado telefónico que actuará de canal de comunicación en este caso. Gracias a ese cableado, la señal será

6

SHANNON, Claude y WEAVER, Warren (1949). The Mathematical Theory of Communication., pág. 7.

5

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

recibida en el aparato de teléfono de su amigo. Este aparato puede ser identificado como el receptor y transformará la señal eléctrica recibida en un mensaje, concretamente en una serie de sonidos que emitirá mediante el auricular. Por último, el amigo de nuestro protagonista debe ser considerado como el destino de ese acto comunicativo. Sin embargo, en algunas situaciones, puede ocurrir que en la línea telefónica, en el canal de comunicación, se produzcan interferencias o distorsiones que hagan variar la señal original emitida por el transmisor de tal forma que el receptor, el aparato telefónico del amigo, reciba una señal distinta. Esa variación en la señal eléctrica recibida acostumbra a provocar que, en aparato receptor del amigo, se escuchen nuevos sonidos o que se supriman algunos de los sonidos que en un principio aparecían en el mensaje original. Esta variación de mensajes puede, en muchas ocasiones, hacer peligrar seriamente la comunicación entre los dos personajes. Pasemos, ahora, al segundo de nuestros ejemplos ilustrativos. Supongamos que el protagonista de la historia anterior se encuentra paseando por el parque y que un extraño se le acerca y le pregunta la hora. Nuestro amigo responde: "las nueve y cuarto de la mañana". Analicemos ese acto comunicativo. En este caso podemos decir que la mente de nuestro protagonista es la fuente de información. El estado mental (un conjunto determinado de conexiones neuronales, una disposición neuronal, en definitiva) que experimenta cuando responde al extraño es el mensaje seleccionado, el mensaje que quiere transmitir. Este mensaje ha sido elegido de entre todas las disposiciones neuronales que normalmente experimentamos cuando comunicamos la hora. El sistema fónico (cuerdas vocales, nariz, boca, lengua, paladar, etc.) de nuestro protagonista debe ser identificado como el transmisor de ese proceso comunicativo. Este sistema traducirá o transformará la disposición neuronal en una señal sonora, en la proferencia del enunciado "las nueve y cuarto de la mañana". Esa señal sonora se transmitirá a través del aire que actuará en esta ocasión de canal de comunicación. Gracias al aire, la señal será recibida por el sistema auditivo de su amigo. Este sistema auditivo puede ser identificado como el receptor y transformará la señal acústica recibida en una señal eléctrica que generará una disposición neuronal en la mente del extraño. Por último, la mente del extraño debe ser considerada como el destinatario de ese acto comunicativo. De nuevo, hemos de destacar que en este ejemplo también puede intervenir una fuente de ruido. En algunas situaciones, puede ocurrir que el aire por el que circula la señal acústica, el canal de comunicación, se encuentre contaminado con otros sonidos que actúen a modo de interferencia o distorsión y que hagan variar la señal original emitida por el transmisor de tal forma que el receptor, el sistema auditivo del extraño, reciba una señal distinta. Esa variación en la señal acústica recibida acostumbra a provocar que en la mente del extraño se produzca una disposición neuronal, un mensaje, que no se corresponda con la que originalmente tenía nuestro protagonista. Y como pasaba anteriormente, esta variación en las disposiciones neuronales, en los mensajes, puede, en muchas ocasiones, hacer peligrar seriamente la comunicación entre los dos personajes del parque. 2.2. El cálculo de la cantidad de información La propuesta teórica defendida por Shannon y Weaver no se agota con la presentación del modelo que intenta describir los elementos y las relaciones que conforman un contexto comunicativo en el que existe un flujo o transmisión de información. Claude Elwood Shannon, en la segunda parte de la obra y haciendo suyo también el modelo anteriormente presentado, concentra su esfuerzos en la presentación de una teoría que sea capaz de definir matemáticamente las principales magnitudes que intervienen en las situaciones en las que se produce un flujo informativo. El espíritu de esta teoría se encuentra estrechamente relacionado con la investigación sobre la codificación y la transmisión de la información y alimentado por algunos problemas de ingeniería. En concreto, esta propuesta matemática fue diseñada, principalmente, para medir la cantidad de información que puede ser transportada a través de un canal y para identificar las formas de maximizar la eficacia de ese proceso. En ese sentido, los problemas que se persigue subsanar con esta teoría se agrupan alrededor de temas como el ahorro de tiempo y dinero en la transmisión de

6

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

señales, el diseño y el uso de canales que permitan transmitir la máxima cantidad de información, la búsqueda de códigos adecuados compatibles con el canal, la reproducción —de forma exacta o aproximada— en un punto determinado de una señal seleccionada en otro lugar o el desarrollo de canales sin ruido, por presentar sólo unos ejemplos. Dada la naturaleza de sus intereses prácticos, no es de extrañar que esta teoría surgiera de los estudios desarrollados por unos ingenieros de telecomunicaciones. Históricamente, antes de que se presentase la propuesta que aquí estamos analizando, las primeras e importantes aportaciones que se realizaron sobre la noción de información desde el ámbito de la matemática fueron introducidas por Harry Nyquist,7 en 1924, a partir de su trabajo sobre la velocidad de transmisión de mensajes telegráficos, y por R. Hartley,8 en 1928, con la introducción de la primera medida de la información de una señal s, I(s), relacionándola con su probabilidad:9 I(s) = log (1/p(s)). (donde p(s) es la probabilidad de la ocurrencia de s). Claude E. Shannon fue capaz de sintetizar y absorber esos trabajos precedentes y presentó sus ideas propias sobre el cálculo de la medida de la información integrándolas dentro de una propuesta teoría que más tarde, como ya indicamos, fue conocida bajo los nombres de ”Teoría Matemática de la Comunicación", "Teoría Matemática de la Información" o "Teoría de la Información". Para introducir las ideas principales de esa teoría debemos partir de la idea de que dentro de la misma los contextos informativos se consideran formados por fuentes (de información) que, a su vez, son definidas como conjuntos de acaecimientos, de señales, con cierta probabilidad de ocurrencia. Sin perder de vista esta distinción entre las fuentes de información y los acaecimientos (o señales) que las conforman, podemos introducir la primera de las definiciones que aparece en esta propuesta teórica. En concreto, presentaremos la ecuación que es utilizada para calcular la información asociada a una ocurrencia o señal si. La fórmula adecuada para medir la cantidad de información asociada a si (o su valor de sorpresa, I(si)), dada su probabilidad p(si), es: (1) I(si) = log 1/p(si) bits.10 = - log p(si) bits. (dado que log (1/x) = - log x)

7

NYQUIST, Harry (1924). “Certain Factors Affecting Telegraph Speed”. Cuatro años más tarde vuelve a insistir sobre este tema en NYQUIST, Harry (1928). “Certain Topics in Telegraph Transmission Theory”.

8

HARTLEY, R.V.L. (1928). “Transmission of Information”.

9

Una exposición detallada de la historia de las propuestas matemáticas que han intentado dar cuenta de la información puede encontrarse en CHERRY, E. Colin (1951). “A History of the Theory of Information”., y en CHERRY, E. Colin (1952). “The Communication of Information. An Historical Review”.

10

A lo largo de este artículo se utilizará “log n” como expresión del logaritmo en base dos de n. Al utilizar el logaritmo en base dos las cantidades de información aparecen en bits ya que un bit es la cantidad de información obtenida al especificar dos posibles alternativas igualmente probables.

7

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

I(si ) puede entenderse también como la información necesaria para representar que se ha producido la ocurrencia de si, o como el número de pasos o decisiones binarias (bits) necesarios para reducir n posibilidades de una fuente a una. Dentro de la Teoría Matemática de la Comunicación, la cantidad de información de un acaecimiento o una señal concreta sólo es considerado como un estadio para el cálculo de la cantidad media de información de una fuente que contiene varios acaecimientos con un valor de sorpresa propio. Para calcular esta media ponderada de información se utiliza la siguiente fórmula: (2) I(S) = p(s1) . I(s1) + p(s2) . I(s2) + p(s3) . I(s3) +...+ p(sn) . I(sn) =

n ∑ i =1

p(si) . I(si) bits / señal.

Por I(S), también llamada entropía, debemos entender el valor medio por símbolo de la información suministrada por la fuente S, o, también, el valor medio de la incertidumbre de un observador antes de conocer la salida de la fuente S. La importancia de esta cantidad dentro de la teoría presentada por Shannon —en detrimento de la de cantidad de información de una señal concreta— se justifica por el hecho de que es mucho más fructífera y útil a la hora de intentar diseñar soluciones a los problemas centrados en los aspectos de la ingeniería de la comunicación. Es poco útil intentar encontrar un canal que sirva para transmitir información exclusivamente en función de la cantidad de información asociada a una señal determinada de una fuente: si bien lograríamos que esa señal se transmitiese de una manera correcta, podría ser que para el resto de las señales de la fuente el canal utilizado no fuera adecuado. Es mucho más rentable diseñar un canal teniendo en cuenta el valor medio por símbolo de la información suministrada por la fuente. Hasta ahora hemos presentado el tratamiento de la cantidad de información generada por una fuente haciendo referencia exclusiva a señales o fuentes independientes, y para ello hemos introducido las fórmulas (1) y (2). Pero en la mayoría de los casos prácticos no podemos hablar de fuentes de información que sean independientes o que estén fuera de la influencia informativa de otras fuentes. A menudo, las fuentes se encuentran en relación informativa con otras fuentes. Cuando esto ocurre, cuando dos fuentes se encuentran relacionadas informacionalmente, decimos que entre ellas existe una transmisión o flujo de información. En estos contextos de interacción informativa, las definiciones de cantidad de información anteriormente expuestas no son suficientes para recoger matemáticamente este flujo o transmisión de información. En estas situaciones intervienen aspectos comunicativos que no son recogidos en la aplicación sistemática de las fórmulas presentadas. Cuando dos fuentes S y R se encuentran en relación informativa decimos que entre ellas existe un canal de información por el que se transmite un flujo de información. Podemos introducir la noción de canal de la siguiente manera: Definición. Un canal de información11 viene determinado por una fuente de entrada S = {si}, i = 1, 2, 3, ..., t; una fuente de salida R = {rj}, j = 1, 2, 3, ..., v; y un conjunto de probabilidades condicionales P(rj/si). P(rj/si) es la probabilidad de recibir en la salida el símbolo rj cuando se envía el símbolo de entrada si. También podemos representar gráficamente un canal de información con fuente de entrada S y de salida R mediante la siguiente figura:

11

Esta definición es aplicable sólo a lo que se considera un canal de información de memoria nula, es decir, a aquellos canales donde la probabilidad de una salida rj depende exclusivamente de una sola entrada si. Aunque aquí no se utilice es posible establecer una definición adecuada para canales con memoria no nula donde la probabilidad de cada una de sus salidas puede depender de más de un símbolo de entrada o incluso de otros símbolos de salida.

8

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

r1 r2 r3

s1 s2 S

s3

P(rj /s i )

. . . st

. . . rv

R

Figura número 2 Una vez introducida la noción de canal podemos pasar a describir las magnitudes informativas que intervienen en un contexto en el que existe un flujo informativo. En una situación en la que dos fuentes, S y R, se encuentren en una relación de transmisión informacional, además de sus cantidades independientes de información, I(S) y I(R), debemos atender a otras magnitudes informativas. Por un lado, partiendo de la idea de que existe un flujo informacional de la fuente S a la fuente R, una información generada en S y otra recibida en R, podemos introducir la noción de información mutua de S y R, IS(R), como la cantidad de información generada por S que se mantiene en R. La información mutua de S y R, IS(R), es también conocida como la información media mutua recibida por el canal o cantidad de dependencia de R respecto a S. Por otro lado también podemos introducir la noción de equivocidad, E, como la cantidad de información generada por S que no es transmitida a R; y la de ruido, N, como la cantidad de información que lleva R que no ha sido generada por S. En definitiva, éstas serían las magnitudes informativas asociadas a un canal: I(S), I(R), IS(R), E y N. Si representamos gráficamente estas nociones y sus relaciones podemos obtener el siguiente esquema: I(S)

E

S(R)

I(R

N

Como se desprende de este esquema, para calcular los valores de IS(R), E y N debemos partir de la idea de que IS(R) nunca puede ser mayor que I(S) o I(R). De esta manera podemos afirmar que IS(R), la cantidad de información transmitida desde S a R, es la cantidad total de información disponible en R, I(R), menos la cantidad de ruido N: (3) IS(R) = I(R) - N. Por otro lado, como se sigue del esquema, también podemos afirmar que la cantidad de información transmitida de S a R, IS(R), es la cantidad total de información disponible en S, I(S), menos la equivocidad (E) o cantidad de información generada en S que no se transmite a R: (4) IS(R) = I(S) - E. Pasemos ahora a definir cuantitativamente las nociones de ruido y equivocidad. Para obtener la descripción matemática de la noción de ruido, N, es necesario primero conocer el ruido asociado a cada una de las ocurrencias si de la fuente entrada S. El ruido asociado a una ocurrencia si de la fuente entrada S puede calcularse utilizando la siguiente fórmula: (5) N(si) = -

v

∑ j=1

p(rj/si) . log p(rj/si).

9

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

El ruido asociado a si es la suma de los resultados de multiplicar cada probabilidad condicional de recibir como salida cada símbolo rj de la fuente R siempre que se envía el signo fijo de entrada si, por el logaritmo en base dos de la misma. El signo menos que aparece precediendo al signo de sumatorio se justifica por la razón de que en (5) introducimos el logaritmo de una probabilidad. Los posibles valores de una probabilidad, p, se sitúan entre el 1 y el 0, y el logaritmo de un número mayor que 0 pero menor que 1 nos ofrece siempre un valor negativo. Por tanto, si p es distinto de 1 y de 0 pero se encuentra entre el 0 y 1, el logaritmo de p alcanza valores negativos. De todas formas, para evitar este signo negativo podríamos reescribir la fórmula (5) sustituyendo (al tener en cuenta que log 1/x = log x) log p(rj/si) por log 1/p(rj/si), pero esto complicaría la notación. Ahora, una vez que hemos podido calcular la cantidad de ruido asociada a una ocurrencia concreta si de la fuente de entrada S, estamos en condiciones de ofrecer una fórmula para calcular el promedio de ruido N: (6) N = p(s1) . N(s1) + p(s2) . N(s2) + p(s3) . N(s3) +...+ p(st) . N(st). =

t

∑ i =1

p(si) . N(si).

Esta fórmula nos indica que el promedio de ruido se obtiene de sumar los resultados de multiplicar cada probabilidad de ocurrencia de los estados individuales si de la fuente S por la cantidad de ruido asociado a si. De manera análoga, para obtener la descripción matemática de la noción de equivocidad, E, es necesario primero conocer la equivocidad asociada a cada una de las ocurrencias rj de la fuente de salida R: (7) E(rj) = -

t

∑ i =1

p(si/rj) . log p(si/rj).

(donde p(si/rj) = [p(rj/si) . p(si)] / p(rj)) La cantidad de equivocidad asociada a rj es la suma, multiplicada por menos uno, de los resultados de multiplicar cada probabilidad condicional de que se haya enviado como entrada cada símbolo si de la fuente S siempre que es recibido el signo fijo de salida rj, por el logaritmo en base dos de la misma. De nuevo, como ya se hizo en la fórmula número (5), el signo menos que aparece precediendo al signo de sumatorio se justifica por razones de simplificación en el cálculo y la notación, aunque podríamos reescribir la fórmula (7) sin ese signo si sustituyéramos log p(si/rj) por log (1/p(si/rj)). Una vez conocida la equivocidad asociada a cada ocurrencia rj de la fuente de salida R, estamos en disposición de poder calcular el promedio de equivocidad: (8) E = p(r1) . E (r1) + p(r2) . E (r2) + p(r3) . E (r3) +...+ p(rv) . E (rv). =

v

∑ j=1

p(rj) . E (rj).

Esta fórmula nos indica que el promedio de equivocidad se obtiene de sumar los resultados de multiplicar cada probabilidad de ocurrencia de los estados individuales rj de la fuente R por la cantidad de equivocidad asociado a rj.

3. La evaluación de la propuesta teórica Desde el momento en que fueron publicadas, las ideas que acabamos de presentar tuvieron un impacto científico de dimensiones considerables. Tanto el modelo explicativo de los actos de comunicación introducido por Weaver como la teoría matemática encaminada al cálculo de la 10

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

información presentada por Shannon influyeron y dejaron huella en casi todas las teorías que sobre estos temas aparecieron posteriormente. Las razones por las que estas ideas calaron y arraigaron dentro el panorama intelectual de la segunda mitad del siglo XX son de diversa índole. Si dejamos momentáneamente al margen de la propuesta matemática contenida en la segunda parte de la obra y concentramos primero nuestra atención sobre el modelo que intenta representar los contextos comunicativos introducido por Weaver podemos señalar que éste fue recibido con gran entusiasmo por la comunidad científica y rápidamente consiguió transgredir y superar el dominio para el que fue diseñado. Las razones de la buena acogida y del impacto positivo de este modelo pueden buscarse en las necesidades teóricas que recorrían el momento histórico en el que éste hizo su aparición. A principios de los años cincuenta, en los Estados Unidos, el interés de las Ciencias Sociales se centraba, principalmente, sobre diversas teorías encaminadas a explicar el ámbito de los comportamientos colectivos que se experimentan en el seno de la sociedad y la parcela del aprendizaje y la conducta en general. De esta manera, por un lado, los politólogos y los sociólogos de la época, interesados en encontrar una forma de abordar con garantías sus objetos de estudio, encontraron en el modelo de Weaver y en su explicación lineal de la comunicación, en esa manera de entender ese proceso como un fluir lineal de información desde la fuente hasta el destino, un camino adecuado para afrontar el tema de los efectos colectivos. Y, por otro lado, en el campo de la psicología, la misma linealidad explicativa de ese modelo se ajustó perfectamente al movimiento teórico que dominaba el panorama científico del momento y que se caracterizaba por ofrecer una descripción del aprendizaje y la conducta en términos de estímulo y respuesta. Pero la buena acogida del modelo de Weaver no sólo se justifica por el oportunismo histórico y coyuntural que le acompañó desde el momento en el que fue gestado. Lo que explica también ese impacto positivo de la propuesta y su influencia en las teorías posteriores es el haber sabido presentar un modelo que, si bien acompañaba a un trabajo encaminado a solucionar ciertos problemas cuantitativos en el campo de la ingeniería de la información, estaba dotado de un poder explicativo que se ajustaba perfectamente al tema de la comunicación humana en su sentido más amplio. De esta manera, con un diseño que podríamos calificar como "antropomórfico", se ofrecía la posibilidad de exportarlo con cierta facilidad a otros campos y modelizar, de esta forma, tanto la comunicación colectiva (la comunicación de masas, como la denominan algunos) como la comunicación interpersonal. Esta buena adecuación del modelo para dar cuenta de esos fenómenos estimuló el nacimiento de un largo camino teórico, todavía no ha finalizado, en el que los científicos sociales defienden la utilización del concepto de comunicación como hipótesis explicativa principal de toda la esfera de lo colectivo y, en definitiva, de lo humano. Sin embargo, el modelo defendido por Weaver no acabó imponiéndose de una forma rotunda y sin condiciones. Y es que la aparición de esa propuesta también generó y estimuló el trabajo crítico de otros científicos y pensadores. Las principales críticas que recibió estaban relacionadas con ciertas limitaciones del modelo. En concreto, por un lado, la propuesta proyectaba, dentro del proceso de comunicación, el mismo peso explicativo tanto a la fuente de información como al destino del flujo informativo. Y esto, claramente, no encajaba cuando se intentaba utilizar el modelo para dar cuenta de los actos de comunicación colectiva: en ese tipo de contextos el peso que tiene la fuente de información, los medios de comunicación de masas (prensa, radio, televisión, etc.), es mucho mayor que el que posee el destinatario final (lector, oyente, televidente, etc.). Y, por otro lado, esa misma linealidad explicativa del modelo tampoco permitía recoger algunas de las características esenciales de la comunicación interpersonal. En ese sentido, por ejemplo, la propuesta no conseguía representar la naturaleza dinámica del proceso de la comunicación que se concreta en la posibilidad de que en un contexto de este tipo el destino y la fuente de información intercambien sus papeles continuamente (el destino puede pasar a convertirse en la fuente de información y viceversa) dependiendo de la dirección del flujo, ni permitía tampoco reflejar esas situaciones en las que, aunque la información que fluye pueda ser interpretada de un modo diferente a como fue originalmente emitida, existe de todas formas un proceso comunicativo.12

12

Para revisar las crítica recibidas por este modelo y constatar la influencia de este enfoque sobre otros proyectos teóricos posteriores relacionados con la comunicación puede consultarse tambien: 11

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

Si pasamos ahora a revisar la propuesta de Shannon, hemos de señalar, sin embargo, que ésta no fue recibida con el mismo entusiasmo por la comunidad científica ni corrió la misma suerte que el modelo propuesto por Weaver. Sus virtudes teóricas son claras y se concentran, principalmente, en el hecho de haber contribuido de una manera definitiva al desarrollo de la ingeniería de telecomunicaciones y haber fundamentado científicamente, no sólo de forma matemática, los conceptos básicos —como el de entropía, información mutua, ruido, o equivocidad, por ejemplo— que más tarde serán utilizados por los comunicólogos y, en general, por todos aquellos investigadores del ámbito de las Ciencias Sociales que se han dedicado al estudio de la información o de la comunicación. Sin embargo, cuando revisamos la literatura dedicada a estos temas notamos no sólo que desaparece o se margina la contribución, sobre todo la cuantitativa, de Shannon, sino que además ésta recibe algunas críticas de amplio calado. Para comenzar es importante indicar que el bautismo que recibió esta teoría fue bastante desafortunado. El nombre con el que pasó a la historia no se corresponde, en lineas generales, con los contenidos de esta propuesta. El escaso interés demostrado hacia los aspectos semánticos o pragmáticos en favor de los aspectos técnicos impiden que la teoría presentada por Shannon pueda considerarse como una teoría matemática de algo tan estrechamente relacionado con el componente semántico como la comunicación. Además, por la misma razón, estrictamente hablando, esta propuesta tampoco puede considerarse como una genuina Teoría de la Información: sus intereses se centran exclusivamente en el cálculo de la cantidad de información asociada a las señales desatendiendo la cara semántica (la de los contenidos) de la moneda informativa. Quizá, el calificativo más adecuado sea el de “Teoría Matemática de la Cantidad de Información”. Algunos autores,13 sin embargo, en una posición más extrema, incluso van un poco más lejos llegando a defender que esta propuesta no puede clasificarse ni tan siquiera como una Teoría Matemática de la Cantidad de Información, sino que sólo debe ser considerada como una Teoría Estadística de la Transmisión de Señales.14 Pero las limitaciones de esta propuesta no se resumen exclusivamente al hecho de que recibiese un nombre desafortunado cuando fue bautizada. No olvidemos que, como ya hemos indicado anteriormente, el objetivo último de esta teoría es el tratamiento matemático de las cantidades de información. En este sentido, cuando evaluamos los beneficios explicativos que nos ofrece esta propuesta, podemos encontrar algunos problemas que pueden hacernos pensar que de esta teoría poco se puede aprovechar para satisfacer aquellos intereses teóricos centrados en el análisis semántico o pragmático de la información. Por un lado, de manera generalizada aparece un problema estrechamente relacionado con el uso posible de esta teoría: la grave dificultad que se presenta cuando intentamos aplicar sus fórmulas a situaciones concretas. En las situaciones cotidianas, a menudo es difícil conocer con exactitud la

MATTELART, Armand y MATTELART, Michèle (1995). Historie des théories de la communication., MOLES, Abraham y ZELTMANN, Claude (eds.) (1975). La comunicación y los mass media., RODRIGO ALSINA, Miquel (1985). Los modelos de la comunicación., MCQUAIL, Denis y WINDAHL, Sven (1982). Communication Models for The Study of Mass Communication., WOLF, Mauro (1990). Teorie delle comunicazioni di massa., SAPERAS, Enric (1992). Introducció a les teories de la comunicació., y ABRIL, Gonzalo (1997). Teoría general de la información. 13

Como Yehoshua Bar-Hillel, en BAR-HILLEL, Yehoshua (1952). “Semantic Information and its Measures”. y en BAR-HILLEL, Yehoshua (1955). “An Examination of Information Theory”.

14

En BAR-HILLEL, Yehoshua y CARNAP, Rudolf (1952). “An Outline of a Theory of Semantic Information”., Bar-Hillel y Carnap proponen una alternativa semántica a esta propuesta. Pero aunque el título pueda indicar lo contrario, en ese trabajo no se ofrece ninguna definición de contenido informativo, sino que sólo se intenta definir las distintas relaciones (inclusión, equivalencia, etc.) que se pueden producir entre los contenidos informativos asociados a los enunciados de un sistema lingüístico.

12

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

mayoría de los valores de la probabilidad que conforman las ecuaciones, lo que hace casi imposible un cálculo numérico adecuado de las cantidades de información que intervienen.15 Y, por otro lado, nos encontramos con el problema consistente en que las definiciones matemáticas derivadas de la Teoría Matemática de la Comunicación no son de gran ayuda cuando intentamos descifrar el contenido semántico asociado a las señales: nos dicen cuánta información transporta una señal pero no qué información es transportada. Y esa independencia entre el cuánto y el qué queda de manifiesto si contemplamos los casos en los que dos señales pueden transportar la misma cantidad de información y sin embargo indicar contenidos informativos totalmente distintos. En estos casos, la teoría presentada por Shannon, asignándoles el mismo valor numérico, no es capaz de discriminar entre dos señales que claramente, desde un punto de vista semántico, son diferentes. En definitiva, para satisfacer de una manera más completa nuestros intereses explicativos referentes a la información, deberíamos buscar una teoría que sea capaz de discriminar la información de que p de la información de que q aunque estas dos informaciones sean indistinguibles desde el punto de vista cuantitativo. Y la Teoría Matemática de la Comunicación, claramente, no se encuentra preparada para recoger esta discriminación.16 Sin embargo, para acabar, hemos de señalar que todas estas limitaciones que presentan tanto el modelo defendido por Weaver como la propuesta de Shannon no deben impedirnos percibir el alcance real de esa apuesta teórica. Si bien han recibido duras críticas que han hecho tambalear sus virtudes explicativas, tenemos la obligación de indicar y subrayar que las ideas defendidas por estos ingenieros americanos deben ser valoradas en su justa medida y reconocer que han supuesto, no sólo el punto de arranque, sino también la fundamentación teórica necesaria para que el resto de los investigadores transiten con paso firme a través de ese estimulante proyecto que persigue la comprensión del fenómeno de la comunicación y de la información en todas sus dimensiones.

4. Bibliografía 4.1. Bibliografía principal New ABRAMSOM, Norman (1963). Information Theory and Coding. McGraw-hill Book Company, York. (Existe una traducción al español de esta obra realizada por Juan Antonio De Miguel Menoyo: ABRAMSOM, Norman (1986). Teoría de la información y codificación. Paraninfo, Madrid). BAR-HILLEL, Yehoshua (1952). “Semantic Information and its Measures”. En Transactions of the Tenth Conference on Cybernetics. Josiah Macy, Jr. Foundation, New York, págs. 33-48. BAR-HILLEL, Yehoshua (1955). “An Examination of Information Theory”. En Philosophy of vol. 22, págs. 86-105.

Science.

15

Este problema se agudiza cuando intentamos aplicar estas fórmulas al uso que hacemos del lenguaje natural. Cuando utilizamos una lengua, cuando hablamos o escribimos, las palabras que usamos poseen una probabilidad de aparición que no se encuentra determinada exclusivamente por la propia lengua sino por todo el conjunto de palabras que con anterioridad hayamos utilizado en ese mismo contexto lingüístico. Esto convierte el lenguaje en una fuente de información con memoria donde es difícil decidir la probabilidad de ocurrencia de una palabra en concreto.

16

Algunos autores, sin embargo, como Fred I. Dretske (en DRETSKE, Fred I. (1981). Knowledge and the Flow of Information.), defienden la idea que es posible extraer, de ese desarrollo técnico que presenta Shannon, cierto beneficio explicativo. Yo mismo, en PÉREZ GUTIÉRREZ, Mario (1998a). “Teoría Matemática de la Comunicación y Teoría Semántica de la Información”. y en PÉREZ GUTIÉRREZ, Mario (1998b). Señal y contenido informativo: un análisis del concepto de información., también he mantenido que es posible extraer de ese modelo ciertas restricciones matemáticas que deben de ser tenidas en cuenta y respetadas a la hora de ofrecer una definición semántica satisfactoria de la noción información.

13

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

BAR-HILLEL, Yehoshua (1964). Language and Information. Addison-Wesley Publishing Company, Massachusetts. BAR-HILLEL, Yehoshua y CARNAP, Rudolf (1952). “An Outline of a Theory of Semantic Information”. En Technical Report No. 247 of The Research Laboratory of Electronics, Massachusetts Institute of Technology. CHERRY, E. Colin (1951). “A History of the Theory of Information”. En Proceeding of the Institute of Electrical Engineers, vol. 90, págs. 383-393. CHERRY, E. Colin (1952). “The Communication of Information. An Historical Review”. En American Scientist, vol. 40, págs. 640-664. COVER, T.M. y THOMAS, J.A. (1991). Elements of Information Theory. John Wiley & Sons, New York. ESCARPIT, Robert (1976). Théorie générale de l’information et de la communication. Librairie Hachette, París. (Existe una traducción al español de esta obra realizada por Araceli Carbó y Pilar Sanagustín: ESCARPIT, Robert (1977). Teoría general de la información y de la comunicación. Icaria Editorial, Barcelona). HARTLEY, R.V.L. (1928). “Transmission of Information”. En Bell System Technical Journal, vol. 7, págs. 535-563. NYQUIST, Harry (1924). “Certain Factors Affecting Telegraph Speed”. En Bell System Journal, vol. 3, págs. 324.

Technical

NYQUIST, Harry (1928). “Certain Topics in Telegraph Transmission Theory”. En A.I.E.E. Trans., vol. 47, págs. 617. PIERCE, John (1961). An Introdution to Information Theory. Symbols, signal and Noise. Publications, New York.

Dover

SHANNON, Claude (1948). “A Mathematical Theory of Communication”. En Bell System Technical Journal, vol. 27, págs 379-423, 623-656. SHANNON, Claude y WEAVER, Warren (1949). The Mathematical Theory of Communication. University of Illinois Press, Urbana. (Existe una traducción al español de esta obra realizada por Tomás Bethencourt Machado: SHANNON, Claude y WEAVER, Warren (1981). Teoría matemática de la comunicación. Ediciones Forja S.A., Madrid). WEAVER, Warren (1949). “Recent Contributions to The Mathematical Theory of Communication”. En SHANNON, Claude y WEAVER, Warren (1949). The Mathematical Theory of Communication. University of Illinois Press, Urbana. WIENER, N. (1948). Cybernetics: or Control and Communication in the Animal and the Machine. Wiley, New York. (Existe una traducción de esta obra al español: WIENER, N. (1971). Cibernética. Guadiana, Madrid). 4.2. Bibliografía secundaria (para continuar leyendo) ABRIL, Gonzalo (1997). Teoría general de la información. Ediciones Cátedra, Madrid. ARBIB, Michael A. (1964). Brains, Machines and Mathematics. McGraw-hill Book Company, New York. (Existe una traducción al español de esta obra realizada por Eva Sánchez Mañes: ARBIB, Michael A. (1976). Cerebros, máquinas y matemáticas. Alianza Editorial, Madrid). CODINA BONILLA, Lluis (1994). Teoria de sistemes, teoria de recuperació d’informació i documentació periodística. Tesis doctoral, Publicacions de la Universitat Autònoma de Barcelona, Bellaterra. (Una

14

Universidad Surcolombiana Programa de Comunicación Social y Periodismo

Seminario de Teoría de la Comunicación II Prof.: Carlos Arturo Monje Álvarez

versión resumida de esta tesis doctoral aparece publicada en CODINA BONILLA, Lluis (1993). Sistemes d’informació documental. Editorial Pòrtic S.A, Barcelona). DEVLIN, Keith (1991). Logic and Information. Cambridge University Press, Cambridge. DRETSKE, Fred I. (1981). Knowledge and the Flow of Information. The MIT Press/Bradford. Books. Cambridge, Massachusetts. (Existe una traducción al español de esta obra realizada por Margarita Vicedo, Montserrat Guilla y Fina Pizarro: DRETSKE, Fred I. (1987). Conocimiento e información. Salvat Editores, Barcelona). FERRER, Eulalio (1997). Información y comunicación. Fondo de Cultura Económica, México, DF. ISRAEL, David y PERRY, John (1990). "What is Information?". En HANSON, Philip P. (ed.) (1990). Information, Language and Cognition. University of British Columbia Press, Vancouver. MATTELART, Armand y MATTELART, Michèle (1995). Historie des théories de la communication. Éditions La Découverte, París. (Existe una traducción al español de esta obra realizada por Antonio López Ruiz y Fedra Egea: MATTELART, Armand y MATTELART, Michèle (1997). Historia de las teorías de la comunicación. Ediciones Paidós Ibérica S.A., Barcelona). MCQUAIL, Denis y WINDAHL, Sven (1982). Communication Models for The Study of Mass Communication. Addison-Wesley Publishing Company, London. (Existe una traducción al español de esta obra realizada por Charo Sádaba: MCQUAIL, Denis y WINDAHL, Sven (1984). Modelos para el estudio de la comunicación de masas. Ediciones Universidad de Navarra, Navarra). MOLES, Abraham y ZELTMANN, Claude (eds.) (1975). La comunicación y los mass media. Ediciones el Mensajero, Bilbao. NAUTA, Doede (1972). The Meaning of Information. Mouton, The Hague. PÉREZ GUTIÉRREZ, Mario (1998a). “Teoría Matemática de la Comunicación y Teoría Semántica de la Información”. En Teorema. (En prensa). PÉREZ GUTIÉRREZ, Mario (1998b). Señal y contenido informativo: un análisis del concepto de información. Servei d’Informació i Publicacions de la Universitat de Barcelona, Barcelona. RODRIGO ALSINA, Miquel (1985). Los modelos de la comunicación. Editorial Tecnos, Madrid. SAPERAS, Enric (1992). Introducció a les teories de la comunicació. Editorial Pòrtic S.A., Barcelona. SINGH, Jagjit (1966). Great Ideas in Information Theory, Language and Cibernetics. Dover, New York.. (Existe una traducción al español de esta obra realizada por Ana Julia Garriga Trillo: SINGH, Jagjit (1972). Ideas fundamentales sobre la Teoría de la Información, del lenguaje y de la cibernética. Alianza Editorial, Madrid). WOLF, Mauro (1990). Teorie delle comunicazioni di massa. Bompiani, Milano. (Existe una traducción al español de esta obra realizada por Carmen Artal: WOLF, Mauro (1996). La investigación de la comunicación de masas. Paidós, Barcelona).

http://camelot.upf.es/digital/curs/rtf/mario.rtf

15