Вы находитесь на странице: 1из 9

LENGUA Y LITERATURA

COMUNICACIÓN Y SEMÁNTICA
INTEGRANTES:
- GUEVARA VALLE, TATIANA KATHERINE
- MENDOZA MESTANZA, LIZ JANET
- MEZA VASQUEZ, JHON RICHARD
- PÉREZ COTRINA, JHAN JAYO
- SÁNCHEZ BETANCOURT, CRISTIAN MIGUEL
- SÁNCHEZ VELÁSQUEZ, JAMES OMAR
PROFESOR:
CRUZ SÁNCHEZ, ARQUÍMIDES
AÑO:
4ª AÑO

TEMA:
EL MODELO DE SHANNON Y WEAVER

2019
TEORÍA DE LA COMUNICACIÓN, TEORÍA DE LA INFORMACIÓN O

TEORÍA MATEMÁTICA DE LA COMUNICACIÓN

CONTEXTO HISTÓRICO

Surgió a finales de la Segunda Guerra Mundial, en los años cuarenta, época donde se

buscaba utilizar de manera más eficiente los canales de comunicación (cable telefónico

y la onda radial) para la transmisión óptima de los mensajes.

Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System

Technical Journal en 1948, titulado “Una Teoría Matemática de La Comunicación”.

CLAUDE ELWOOD SHANNON

 Nació en Michigan (EE. UU.) en 1916.


 Fue un matemático, ingeniero eléctrico y criptógrafo americano recordado como

“el padre de la teoría de la información”.


 En el Instituto de investigaciones de Michigan realizó investigaciones de

ingeniería eléctrica. Sus inventos fueron: el ratón eléctrico, el W.C. automático y

la calculadora, también inventó el antecedente del internet, el MEMEX, junto

con Vannevar Bush.


 Murió en Medford (EE. UU.) el 24 de febrero del 2001.

WARREN WEAVER

Nació en Wisconsin (EE. UU.) en 1894.

 Fue un biólogo e informatólogo, padre de la teoría de la información.


 Empezó a laborar en 1917 trabajando como profesor en el Throop College de

Pasadena durante un año. Luego, ingresó en la Universidad de Wisconsin donde

estudió y dio clases durante doce años. Fue director del Departamento de

Matemáticascomunicación (1928-1932), y vicepresidente de la División de


Ciencias Naturales y Médicas (1955-1959) y presidente de la American

Association for the Advancement of Science.

La comunicación es definida por Shannon y Weaver como la transmisión de información


en un mensaje entre dos instancias (receptor y emisor) por medio de un canal en un
contexto que afecta a la transmisión

¿EN QUÉ CONSISTE LA TEORÍA MATEMÁTICA DE LA COMUNICACIÓN?

Se trata de un modelo de comunicación pensada en función de la cibernética, la cual es

el estudio del funcionamiento de las maquinas, especialmente, las máquinas

electrónicas.

Para Shannon (1948) la información es la Unidad cuantificable (a través de bits)

asociada a la elección, la cual está relacionada a la probabilidad; es decir, la información

es una medida del grado de libertad de elección que poseemos al momento de

seleccionar un mensaje.

Esta teoría permite, sobre todo, estudiar la cantidad de información de un mensaje en

función a la capacidad del medio. Esta capacidad se mide según el sistema binario (dos

posibilidades 0 o 1) en BITS (Binary digits) asociados a la velocidad de transmisión del

mensaje, pudiendo esta velocidad ser disminuida por el ruido.

OBJETIVOS

Mejorar la eficacia en la transmisión de información, a través de:

 La velocidad en la codificación y transmisión de los mensajes.


 La capacidad de los canales de la comunicación.
 La codificación eficaz de los mensajes, que evite la ambigüedad y los ruidos

entre emisor y receptor.


NIVELES DE LOS PROBLEMAS EN EL ESTUDIO DE LA COMUNICACIÓN

NIVEL A: PROBLEMAS TÉCNICOS:

¿Con qué nivel de exactitud pueden ser transmitidos los símbolos de la comunicación?

NIVEL B: PROBLEMAS SEMÁNTICOS:

¿Con qué nivel de precisión transmiten los símbolos el significado deseado?

NIVEL C: PROBLEMAS DE EFECTIVIDAD:

¿Con qué nivel de efectividad el significado recibido afecta a la conducta del

destinatario?

MODELO DE SHANNON Y WEAVER

ELEMENTOS DE LA TEORÍA

1. Fuente
Una fuente es todo aquello que emite mensajes. En compresión de datos se tomará

como fuente el archivo a comprimir. Es el elemento emisor inicial del proceso de

comunicación; produce un cierto número de palabras o signos que forman el mensaje a

transmitir.

Tipos de fuente

 Para la teoría de la información interesan las fuentes aleatorias y estructuradas.


 Por la naturaleza generativa de sus mensajes, una fuente puede ser aleatoria o

determinista, una fuente es aleatoria cuando no es posible predecir cuál es el

próximo mensaje a emitir por la misma.

Por la relación entre los mensajes emitidos, una fuente puede ser estructurada o no

estructurada (o caótica), una fuente es estructurada cuando posee un cierto nivel de

redundancia; una fuente no estructurada o de información pura es aquella en que todos

los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente, la

información pura no puede ser comprimida sin que haya una pérdida de conocimiento

sobre el mensaje.

2. Transmisor

Es el emisor técnico, esto es el que transforma el mensaje emitido en un conjunto de

señales o códigos que serán adecuados al canal encargado de transmitirlos. Ejemplo: el

transmisor transformara la voz en impulsos eléctricos que podrán ser transmitidos por el

canal.

3. Canal
Es el medio técnico que debe transportar las señales codificadas por el transmisor. Esta

capacidad es medida mediante el sistema binario (dos posibilidades 0 o 1) en BITS

(Binary digits) asociados a la velocidad de transmisión del mensaje, pudiendo esta

velocidad ser disminuida por el ruido. Ejemplo: en este medio será en el caso del

teléfono, los cables o la red de microondas por la empresa telefónica en comunicaciones

internacionales.

CAPACIDAD DEL CANAL:

La información, puede ser transmitida por el canal solamente si H no es mayor que C.

Donde:

H = Unidades por segundo

C = Capacidad

4. Mensaje

Un mensaje es un archivo, un paquete de datos que viaja por una red y cualquier cosa

que tenga una representación binaria (conjunto de ceros y unos) puede considerarse un

mensaje.

5. Código
Un código es un conjunto de unos y ceros que se usan para representar un cierto

mensaje de acuerdo a reglas o convenciones preestablecidas. Utilización del bit (dígito

binario 0 y1) para medir la cantidad de información. Son la base del lenguaje

computador.

6. Información

La información contenida en un mensaje es proporcional a la cantidad de bits que se

requieren como mínimo para representar al mensaje.

7. Señal

Mensaje codificado por el transmisor.

8. El receptor

Se trata del receptor técnico, cuya actividad es la inversa de la del transmisor. Su

función consiste entonces en decodificar el mensaje transmitido y conducirlo por el

canal, para transcribirlo en un lenguaje comprensible por el verdadero receptor que es

llamado destinatario. Ejemplo: el aparato telefónico, el receptor de radio o televisor.

9. El destinatario

Constituye el verdadero receptor a quien está destinado el mensaje. Ejemplo: persona a

quien se dirige el llamado telefónico, la audiencia de radio o TV.

10. El ruido

Según Shannon el ruido es flujo de información más grande que el canal. Es cualquier

cosa añadida a la señal, entre su trasmisión y su recepción, sin intención de la fuente.

Ejemplo: nieve en la pantalla de televisión, fritura o lloro en un disco, ruido de

interferencia en la radio, también la voz demasiado baja o cubierta por la música.


REDUNDANCIA

 Aquello que es predecible.


 Bajo contenido informativo.
 Permite la decodificación y permite reconocer errores.
 Disminuye la deficiencia de un canal con interferencia
 La redundancia mejora las relaciones sociales.

ENTROPÍA

 Baja predicibilidad.
 Un problema para la comunicación
 Shannon y Weaver, no toman en cuenta esta categoría para desarrollar su modelo

comunicativo.

BIBLIOGRAFÍA

- Fiske, J. (1985). “Teoría de la comunicación” en Introducción al estudio de la

comunicación. España: editorial Herder.


- Shannon, C. (1948). “A Mathematical Theory of Communication”. Revista El

Bell System Technical Journal, Vol. 27


- Weaver, W. (1949). “The Mathematics of Communication”. Revista Scientific

American.

Вам также может понравиться