Anda di halaman 1dari 14

Martes 08 de Diciembre de 2009 17:02

TEORIA DE LA INFORMACIN
Ivn Tercero Talavera

La Informacin, la Energa y la Materia, han sido consideradas las tres categoras fundamentales de la Naturaleza. Segn James G. Miller las clulas, rganos, organismos, grupos, corporaciones, naciones y organizaciones supranacionales, todos tienen en comn que son entidades procesadoras de Materia, Energa e Informacin. Willie Maartens

Pierre Madl y Maricela Yip, de la Universidad de Salzburgo, afirman que: De acuerdo a las teoras de la relatividad y a la mecnica cuntica, no hay una diferencia esencial entre materia, frecuencia y energa. La informacin determina la forma y la gestalt. Mediada con la energa necesaria, la informacin materializada es la materia. Pierre Madl y Maricela Yip La informacin es un fenmeno que proporciona significado o sentido a las cosas. En sentido general, la informacin es un conjunto organizado de datos procesados, que constituyen un mensaje sobre un determinado ente o fenmeno. Los datos se perciben, se integran y generan la informacin necesaria para producir el conocimiento que es el que finalmente permite tomar decisiones para realizar las acciones cotidianas que aseguran la existencia. La sabidura consiste en determinar correctamente cundo, cmo, dnde y con qu objetivo emplear el conocimiento adquirido. La informacin tambin indica mediante cdigos y conjuntos de datos, los modelos del humano. La informacin por lo tanto, procesa y genera el

conocimiento humano. ... Existe una relacin indisoluble entre los datos, la informacin, el conocimiento, el pensamiento y el lenguaje, por lo que una mejor comprensin de los conceptos sobre informacin redundar en un aumento del conocimiento, ampliando as las posibilidades del pensamiento humano, que tambin emplea el lenguaje -oral, escrito, gesticular, etc.-, y un sistema de seales y smbolos interrelacionados. wikipedia-Informacin

EN QUE CONSISTE LA TEORIA DE LA INFORMACIN?


Teora de la informacin es una rama de la teora matemtica de la probabilidad y la estadstica que estudia la informacin y todo lo relacionado con ella: canales, compresin de datos, criptografa y temas relacionados. wikipedia-Teora de la Informacin la teora de la informacin fue desarrollada por Claude E. Shannon para encontrar los lmites fundamentales en la compresin y almacenamiento confiable y comunicacin de datos. ... se ha ampliado para encontrar aplicaciones en muchas otras reas, incluyendo inferencia estadstica, procesamiento del lenguaje natural, criptografa, otras redes diferentes a las redes de comunicacin como en neurobiologa, la evolucin y funcin de cdigos moleculares, seleccin de modelos en ecologa, fsica trmica, computacin cuntica, deteccin de plagiarismo y otras formas de anlisis de datos. Una medida clave de la informacin en la teora es conocida como entropa, la que usualmente se expresa como el nmero promedio de bits necesarios para almacenamiento o comunicacin. ...La entropa cuantifica la incertidumbre involucrada al encontrar una variable al azar. Por ejemplo, tirar una moneda (con dos resultados probables) tendr menos entropa que tirar un dado (con 6 resultados igualmente probables). Aplicaciones de tpicos fundamentales de la teora de la informacin incluyen compresin sin prdida de datos (ej. Archivos ZIP), compresin de datos con prdida (ej. MP3s), y codificacin de canal (ej. Para lneas DSL). El campo est en la interseccin de las matemticas, estadstica, ciencias de la

computacin, fsica, neurobiologa, e ingeniera elctrica. Su impacto ha sido crucial para el xito de las misiones del Voyager al espacio profundo, la invencin del disco compacto, la factibilidad de los telfonos mviles, el desarrollo de Internet, el estudio de la lingstica y la percepcin humana, la comprensin de los agujeros negros, y otros campos numerosos. Subcampos importantes de la teora de la informacin son la codificacin de fuentes, codificacin de canales, teora de la complejidad algortmica, teora de la informacin algortmica, y medida de la informacin. wikipedia-Information theory Segn el trabajo original de Shannon: Un sistema de comunicacin consiste de cinco partes esenciales: 1. Una Fuente de Informacin que produce un mensaje o secuencia de mensajes a ser comunicados a una terminal receptora. Los mensajes pueden ser de varios tipos: a) una secuencia de letras, b) una funcin nica de tiempo ft como en radio o telefona; c) una funcin de tiempo y otras variables como en la televisin en blanco y negro- aqu el mensaje puede considerarse como una funcin fxy de dos coordenadas espaciales y tiempo, la intensidad de la luz en el punto xy y tiempo t en la placa del tubo; d) dos o ms funciones de tiempo, es decir ft, gt, ht- este es el caso de la transmisin de sonido tridimensional o si el sistema intenta servir varios canales individuales en mltiple; e) varias funciones de varias variablesen la televisin de color consiste de tres funciones fxyt, gxyt, hxyt definidas en un continuo tridimensionaltambin podemos pensar de esas tres funciones como componentes de un campo de vectores definido en la reginsimilarmente, varias fuentes de televisin blanco y negro produciran mensajes consistentes de un nmero de funciones de tres variables; f) tambin pueden ocurrir varias combinaciones, por ejemplo en televisin con un canal de audio asociado. 2. Un Transmisor que opera sobre el mensaje de alguna manera para producir una seal adecuada para la transmisin a travs del canal. En telefona esta operacin consiste meramente de cambiar la presin de sonido en una corriente elctrica proporcional. En telegrafa tenemos una operacin de codificacin que produce una secuencia de puntos, rayas y espacios en el canal correspondiente al mensaje. En un sistema PCM mltiple las diferentes funciones de lenguaje deben ser muestreadas, comprimidas, cuantificadas y codificadas, y finalmente interfoliadas adecuadamente para construir la seal. Sistemas Vocoder, televisin y frecuencia modulada son otros ejemplos de operaciones complejas aplicadas al mensaje para obtener la seal. 3. El canal es meramente el medio utilizado para transmitir la seal del transmisor al receptor. Puede ser un par de alambres, un cable coaxial, una

banda de frecuencia de radio, un haz de luz, etc. 4. El Receptor ordinariamente realiza la operacin inversa de la hecha por el Transmisor, reconstruyendo el mensaje de la Seal. 5. El Destino es la persona (o cosa) para quien se propone el mensaje. Podemos clasificar los sistemas de comunicacin en tres categoras principales: Discretos, Continuos y Mixtos. Entendemos como Sistema Discreto uno en el que ambos Mensaje y Seal son una secuencia de smbolos discretos. Tpico caso es el telgrafo donde el mensaje es una secuencia de letras y la seal una secuencias de puntos, rayas y espacios. Un Sistema Continuo es uno en el que el Mensaje y la Seal son tratados como funciones continuas, ej. Radio o televisin. Un Sistema Mixto es uno en el que aparecen ambas, variables Continuas y Discretas, ej. Transmisin de palabras PCM. Shannon-1948 Se afirma que uno de los postulados bsicos de la teora de la informacin es que la informacin puede ser tratada como una cantidad fsica mensurable, tal como la densidad o la masa. La teora ha sido ampliamente aplicada por ingenieros de comunicacin y algunos de sus conceptos han encontrado aplicacin en psicologa y lingstica. Los elementos bsicos de cualquier sistema general de comunicacin incluyen: 1. una fuente de informacin que es un instrumento de transmisin que transforma la informacin o mensaje en una forma adecuada para transmisin por un medio particular. 2. el medio o canal por el que se transmite el mensaje. 3. Un instrumento de recepcin que decodifica el mensaje a alguna aproximacin de su forma original. 4. El destino o recipiente propuesto del mensaje. 5. una fuente de ruido (ej. Interferencia o distorsin) la cual cambia el mensaje de maneras impredecibles durante la transmisin. Es importante tomar nota que informacin como se entiende en la teora de la informacin no tiene nada que ver con el significado inherente del mensaje. Es ms bien un grado de orden, o no casualidad, que puede ser medido y tratado matemticamente al igual que se hace con la masa o la energa u otras cantidades fsicas. Una caracterizacin matemtica del sistema generalizado de comunicacin origina una serie de cantidades importantes, que incluyen: 1. la proporcin a la que la informacin se produce en la fuente.

2. la capacidad del canal para manejar la informacin 3. La cantidad promedio de informacin en un mensaje de cualquier tipo. En gran parte las tcnicas utilizadas con la teora de la informacin se han derivado de la ciencia matemtica de las probabilidades. Los estimados de exactitud de una transmisin dada de informacin bajo condiciones conocidas de interferencia de ruido, por ejemplo, son probabilsticas, como lo son los numerosos enfoques para codificar y decodificar que se han desarrollado para reducir la incertidumbre y el error a niveles mnimos. Informacin e Incertidumbre son trminos tcnicos que describen cualquier proceso que selecciona uno o ms objetos de un conjunto de objetos. No estaremos tratando con el significado o implicaciones de la informacin ya que nadie conoce como hacerlo matemticamente. Supongamos que tenemos un instrumento que puede producir 3 smbolos, A, B o C. Conforme esperamos el prximo smbolo, estamos inciertos sobre qu smbolo se producir. Una vez que aparece un smbolo y lo vemos, nuestra incertidumbre disminuye, y advertimos que hemos recibido alguna informacin. Esto es, informacin es una disminucin de la incertidumbre. Cmo debe medirse la incertidumbre?. La manera ms simple debera ser decir que tenemos una incertidumbre de 3 smbolos. Esto funcionara bien hasta que empezamos a mirar un segundo aparato al mismo tiempo, el que, vamos a imaginar, produce smbolos 1 y 2. El segundo aparato nos da una incertidumbre de 2 smbolos. Si combinamos los dos aparatos en uno, hay seis posibilidades A1, A2, B1, B2, C1, C2. Este aparato tiene una incertidumbre de 6 smboloss. Esta no es la manera como usualmente pensamos sobre informacin, porque si recibimos dos libros, preferiramos decir que hemos recibido el doble de informacin que de uno solo. Esto es nos gustara que nuestra medida fuera aditiva. barzana

QU DICE SOBRE EL TEMA LA ENCICLOPEDIA COLUMBIA?

Aunque la teora no es especfica en todos los respectos, provee la existencia de esquemas ptimos de codificacin sin mostrar cmo encontrarlos. Por ejemplo, tiene xito notable en bosquejar los requerimientos de ingeniera de sistemas de comunicacin y las limitaciones de tales sistemas. En la teora de la Informacin, el trmino informacin es utilizado en un sentido

especial; es una medida de la libertad de eleccin con la cual un mensaje es seleccionado dentro de un conjunto de mensajes posibles. Informacin es de esta manera distinta de significado, ya que es completamente posible para una cadena de palabras sin sentido y una oracin con significado ser equivalentes con respecto a contenido de informacin. Medida del Contenido de Informacin Numricamente, la informacin es medida en bits (acortamiento de binary digit; ver sistema binario). Un bit es equivalente a la eleccin entre dos selecciones igualmente posibles. Por ejemplo, si sabemos que se va a tirar una moneda al aire, pero no podemos verla cuando cae, un mensaje que nos diga si la moneda cay de cara o sol nos da un bit de informacin. Cuando hay varias selecciones igualmente posibles, el nmero de bits es igual al logaritmo del nmero de elecciones tomado a la base de dos. Por ejemplo, si un mensaje especifica una de diecisis elecciones igualmente posibles, se dice que contiene cuatro bits de informacin. Cuando las varias selecciones no son igualmente probables, la situacin es ms compleja. Interesantemente, la expresin matemtica para contenido de informacin recuerda muy cercanamente la expresin para entropa en termodinmica. Entre mayor es la informacin en un mensaje, menor es el azar, o ruido, y por tanto menor es su entropa. Ya que el contenido de la informacin est, en general, asociado con una fuente que genera mensajes, a menudo se le llama la entropa de la fuente. A menudo, debido a las limitaciones tales como la gramtica, una fuente no utiliza su capacidad total de elecciones. Una fuente que utiliza solo el 70% de su libertad de eleccin se dira que tiene una entropa relativa de 0.7. La redundancia de tal fuente se define como 100% menos la entropa relativa, o, en este caso, 30%. Se estima que la redundancia del Ingls es de alrededor del 50%; por ejemplo, alrededor de la mitad de los elementos utilizados en escribir o hablar son elegidos libremente, y el resto son requeridos por la estructura del lenguaje. Anlisis de la Transferencia de Mensajes a travs de Canales Un mensaje viaja a lo largo de un canal desde la fuente hasta el receptor; la teora de la informacin define para cualquier canal dado una capacidad limitada o tasa a la cual el canal puede transportar informacin, expresada en bits por segundo. En general, es necesario procesar, o codificar informacin de una fuente antes de transmitirla a travs de un canal dado. Por ejemplo, una voz humana debe ser codificada antes de que pueda ser transmitida por telfono. Un importante teorema de la teora de la informacin establece que si una fuente con una entropa dada alimenta informacin a un canal con una capacidad dada, y si la entropa de la fuente es menor que la capacidad del canal, existe un cdigo para el cual la frecuencia de errores puede reducirse tan bajo como se desee. Si la capacidad del canal es menor que la entropa de la fuente, no existir tal cdigo.

Adicionalmente la teora muestra que el ruido, o disturbio al azar en el canal, crea incertidumbre sobre la correspondencia entre la seal recibida y la seal transmitida. A la incertidumbre promedio en el mensaje cuando se conoce la seal se le llama equivocacin. Se ha demostrado que el efecto neto del ruido es reducir la capacidad de informacin del canal. Sin embargo, redundancia en un mensaje, distinguindola de redundancia en una fuente, hace ms probable que el mensaje pueda ser reconstruido en el receptor, sin error. Por ejemplo, si algo ya se conoce como cierto, entonces todos los mensajes sobre ello no dan informacin y son 100% redundantes, y la informacin es por consiguiente inmune a cualquier disturbio del canal. Utilizando diferentes medios matemticos, Shannon fue capaz de definir la capacidad del canal para seales continuas, tales como la msica y el lenguaje. The Columbia Encyclopedia, Sixth Edition. 2008. Encyclopedia.com. 30 Nov. 2009

CULES SON LOS ANTECEDENTES HISTORICOS DE ESTA TEORA?


...el primer matemtico en interesarse en este tema fue Harry Nyquist (1924), la primera formulacin de las leyes matemticas que la rigen fue realizada por Ralf Hartley (1928). Sus ideas son consideradas hoy en da como la gnesis de la Teora de la Informacin.Sin embargo, aquellos que crearon los fundamentos tericos de referencia para otros investigadores fueron el ingeniero Claude Shannon (19162001) y el socilogo y matemticoWarrer Weaver (18921957) a partir de la publicacin conjunta de dos artculos: The Mathematical Theory of Communication (1949) de Shannon y Recent Contributions to the Mathematical Theory of Communication (1949) de Weaver. Bienvenido Arana Rodrguez

REPRESENTACIN DEL MODELO DE TRANSMISIN DE LA INFORMACIN DE SHANNON

http://librepensante.org/notes/noteimg/2007/image4.png LOS TEOREMAS DE LA TEORIA DE LA INFORMACION DE SHANNON El nombre de Shannon se asocia a dos teoremas que tuvieron una grandsima importancia en el desarrollo de la ciencia de la computacin y en las comunicaciones digitales. El primero seala que el nmero de bits necesarios para describir unvocamente una fuente de informacin puede aproximarse al correspondiente contenido de informacin tanto como se desee (teorema de codificacin de la fuente). El segundo teorema declara que el ratio de errores de los datos transmitidos en un canal confinado y con ruido puede reducirse a una cantidad arbitrariamente pequea si la velocidad de transmisin es menor que la capacidad del canal (teorema de la codificacin del canal). ...Las consecuencias de las consideraciones de Shannon arrojaron una luz significativamente esclarecedora sobre la comunidad de cientficos e ingenieros. El primer teorema fue aceptado sin discusiones, entre otra razn porque con anterioridad no exista ninguna teora comparable ni contrapuesta. En cuanto al segundo, el teorema de la codificacin del canal, hubo un rechazo inicial debido en buen parte a la dificultad para comprenderlo desde el punto de vista terminolgico y de notacin matemtica. Sin embargo, su validez y tremendo significado fueron puestos en evidencia un poco ms adelante por los cientficos que desarrollaron la teora de la codificacin: Hamming, Elias, Bose, Reed, Berlekamp, Forney y Vierbi, entre otros. Como es sabido el espectacular cambio

en la tecnologa de las comunicaciones debe mucho a las personas mencionadas. http://www.tecnova.es/ti/historias05.htm CRITICAS A LA TEORIA DE LA INFORMACIN Segn un trabajo del Prof. Ricardo Lpez Prez, de la Facultad de Ciencias Sociales de la Universidad de Chile: Un antecedente obligado en el estudio de la comunicacin ha sido por mucho tiempo la llamada teora de la informacin, formulada a finales de los 40 por el ingeniero Claude E. Shannon. En su intencin original esta teora es de un alcance muy acotado, debido a que se refiere slo a las condiciones tcnicas que permiten la transmisin de mensajes, pero eso no impidi que lograra una amplia repercusin y terminara elevada a la calidad de paradigma. .... Los problemas que han de estudiarse en un sistema de comunicacin tienen que ver con la cantidad de informacin, la capacidad del canal de comunicacin, el proceso de codificacin que puede utilizarse para cambiar el mensaje en una seal y los efectos del ruido, (1984, Pg. 36). A lo largo de este movimiento orientado linealmente se encuentra un conjunto de componentes que pueden ser distinguidos en forma precisa, por su ubicacin y su funcin. Fuente: Componente de naturaleza humana o mecnica que determina el tipo de mensaje que se transmitir y su grado de complejidad. Transmisor: Recurso tcnico que transforma el mensaje originado por la fuente de informacin en seales apropiadas. Canal: Medio generalmente fsico que transporta las seales en el espacio. Cumple una funcin simple de mediacin y transporte. Ruido: Expresin genrica utilizada para referirse a variadas distorsiones originadas en forma externa al proceso de comunicacin. Receptor: Recurso tcnico que transforma las seales recibidas en el mensaje concebido por la fuente de informacin. Destino: Componente terminal del proceso de comunicacin, al cual est dirigido el mensaje. Es el elemento decisivo para pronunciarse sobre la fidelidad de la comunicacin. A poco andar estos trminos pasaron a formar parte de la jerga comunicacional y aun del lenguaje corriente, desarrollando una existencia propia, con independencia del marco explicativo en que tuvieron origen. Comenz a ser comn hablar de fuente, emisor, mensaje, canal, destinatario o receptor. Su representacin grfica se ha usado una y otra vez agregando o quitando algn elemento, pero siempre manteniendo su apego a una estricta causalidad lineal. ... Del mundo de los cables telefnicos se salt a las interacciones humanas sin

demasiadas precauciones; y corresponde sin duda a Warren Weaver el mrito de haber sacado esta teora desde los restringidos lmites de la dimensin tcnica, dotndola de universalidad. Su esfuerzo fue sin duda deliberado. ... Es evidente que en su origen la propuesta de Shannon es completamente ajena a la comunicacin desde una perspectiva social. Aqu no estn directamente comprometidas ni personas ni grupos. No hay interacciones, influencias, emociones, percepciones, aprendizajes u otros elementos de carcter psicosocial. No aparecen variables de tipo situacional, como tampoco aparece la cultura en ninguna de sus manifestaciones. En sntesis, tal como fue concebido, este modelo no se refiere a las personas como protagonistas de la comunicacin, sino al proceso desde la perspectiva de sus aspectos mensurables, al estudio de las condiciones idneas de transmisin de informacin entre mquinas; y al clculo del volumen o prdida de la informacin transmitida a travs de un canal. Nada de esto, sin embargo, rest energa al socilogo Weaver ni impidi su popularizacin y posterior aplicacin para representar distintas expresiones de la comunicacin humana. Su esquema simple, de fcil adaptacin, y su apariencia de objetividad, abrieron las puertas para una divulgacin exitosa. Esto se expres en forma manifiesta en la adopcin amplia de su terminologa, y como una contribucin a la forma analtica y descontextualizada de interpretar el proceso de la comunicacin. Weaver ha forzado las cosas hasta un punto difcil de aceptar. Hablar de un aparato telefnico como transmisor y de un cable como canal, es muy coherente en un contexto ingenieril. El telfono efectivamente transforma la presin del sonido de la voz en una seal elctrica, y gracias a esto se produce la comunicacin a distancia desde un punto de vista tcnico. Pero homologar esos elementos, por ejemplo, por el "sistema vocal" o el "octavo par de nervios craneanos", es un paso arriesgado. Privilegiar los problemas de codificacin, magnitud de la informacin y capacidad del canal, es poner la experiencia de la comunicacin por debajo de su complejidad y riqueza. La teora de la informacin es con toda propiedad una teora de la transmisin, bien adaptada para responder a los requerimientos tcnicos de una empresa telefnica, pero incapaz de servir de marco explicativo para una experiencia social como es la comunicacin interpersonal. .... En la actualidad prcticamente no se encuentra un texto especializado de orientacin social en que no se aborde crticamente el examen de esta teora. Yves Winkin resume la posicin de los autores de la universidad invisible, que incluye a pensadores tan prestigiosos como Gregory Bateson, Ray Birdwhistell, Edward Hall, Erving Goffman, Don Jackson y Paul Watzlawick, mostrando su

clara coincidencia abandonar este modelo. Winkin resume las cosas del siguiente modo: Dicho consenso se funda en una oposicin a la utilizacin en las ciencias humanas del modelo de la comunicacin de Shannon. Segn estos investigadores, la teora de Shannon ha sido concebida por y para ingenieros de telecomunicaciones, y hay que dejrselas a ellos. La comunicacin debe estudiarse en las ciencias humanas segn un modelo que le sea propio. Estos investigadores estiman que la utilizacin del modelo de Shannon en lingstica, antropologa o psicologa ha conducido al resurgimiento de los presupuestos clsicos de la psicologa filosfica sobre la naturaleza del hombre y de la comunicacin. Segn ellos, la concepcin de la comunicacin entre dos individuos como transmisin de un mensaje sucesivamente codificado y despus decodificado, reanima una tradicin filosfica en la que el hombre se concibe como un espritu enjaulado en un cuerpo, que emite pensamientos en forma de ristras de palabras. Esas palabras salen por un orificio ad hoc y son recogidas por embudos igualmente ad hoc, que las envan al espritu del interlocutor, el cual las analiza y extrae su sentido. Segn esta tradicin, la comunicacin entre dos individuos es, pues, un acto verbal, consciente y voluntario, (1982, Pgs. 20 y 21). Precisamente, en este ambiente intelectual, la pragmtica de la comunicacin, con seguridad un enfoque de gran desarrollo terico ya a partir de los 70, marca un quiebre que implica saltar fuera del modelo de causalidad lineal, y avanzar hacia un planteamiento interaccional de perspectiva antropolgica y circular. Una elemental consideracin de los axiomas exploratorios de la comunicacin, reposiciona todo el estudio de la comunicacin interpersonal respecto al modo como se desprende del modelo de Shannon y Weaver, (Watzlawick y otros, 1982, cap. 2). ... As, las crticas han ido surgiendo por todas partes. En Europa el lingista Bernard Rim de la Universidad de Lovaina, asociado a las investigaciones del psiclogo social Serge Moscovici y a la Escuela de Ginebra, formula el siguiente planteamiento: Este modelo sirvi de base al estudio psicolgico del lenguaje y de la comunicacin, llevado a cabo desde 1952 con el nacimiento de la psicolingstica. Sin embargo, presenta un lmite que implicar graves consecuencias para la orientacin de estos trabajos. Inspirado en las mquinas, este modelo har que los investigadores desprecien el hecho de que la fuente y el destinatario son los seres humanos y que entre ellos, en la comunicacin, se establece una relacin psicosocial. Los psicolingstas han puesto entre parntesis la cuestin del locutor, del auditor y de la interaccin de sus expectativas, caractersticas, actitudes, intereses y motivaciones, para

preocuparse nicamente de las operaciones de codificacin y desciframiento, (1984, pg. 536). Tambin el gran pensador canadiense Marshall McLuhan se refiere al modelo de Shannon y Weaver, atribuyndole una inusitada importancia. En un libro pstumo, en que aparece en calidad de coautor con su hijo Eric, retoma la crtica sealando que la influencia de este modelo ha sido poderosa, al extremo de constituirse en el punto de referencia privilegiado de toda la teorizacin occidental sobre comunicacin. Sostiene McLuhan: El modelo de comunicacin de Shannon-Weaver, base de todas las teoras occidentales contemporneas de los medios informativos y de comunicacin, tipifica la tendencia lineal del hemisferio izquierdo. Esta es una especie de modelo de plomera de un recipiente de hardware para un contenido software. Subraya la idea de "dentro" y "fuera" y presupone que la comunicacin es una especie de apareamiento real y no de creacin resonante. ( ... ) El modelo Shannon-Weaver y sus derivados siguen la pauta lineal de la causa eficiente: La nica forma secuencial de causalidad, (1990, pgs. 99 y 100). La influencia de este modelo ha sido importante. McLuhan le atribuye la responsabilidad de provocar una particular interpretacin de los fenmenos comunicacionales, en trminos de un transporte secuencial y lineal de datos como simples contenidos destacados, pasando por alto completamente el campo de los usuarios y de la sensibilidad. Cuestiona tambin el haber condenado al olvido todos los efectos laterales que siempre posee un sistema de comunicacin, pretendiendo que un canal puede ser concebido como un recurso neutro. Los tres conceptos que McLuhan utiliza con mayor frecuencia para calificar el legado de Shannon y Weaver son lineal, secuencial y lgico. Desde luego, si nos atenemos a la fuerza de toda esta crtica y a la autoridad intelectual de sus autores, no parece quedar nada que nos permita seguir insistiendo en su vigencia. En el plano de las ideas, el modelo de Shannon y Weaver est superado para las ciencias sociales, pero no podemos dejar de reconocer el hecho de que este modelo, excesivamente analtico, lineal, causal, verbal y descontextualizado, ha sido por dcadas una poderosa influencia para quienes se ocupan de la comunicacin. Permiti visualizar, medir y objetivar elementos de un proceso continuo e interconectado. Petrific el movimiento y lo hizo accesible. Ciertamente, no se trata de una influencia siempre abierta, sino lo contrario. Sin que se lo recuerde explcitamente, sin que sea citado con toda formalidad, sin que habitualmente se mencionen los nombres de sus autores, su presencia ha dejado hasta hoy una huella evidente. Esto, por lo dems, est implcito en el mismo hecho de que haya suscitado tanta energa crtica. No se explica que autores de conocida respetabilidad intelectual, dediquen toda esa tinta para referirse a un modelo que slo pas sin

impresionar

nadie.

En ltimo trmino, la fuerza de este modelo est en haber proporcionado una terminologa pegajosa de fcil aplicacin, y un marco conceptual simple que inadvertidamente se instala en el discurso de divulgadores y pedagogos cuando eligen la comunicacin como centro de sus preocupaciones. Al final, se trata de una herencia que ms que ayudarnos a reconocer y comprender la profundidad de la comunicacin como fenmeno psicolgico y social, nos ha mantenido alejados de ella." http://www.comminit.com/en/node/149886 Segn lo afirma Joseph Goguen: La necesidad de una buena teora de la informacin es apremiante. La sociedad est demandando sistemas de informacin cada vez ms grandes y complejos. Esto implica que una adecuada teora de la informacin tendra que tomar en cuenta el contexto social, incluyendo cmo se produce y utiliza la informacin, ms que simplemente cmo es representada; esto es, necesitamos una teora social de la informacin, no nicamente una teora de representacin. Indudablemente la teora de la informacin mejor conocida y ms popular hoy es la de Claude Shannon. Quizs su concepto ms bsico es el de bit, el cual es desde luego muy fundamental en la ciencia de la computacin. El nmero de bits asociados con alguna informacin es realmente solo una medida de su tamao, y es til para determinar la cantidad de memoria necesaria para almacenarla, o cunto se tardara para bajarla. Sin embargo, el nmero de bits en un archivo no nos dice nada sobre su contenido. La teora de la informacin de Shannon, es una teora cientfica reduccionista, con muchas aplicaciones reales en ingeniera, y se han hecho muchos intentos para extenderla y cubrir no solo el volumen, sino tambin el contenido de la informacin. Ninguno de esos intentos han tenido xito, y yo declarara que ninguna teora reduccionista puede posiblemente tener xito, porque ningn enfoque de ese tipo puede tomar en consideracin los conceptos, mtodos, y valores de los miembros de los grupos sociales, los que sabemos, por nuestro estudio de etnometodologa, son esenciales para comprender cmo funcionan en realidad los sistemas existentes de informacin/sociales. http://cseweb.ucsd.edu/~goguen/courses/171sp01/10.html

ENLACES INTERESANTES:

A Mathematical Theory of Communication: An introduction to information theory and entropy: Claude Shannon: Information: Comunicacin: Anotaciones cientficas de Seducciones de la Informtica: Teora de la Informacin: TEORIA DE LA INFORMACIN. MANEJO DE CLAVES: La comunicacin segn la fuente funcionalista: Cybernetics and Stochastic Systems: Information Theory: Claude Shannon and Warren Weaver: A short course in Information Theory: Evaluacin de portales electrnicos de Ciencias Sociales. Una propuesta conceptual.

FUENTES DE LAS IMAGENES:


http://es.wikipedia.org/wiki/Comunicaci%C3%B3n http://librepensante.org/notes/noteimg/2007/image4.png Ivn Tercero Talavera

Anda mungkin juga menyukai