Biología Sensorial Animal. Teórica #2

Biología Sensorial Animal Teórica #2 Contenido de la teórica#2 • Información: definiciones. • Introducción a la teoría de la información. Definición

0 downloads 46 Views 722KB Size

Recommend Stories


2. Los canales de comunicación sensorial TRPs como dianas farmacológicas
2. Los canales de comunicación sensorial TRPs como dianas farmacológicas ANTONIO FERRER MONTIEL RESUMEN Los canales TRP (Receptores de Potencial Tran

ANALISIS SENSORIAL E INSTRUMENTAL
UNIVERSIDAD NACIONAL SAN ANTONIO ABAD DEL CUSCO ESCUELA DE POST GRADO MAESTRIA EN CIENCIA Y TECNOLOGIA DE ALIMENTOS ANALISIS SENSORIAL E INSTRUMENTA

ANÁLISIS SENSORIAL Curso
GUIA DOCENTE DE LA ASIGNATURA ANÁLISIS SENSORIAL Curso 2012-13 MÓDULO MATERIA CURSO SEMESTRE CRÉDITOS TIPO Complementos de Formación ANÁLISI

Story Transcript

Biología Sensorial Animal Teórica #2

Contenido de la teórica#2 • Información: definiciones. • Introducción a la teoría de la información. Definición de bit. • Mediciones del contenido de información. Tasa máxima de transmisión. Costo. Contenido de Información de los organismos y capacidades de procesamiento. • Ejemplos

Ya que la información es el componente esencial en ecología química, es importante definirlo y considerar como medirlo o cuantificarlo.

Información: definiciones • A pesar de parecer un concepto obvio en la era de las computadoras, la abstracción de información es de reciente desarrollo intelectual • Como termodinámica un siglo luego máquinas vapor, ciencia de información varias decenas años luego telefonía y computadoras • No hay un acuerdo en definición cuantitativa de información • La mejor teoría se concentra en el máximo de información que puede transmitirse sin importar su contenido.

Clasificación de Interacciones Informacionales • Es común pensar transmisión de información como comunicación. Pero esta implica una transmisión deliberada y en ecología sensorial la mayoría involucra fuente inanimada. • ¿Cómo debemos definir comunicación sensorial? • Interacciones informacionales entre organismos que se clasifican de acuerdo a si: la interacción tiene ventaja adaptativa para el emisor, el receptor, para ninguno o para ambos.

Clasificación de las Interacciones Informacionales

Proceso de Comunicación Tres niveles de análisis: • Técnico – Se analiza problemas en torno a la fidelidad de transmisión del emisor al receptor

• Semántico – Significado e interpretación del mensaje

• Pragmático – Efectos conductuales de la comunicación

Norbert Wiener (1894 – 1964) Fundador de la cibernética (computación como medio de extender las capacidades humanas). “Cibernética o el control y comunicación en animales y máquinas” (1948).

Ph.D. en Matemática Harvard, trabajó en Cambridge y Göttingen. Durante 2da Guerra Mundial desarrollo guía de misiles (utilización de feedbacks) para cambiar de posición y/o dirección. El concepto de Feedback es muy importante en sistemas vivos desde plantas a animales complejos, dado que cambian sus acciones en función del ambiente.

Teoría de la Información

Harry Nyquist (1889-1976)

Ralph Hartley (1888-1970)

Claude Elwood Shannon (1916-2001) Hartley formulated the law "that the total amount of information that can be transmitted is proportional to frequency range transmitted and the time of the transmission."

Teoría de la Información ¿Cómo puede medirse la información?

En general: El contenido de información de un evento es la reducción cuantificable de incertidumbre de una situación, provista por el conocimiento generado por la resultante de dicho evento.

Midiendo el contenido de información • El tardío desarrollo de teoría cuantitativa de la información indica sus dificultades. • La energía es la capacidad de generar trabajo y la información organiza un sistema. • La transmisión de información implica disminuir la incertidumbre. Esta es mayor cuanto menor es la probabilidad de ocurrencia de un resultado (ej. moneda, dado). • El contenido potencial de información puede convertirse en un código binario estándar. • Unidad de información bit (binary digit), cantidad necesaria para distinguir entre dos eventos igualmente probables .

Midiendo el contenido de información • Ej. Inglés (64 caracteres) serie de seis valores binarios por símbolo (26 = 64). • Mensajes con N símbolos distintos cada uno con una probabilidad Pi, H (medida de entropía) • H = -∑ Pi log2 Pi • La potencial contenido de información por símbolo es máxima (Hmax) cuando cada símbolo es igualmente probable. Pi = 1/N • Hmax = log2 N.

Teoría de la Información A 000

B 001

C 010

D 011

E 100

F 101

G 110

H 111 3 bit

0

1

0

1

0

1

0

1 2 bit

0

1

0

1 1 bit

0

1 Punto de partida

Transmisión de información en un receptor ideal

Transmisión de información en un receptor ideal Receptor ideal responde a un estímulo mantenido con una descarga constante.

Si un estímulo produce un máximo de N impulsos nerviosos, el receptor puede, en teoría, diferenciar N+1 estados (intensidades) El número de impulsos (N) es producto de frecuencia de descarga (f) y tiempo de observación (t). N = f * t Máximo número de niveles distinguibles N+1 = fm * t+1 (fm)=máxima tasa de disparo Si receptor frec. disparo espontánea (fo) N+1 = (fm-fo) * t+1

H = log2 (fm * t+1) Ej. 10 estados distintos N=9

H = log2(10) = 3.3 bits

Receptor real Ruido reduce performance del canal de transmisión.

H = log2 (fm * t+1)

Receptor real

Receptor real

8 estados distintos H = log2 (8) = 3 bits o H = log10 (8) * 3,32 = 3 bits

Receptor ideal min. 300 estados distintos H = log2 (300) = 8,2 bits 8,2 bits – 3 bits = 5,2 bits (ruido!!!)

¿Solución al problema del ruido? Redundancia

Redundancia La redundancia de los idiomas permite que si se pierde una fracción de un mensaje sea posible completarlo en forma muy aproximada al original. Este hecho se puede observar al eliminar varias letras de una oración sin que ello impida al lector completar las omisiones y rehacer la oración.

Por ejemplo, en la siguiente frase han sido omitidas las vocales: CMPLT ST FRS

Teorema de muestreo de NyquistShannon • Formulada por Nyquist (1928) y demostrado formalmente por Shannon (1949) • Si la frecuencia más alta de una señal analógica es Fmax y la señal se muestrea a una tasa Fs > 2 Fmax, entonces se puede recuperar totalmente mediante una función.

Dimensiones del estímulo

Dimensiones del estímulo • Organismos con múltiples receptores adquieren información en paralelo • Hay Nr tipo de receptores y cada uno capta Ni niveles de intensidad del estímulo • • • • •

N = NiNr Hmax = Nr log2 Ni Ej. 3 receptores y 10 intensidades N = 103 o 1000 colores diferentes Hmax = 3 log2 10 ≈ 10 bits

Ruido y capacidad de información espacial en ojos compuestos

Más omatidias aumento potencial de discriminación espacial, pero menos fotones por lo tanto menor sensibilidad de contraste distingue menos niveles de intensidad.

• Si la máxima tasa de disparo o frecuencia de potenciales de acción de una neurona es fmax, entonces la información que puede transmitirse en un tiempo t es: • Hmax = log2 (t * fmax + 1)

Tasa máxima de transmisión • Tasa transmisión limitada por ancho banda y ruido • Ruido patrones no asociados a la señal producto de ruido térmico (movimiento al azar de moléculas), fluctuaciones estadísticas (ej. # fotones detectados a bajo nivel de luz) y información originada por emisor distinto al de interés.

• Si el total del ancho de banda del canal (B) se distribuye entre a señal (S) y el ruido (N) • RM = B log2 (1 + S/N) RM: tasa máx. de transmisión (bits/s) • Si la relación señal-ruido es 1 máx. tasa ancho banda

Tasa máxima de transmisión • Ancho banda 7 kHz para entender sílabas individuales del habla humana • Nos comunicamos menores ancho banda (tel. radio AM) por redundancia del lenguaje • RM = B log2 (1 + S/N) • Si la relación señal-ruido es 1 máx. tasa ancho banda

Costo energético de la Información • Cuando se obtiene información disminuye la entropía termodinámica porque disminuye el # de posibles estados distintos del receptor • El cambio de entropía por bit es: ΔS = kB ln 2 • Que es equivalente a el cambio de energía libre: ΔG = TΔS = kB T ln 2 = 0,7 kB T (kB = cte. Boltzmann) • A temp. fisiológicas: 0,6 kcal/mol, hidrólisis de 1 ATP energía para obtener 20 bits de información • 1% MR energía para procesar 1020 bits/s • Poco costoso, pero construir y mantener sistema de procesamiento de información más costoso.

Contenido de Información de los organismos • Información para construir un organismo (posición de cada átomo excepto agua) 1028 bits (si considera moléculas 100 veces menos) • Capacidad de información de genoma humano (secuencia de nucleótidos) 109 bits y bacteria 1000 veces menos • Discrepancia, genoma explica proceso por el cual se forma un organismo y no posición de todas las moléculas (algoritmo computadora) • Difícil medir contenido información mensajes

Información en psicología • En psicología experimental (psicofísica) se utiliza información cuantitativa • Gráfico escalera en función de intensidad subjetiva (no frec. de disparo) • Presión en piel aprox. 3 bits/estímulo similar a rta de receptor individual (otros receptores es redundancia)

Capacidad del canal • Se mide experimentalmente • Ej. Mecanoreceptor secuencia del estímulo cada vez más rápida y simultáneamente acortando el estímulo individual • Duración

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.