En las siguientes líneas vamos a estar desentrañando que es la entropía para las teorías de la información.

La probabilidad es aquella que luego de numero de repeticiones que aumenta una fracción obtiene un valor.

Predecir es tomar en base al pasado con las probabilidades decir lo que va a pasar en el futuro. Asignar un cálculo probabilístico a futuros acontecimientos en función de la historia de conocimientos que tengo sobre esos acontecimientos en el pasado. Esto ultimo es lo que le otorga plausibilidad a esa probabilidad. El hecho de haberse dado produce una importante relación entre la información y la plausibilidad.

Si nos enfocamos en la información que falta siempre vamos a tener desinformación como consecuencia, ya que la distribución de atención que realizamos esta dada en aquello que no nos lleva a la probabilidad. A mayor desinformación mayor incertidumbre.

Donde se nos plantea un dilema de elección a que le prestamos nuestra atención esta cuando la cantidad de información probabilística que tenemos es igual a la que nos falta.

El espacio muestra, son las muestras en las que nos basamos, es decir todos los posibles acontecimientos que analizamos en los que pasó eso que decimos que va a pasar.

Un evento es el conjunto de los posibles estados.

Vamos a ir explicando con un ejemplo lo que tenemos hasta acá. Estoy esperando a alguien que de 10 veces que nos encontramos, esta persona llegó 6 veces 15 minutos mas tarde de la hora acordada.

Debido a la historia es probable que vuelva a llegar con 15 minutos de retraso, ya que fueron mas esas veces, por ende lo tomo como plausible. Aunque también podría tomar lo que llamamos la variable aleatoria fijando en las 4 veces que llegó a la hora convenida con anterioridad. La variable aleatoria, más allá de formar parte de la desinformación ya que sucedió menos veces en la muestra que tengo. Esta dentro de las posibilidades. Si vuelve a suceder esto hace la que información que yo tengo para predecir el evento futuro tienda a la media. Llevándonos nuevamente a la incertidumbre.

 

Entropía para la comunicación

Lo que realizamos en incertidumbre es tomar la información en forma relativa. Esto siempre lo hacemos realizándonos preguntas acerca de este evento. Las preguntas tienen que llevarme a respuestas concretas sobre la información que cuento.

¿Cuál es la máxima información que puedo tener hoy para predecir un evento? ¿Cómo puedo obtener esa información?

 

Si tomamos el ejemplo que vimos anteriormente seria, La máxima información que tengo es que de 10 veces 6 llegó 15 minutos mas tarde que la hora acordada. ¿Cómo puedo obtener mas información? Por ejemplo, preguntándole a más gente que se haya reunido con esa persona. De ahí surge la pregunta ¿conozco mas gente que haya reunido con esa persona? Y así hasta que no se me ocurran mas preguntas.

El punto es que con cada respuesta vamos a actualizar la distribución de probabilidades que tenemos para poder predecir un evento futuro sea cual fuere.

Esto nos ayuda a ponernos en situaciones más reales con respecto a la esperable para el evento y a la plausibilidad de nuestras probabilidades.

Las preguntas también pueden convertirse en una variable aleatoria en la medida que podamos o no obtener una respuesta sobre ellas. Esto se arregla con las respuestas.

La entropía saca el promedio de cuanto espacio necesitamos para almacenar el estado completo de un sistema que estemos analizando. También esto puede complejizarse cuando las respuestas en vez de tener respuestas únicas pasan a tener respuestas binarias o ternarias incluso, que estas aportan más confusión que previsibilidad.

Entonces siendo la entropía algo que parece exclusivamente matemático, lo podemos llevar a la comunicación entre las personas.

Y también tener en cuenta lo importante que es preguntar y preguntarse siempre para poder comunicarnos mejor.