Diferencia entre "información" e "información útil" en la teoría de la información algorítmica

16

De acuerdo con Wikipedia :

Informalmente, desde el punto de vista de la teoría de la información algorítmica, el contenido de información de una cadena es equivalente a la longitud de la representación autónoma más corta posible de esa cadena.

¿Cuál es la definición rigurosa informal análoga de "información útil"? ¿Por qué la "información útil" no se toma como el concepto más natural o más fundamental? ingenuamente parece que una cadena puramente aleatoria, por definición, debe contener información cero, por lo que estoy tratando de entender el hecho de que la definición estándar considera que tiene información máxima.

usuario1247
fuente
2
¡Bienvenido! Tenga en cuenta que puede cambiar su nombre de usuario a algo que las personas puedan reconocer cuando se convierta en un visitante habitual.
Raphael

Respuestas:

12

El concepto central aquí es la complejidad de Kolmogorov , y más específicamente la compresibilidad . Para tener una sensación intuitiva de compresibilidad, considere dos cadenas y B B , donde B = { 0 , 1 } . DejarABBBB={0,1}

1010 1010 1010 , yA=1010 1010 1010 1010

0110 0111 1001 .B=1011 0110 0111 1001

Tenga en cuenta que . ¿Cómo podríamos cuantificar cuánta información tiene A o B ? Si pensamos en la teoría de la información clásica, en general, transmitir una cadena de longitud n toma n bits en promedio. Sin embargo, no podemos decir cuántos bits necesitamos para transmitir una cadena específica de longitud n .|A|=|B|=16ABnnn

¿Por qué el contenido de información de una cadena aleatoria no es cero?

En una mirada más cercana, podemos ver que, de hecho, . Sin embargo, es mucho más difícil decir si B tiene ningún patrón obvio en su estructura, por lo menos, parece y se siente más al azar que A . Como podemos encontrar un patrón en A , podemos comprimir fácilmente A y representarlo con menos de 16 bits. Del mismo modo, dado que no es fácil detectar ningún patrón en B , no podemos comprimirlo tanto. Por lo tanto, podemos decir que B tiene más información que una . Además, una cadena aleatoria de longitud nA=108BAAA16BBAntiene información máxima ya que no hay forma de que podamos comprimirla y, por lo tanto, representarla con menos de bits.n

¿Qué es información útil, entonces?

Para información útil , sí, hay una definición usando una máquina de Turing . La información útil en x B esTxB

minT { l(T)+C(x|T):T{T0,T1,...}},

donde indica la longitud de una codificación de auto-limitante para una máquina de Turing T . La notación es normalmente tal que C ( x ) indica la complejidad de Kolmogorov de x y C ( x | y ) la complejidad Kolmogorov condicional de x dado y .l(T)TC(x)xC(x|y)xy

Aquí la cantidad de información útil contenida en x . Lo que podríamos preguntar es qué T seleccionará entre aquellos que satisfagan el requisito. El problema es separar un programa más corto x en partes x = p q st p representa una T apropiada . Esta es realmente la idea que generó la longitud mínima de descripción (MDL) .TxTxx=pqpT

Juho
fuente
4

Podría ser porque "útil" es difícil de definir. Supongamos que tenemos un mensaje estructurado y rico en información que puede comprimirse como máximo por un factor de α en el mensaje y . Intuitivamente, x e y contienen la misma cantidad de información útil; de hecho, contienen la misma cantidad de información según la definición habitual. Ahora imagine un prefijo z de x de la misma longitud que y ; no debe contener más información útil que x , por lo tanto, no más que y . Sin embargo, y es más "aleatorio" que z , ya que zxαyxyzxyxyyzzpuede ser comprimido y no pueden. Entonces, si tratamos de asociar información "útil" con compresibilidad, podríamos encontrar la siguiente paradoja: un prefijo de un mensaje podría tener mayor información "útil" que el mensaje completo, aparentemente una contradicción.y

Patrick87
fuente
Puede ser difícil de definir, y puede ser que no pueda confiar trivialmente en la compresibilidad como lo hace la "información", ¡pero parece ser la definición más importante! Tal como está, la "información" parece ser un alias para la "complejidad de Kolmogorov", en lugar de un intento serio de definir la información en el sentido habitual, que en otros contextos, por definición, debe ser útil. ¿Es esta un área activa de investigación? ¿Hay alguna definición propuesta?
user1247
@ user1247 ¿Por qué considera que la complejidad de Kolmogorov no es grave?
Juho
@mrm Lo veo como un concepto muy serio e interesante, pero me incomoda llamar a ese concepto "información". ¿Qué significa que una cadena completamente aleatoria contenga información? La "información útil" parece más aplicable e interesante cuando se trata de discutir información (donde "útil" está implícito) en el mundo real, en discusiones filosóficas o de mecánica cuántica sobre la información transmitida o recibida, por ejemplo.
user1247
1
@ user1247 Una forma posiblemente interesante de interpretar mi respuesta es esta: la información solo es útil o inútil en función de cómo se interpreta. Para una interpretación fija, un mensaje puede tener información más o menos útil que otro. En mi opinión, cualquier teoría de la información útil deberá tener en cuenta tales interpretaciones (las medidas regulares como la entropía también lo hacen, aunque implícitamente).
Patrick87
@ Patrick87 Estoy totalmente de acuerdo en que cualquier buena teoría de "información útil" debe tener en cuenta el mecanismo de descifrado. ¡Eso es lo que lo convierte en un problema interesante! Si me envía una cadena de bits y, en principio, no puedo descifrarla, entonces debe definirse para que no contenga información útil.
user1247
4

Desde un punto de vista menos formal, creo que puede ayudar si se separa de la palabra "aleatorio", ya que tiene razón en que un conjunto de bits verdaderamente aleatorios no almacenan ninguna información en un sentido práctico. (Si cifro un conjunto de nombres y le envío los valores cifrados, es posible que tengan una complejidad de Kolmogorov muy alta, pero no le ayudará a descubrir los nombres).

Pero piénsalo de esta manera. Si ve un sitio web en un idioma extranjero (por ejemplo, sueco, suponiendo que no lo hable), se verá más o menos aleatorio. Habrá algún orden en las palabras, pero no mucho. Sin embargo, si mira una página web con un texto similar al siguiente: 123456123456123456123456 ... y así sucesivamente, podrá comprenderlo más rápidamente. Si no habla sueco, probablemente podrá sacarle mucho más provecho, incluso si la página web sueca dice el equivalente de "los primeros seis números repetidos secuencialmente". Los sitios web contienen la misma información, pero uno te parece aleatorio. Y por la cantidad de espacio, el que entiendes es mucho menos eficiente que la página web sueca, a pesar de que almacena la misma información. Es posible que no encuentre esta información "útil" porque '

La noción de "información" está destinada a ser universal, por lo que lo que parece algo aleatorio, y por lo tanto inútil, para usted puede almacenar una gran cantidad de información para otra persona. La medida de la información está destinada a ser una propiedad intrínseca de la cadena, y no puede depender de lo que tiene y no tiene sentido para usted, y de lo que puede y no puede interpretar.

Otro punto (más técnico) que puede ayudar es que estoy siendo poco sincero aquí. Como señala Juho, la información esdefinido en relación con quién lo está interpretando. Es posible que la página web sueca sea completamente inútil como vehículo para obtener información, pero alguien que hable sueco puede encontrar mucha información. La definición refleja esto. Sin embargo, de las matemáticas podemos aprender que la diferencia entre la página web más corta (más informativa para el espacio) para comunicarle este sitio web y la página web más corta que puede comunicarlo a alguien que habla sueco puede diferir solo por una constante aditiva. ¿Por qué? Porque para usted, como hablante no sueco, la forma más corta de almacenar la página que puede entender es "los primeros seis enteros repetidos secuencialmente". Esto puede ser bastante más largo que el sueco.

(Most efficient representation of information in English)(Most efficient representation in Swedish)+(Length of Swedish-English dictionary)
. Esto está un poco fuera de tema de su pregunta original, pero el punto que estoy tratando de hacer es que no importa demasiado quién está leyendo la información. La página web sueca de aspecto aleatorio no fue "útil" para usted, pero es "útil" para otra persona, y usted está a solo una cantidad constante de información lejos de poder usarla usted mismo.
SamM
fuente