Teoría de la Información  - Apuntes - Seguridad Informática - Informática - Parte 1, Apuntes de Seguridad Informática. Universidad Nacional Experimental del Táchira
Mauro_88
Mauro_888 de mayo de 2013

Teoría de la Información - Apuntes - Seguridad Informática - Informática - Parte 1, Apuntes de Seguridad Informática. Universidad Nacional Experimental del Táchira

PDF (2 MB)
30 pages
10Número de download
1000+Número de visitas
100%de 1 votosNúmero de votos
1Número de comentarios
Descripción
Apuntes del curso universitario de Informatica sobre la Teoría de la Información - Estudio de la cantidad de información contenida en los mensajes y claves, así como su entropía.
20 Puntos
Puntos download necesarios para descargar
este documento
descarga el documento
Pre-visualización3 pages / 30

Esta solo es una pre-visualización

3 shown on 30 pages

descarga el documento

Esta solo es una pre-visualización

3 shown on 30 pages

descarga el documento

Esta solo es una pre-visualización

3 shown on 30 pages

descarga el documento

Esta solo es una pre-visualización

3 shown on 30 pages

descarga el documento
Teoría de la Información

Seguridad Informática y Criptografía

docsity.com

Los pilares sobre los que descansa toda la teoría asociada a los criptosistemas son básicamente tres:

 La teoría de la información › Estudio de la cantidad de información contenida

en los mensajes y claves, así como su entropía.  La teoría de los números › Estudio de las matemáticas discretas y cuerpos

finitos que permiten las operaciones de cifrado y descifrado.

 La teoría de la complejidad de los algoritmos › Estudio de la clasificación de los problemas como

computacionalmente tratables o intratables.

Estos temas los veremos en éste y en los siguientes capítulos del libro.

docsity.com

 Definición de información: › Es el conjunto de datos o mensajes

inteligibles creados con un lenguaje de representación y que debemos proteger ante las amenazas del entorno, durante su transmisión o almacenamiento, usando técnicas criptográficas entre otras herramientas.

– La teoría de la información mide la

cantidad de información que

contiene un mensaje a través del

número medio de bits necesario para

codificar todos los posibles mensajes

con un codificador óptimo.

¿Qué significa

cantidad de

información y

codificador

óptimo?

docsity.com

Puede ser numérica, alfabética, simbólica, por lenguaje.

Ejemplo: 15/01/05 15-01-05 15-1-05 15/01/2005

01/15/05 01-15-05 1-15-05 01-15-2005 ...

- Todos son el día 15 de enero del año 2005.

Vitaminas: B12, C, ...

Grupo sanguíneo: A2 Rh+ ...

Elementos: Fe, Si, Hg ...

Compuestos químicos: H2O, CO2 ...

Más común Lenguaje con código: “¿Hace calor allí?”

Veamos la información

que contiene el mensaje

¿Hace calor allí?

docsity.com

Veremos qué información nos entrega un mensaje dependiendo del contexto en que nos encontremos. Esto puede analizarse:

a) En función de la extensión del mensaje recibido.

b) En función de la utilidad del mensaje recibido.

c) En función de la sorpresa del mensaje recibido.

d) Dependiendo del entorno de esa sorpresa.

e) En función de la probabilidad de recibir un mensaje.

Este último enfoque orientado a la ingeni ría y usado por Claude Shannon en su estudio es el que aquí nos interesa.

 http://es.wikipedia.org/wiki/Claude_E._Shannon

docsity.com

En función de la extensión del mensaje › Ante una pregunta cualquiera, una respuesta

concreta y extensa nos entregará mayor información sobre el tema en particular, y diremos que estamos ante una mayor “cantidad de información”.

 Pregunta: ¿Hace calor allí? (una playa en particular)

› Respuesta 1: Sí, hace mucho calor. › Respuesta 2: Cuando no sopla el viento, el calor

allí es inaguantable pues supera los 42 grados a la sombra.

¿Dónde hay una mayor cantidad de información?

– Respuest 2: Cuando no sopla el viento, el calor allí es

inaguantable pues supera los 42 grados a la sombra. 

docsity.com

En función de la utilidad del mensaje › Ante una pregunta cualquiera, una respuesta

más útil y clara nos dejará con la sensación de haber recibido una mayor “cantidad de información”.

 Pregunta: ¿Hace calor allí? (una playa en particular)

› Respuesta 1: Sí, sobre 30 grados. › Respuesta 2: Si no hay viento del sur y el mar está

en calma, es normal que la temperatura suba bastante.

– Respuesta 1: Sí, sobre 30 grados. 

¿Dónde hay una mayor cantidad de información?

docsity.com

En función de la sorpresa del mensaje › Ante una pregunta cualquiera, una respuesta

más inesperada y sorprendente, nos dará la sensación de contener una mayor “cantidad de información”.

 Pregunta: ¿Hace calor allí? (ahora Finlandia en otoño)

› Respuesta 1: Sí, muchísimo. Es insoportable. › Respuesta 2: En esta época del año, la

temperatura es más suave y el tiempo muy agradable.

– Respuesta 1: Sí, muchísimo. Es insoportable. 

¿Dónde hay una mayor cantidad de información?

docsity.com

Dependencia del entorno (sorpresa) › Ante una pregunta cualquiera, una respuesta

inesperada y sorprendente en el entorno, nos dará la sensación de contener una mayor “cantidad de información”.

 Pregunta: ¿Hace calor allí? (ahora las mismas respuestas hablan de la temperatura en

un horno)

› Respuesta 1: Sí, muchísimo. Es insoportable. › Respuesta 2: En esta época del año, la

temperatura es más suave y el tiempo muy agradable.

– R spuest 2: En esta époc d l año, la temperatura es

más suave y el tiempo muy agradable. ?

¿Dónde hay una mayor cantidad de información?

docsity.com

En función de la probabilidad de recibir un mensaje

› Este enfoque probabilístico es el que nos interesará en cuanto a la definición de Cantidad de Información.

¿Dónde le da alegría a su cuerpo Macarena? › Respuesta 1: En un país de Europa. › Respuesta 2: En una ciudad de España. › Respuesta 3: En los números 1 y 3 de la calle

Sierpes en Sevilla, España. – Respuesta 3: En los números 1 y 3 de la calle Sierpes en

Sevilla, España... La Campana, ¡una excelente bombonería!

¿Dónde hay una mayor cantidad de información?

¿Por qué?

docsity.com

Ante varios mensajes posibles, en principio todos equiprobables, aquel que tenga una menor probabilidad de aparición será el que contenga una mayor cantidad de información.

 En el ejemplo anterior: › Al ser más extenso el número de calles y sus números

en una ciudad que el número de ciudades en España, y esto último mayor que los países en Europa, la última respuesta tendrá una mayor incertidumbre.

› Si suponemos todos los estados equiprobables, entonces la cantidad de información de la respuesta tercera será mayor que las demás.

 http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html

Las siguientes diapositivas resumen el estudio de Claude Shannon sobre la entropía en su artículo “A Mathematical Theory of Communication” que puede descargarlo en formato pdf desde esta dirección:

docsity.com

 Sea X una variable aleatoria con n estados

posibles con X = xi una ocurrencia iésima:

X = {x1, x2, x3, ..., xn-1, xn}

p1 = p(x1), p2 = p(x2), ..., pn = p(xn)

Como:

0  pi  1 para i = 1, 2, ..., n

Entonces: n

 pi = 1

i = 1

La probabilidad de que ocurra p1 o

p2 o p3, etc. será siempre la unidad

porque seguro será uno de ellos.

docsity.com

Definiremos ci a la cantidad de información del estado i, como el logaritmo en base dos de la probabilidad de que ocurra el estado iésimo.

ci = - log2 (pi ) - Logaritmo: p(xi) = 1  no hay incertidumbre: ci = 0 p(xi) = 0  máxima incertidumbre: ci  

- Signo: p(xi)  1  log p(xi) será negativo - Base 2: Un fenómeno binario  dos estados

(bit)

1

ci

pi

0

0

docsity.com

Combinación 1 Combinación 5

Combinación 2 Combinación 6

Combinación 3 Combinación 7

Combinación 4 Combinación 8

Grado de indeterminación previo

Grado de indeterminación posterior ci =

En una bolsa hay dos papeles con círculos, dos con

cuadrados y dos con triángulos: negros o blancos.

Sacamos a ciegas tres papeles cualesquiera...

¿Qué cantidad de información tiene cada uno de los estados?

Si hay equiprobabilidad

entonces p(xi) = 1/8 Sea ésta será la combinación elegida...

docsity.com

Combinación 1 Combinación 5

Combinación 2 Combinación 6

Combinación 3 Combinación 7

Combinación 4 Combinación 8

Como p(xi) = 1/8 entonces Incertidumbre inicial Ii = 8 Daremos algunas pistas : › Las figuras no son del mismo color: Ii baja de 8 a 6 al

descartarse las combinaciones 1 y 8. › El círculo es blanco: Ii baja de 6 a 3 (descartamos 5, 6 y

7). › Hay dos figuras blancas: Ii baja de 3 a 2 (descartamos

4). › El cuadrado es negro: Ii baja de 2 a 1 (descartamos 2.)

Veamos esto ahora

matemáticamente ...

Se acaba la incertidumbre pues la solución es la combinación 3.

docsity.com

› Las figuras no son del mismo color. Ii baja de 8 a 6:

ci1 = log (8/6) = log 8 - log 6

› El círculo es blanco. Ii baja de 6 a 3:

ci2 = log (6/3) = log 6 - log 3

› Hay dos figuras blancas. Ii baja de 3 a 2:

ci3 = log (3/2) = log 3 - log 2

› El cuadrado es negro. Ii baja de 2 a 1:

ci4 = log (2/1) = log 2 - log 1

Todas las magnitudes se pueden sumar como escalares:

ci = ci1 + ci2 + ci3 + ci4 = log 8 - log 1 = log 8

docsity.com

Sean Ii la indeterminación inicial

If la indeterminación final

ci = log (Ii / If) = log Ii - log If

La cantidad de información tiene como unidad de medida la de un fenómeno de sólo dos estados, un fenómeno binario. Luego:

ci = logb (2/1) = logb 2 - logb 1

› Si logb 2 debe ser igual a 1 entonces la base b = 2.

› Precisamente a esta unidad se le llama bit (binary digit)

› Ejemplo anterior: ci = log2 8 = 3. Es decir, pasamos de la incertidumbre total a la certeza con sólo 3 preguntas.

docsity.com

Con sólo tres preguntas “más o menos inteligentes

podemos pasar de la incertidumbre total a la certeza:

Pregunta 1: ¿Está entre la opción 1 y la 4?  Sí

Pregunta 2: ¿Está entre la opción 1 y la 2?  No

Pregunta 3: ¿Es la opción 4?  No ¡Se acaba la indeterminación!

Combinación 1 Combinación 5

Combinación 2 Combinación 6

Combinación 3 Combinación 7

Combinación 4 Combinación 8

docsity.com

 Si un fenómeno tiene un grado de indeterminación k y sus estados son equiprobables, la probabilidad p de que se dé uno de esos estados será 1/k. Luego:

ci = log2 (k/1) = log2 [1/(1/k)] = - log2 p  Si ahora cada uno de estos estados tiene una

probabilidad distinta pi, la entropía H será igual a la suma ponderada de la cantidad de información:

H = - p1 log2 p1 - p2 log2 p2 - ... - pk log2 pk k

H = -  pi log2 pi i = 1

Nota: aunque la ecuación parece

bastante lógica, no es inmediata.

 http://en.wikipedia.org/wiki/Information_entropy

docsity.com

 La entropía de un mensaje X, que se representa por H(X), es el valor medio ponderado de la cantidad de información de los diversos estados del mensaje.

 Es una medida de la incertidumbre media acerca de una variable aleatoria y el número de bits de información.

k

H(X) = -  p(xi) log2 p(xi) i = 1

Después del ejemplo de los papeles, podríamos aceptar el

concepto de incertidumbre en H. Lo que ahora nos llama

la atención  es lo del número de bits de información.

Esto lo

veremos más

adelante...

docsity.com

a) La entropía es no negativa y se anula si y sólo si un estado de la variable es igual a 1 y el resto 0. Esta demostración es sencilla.

b) La entropía será máxima, hay mayor incertidumbre del mensaje, cuando exista una equiprobabilidad en todos los valores de la variable X. La demostración empírica es muy fácil; no obstante la demostración matemática de este máximo no es directa. El valor máximo de H(X) para una variable de n estados será log2 n.

Si hay n estados equiprobables, entonces pi = 1/n.

Luego:

H(X) = -  pi log2 pi = - n(1/n) log2 (1/n) = - (log2 1 - log2 n) i

H(X)máx = log2 n

docsity.com

Nos falta encontrar el segundo término pendiente en la definición de cantidad de información: codificador óptimo.

Introduciendo el signo negativo dentro del logaritmo en la expresión de la entropía, ésta nos quedará como:

H(X) =  p(x) log2 [1/p(x)] i

La expresión log2 [1/p(x)] representará el número necesario

de bits para codificar el mensaje X en un codificador óptimo.

Codificador óptimo es aquel que para codificar un

mensaje X usa el menor número posible de bits.

Veamos un ejemplo

de codificación

docsity.com

M = 1 “ ” = 01 A = 000 I = 0010 E = 0011

Letra Frecuencia Ocurrencias 

E 1 vez 3  6  9  15

I 2 veces

A 3 veces I E A “ “ M

“ “ 3 veces I E A “ “

M 6 veces I E A

I ECódigo óptimo:

Mensaje: MI MAMA ME MIMA

Mensaje: 1 0010 01 1 000 1 000 01 1 0011 01 1 0010 1 000 (33 bits)

Pregunta: ¿Cuántos bits necesitaría para codificarlo usando ahora código ASCII?

Creación del árbol de

frecuencias observadas

 http://articulos.conclase.net/compresion/huffman.html

docsity.com

Para que dé un valor exacto, vamos a calcular el número de bits óptimo de codificación para el mensaje M = LELA ELLA (*) de 8 caracteres :

Solución: p(L) = 0,5; p(E) = 0,25; p(A) = 0,25; y obviamente  p(L, E, A) = 1,0. Para codificar L necesitaremos 1 bit: log2 [1/ P(L)] = log2 2 = 1

Para codificar E necesitaremos 2 bits: log2 [1/ P(E)] = log2 4 = 2 Para codificar A necesitaremos 2 bits: log2 [1/ P(A)] = log2 4 = 2

Luego, si L se codifica como 0, E como 10 y A como 11, el mensaje M se codificará como: 0 10 0 11 10 0 0 11, es decir se transmiten 12 bits. Si calcula la entropía de M obtendrá H(M) = 1,5 y al mismo valor se llega con el concepto de número medio de bits: para codificar un mensaje M de 8 elementos, hemos usado 12 bits. Luego 12/8 = 1,5 bits por elemento.

(*) Mis disculpas este mensaje poco afortunado, pero era difícil encontrar uno con estas características y que tuviese algo de sentido... aunque no sea cierto .

docsity.com

Si existe una segunda variable Y que influya sobre X, esto nos entregará importante información adicional.

H(X/Y) = -  p(x,y) log2 p(x,y) x,y

Luego:

H(X/Y) = -  p(y)  p(x/y) log2 p(x/y) y x

La entropía se

reduce: hay más

orden y menos

incertidumbre.

Donde p(x,y) = p(y)p(x/y) y la

relación p(x/y) es la probabilidad

de que se obtenga un estado X

conocido el valor de Y. El resultado más

interesante es que...

docsity.com

comentarios (1)
PERFECTO

Esta solo es una pre-visualización

3 shown on 30 pages

descarga el documento