¿De qué hablamos cuando hablamos de contraseñas seguras? Un enfoque estadístico | GNU/Linuxfilia Incurable - Nueva Entrada
https://bobinas.p4g.club/url/52809seguridad #privacidad #cifrado #estadisticas #matematicas
En teoría de la información, un mensaje es equivalente a un texto codificado como una ordenación de símbolos (letras, espacios, signos de puntuación), lo que comunmente llamamos una cadena de caracteres. Si deseáramos calcular qué tan segura es una contraseña, esto es, qué tan capaces somos de predecir el contenido del mensaje que la conforma, buscaríamos conocer qué tan aleatoria es la cadena de caracteres que la componen. Esta medida del desorden o incertidumbre es lo que conocemos como Entropía de la información (H).Si consideramos una contraseña como un texto codificado y quisiéramos que la entropía de esta clave sea la máxima (tan aleatoria como sea posible) deberíamos asegurarnos que la entrada de caracteres sea poco probable de pronosticar, que cada caracter se repita o esté ordenado de una manera impredecible. Ahora bien, ¿cómo calculamos la Entropía de una contraseña? Habrá que entrar en el terreno duro de las matemáticas y la estadística.