Tema 2
La historia de la criptografía muestra cómo evolucionó la necesidad de proteger mensajes, órdenes y secretos, desde técnicas manuales basadas en sustituciones simples hasta algoritmos matemáticos sofisticados que hoy sostienen el comercio electrónico, la banca, la identidad digital y las comunicaciones seguras.
La criptografía no nació con las computadoras. Mucho antes de internet, los seres humanos ya necesitaban ocultar mensajes militares, diplomáticos, comerciales o religiosos. Cada etapa histórica planteó un problema distinto: esconder el texto frente a lectores ocasionales, resistir el espionaje organizado, proteger comunicaciones masivas o sostener la seguridad de sistemas digitales a gran escala.
Estudiar esa evolución es útil porque permite entender una idea central: muchos algoritmos antiguos fallaban no por falta de creatividad, sino porque sus supuestos de seguridad no soportaban mejores métodos de análisis ni más capacidad de cálculo. La criptografía moderna surge precisamente cuando deja de apoyarse en ingenio artesanal y pasa a basarse en fundamentos matemáticos más rigurosos.
Las primeras técnicas no siempre eran cifrados formales. A veces consistían en esconder físicamente el mensaje, cambiar el orden de símbolos o usar sistemas de escritura entendidos solo por un grupo reducido. En la antigüedad, el valor estaba en impedir la lectura inmediata, no necesariamente en resistir un análisis sistemático.
En Esparta, por ejemplo, se utilizó la escítala: una tira enrollada sobre un cilindro de cierto diámetro. El texto solo se leía correctamente si se usaba un cilindro equivalente. En otros contextos se empleaban sustituciones rudimentarias o mensajes disimulados dentro de otros textos.
Uno de los modelos más conocidos de la antigüedad es el cifrado César, atribuido a Julio César. Consiste en desplazar cada letra del alfabeto una cantidad fija de posiciones. Si el desplazamiento es tres, la A pasa a D, la B a E y así sucesivamente.
Su importancia histórica no está en su fortaleza, que es muy baja, sino en que representa claramente la idea de sustitución sistemática: reemplazar cada símbolo por otro según una regla. A partir de allí aparecieron variantes monoalfabéticas más elaboradas, en las que cada letra podía corresponder a otra de forma no tan evidente.
El problema de estos sistemas es que conservan patrones del idioma original. Las letras más frecuentes del texto plano siguen siendo, transformadas, las más frecuentes del texto cifrado. Esa regularidad abrió el camino a uno de los avances más importantes del criptoanálisis: el análisis de frecuencias.
Durante la Edad Media, especialmente en el mundo árabe, se desarrollaron métodos más sistemáticos para romper cifrados. El análisis de frecuencias observaba cuántas veces aparecía cada símbolo y comparaba esa distribución con la frecuencia típica de las letras en un idioma.
Este avance fue crucial porque cambió la dinámica de la criptografía. Ya no alcanzaba con inventar una sustitución ingeniosa. Si el sistema dejaba rastros estadísticos, podía ser atacado. A partir de ese momento, la historia de la criptografía puede entenderse como una carrera constante entre construcción de métodos de ocultamiento y desarrollo de técnicas para romperlos.
Otra familia clásica importante fue la de los cifrados por transposición. En lugar de reemplazar letras, estos métodos reordenaban su posición. El contenido seguía siendo el mismo, pero aparecía mezclado según una regla conocida solo por emisor y receptor.
Los cifrados por transposición podían combinarse con sustituciones para aumentar la dificultad. Sin embargo, por sí solos tampoco resolvían el problema de fondo: seguían siendo vulnerables a suficiente análisis, prueba y error, o captura de patrones repetidos.
Para resistir mejor el análisis de frecuencias, surgieron los cifrados polialfabéticos. En vez de usar un solo alfabeto de sustitución, usaban varios, cambiando la regla durante el mensaje según una clave. El ejemplo más conocido es el cifrado de Vigenère.
Durante mucho tiempo el sistema de Vigenère fue considerado muy fuerte, porque una misma letra del texto plano podía transformarse en símbolos distintos según su posición. Eso rompía la regularidad simple de los cifrados monoalfabéticos.
Sin embargo, tampoco era invulnerable. Métodos posteriores, como los de Kasiski y Friedman, mostraron que la repetición de la clave introducía estructuras detectables. Una vez estimada la longitud de la clave, el cifrado volvía a fragmentarse en problemas más simples.
| Método | Idea principal | Ventaja histórica | Debilidad principal |
|---|---|---|---|
| Escítala | Reordenar texto con soporte físico | Simplicidad práctica | Seguridad depende del secreto del método |
| César | Desplazamiento fijo del alfabeto | Muy fácil de usar | Espacio de claves mínimo |
| Sustitución monoalfabética | Mapa fijo entre letras | Más flexible que César | Rompe con análisis de frecuencias |
| Transposición | Reordenar posiciones | No cambia símbolos visibles | Patrones recuperables |
| Vigenère | Uso de múltiples alfabetos | Dificulta frecuencia simple | Clave repetida deja rastros |
Con el tiempo, las necesidades militares y diplomáticas crecieron. Ya no bastaban técnicas manuales para comunicaciones extensas y rápidas. Así aparecieron máquinas criptográficas capaces de automatizar sustituciones y permutaciones mucho más complejas.
Estas máquinas marcaron una transición importante: la seguridad comenzó a depender no solo del método abstracto, sino también del estado interno del dispositivo, de sus configuraciones iniciales y de procedimientos operativos estrictos.
Uno de los casos más famosos es la máquina Enigma, usada por Alemania durante la Segunda Guerra Mundial. Enigma empleaba rotores, cableados internos y configuraciones cambiantes para generar una sustitución diferente en cada pulsación de tecla. Eso la convertía en un sistema muy superior a los cifrados clásicos manuales.
Su fama se debe tanto a su sofisticación como a su caída. Equipos de criptógrafos polacos y luego británicos, entre ellos Alan Turing y otros especialistas en Bletchley Park, lograron explotar errores operativos, regularidades del sistema y capacidades mecánicas de búsqueda para romper una gran parte de sus comunicaciones.
Este episodio dejó varias lecciones duraderas: un sistema fuerte puede debilitarse por malas prácticas, los procedimientos importan tanto como el algoritmo y el criptoanálisis puede combinar matemáticas, lógica, ingeniería y explotación de errores humanos.
Las guerras mundiales aceleraron enormemente el desarrollo de la criptografía y el criptoanálisis. Las comunicaciones seguras pasaron a ser un recurso estratégico. La capacidad de leer mensajes enemigos o proteger los propios podía alterar operaciones militares, logística, diplomacia y decisiones de alto nivel.
Este contexto impulsó equipos de investigación, métodos de análisis más formales y las primeras máquinas orientadas al procesamiento sistemático de grandes volúmenes de información. En cierta medida, la criptografía moderna es inseparable de esa presión histórica.
Después de la era de las máquinas electromecánicas, la criptografía comenzó a transformarse en una disciplina más científica. El crecimiento de la computación obligó a abandonar esquemas basados en intuición o complejidad aparente y a pensar en términos de modelos de amenaza, costo computacional y ataques algorítmicos.
La pregunta dejó de ser simplemente "¿parece difícil romperlo?" y pasó a ser "¿qué problema matemático lo sostiene, qué supuestos hace y qué recursos necesitaría un atacante real?". Ese cambio intelectual es una de las bases de la criptografía contemporánea.
Con la aparición de las computadoras, muchos sistemas antiguos quedaron obsoletos de inmediato. La automatización del análisis volvía trivial lo que antes exigía semanas o meses de trabajo manual. Esto obligó a diseñar algoritmos adecuados al mundo digital.
En este período surgieron los cifrados por bloques y las arquitecturas más formales de cifrado simétrico. El objetivo era procesar bits, no letras, y hacerlo con suficiente velocidad como para proteger información en entornos operativos reales.
En 1977 se adoptó DES, el Data Encryption Standard, como uno de los primeros grandes estándares de cifrado simétrico ampliamente difundidos. Fue un hito porque mostró que la criptografía ya no era solo un asunto militar o secreto, sino también un componente de la infraestructura civil y comercial.
DES tuvo enorme relevancia histórica, pero con el tiempo su tamaño de clave resultó insuficiente frente al aumento del poder de cómputo. Aun así, su existencia ayudó a consolidar la idea de algoritmos públicos, revisados y estandarizados.
Uno de los cambios más profundos de toda la historia de la criptografía ocurrió en la década de 1970 con el surgimiento de la criptografía asimétrica o de clave pública. Antes de eso, el gran problema era el intercambio de secretos: si dos personas querían cifrar mensajes, primero debían compartir una clave por un canal seguro.
Whitfield Diffie y Martin Hellman introdujeron una idea revolucionaria: era posible construir sistemas donde una clave fuera pública y otra privada, separando cifrado, autenticación o establecimiento de secretos. Poco después aparecieron RSA y otros esquemas basados en problemas matemáticos difíciles.
Este avance hizo posible el comercio electrónico moderno, la distribución de certificados, las firmas digitales y buena parte de la seguridad en internet.
Durante siglos, la criptografía estuvo asociada sobre todo a estados, ejércitos y diplomacia. Con la expansión de internet, esa situación cambió por completo. Hoy la usan millones de personas sin pensar en ello: al iniciar sesión, enviar mensajes, firmar digitalmente, instalar software, comprar en línea o guardar contraseñas.
Este cambio de escala introdujo nuevas exigencias. Los algoritmos ya no debían ser solo robustos, sino también eficientes, interoperables, auditables y aplicables a dispositivos, navegadores, servidores, tarjetas inteligentes y aplicaciones móviles.
A medida que la computación avanzó, fueron surgiendo nuevos estándares más fuertes y eficientes. AES reemplazó a DES como estándar simétrico moderno. Las familias SHA se consolidaron para hashing criptográfico, aunque algunas variantes antiguas quedaron obsoletas. La criptografía de curva elíptica ganó importancia por ofrecer alta seguridad con claves más pequeñas.
La evolución histórica enseña que ningún algoritmo debe considerarse eterno. Lo que hoy es aceptable puede quedar mañana fuera de uso por nuevas técnicas de ataque, mejores capacidades de hardware o hallazgos teóricos.
| Período | Hito | Importancia |
|---|---|---|
| Antigüedad | Escítala y cifrado César | Primeras técnicas de ocultamiento sistemático |
| Edad Media | Análisis de frecuencias | Nacimiento del criptoanálisis formal |
| Renacimiento y modernidad temprana | Vigenère y otros polialfabéticos | Intento de resistir patrones simples |
| Siglo XX | Máquinas como Enigma | Automatización de cifrado y análisis |
| Década de 1970 | DES, Diffie-Hellman y RSA | Inicio de la criptografía computacional moderna |
| Actualidad | AES, SHA, ECC, PKI | Base de la seguridad digital contemporánea |
La historia deja claro que los algoritmos modernos no aparecieron de la nada. Son la respuesta a limitaciones bien concretas de los sistemas anteriores. En los próximos temas estudiaremos la base matemática que permitió construir criptografía más sólida, empezando por aritmética modular, números primos, inversos y exponenciación modular.
La historia de la criptografía es la historia de una tensión constante entre ocultar y revelar, proteger y analizar, construir y romper. Esa tensión obligó a abandonar métodos ingenuos y a desarrollar herramientas cada vez más rigurosas.
Entender ese recorrido permite valorar por qué hoy confiamos en algoritmos públicos, estandarizados y matemáticamente estudiados. En el próximo tema comenzaremos a ver las bases matemáticas que hacen posible esa criptografía moderna.