En el tema anterior vimos que una red neuronal está formada por unidades básicas llamadas neuronas artificiales. En este tema daremos un paso más: estudiaremos con detalle qué es una neurona artificial y cómo el perceptrón se convirtió en uno de los primeros modelos capaces de aprender a partir de ejemplos.
Este tema es muy importante porque el perceptrón, aunque hoy resulte simple, representa el punto de partida conceptual de gran parte del Deep Learning moderno. Entenderlo ayuda a comprender cómo una red neuronal toma decisiones y cómo aprende a clasificar datos.
Una neurona artificial es una unidad matemática que recibe varias entradas numéricas, les asigna una importancia, las combina y genera una salida. Se inspira de manera simplificada en la neurona biológica, pero funciona como un mecanismo matemático y computacional.
La idea básica es la siguiente:
Esto puede parecer abstracto, pero en realidad es una forma organizada de tomar una decisión basada en varios factores.
En el cerebro humano, una neurona recibe señales de otras neuronas a través de sus conexiones. Si la señal total supera cierto umbral, la neurona se activa y transmite una respuesta.
La neurona artificial sigue una idea parecida:
Sin embargo, no debemos pensar que una neurona artificial reproduce el cerebro de forma realista. Es solo una simplificación útil para construir modelos de aprendizaje.
Los componentes más importantes de una neurona artificial son:
Estos elementos aparecen una y otra vez en redes neuronales más complejas. El perceptrón es una de las formas más simples de reunirlos en un modelo completo.

Las entradas representan la información disponible para tomar una decisión. Cada entrada es una característica del problema.
Por ejemplo, si una neurona quiere decidir si una persona debería recibir un crédito, algunas entradas podrían ser:
La neurona no interpreta estas variables como conceptos humanos, sino como números que debe combinar matemáticamente.
Los pesos indican la importancia relativa de cada entrada. Si una entrada tiene un peso grande, influye mucho en la decisión de la neurona. Si tiene un peso pequeño, su efecto es menor.
Por ejemplo, en un modelo para aprobar créditos, el ingreso mensual podría tener un peso positivo importante, mientras que una deuda alta podría tener un peso negativo.
Los pesos son fundamentales porque permiten que la neurona aprenda qué factores deben empujar la decisión hacia un lado o hacia el otro.
El bias, también llamado sesgo, es un valor adicional que se suma al resultado antes de aplicar la activación. Sirve para darle más flexibilidad al modelo.
Sin bias, la neurona estaría demasiado limitada y muchas veces no podría ajustar correctamente su comportamiento. El bias permite desplazar el umbral de decisión.
Una manera intuitiva de verlo es esta:
La neurona combina sus entradas multiplicándolas por sus pesos y sumándolas. Luego agrega el bias. Ese resultado es el valor central sobre el que se tomará la decisión.
Donde:
x representa las entradas.w representa los pesos.b representa el bias.z es el resultado previo a la activación.Este cálculo es la base de casi todas las redes neuronales modernas.
En los primeros modelos, la neurona se comportaba como una unidad que comparaba el valor calculado contra un umbral. Si el valor superaba el umbral, la salida era 1. Si no lo superaba, la salida era 0.
Esta lógica binaria es clave para entender el perceptrón. El modelo debía decidir entre dos posibilidades, como si dijera:
Aunque las redes modernas usan funciones más sofisticadas, esta idea de umbral es un buen punto de partida para entender cómo una neurona toma decisiones.
El perceptrón es uno de los modelos más antiguos e importantes en la historia de las redes neuronales. Fue propuesto por Frank Rosenblatt en 1957 y puede considerarse una neurona artificial capaz de aprender una regla de clasificación binaria.
Su funcionamiento es relativamente simple:
Es decir, el perceptrón clasifica un ejemplo en una de dos categorías posibles.
El perceptrón sirve para problemas simples de clasificación binaria, donde la salida tiene dos valores posibles. Por ejemplo:
Si el problema puede separarse adecuadamente con una regla lineal, el perceptrón puede aprender esa regla.
El perceptrón clásico utiliza una función de activación muy simple llamada función escalón. Esta función devuelve un valor binario:
Esto convierte al perceptrón en una herramienta de decisión binaria.
Más adelante veremos que las redes modernas suelen reemplazar esta función por otras más útiles para entrenar modelos complejos.
Supongamos que queremos decidir si un estudiante aprueba o no un examen según dos variables:
El perceptrón recibe esos dos valores, les aplica pesos, suma un bias y produce una salida:
1 si predice que aprueba0 si predice que no apruebaEn este caso, el modelo está construyendo una regla matemática para separar dos grupos: aprobados y desaprobados.
Desde un punto de vista geométrico, el perceptrón intenta encontrar una frontera de decisión lineal que separe las dos clases.
En dos dimensiones, esa frontera puede imaginarse como una línea. En tres dimensiones, sería un plano. En dimensiones mayores, hablamos de un hiperplano.
La idea es esta: los ejemplos de una clase deben quedar de un lado de la frontera, y los de la otra clase, del otro lado.
Si eso es posible, entonces el perceptrón puede resolver el problema.
El perceptrón aprende ajustando sus pesos y su bias a partir de ejemplos etiquetados. Esto significa que durante el entrenamiento se le muestran entradas junto con la respuesta correcta.
El proceso básico es:
Con suficientes iteraciones, el perceptrón puede aprender una separación correcta si el problema es linealmente separable.
La idea central de la regla de aprendizaje es corregir los pesos cuando el modelo se equivoca.
Si el perceptrón predice mal, los pesos se actualizan para empujar la próxima predicción en la dirección correcta. De forma intuitiva:
Esta fue una de las primeras formas prácticas de hacer que un modelo ajustara internamente su comportamiento a partir de errores.
Aunque fue un avance histórico muy importante, el perceptrón tiene limitaciones claras:
La limitación más famosa está relacionada con la función lógica XOR, que no puede ser resuelta por un perceptrón simple.
La compuerta lógica XOR devuelve 1 cuando las entradas son diferentes y 0 cuando son iguales. Si representamos sus cuatro casos en el plano, los puntos que valen 1 son (0,1) y (1,0), mientras que los que valen 0 son (0,0) y (1,1).
| Entrada 1 | Entrada 2 | Salida XOR | Punto en el plano |
|---|---|---|---|
| 0 | 0 | 0 | (0,0) |
| 0 | 1 | 1 | (0,1) |
| 1 | 0 | 1 | (1,0) |
| 1 | 1 | 0 | (1,1) |
El problema es que los puntos con salida 1 quedan en esquinas opuestas, y los puntos con salida 0 también. Por eso no existe una sola recta que deje todos los 1 de un lado y todos los 0 del otro. Siempre quedará al menos un punto mal separado.
Esto significa que un perceptrón simple no puede resolverlo, porque solo sabe construir una única frontera lineal.
Este hecho fue clave en la historia de las redes neuronales, ya que mostró que un solo perceptrón era insuficiente para ciertos problemas aparentemente sencillos.
La solución fue conectar varias neuronas y organizar modelos con múltiples capas. De esta manera surgieron redes neuronales más potentes, capaces de aprender relaciones no lineales y resolver problemas que un perceptrón simple no podía manejar.
Es decir, el perceptrón no fue el final del camino, sino el comienzo. Su principal valor histórico fue mostrar que una unidad matemática podía aprender. Luego, la evolución hacia redes multicapa abrió la puerta al Deep Learning.
El perceptrón puede entenderse como una implementación concreta de una neurona artificial para clasificación binaria. No toda neurona artificial moderna es un perceptrón en sentido estricto, pero el perceptrón es uno de los primeros modelos formales de neurona artificial.
En otras palabras:
Las redes neuronales modernas mantienen la lógica básica del perceptrón:
La gran diferencia es que hoy trabajamos con muchas capas, millones de parámetros, funciones de activación más adecuadas y algoritmos de entrenamiento más sofisticados.
Aun así, el corazón conceptual sigue siendo el mismo: una combinación matemática de señales que permite aprender patrones.
Imaginemos una neurona artificial con dos entradas:
x1: horas de estudiox2: asistencia a clasesLa neurona tiene dos pesos:
w1 para las horas de estudiow2 para la asistenciaY además un bias b.
Calcula:
Luego aplica una función escalón:
z supera el umbral, predice aprobado.Este esquema, aunque simple, ya contiene las ideas esenciales del aprendizaje neuronal.

| Aspecto | Perceptrón simple | Red neuronal multicapa |
|---|---|---|
| Número de capas | Una sola capa de decisión. | Varias capas ocultas y salida. |
| Tipo de problema | Clasificación binaria simple. | Problemas más complejos y no lineales. |
| Capacidad | Limitada. | Mucho mayor. |
| Frontera de decisión | Lineal. | Puede ser no lineal. |
| Uso histórico | Base inicial del aprendizaje neuronal. | Base del Deep Learning moderno. |
Aunque hoy trabajamos con arquitecturas mucho más potentes, estudiar el perceptrón sigue siendo muy útil porque:
En educación, el perceptrón cumple un papel parecido al de un modelo básico en física o en matemática: no representa toda la complejidad del mundo real, pero permite entender la idea central.
Las neuronas artificiales y el perceptrón representan el punto de partida conceptual de las redes neuronales. Aunque hoy los modelos sean mucho más sofisticados, la lógica esencial sigue siendo la misma: combinar información, asignarle importancia y producir una salida útil.
Entender el perceptrón es entender la semilla de todo el Deep Learning. A partir de aquí, la siguiente pieza fundamental será estudiar las funciones de activación, ya que ellas permiten que las redes neuronales superen la simple linealidad y aprendan relaciones mucho más complejas.