6.1 El Perceptrón: La Neurona Artificial

Introducción

El Perceptrón es el modelo más simple de una neurona artificial y el bloque de construcción histórico de las redes neuronales. Concebido en la década de 1950, es un clasificador lineal binario: toma varias entradas, las pondera, las suma y, si el resultado supera un cierto umbral, "dispara" una salida (normalmente 1); de lo contrario, emite otra (normalmente 0 o -1).

🏢

Actividad

Simulador del Perceptrón

Nivel Principiante
El Perceptrón es la neurona artificial más simple: toma características de entrada, las pondera y decide a qué clase pertenece el caso. En este demo, el sistema aprende a separar células benignas de malignas a partir de dos marcadores medibles.
Qué observar: Observa cómo la línea de decisión se ajusta en cada época. Prueba distintas tasas de aprendizaje y comprueba si los datos son linealmente separables.

Demostración Interactiva

Controles

Estado del Modelo

Época: 0

Error Época: N/A

Mejor Error: N/A

Peso w₁: N/A

Peso w₂: N/A

Sesgo b: N/A

Conceptos Fundamentales

¿Cómo funciona el Perceptrón?

El perceptrón es la unidad computacional más básica de las redes neuronales:

  1. Recibe entradas: Toma las características del caso a clasificar (x₁, x₂, ..., xₙ)
  2. Aplica pesos: Multiplica cada entrada por su peso correspondiente (w₁, w₂, ..., wₙ)
  3. Suma ponderada: Calcula z = w₁x₁ + w₂x₂ + ... + wₙxₙ + b (donde b es el sesgo)
  4. Función de activación: Si z > 0, predice clase 1; si z ≤ 0, predice clase -1
Algoritmo de Aprendizaje

El perceptrón aprende mediante el algoritmo de corrección de errores:

  • Clasificación correcta: No cambia nada, mantiene los pesos actuales
  • Error detectado: Ajusta los pesos para corregir el error específico
  • Regla de actualización: w = w + η(y_real - y_predicho)x
  • Convergencia: Garantizada para datos linealmente separables

El Pocket Perceptron mejora esto manteniendo la mejor solución encontrada, útil para datos no separables.

Limitaciones Fundamentales
  • Separabilidad lineal: Solo puede clasificar datos separables por una línea recta
  • Problemas no lineales: No puede resolver funciones como XOR sin capas adicionales
  • Datos complejos: Limitado para patrones que requieren fronteras de decisión curvas
  • Una sola neurona: Necesita múltiples perceptrones para problemas más complejos
Fundamento Histórico

Aunque simple, el perceptrón es fundamental para entender las redes neuronales modernas. Es la unidad básica que, cuando se combina con otras en múltiples capas, puede resolver problemas mucho más complejos y crear sistemas de inteligencia artificial sofisticados.

17 abr. 2025