Ir al contenido principal

Diagrama de temas

    • Perceptrones


      El perceptrón es un componente básico de las redes neuronales artificiales. Se inspira en las neuronas biológicas del cerebro humano y fue inventado por Frank Rosenblatt en 1958. Aunque es una simplificación, el perceptrón sigue un proceso similar al de una neurona real:

      En términos geométricos, el límite de decisión de un perceptrón con 2 entradas es una línea. Si hay 3 entradas, el límite es un plano 2D. En general, con (n) entradas, el límite de decisión es un hiperplano que separa el espacio de características en dos partes: una para clasificación positiva y otra para clasificación negativa. El perceptrón es un clasificador binario lineal en función de sus pesos.


      1. Toma señales de entrada (denominadas (x_1, x_2, \ldots, x_n)).
      2. Calcula una suma ponderada (z) de esas entradas.
      3. Aplica una función de umbral (\phi) para emitir un resultado.


      Para representarlo de manera vectorial, agrupamos todas las entradas ((x_0, x_1, \ldots, x_n)) y los pesos ((W_0, W_1, \ldots, W_n)) en vectores (x) y (w). La salida es 1 si el producto escalar es positivo y -1 en caso contrario.


      Límites y Capacidades de los Perceptrones

      - Linealmente Separables: El perceptrón solo puede clasificar correctamente si las clases son linealmente separables. Si los datos no se pueden separar mediante una línea recta (o hiperplano), el perceptrón no funcionará adecuadamente.

      - Limitaciones: No puede resolver problemas más complejos que la separación lineal. Por ejemplo, no puede manejar funciones XOR.

      - Capacidades: A pesar de sus limitaciones, el perceptrón es fundamental en el aprendizaje de máquinas y sentó las bases para modelos más avanzados, como las redes neuronales multicapa.
      En resumen, el perceptrón es un modelo simple pero importante en el campo de la inteligencia artificial.


      Enlace Adicional

      Para más información, visite este sitio.