in

Redes neuronales: conceptos básicos

00JESytw4ZERB0Xef

Redes neuronales: conceptos básicos

ReginaOfTech

7 de nov. De 2019·8 min de lectura

0*0JESytw4ZERB0Xef
¿Aprendiz auditivo? ¡Escuche este artículo en forma de podcast!

¿Quién inventó las redes neuronales?

Esta respuesta puede variar según a quién le pregunte. Algunas personas dan crédito a la primera teoría de Warren McCulloch y Walter Pitts. Se les atribuye el mérito de describir cómo una neurona podría tener una representación matemática. Sin embargo, en este artículo, estamos hablando de un psicólogo llamado Frank Rosenblatt.

Rosenblatt

Rosenblatt publicó un artículo titulado «El perceptrón: percepción y reconocimiento de la automatización» en 1957. Esta publicación describe los componentes básicos de las redes neuronales, los perceptrones. Describe cómo estas neuronas artificiales podrían aprender de los datos. Se le atribuye la creación de un aprendizaje supervisado que permitió a la neurona alterar sus propios pesos en función de su precisión.

McCulloch y Pitts

McCulloch y Pitts publicaron un artículo titulado «Un cálculo lógico de las ideas inmanentes en la actividad nerviosa» en 1943. Influyeron mucho en la investigación de Rosenblatt. En ese artículo, describieron cómo la neurona humana podría representarse matemáticamente en la característica de «todo o nada» de la red neuronal biológica.

Hebb

Donald Hebb, un psicólogo pionero de la neuropsicología, publicó un artículo en 1949 titulado «La organización de la conducta: una teoría neuropsicológica». Este artículo innovador resultó en una regla completamente nueva en psicología llamada regla de Hebb. La regla describe cómo una neurona puede excitar a otra neurona y, después de una activación repetitiva, la célula A se vuelve eficiente para activar la célula B. En palabras de Hebb, «las neuronas que se activan juntas se conectan entre sí».

¿Qué es un perceptrón y cómo forma las redes neuronales?

Un perceptrón es el componente básico de las redes neuronales, similar a los componentes básicos biológicos de ácidos nucleicos, lípidos, carbohidratos y proteínas. 4 partes las componen también:

  1. Pesos y sesgos
  2. Función de suma
  3. Función de activación
0*DXb7u fftQ Fe2aj

Perceptrón único

Si el perceptrón está en una forma única, entonces la primera y única salida estará en un formato de sí o no. Los perceptrones individuales son excelentes para conjuntos de datos de separabilidad lineal, grupos que se pueden separar mediante una sola línea con una pendiente constante.

0*3IeLFp0X8KDWGQlM

0*k6iylmE6OO0L0qch

0*FTguAH lYaYpjQAQ

Red neuronal

Sin embargo, si hay más de un perceptrón presente y se une en forma de capas, hemos producido una red neuronal. La salida de la primera capa se convierte en la entrada de la segunda capa y así sucesivamente hasta que la capa de salida suma la activación total. La activación total es el nivel de confianza de la red para su decisión final.

¿Qué son las capas de redes neuronales?

Las redes neuronales tienen 3 capas:

  1. Capa oculta
  2. Capa de salida
0*zscXecgQYgEQa74Z

¿Cómo “ve” la computadora las redes neuronales?

El diagrama que se usa con frecuencia para representar redes neuronales (como el que se usó anteriormente) es la versión amigable para los humanos. La forma en que las computadoras trabajan con ellos y los ven es en forma de matriz.

0*O1tD7 zMtOthQcko

Multiplicación de matrices

Analicemos una red neuronal con 2 valores de entrada, 1 capa oculta que contiene 3 nodos y terminamos con 2 nodos de capa de salida.

Pesos x capa de entrada

La multiplicación de matrices se realiza tomando las filas de la primera matriz y multiplicando cada elemento con el elemento respectivo en la segunda matriz. La regla principal para esta operación es que el número de columnas en la primera matriz debe coincidir con el número de filas en la segunda matriz. Echemos un vistazo al primer conjunto de matrices que usaremos para esta red.

0*cU1SN3W4ko3c4Nhj

0*ke8NxbN8 b GFdbs

Pesos x capa oculta

Hagamos la multiplicación final.

0*U4fLkiB AhOSp5N6

¿Cómo «aprenden» las redes neuronales?

Las redes neuronales aprenden en 2 pasos, feedforward (que acabamos de repasar) y backpropagation. La retropropagación se puede dividir en 2 pasos, calculando el costo y luego minimizando el costo.

Descenso de gradiente

El objetivo es encontrar el costo mínimo global de la función sumando toda la diferencia entre el resultado real y esperado y luego multiplicándolo por la tasa de aprendizaje. La función de costo más común es el error cuadrático medio.

0*B1s ThwXHsu1JF Z

0*3wqAJekdamHbNsD5

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

yJzDWRp7UsHMgVEnMy7uBj 1200 80

El mejor televisor para juegos para PS5 y Xbox Series X

Página de inicio de la API de imágenes avanzadas de Java