in

El vector degradado

1j4eK5R 4Lsr mUvCsNPPIA

El vector degradado

¿Qué es y cómo lo calculamos?

Roman Paolucci

5 de junio de 2020·4 min de lectura

Foto de Unsplash

Cálculo vectorial

En cálculo vectorial, uno de los temas principales es la introducción de vectores y el espacio tridimensional como una extensión del espacio bidimensional que a menudo se estudia en el sistema de coordenadas cartesiano. Los vectores tienen dos propiedades principales: dirección y magnitud. En 2 dimensiones podemos visualizar un vector que se extiende desde el origen como una flecha (mostrando tanto dirección como magnitud).

Gráfico vectorial 2D de matplotlib

Intuitivamente, esto se puede extender a 3 dimensiones donde podemos visualizar una flecha flotando en el espacio (nuevamente, exhibiendo tanto dirección como magnitud).

1*1uWyjeoDA4yNPUZrUBo3ug

Gráfico vectorial 3D de JCCC

De forma menos intuitiva, thmi La noción de vector puede extenderse a cualquier número de dimensiones, donde la comprensión y el análisis solo pueden lograrse algebraicamente. Es importante tener en cuenta que, en cualquier caso, un vector no tiene una ubicación específica. Esto significa que si dos vectores tienen la misma dirección y magnitud, son el mismo vector. Ahora que tenemos una comprensión básica de los vectores, hablemos del vector de gradiente.

El vector degradado

Independientemente de la dimensionalidad, el vector de gradiente es un vector que contiene todas las derivadas parciales de primer orden de una función.

Calculemos el degradado para la siguiente función …

1*65AqYjm5ZTgnJuEweFvJfQ

La función para la que estamos calculando el vector de gradiente

El gradiente se denota como ∇…

1*Jc99 EQCgNktokUKQI 8Q

El vector de gradiente para la función f

Después de diferenciar parcialmente …

1*

El vector de gradiente para la función f después de sustituir las derivadas parciales

Ese es el vector de gradiente para la función f (x, y). Todo eso es genial, pero ¿cuál es el punto? ¿Qué puede hacer el vector de gradiente? ¿Qué significa?

Ascenso en gradiente: maximización

El gradiente para alguna la función apunta en la dirección de mayor aumento. Esto es increíble. Imagine que tiene una función de modelado de ganancias para su empresa. Obviamente, su objetivo es maximizar las ganancias. Una forma de hacer esto es calcular el vector de gradiente y seleccionar algunas entradas aleatorias; ahora puede actualizar iterativamente sus entradas calculando el gradiente y agregando esos valores a sus entradas anteriores hasta que se alcance un máximo.

Descenso de gradiente: Minimización

Sabemos que el vector de gradiente apunta en la dirección de mayor aumento. Por el contrario, un vector de gradiente negativo apunta en la dirección de mayor disminución. El objetivo principal del descenso de gradientes es minimizar un error o costo, más notablemente frecuente en el aprendizaje automático. Imagine que tiene una función de modelado de costos para su empresa. Obviamente, su objetivo es minimizar los costos. De manera similar a maximizar las ganancias, puede calcular el vector de gradiente para algunas entradas aleatorias y actualizar iterativamente las entradas restando los valores en el vector de gradiente de sus entradas anteriores hasta que se alcance un mínimo.

Problemas con el ascenso / descenso de gradientes

El problema más notable al utilizar este método de optimización es la existencia de extremos relativos. Los extremos relativos se refieren a los puntos de la función que son el valor máximo o mínimo en relación con los puntos a su alrededor que se muestran en el gráfico siguiente.

1*GQGQFY

Foto de Paul’s Online Notes

Un enfoque de cálculo tradicional para la optimización se encuentra con este mismo problema y lo resuelve comparando la salida de la función en todos los extremos relativos para determinar el verdadero máximo / mínimo global. En términos de ascenso / descenso de gradiente, hay una variedad de modificaciones diferentes que se pueden hacer al proceso iterativo de actualización de las entradas para evitar (o pasar) extremos relativos que ayudan en los esfuerzos de optimización. Los principales tipos de ascenso / descenso en pendiente son …

  • Ascenso / descenso de gradiente estocástico
  • Ascenso / descenso de gradiente por lotes
  • Ascenso / descenso en gradiente de mini lotes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

logotipo de netflix

Cómo solucionar el problema de Netflix en LG Smart TV – Solucionar el error de Netflix

Gestión de contenido | CX | Oráculo