Skip to content

Commit

Permalink
¨commit¨
Browse files Browse the repository at this point in the history
  • Loading branch information
jrguignan committed Apr 6, 2024
1 parent 481728a commit a96353e
Show file tree
Hide file tree
Showing 2 changed files with 17 additions and 9 deletions.
16 changes: 12 additions & 4 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -5,17 +5,17 @@ Su nombre proviene del hecho de que estamos "descendiendo" por la superficie de

# Pasos a Seguir en la Construcción del Algoritmo

## Inicialización de parámetros
Comenzamos con un conjunto inicial de parámetros para nuestro modelo. En nuestro caso es la posición inicial en la función del error, el valor de la tasa de apredizaje (lr) y el valor de h, la variación en la derivada.
## Inicialización de Parámetros
Comenzamos con un conjunto inicial de parámetros para nuestro modelo. En nuestro caso es la posición inicial en la función de pérdida, el valor de la tasa de apredizaje (lr) y el valor de h, la variación en la derivada.

## Cálculo del gradiente
## Cálculo del Gradiente
Calculamos el gradiente de la función de pérdida con respecto a los parámetros actuales. El gradiente indica la dirección y la magnitud del cambio más pronunciado en la función de pérdida. Queremos mover nuestros parámetros en la dirección opuesta al gradiente para minimizar la función de pérdida.

$$ f'(x) \approx \frac{f(x + h) - f(x)}{h} $$

Se utilizó esta expresión, se tuvo en cuenta que la función de pérdida (función de error) es un plano de 2 dimensiones.

## Actualización de parámetros
## Actualización de Parámetros
Ajustamos los parámetros en la dirección opuesta al gradiente multiplicado por una tasa de aprendizaje. La tasa de aprendizaje controla qué tan grande es el paso que damos en cada iteración. Una tasa de aprendizaje más grande puede llevar a convergencia más rápida, pero también puede hacer que el algoritmo sea inestable o que se salte mínimos locales. Por otro lado, una tasa de aprendizaje más pequeña puede hacer que la convergencia sea más lenta pero más precisa.


Expand Down Expand Up @@ -57,6 +57,14 @@ Esperamos que con suficientes iteraciones y una elección adecuada de la tasa de


El punto verde es el valor de inicio, los amarillos son el recorrido y el rojo es el punto final.
<br>


En nuestro caso la función de pérdida se construyó a partir de una funcion lienal

$$ Y = mX +b $$

Por lo que al finalizar el desencenso obtenemos los valors del la pendiente y el corte con el eje y.

<p align="center">
<img src="images/valores1.png" height=80>
Expand Down
10 changes: 5 additions & 5 deletions descenso_del_gradiente.ipynb

Large diffs are not rendered by default.

0 comments on commit a96353e

Please sign in to comment.