Clases
Acá estarán disponibles los recursos para las clases. El tl;dr es una breve explicación de la misma. Para cada clase, intentaremos compartir el link del video de YouTube y el material asociado.
-
00 - Introducción al curso y ejemplo de vida real
tl;dr: Explicación corta del contenido del curso y presentación de un trabajo de vida real con aplicaciones de DL
[Láminas] [Video de YouTube]
-
01 - Introducción a Redes Neuronales Profundas
tl;dr: Repaso del curso de Aprendizaje automático
[Jupyter Notebook] [Video de YouTube]
-
01 - Introducción a Redes Neuronales Profundas
tl;dr: Repaso del curso de Aprendizaje automático. Parte 2.
[Jupyter Notebook] [Video de YouTube]
- Método del Descenso del gradiente
- Breve introducción a Redes Neuronales
- Teorema de Representación Universal
- Redes Neuronales Profundas
-
02 - Redes Neuronales (NN) - Intro
tl;dr: Definición de Redes Neuronales (NN)
[Jupyter Notebook] [Link de YouTube]
-
02 - Redes Neuronales (NN) - Bias-Variance
tl;dr: Bias-Variance tradeoff
[Jupyter Notebook] [Link de YouTube]
- La compensación sesgo-varianza bias-variance tradeoff
- Cómo controlar la complejidad del modelo afecta sesgo, varianza y error de la función de pérdida.
- Bibliografía: ISLP
-
02 - Redes Neuronales (NN) - PyTorch 1
tl;dr: Introducción a PyTorch
[Jupyter Notebook] [Link de YouTube]
-
02 - Redes Neuronales (NN) - Optimización
tl;dr: Algoritmos de optimización
[Presentación con notas] [Presentación en español sin notas] [Link de YouTube]
-
02 - Redes Neuronales (NN) - BP1
tl;dr: Backpropagation clase 1
[Presentación con notas] [Presentación en español sin notas] [Link de YouTube]
- La intuición de backpropagation (propagación hacia atrás de los errores)
- Modelo de juguete con función de una sola variable
- Deducción de las derivadas parciales e intuición de paso hacia adelante y atrás.
-
02 - Redes Neuronales (NN) - Adam y BP2
tl;dr: Optimizador Adam y Backpropagation clase 2
[Presentación con notas] [Presentación en español sin notas] [Video de YouTube]
Algoritmos de optimización
- Adam optimizer normal y con momemtum.
Backpropagation Parte 2
- Matemáticas necesarias
- Paso adelante de backpropagation
- Paso hacia atrás por backpropagation
- Diferenciación algorítmica
- Código template
-
02 - Redes Neuronales (NN) - Inicialización de RDP
tl;dr: Inicializaciones
[Presentación con notas] [Video de YouTube]
Contenido
- Necesidad de inicialización
- Inicialización He
- Valores esperados
- Demostrar que $E[f_i]=0$
- Escribir la varianza de las preactivaciones f’ en términos de las activaciones h en la capa anterior $\sigma_{f^{\prime}}^2=\sigma_{\Omega}^2 \sum_{j=1}^{D_h} \mathbb{E}\left[h_j^2\right]$
- Escribir la varianza de las preactivaciones f’ en términos de las preactivaciones f de la capa anterior $\sigma_{f^{\prime}}^2=\frac{D_h \sigma_{\Omega}^2 \sigma_f^2}{2}$
- Inicialización Xavier
- Experimentos
-
02 - Redes Neuronales (NN) - PyTorch 2
tl;dr: Introducción a PyTorch - Clase final
[Jupyter Notebook] [Link de YouTube]
-
03 - Redes Neuronales Convolucionales (CNN) - 1
tl;dr: Introducción a CNN - PDI - Convolución
[Jupyter Notebook v1] [Link de YouTube] [Link de YouTube CNN 1 - II 2024] [Link de YouTube CNN 2 - II 2024]
-
03 - Redes Neuronales Convolucionales (CNN) - 2
tl;dr: Componentes de una CNN
[Jupyter Notebook v2] [Link de YouTube]
Contenido de la clase
- Motivación para las CNN
- Convolución 1D, 2D
- Capas de Pooling
- Cantidad de parámetros por componente
Nota 28/06/25
- El notebook v2 no es la última versión. Usen v3 de clase 3
-
03 - Redes Neuronales Convolucionales (CNN) - 3
tl;dr: Dropout - ImageNet - AlexNet
[Jupyter Notebook v2] [Link de YouTube] [Dataset SignMnist]
Contenido de la clase
- Dropout
- ImageNet
- AlexNet
- Ejemplo de PyTorch con dataset SignMnist
Nota 28/06/25
- El notebook v2 no es la última versión. Usen v3 de clase 3
-
03 - Redes Neuronales Convolucionales (CNN) - 4
tl;dr: Residual Networks (ResNet) - Keras
[Jupyter Notebook v3] [Link de YouTube] [Dataset SignMnist]
Contenido de la clase
- Residual Networks (ResNets)
- Laboratorio: Keras con dataset SignMnist
-
04 - UNET
tl;dr: Redes encoder-decoder;UNET;segmentación
[Jupyter Notebook] [Link de YouTube]
Contenido de la clase
- Redes Encoder-Decoder
- Segmentación con ejemplo de UNET
-
05 - Stacked Autoencoders
tl;dr: Redes encoder-decoder;SAE;denoising
[Jupyter Notebook] [Link de YouTube]
Contenido de la clase
- Autoencoders
- Aplicación: denoising!
- Ventajas
- Stacked Autoencoders
-
06 - Embeddings
tl;dr: Embeddings;
[Jupyter Notebook] [Link de YouTube]
Contenido de la clase
- Transformers: De Tokenizers a Embeddings
- Interpretación semántica
- Operaciones sobre embeddings
- Ejemplos
-
07 - Transformers
tl;dr: Transformers; BERT; GPT
[PDF Sin anotaciones] [PDF Sin anotaciones] [Link de YouTube - Teoría] [Link de YouTube - Práctica]
Contenido de la clase
- Motivación
- Producto escalar self-attention
- Forma matricial
- El transformer
- Pipeline NLP
- Decoders
- Modelos de lenguaje grande (LLMs)