Acá estarán disponibles los recursos para las clases. El tl;dr es una breve explicación de la misma. Para cada clase, intentaremos compartir el link del video de YouTube y el material asociado.

  • 00 - Introducción al curso y ejemplo de vida real
    tl;dr: Explicación corta del contenido del curso y presentación de un trabajo de vida real con aplicaciones de DL
    [Láminas] [Video de YouTube]
  • 01 - Introducción a Redes Neuronales Profundas
    tl;dr: Repaso del curso de Aprendizaje automático
    [Jupyter Notebook] [Video de YouTube]
  • 01 - Introducción a Redes Neuronales Profundas
    tl;dr: Repaso del curso de Aprendizaje automático. Parte 2.
    [Jupyter Notebook] [Video de YouTube]
    1. Método del Descenso del gradiente
    2. Breve introducción a Redes Neuronales
    3. Teorema de Representación Universal
    4. Redes Neuronales Profundas
  • 02 - Redes Neuronales (NN) - Intro
    tl;dr: Definición de Redes Neuronales (NN)
    [Jupyter Notebook] [Link de YouTube]
  • 02 - Redes Neuronales (NN) - Bias-Variance
    tl;dr: Bias-Variance tradeoff
    [Jupyter Notebook] [Link de YouTube]
    • La compensación sesgo-varianza bias-variance tradeoff
    • Cómo controlar la complejidad del modelo afecta sesgo, varianza y error de la función de pérdida.
    • Bibliografía: ISLP
  • 02 - Redes Neuronales (NN) - PyTorch 1
    tl;dr: Introducción a PyTorch
    [Jupyter Notebook] [Link de YouTube]
  • 02 - Redes Neuronales (NN) - Optimización
    tl;dr: Algoritmos de optimización
    [Presentación con notas] [Presentación en español sin notas] [Link de YouTube]
  • 02 - Redes Neuronales (NN) - BP1
    tl;dr: Backpropagation clase 1
    [Presentación con notas] [Presentación en español sin notas] [Link de YouTube]
    1. La intuición de backpropagation (propagación hacia atrás de los errores)
    2. Modelo de juguete con función de una sola variable
    3. Deducción de las derivadas parciales e intuición de paso hacia adelante y atrás.
  • 02 - Redes Neuronales (NN) - Adam y BP2
    tl;dr: Optimizador Adam y Backpropagation clase 2
    [Presentación con notas] [Presentación en español sin notas] [Video de YouTube]

    Algoritmos de optimización

    1. Adam optimizer normal y con momemtum.

    Backpropagation Parte 2

    1. Matemáticas necesarias
    2. Paso adelante de backpropagation
    3. Paso hacia atrás por backpropagation
    4. Diferenciación algorítmica
    5. Código template
  • 02 - Redes Neuronales (NN) - Inicialización de RDP
    tl;dr: Inicializaciones
    [Presentación con notas] [Video de YouTube]

    Contenido

    • Necesidad de inicialización
    • Inicialización He
    • Valores esperados
    • Demostrar que $E[f_i]=0$
    • Escribir la varianza de las preactivaciones f’ en términos de las activaciones h en la capa anterior $\sigma_{f^{\prime}}^2=\sigma_{\Omega}^2 \sum_{j=1}^{D_h} \mathbb{E}\left[h_j^2\right]$
    • Escribir la varianza de las preactivaciones f’ en términos de las preactivaciones f de la capa anterior $\sigma_{f^{\prime}}^2=\frac{D_h \sigma_{\Omega}^2 \sigma_f^2}{2}$
    • Inicialización Xavier
    • Experimentos
  • 02 - Redes Neuronales (NN) - PyTorch 2
    tl;dr: Introducción a PyTorch - Clase final
    [Jupyter Notebook] [Link de YouTube]
  • 03 - Redes Neuronales Convolucionales (CNN) - 1
    tl;dr: Introducción a CNN - PDI - Convolución
    [Jupyter Notebook v1] [Link de YouTube] [Link de YouTube CNN 1 - II 2024] [Link de YouTube CNN 2 - II 2024]

    Contenido de la clase

    • Procesamiento digital de imágenes
    • Operadores pixel - pixel
    • Operadores de vecindad
    • Kernels
    • Operación de Convolución

    Imágenes para el nb

  • 03 - Redes Neuronales Convolucionales (CNN) - 2
    tl;dr: Componentes de una CNN
    [Jupyter Notebook v2] [Link de YouTube]

    Contenido de la clase

    • Motivación para las CNN
    • Convolución 1D, 2D
    • Capas de Pooling
    • Cantidad de parámetros por componente

    Nota 28/06/25

    • El notebook v2 no es la última versión. Usen v3 de clase 3
  • 03 - Redes Neuronales Convolucionales (CNN) - 3
    tl;dr: Dropout - ImageNet - AlexNet
    [Jupyter Notebook v2] [Link de YouTube] [Dataset SignMnist]

    Contenido de la clase

    • Dropout
    • ImageNet
    • AlexNet
    • Ejemplo de PyTorch con dataset SignMnist

    Nota 28/06/25

    • El notebook v2 no es la última versión. Usen v3 de clase 3
  • 03 - Redes Neuronales Convolucionales (CNN) - 4
    tl;dr: Residual Networks (ResNet) - Keras
    [Jupyter Notebook v3] [Link de YouTube] [Dataset SignMnist]

    Contenido de la clase

    • Residual Networks (ResNets)
    • Laboratorio: Keras con dataset SignMnist
  • 04 - UNET
    tl;dr: Redes encoder-decoder;UNET;segmentación
    [Jupyter Notebook] [Link de YouTube]

    Contenido de la clase

    • Redes Encoder-Decoder
    • Segmentación con ejemplo de UNET
  • 05 - Stacked Autoencoders
    tl;dr: Redes encoder-decoder;SAE;denoising
    [Jupyter Notebook] [Link de YouTube]

    Contenido de la clase

    • Autoencoders
    • Aplicación: denoising!
    • Ventajas
    • Stacked Autoencoders
  • 06 - Embeddings
    tl;dr: Embeddings;
    [Jupyter Notebook] [Link de YouTube]

    Contenido de la clase

    • Transformers: De Tokenizers a Embeddings
    • Interpretación semántica
    • Operaciones sobre embeddings
    • Ejemplos
  • 07 - Transformers
    tl;dr: Transformers; BERT; GPT
    [PDF Sin anotaciones] [PDF Sin anotaciones] [Link de YouTube - Teoría] [Link de YouTube - Práctica]

    Contenido de la clase

    • Motivación
    • Producto escalar self-attention
    • Forma matricial
    • El transformer
    • Pipeline NLP
    • Decoders
    • Modelos de lenguaje grande (LLMs)