RN2024 - Clase 04_b

RN2024 - Clase 04_b

Arquitectura de Redes Neuronales

Resumen de la Sección: En esta sección, se explora una arquitectura de redes neuronales que utiliza sigmoides para aproximar funciones. Se detalla cómo ajustar parámetros como W y B en la función sigmoide para modificar su forma y comportamiento.

Función Sigmoide y Aproximación de Funciones

  • Cienco propone una arquitectura simple con tres capas: entrada, salida y oculta, todas fully connected.
  • La función sigmoide puede ajustarse con parámetros W y B para variar su forma, convergiendo rápidamente a 0 o 1.
  • El parámetro B desplaza la sigmoide horizontalmente, mientras que el parámetro W controla la inclinación.

Aproximación de Funciones con Sigmoides

  • Combinando sigmoides mediante desplazamientos y transformaciones, se pueden crear funciones escalón.
  • Al encontrar dos sigmoides con diferentes desplazamientos verticales, se logra aproximar funciones complejas.

Selectores y Pesos en la Arquitectura

  • Las regiones formadas por pares complementarios de sigmoides se conocen como selectores.
  • Los pesos entre las neuronas ocultas y de salida determinan la altura del escalón aproximado.

Implementación Práctica

  • La red neuronal implementa las sigmoides como funciones de activación en las capas oculta y de salida.
  • Para ampliar el rango de valores representables por las sigmoides, se utilizan factores multiplicativos.

Pesos y Neuronas en Redes Neuronales

Resumen de la Sección: En esta sección, se discute el control de los pesos en las redes neuronales para lograr la cancelación adecuada entre las neuronas.

Control de Pesos

  • Se busca que los pesos se cancelen a la misma altura para garantizar un equilibrio entre las neuronas.
  • Al sumar las salidas de varias sigmoides, se obtiene una curva que aproxima la función deseada.
  • A través del ajuste de pesos, es posible aproximar cualquier función con cierta precisión.
  • Durante el entrenamiento, se calculan gradientes y se actualizan los pesos para lograr la forma deseada en las sigmoides.
  • La estrategia incluye dejar libre un solo peso para que la red aprenda eficientemente.

Entrenamiento y Selectores en Redes Neuronales

Resumen de la Sección: Aquí se aborda el proceso de entrenamiento y el uso de selectores en redes neuronales para mejorar la aproximación a funciones complejas.

Estrategias de Entrenamiento

  • Fijar ciertos pesos facilita el entrenamiento al guiar a la red hacia resultados deseados.
  • Ajustar valores como 20 o 2000 permite controlar la forma de salida de las sigmoides durante el entrenamiento.
  • Dejar algunos pesos libres brinda flexibilidad en el modelado y ajuste fino durante el proceso.

Uso de Selectores

  • Incrementar selectores mejora la aproximación a funciones complejas, pero exagerar puede llevar a sobreajuste (overfitting).
  • La cantidad de selectores influye en cómo se forman las curvas resultantes, siendo crucial encontrar un equilibrio óptimo.

Parámetros y Aproximador Universal

Resumen de la Sección: Se profundiza en los parámetros involucrados en el proceso y cómo construir un aproximador universal efectivo.

Parámetros Clave

  • El número excesivo de selectores puede conducir a overfitting; es esencial encontrar un equilibrio adecuado.
  • Con un millón de selectores, hay millones de parámetros para entrenar, lo que requiere una gestión cuidadosa durante el proceso.

Construcción del Aproximador Universal

  • Los desplazamientos son elementos clave que deben aprenderse durante el entrenamiento para mejorar la precisión del modelo.

Aproximador Universal y Múltiples Dimensiones

Resumen de la Sección: Se explora cómo funciona un aproximador universal en múltiples dimensiones y su importancia en predicciones precisas.

Funcionamiento Multidimensional

Resumen Detallado

Parámetros y Neuronas

  • Se discute la relación entre los parámetros y las neuronas en un modelo. Se menciona que al cancelarse ciertos lados amarillos y rojos, se forma un escalón con altura opuesta.
  • Con el aumento de electores, se multiplican los parámetros. Por ejemplo, con 4 selectores se obtienen 8 neuronas, y con 10 selectores se generan 60 parámetros.
  • Cada neurona tiene tres parámetros (W, b, H), lo que lleva a una cantidad total de parámetros igual a 2 por 3 por el número de selectores.

Variables de Entrada y Sigmoides

  • Cuando hay más de una variable de entrada, se trabajará con sigmoides en un espacio tridimensional. Cada neurona estará orientada en algún eje específico.
  • Para trabajar con múltiples variables de entrada, se necesitan pares adicionales de selectores para generar escalones en diferentes direcciones.

Ajuste de Neuronas y Selectores

  • Agregar una neurona requiere dos neuronas más para formar un único selector en tres dimensiones. Esto implica seleccionar señales específicas mediante ajustes en los pesos (W) y sesgos (B).
  • Matemáticamente, al tener dos variables de entrada, se necesitan cuatro neuronas para crear un único selector en tres dimensiones.

Cantidad de Parámetros y Selectores

  • La cantidad de selectores depende del tamaño muestral para entrenar el modelo. Un exceso o defecto puede afectar la eficacia del aprendizaje.
  • La proporción adecuada entre la cantidad de selectores y muestras es crucial para evitar problemas como el sobreajuste o subajuste del modelo.

Redes Neuronales Convolucionales

Convolutional Neural Networks: Limitaciones y Alternativas

Resumen de la Sección: En esta sección, se discute sobre las limitaciones de las redes neuronales convolucionales y posibles alternativas para abordar estos desafíos.

Redes Convolucionales Pequeñas

  • Se menciona un ejemplo de una red convolucional pequeña con 16 canales de 5x5, lo que resulta en una estructura compacta pero limitada en capacidad.

Limitación en Dimensiones

  • Al reducir el espacio a 400 dimensiones en una capa densa, se evidencia la imposibilidad práctica de manejar redes con altas dimensiones debido a la memoria requerida.

Complejidad y Viabilidad

  • Entrenar modelos con gran cantidad de parámetros es inviable en la práctica debido a los enormes requisitos de memoria, lo que hace que ciertas arquitecturas sean inmanejables.

Redes Neuronales: Aproximación y Capas

Resumen de la Sección: Aquí se profundiza en el concepto de aproximación universal por parte de las redes neuronales y cómo el número de capas influye en su capacidad predictiva.

Aproximación Universal

  • Se discute la idea errónea común sobre las redes neuronales como aproximadores universales, destacando su capacidad para aproximar cualquier función mediante múltiples capas.

Importancia del Número de Capas

  • La adición de capas permite refinar los modelos, mejorando su capacidad predictiva al ajustarse más precisamente a los datos. Sin embargo, se destaca que agregar capas no siempre garantiza mejor rendimiento.

Modelos como Regresión

  • Las redes neuronales pueden considerarse modelos de regresión que aprenden a ajustarse óptimamente a los datos disponibles, permitiendo adaptarse eficazmente a diferentes problemas.

Desafíos y Simplificaciones en Redes Neuronales

Resumen de la Sección: Se aborda la complejidad creciente al aumentar las dimensiones en redes neuronales y cómo simplificarlas puede ser crucial para mantener su viabilidad.

Simplificación Inicial