¿Qué es una Red Neuronal? Parte 2 : La Red | DotCSV
Redes Neuronales - Parte 2
Resumen de la sección: En esta parte del video, se continúa explorando el concepto de redes neuronales y cómo organizar las neuronas en capas para obtener conocimientos más complejos.
Organización de las neuronas en capas
- Las neuronas pueden ser organizadas en columnas o capas.
- Las neuronas en la misma capa reciben la misma información de entrada y procesan los cálculos antes de pasarlos a la siguiente capa.
- La primera capa se llama "capa de entrada" y la última capa se llama "capa de salida". Las capas intermedias se llaman "capas ocultas".
Ventajas de juntar neuronas
- Al colocar las neuronas secuencialmente, una neurona recibe información procesada por la neurona anterior.
- Esto permite que la red aprenda conocimientos jerárquicos y pueda modelar información más compleja.
- Por ejemplo, una neurona puede especializarse en determinar si una noche será entretenida, mientras que otra neurona puede especializarse en evaluar la motivación para un examen.
Aprendizaje profundo
- Con cada capa adicional, el conocimiento elaborado por la red neuronal se vuelve más complejo y abstracto.
- La profundidad de las capas es lo que da nombre al "aprendizaje profundo".
- Sin embargo, concatenar muchas operaciones lineales puede colapsar la estructura de la red y reducir su capacidad para aprender.
El problema con las operaciones lineales
Resumen de la sección: Se explora el problema de utilizar solo operaciones lineales en una red neuronal y cómo se puede evitar que la estructura colapse.
Efecto de sumar muchas operaciones lineales
- Sumar muchas operaciones lineales en una red neuronal resulta en una única operación lineal.
- Esto hace que toda la estructura colapse y sea equivalente a tener una sola neurona.
Necesidad de manipulación no lineal
- Para evitar que la red colapse, es necesario que cada línea sufra alguna manipulación no lineal.
- Esto implica agregar distorsiones a las líneas rectas para obtener resultados diferentes.
Aprendizaje profundo y conexiones secuenciales
Resumen de la sección: Se explica cómo lograr el aprendizaje profundo al conectar múltiples neuronas de forma secuencial.
Conexiones secuenciales
- Para lograr el aprendizaje profundo, es necesario conectar múltiples neuronas de forma secuencial.
- Cada neurona realiza una operación de regresión lineal, pero al combinarlas, se obtiene un conocimiento más complejo.
- La profundidad y cantidad de capas determinan la complejidad del conocimiento elaborado por la red.
Función de Activación
Resumen de la sección: En esta sección se explica el concepto de función de activación en las redes neuronales. Se mencionan diferentes tipos de funciones de activación y sus características.
Tipos de Funciones de Activación
- La función escalonada asigna 1 si el valor es mayor al umbral y 0 si es menor.
- La función sigmoide distorsiona los valores grandes a 1 y los valores pequeños a 0, permitiendo representar probabilidades.
- La función tangente hiperbólica tiene una forma similar a la sigmoide pero su rango varía entre -1 y 1.
- La función ReLU es lineal para valores positivos y cero para valores negativos.
Interpretación Geométrica
Resumen de la sección: En esta sección se explora la interpretación geométrica del procesamiento en una red neuronal. Se muestra cómo las funciones de activación distorsionan el plano generado por las neuronas.
Efecto de las Funciones de Activación en el Plano
- La función escalonada distorsiona el plano generando una frontera recta.
- Las otras funciones también distorsionan el plano, pero aún así generan fronteras rectas.
- Para generar fronteras curvas, es necesario encadenar varias neuronas con diferentes funciones de activación.
Solución al Problema
Resumen de la sección: En esta sección se plantea una posible solución al problema de encontrar fronteras curvas utilizando múltiples neuronas con diferentes funciones de activación.
Utilizando Neuronas con Función Sigmoide
- Colocar una neurona con función sigmoide en la primera capa oculta de la red.
- Ajustar los parámetros para variar la forma de la función sigmoide y orientación de la figura.
- Esto permite generar fronteras curvas en lugar de líneas rectas.
Ejemplo Práctico
Resumen de la sección: En esta sección se muestra un ejemplo práctico utilizando las teorías explicadas anteriormente para separar dos nubes de puntos.
Aplicación Práctica
- Se intenta separar dos nubes de puntos utilizando las funciones de activación y encadenando varias neuronas.
- Este ejemplo puede ser extrapolado a problemas reales, como clasificar células cancerígenas en una imagen.
Intersección del plano con la montaña
Resumen de la sección: En esta parte del video, se muestra cómo la intersección del plano con una montaña produce una frontera circular que resuelve el problema de clasificación. Se destaca la capacidad de las redes neuronales para desarrollar soluciones complejas mediante la unión de muchas neuronas.
Frontera circular generada por la intersección
- La intersección del plano con la montaña produce una frontera circular.
- Esta frontera circular resuelve el problema de clasificación buscado.
- Las redes neuronales son capaces de desarrollar soluciones complejas gracias a la unión de muchas neuronas.
Preparados para lo que sigue
Resumen de la sección: En esta parte final del video, se menciona que si después de ver este contenido surge alguna duda sobre el nombre "Jon Nieve" en lugar de "Ion Nú", significa que estás preparado para continuar viendo lo que falta en la tercera parte de esta serie.
Listos para seguir aprendiendo
- Si no tienes dudas sobre el nombre "Jon Nieve" en lugar de "Ion Nú", estás preparado para continuar.
- Se invita a seguir viendo lo que falta en la tercera parte de esta serie.