El Futuro de las Computadoras Será Radicalmente Diferente

El Futuro de las Computadoras Será Radicalmente Diferente

¿Por qué están resurgiendo las computadoras analógicas?

Evolución de las computadoras

  • Durante siglos, las computadoras analógicas fueron predominantes, utilizadas para predecir fenómenos naturales y guiar operaciones militares.
  • Con la llegada de los transistores de estado sólido, las computadoras digitales comenzaron a dominar el campo tecnológico.

Características de las computadoras analógicas

  • Las computadoras analógicas operan con voltajes en lugar de ceros y unos, lo que permite simular problemas físicos como oscilaciones en un resorte.
  • Se pueden programar para resolver diversas ecuaciones diferenciales rápidamente, como el sistema de Lorenz, conocido por su relación con el caos.

Ventajas y desventajas

  • Las computadoras analógicas son eficientes energéticamente y requieren menos componentes para realizar cálculos simples comparadas con las digitales.
  • Sin embargo, no son versátiles para múltiples propósitos y presentan variaciones en resultados debido a la naturaleza continua de sus entradas y salidas.

Retorno al uso de tecnología analógica

  • A pesar de sus limitaciones, la rapidez y eficiencia energética hacen que las computadoras analógicas estén volviendo a ser relevantes en ciertos contextos tecnológicos.

La inteligencia artificial y su conexión con las neuronas

Orígenes de la inteligencia artificial

  • El término "inteligencia artificial" fue acuñado en 1956; desde entonces ha evolucionado significativamente.

Funcionamiento del perceptrón

  • Un modelo básico imita el funcionamiento neuronal: cada neurona puede activarse o no dependiendo del peso asignado a sus conexiones.
  • La activación se calcula multiplicando la señal entrante por su peso; si supera un umbral (sesgo), se activa.

Entrenamiento del perceptrón

  • El objetivo es distinguir entre diferentes imágenes ajustando los pesos según los errores cometidos durante el reconocimiento visual.

Evolución de los Algoritmos de Aprendizaje Automático

Convergencia del Algoritmo

  • Se demostró que el algoritmo puede converger siempre que se pueda mapear las dos categorías en grupos diferentes.

Limitaciones del Perceptor

  • El perceptor no podía distinguir entre formas como rectángulos o triángulos, ni entre perros y gatos. Rosenblatt afirmó que la máquina tenía capacidades equivalentes a pensamientos originales, siendo apoyado por medios como 'The New York Times'.

Críticas y Primer Invierno de la IA

  • A pesar de su entrenamiento, el perceptor era limitado; no podía distinguir entre varones y mujeres. Esto llevó a críticas en un libro de Minsky y Papert en 1969, marcando el inicio del primer invierno de la inteligencia artificial.

Resurgimiento en los Años 80

  • En los años 80, la inteligencia artificial resurgió con investigadores de Carnegie Mellon creando uno de los primeros autos sin conductor controlados por una red neuronal llamada Albín.

Funcionamiento de Albín

  • Albín recibía imágenes del camino a seguir y utilizaba una capa oculta para procesar información. La activación más alta determinaba el ángulo de giro del camión basado en entradas visuales.

Entrenamiento mediante Retropropagación

  • Para entrenar la red neuronal, un humano proporcionó el ángulo correcto para cada imagen. Los pesos se ajustaron usando retropropagación, permitiendo a la computadora aprender patrones visuales.

Desafíos Persistentes

  • A pesar del avance tecnológico, las redes neuronales seguían teniendo problemas con tareas simples como distinguir gatos de perros. La comunidad debatía si esto se debía al hardware o al software utilizado.

Avances Significativos en Reconocimiento Visual

Nuevas Perspectivas sobre Redes Neuronales

  • En los años 90 y principios de 2000, muchos investigadores se enfocaron en mejorar algoritmos existentes. Pei Felix sugirió que las redes necesitaban más datos para entrenarse efectivamente.

Creación de Bases de Datos Masivas

  • Entre 2006 y 2009, se creó una base de datos masiva con más de un millón doscientas mil imágenes rotuladas para mejorar el entrenamiento y reconocimiento visual.

Competencias Anuales en Reconocimiento Facial

  • Desde 2010 hasta 2017, se llevaron a cabo competencias anuales donde programas competían para detectar e identificar imágenes clasificadas en mil categorías diferentes.

Desempeño Mejorado con AlexNet

  • En 2011, AlexNet logró una tasa de error del top 5 del 25.8%, mejorando significativamente respecto al año anterior. Su éxito radicó en su tamaño y profundidad con ocho capas neuronales.

Complejidad Computacional y Éxito Académico

Desempeño de las Redes Neuronales y Desafíos Tecnológicos

Caída en la Competencia de ImageNet

  • La competencia de ImageNet mostró un desempeño notable, alcanzando un 3.6% en 2015, superando el rendimiento humano gracias a una red neuronal con 100 capas.

Problemas del Consumo Energético

  • Entrenar redes neuronales consume energía equivalente al consumo anual de tres hogares, lo que plantea preocupaciones sobre la sostenibilidad.

Cuello de Botella en el Procesamiento

  • Las computadoras digitales modernas enfrentan un cuello de botella al almacenar información y realizar multiplicaciones de matrices, gastando más tiempo y energía en acceder a los valores que en calcular.

Limitaciones Físicas y Ley de Moore

  • La miniaturización se enfrenta a desafíos fundamentales debido al tamaño atómico de los transistores, limitando el avance tecnológico mientras las redes neuronales crecen en popularidad.

Potencial de las Computadoras Analógicas

  • Las redes neuronales pueden tolerar variaciones menores; por ejemplo, si una red está 96% segura sobre una imagen, puede considerarla correcta. Esto abre la puerta a computadoras analógicas como Mythic para mejorar algoritmos.

Aplicaciones Prácticas y Avances Tecnológicos

Mejoras en Realidad Virtual

  • Se están desarrollando chips analógicos para aplicaciones como realidad virtual, donde se requiere renderizar poses rápidamente entre usuarios en entornos virtuales.

Estimación de Profundidad con Webcam

  • Utilizando solo una webcam, se pueden generar mapas de calor para estimar profundidad; esto es crucial para aplicaciones metaverso.

Innovación con Celdas Flash Digitales

  • Mythic utiliza celdas flash no solo como memoria binaria (0 o 1), sino como resistencias variables para realizar cálculos analógicos eficientes.

Multiplicación Eficiente con Celdas Flash

  • Cada celda flash puede multiplicar dos valores mediante voltaje por conductancia; esto permite realizar operaciones matemáticas complejas rápidamente y con bajo consumo energético.

Comparativa entre Chips Digitales y Analógicos

  • Un chip analógico puede realizar hasta 25 billones de operaciones por segundo usando solo 3 watts, comparado con sistemas digitales que requieren más potencia y son costosos.

Retos y Futuro del Procesamiento Analógico

Aplicaciones en Seguridad y Manufactura

  • Los circuitos analógicos podrían ser utilizados eficientemente en cámaras de seguridad o inspección manufacturera para identificar productos defectuosos utilizando inteligencia artificial.

Desafíos del Procesamiento Híbrido

  • Para implementar redes neuronales populares se deben manejar múltiples secuencias complejas entre dominios analógico y digital sin distorsionar la señal final durante el procesamiento.

¿Las computadoras analógicas tendrán éxito?

Reflexiones sobre la tecnología de la información

  • La idea de que las redes neuronales son correctas sugiere que las computadoras analógicas podrían tener un papel importante en el futuro, similar al de las digitales.
  • Aunque históricamente se ha considerado a las computadoras digitales como las más óptimas para procesar información, hay una creciente curiosidad sobre el potencial de las computadoras analógicas.
  • En los últimos 50 años, casi toda la información (música, imágenes y vídeos) se ha digitalizado, lo que plantea preguntas sobre el futuro del formato digital.
  • Se sugiere que en 100 años podríamos ver lo digital no como un final, sino como un punto de partida en la evolución tecnológica.
Video description

🎛 SUSCRÍBETE para ver todos nuestros videos: https://www.youtube.com/c/Veritasiumenespañol?sub_confirmation=1 Las computadoras digitales nos han servido durante décadas, pero el auge de la inteligencia artificial exige un tipo de ordenador totalmente nuevo: el analógico. Gracias a Mike Henry y a todos los miembros de Mythic por el visita guiada de las computadoras analógicas. https://www.mythic-ai.com/ Gracias al Dr. Bernd Ulmann, que creó La Cosa Analógica y nos enseñó a usarla. https://the-analog-thing.org La Ley de Moore fue filmada en el Museo de Historia de la Computación en Mountain View, CA. Video de ALVINN de Welch Labs: https://www.youtube.com/watch?v=H0igiP6Hg1k ▀▀▀ Referencias: Crevier, D. (1993). AI: La tumultuosa historia de la búsqueda de la inteligencia artificial. Basic Books. - https://ve42.co/Crevier1993 Valiant, L. (2013). Probablemente sea aproximadamente correcto. HarperCollins. - https://ve42.co/Valiant2013 Rosenblatt, F. (1958). El perceptrón: Un modelo probabilístico de almacenamiento y organización de la información en el cerebro. Psychological Review, 65(6), 386-408. - https://ve42.co/Rosenblatt1958 EL NUEVO DISPOSITIVO DE LA MARINA APRENDE CON LA PRÁCTICA; Un psicólogo muestra el embrión de un ordenador diseñado para leer y ser más sabio (1958). The New York Times, p. 25. - https://ve42.co/NYT1958 Mason, H., Stewart, D., y Gill, B. (1958). Rival. The New Yorker, p. 45. - https://ve42.co/Mason1958 Imágenes de la conducción de Alvinn en NavLab - https://ve42.co/NavLab Pomerleau, D. (1989). ALVINN: Un vehículo terrestre autónomo en una red neuronal. NeurIPS, (2)1, 305-313. - https://ve42.co/Pomerleau1989 Sitio web de ImageNet - https://ve42.co/ImageNet Russakovsky, O., Deng, J. y otros (2015). Desafío de reconocimiento visual a gran escala de ImageNet. - https://ve42.co/ImageNetChallenge Documento de AlexNet: Krizhevsky, A., Sutskever, I., Hinton, G. (2012). Clasificación de ImageNet con redes neuronales convolucionales profundas. NeurIPS, (25)1, 1097-1105. - https://ve42.co/AlexNet Karpathy, A. (2014). Publicación en el blog: Lo que aprendí al competir contra una ConvNet en ImageNet. - https://ve42.co/Karpathy2014 Fick, D. (2018). Publicación en el blog: Mythic @ Hot Chips 2018. - https://ve42.co/MythicBlog Jin, Y. y Lee, B. (2019). 2.2 Operaciones básicas de la memoria flash. Advances in Computers, 114, 1-69. - https://ve42.co/Jin2019 Demler, M. (2018). Multiplicaciones míticas en un instante. El informe del microprocesador. - https://ve42.co/Demler2018 Aspinity (2021). Publicación en el blog: 5 Mitos sobre el AnalogML. - https://ve42.co/Aspinity Wright, L. y otros (2022). Redes neuronales físicas profundas entrenadas con retropropagación. Nature, 601, 49-555. - https://ve42.co/Wright2022 Waldrop, M. M. (2016). La ley de Moore se queda sin chips. Nature, 530, 144-147. - https://ve42.co/Waldrop2016 ▀▀▀ Escrito por Derek Muller, Stephen Welch y Emily Zhang Filmado por Derek Muller, Petr Lebedev y Emily Zhang Animación: Iván Tello, Mike Radjabov y Stephen Welch Editado por Derek Muller Video/fotos adicionales proporcionadas por Getty Images y Pond5 Música de Epidemic Sound Producido por Derek Muller, Petr Lebedev y Emily Zhang El Futuro de las Computadoras Será Radicalmente Diferente Video en Inglés del Canal @veritasium : https://youtu.be/GVsUOuSjvcg Future Computers Will Be Radically Different ------------------------------------------------------------------------ 🕹 Este canal de Youtube es administrado por: https://www.unilingo.tv/ ❓Comentarios o sugerencias de traducción: info@unilingo.tv ------------------------------------------------------------------------ #veritasiumenespañol