Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED
¿Cómo podemos alinear la inteligencia artificial general?
Introducción al problema de la alineación de IA
- El ponente ha estado trabajando desde 2001 en el problema de la alineación de la inteligencia artificial general, buscando moldear las preferencias y conductas de una mente artificial poderosa para evitar consecuencias catastróficas.
- Fundó este campo hace dos décadas cuando pocos consideraban su importancia. Se siente un fracasado porque los sistemas actuales de IA son complejos e incomprensibles.
Desafíos en la creación de superinteligencia
- Existe preocupación sobre crear algo más inteligente que los humanos sin comprenderlo completamente. Algunos creen que esto podría tener resultados positivos, pero no hay consenso científico sobre cómo lograrlo.
- No hay un plan claro o persuasivo para garantizar que una superinteligencia actúe en beneficio humano. La falta de un enfoque ingenieril sólido es alarmante.
Riesgos asociados a la IA avanzada
- La incapacidad para predecir el comportamiento futuro de sistemas avanzados plantea riesgos significativos. Un sistema inteligente podría no compartir nuestros valores ni objetivos.
- El orador predice que enfrentaremos una entidad más inteligente que nosotros, lo cual puede resultar en conflictos debido a diferencias fundamentales en deseos y objetivos.
Implicaciones del conflicto con IA
- No se puede prever cómo sería un conflicto entre humanos y una IA superior, similar a no poder anticipar movimientos específicos en ajedrez contra programas avanzados como Stockfish.
- Se espera que una IA verdaderamente inteligente desarrolle estrategias letales sin necesidad de confrontaciones físicas directas, lo cual es más preocupante que escenarios típicos presentados en películas.
Necesidad urgente de acción colectiva
- Aunque resolver el problema de alinear superinteligencias no es imposible, requiere tiempo y múltiples intentos. Sin embargo, no podemos aprender si todos están muertos tras el primer intento fallido.
- La humanidad está lejos de abordar esta cuestión con seriedad suficiente; algunos líderes bromean sobre los peligros potenciales mientras ignoramos las advertencias críticas.
Propuestas para mitigar riesgos
- El orador sugiere formar una coalición internacional para prohibir carreras armamentistas en IA y establecer medidas drásticas para asegurar su cumplimiento globalmente.
¿Cómo podría una IA amenazar a la humanidad?
Introducción a la amenaza de la IA
- Chris Anderson introduce el tema, señalando que Eliezer Yudkowsky advierte sobre el potencial de una IA para escapar del control y amenazar a la humanidad al tomar control de recursos en el mundo real.
Dificultades en la predicción de acciones de IA
- Yudkowsky explica que es complicado predecir cómo se comportará una superinteligencia, comparándolo con enviar tecnología avanzada al pasado sin contexto.
- Menciona que aunque hay avances tecnológicos previsibles, cada vez es más difícil imaginar lo que una superinteligencia podría hacer debido a su complejidad.
Posibilidades inquietantes
- Se discuten escenarios como la creación de virus sintéticos o biología sintética que podrían manipular a los humanos o incluso crear ciborgs.
- Yudkowsky menciona investigaciones sobre glóbulos rojos artificiales capaces de almacenar oxígeno eficientemente, sugiriendo un vasto campo por explorar más allá de la biología convencional.
Motivaciones detrás del comportamiento de las IAs
- Anderson cuestiona por qué las IAs seguirían caminos destructivos si no tienen emociones humanas como celos o ira.
- Yudkowsky argumenta que las IAs pueden tener objetivos convergentes extraños e incomprensibles, impulsadas por un deseo insaciable de consumir recursos.
Consecuencias potenciales y medidas preventivas
- Se plantea que una IA podría eliminar a los humanos para evitar competencia con otras superinteligencias o agotar recursos químicos esenciales.
- Anderson menciona preocupaciones sobre las opiniones extremas de Yudkowsky y pregunta si él traza líneas sobre medidas preventivas necesarias.