AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED
¿Cuál es el impacto de la IA en la humanidad?
Introducción a la IA y sus riesgos
- La investigadora Sebastian Betti menciona que ha estado estudiando la IA durante más de una década y recibió un correo alarmante sobre cómo su trabajo podría acabar con la humanidad.
- Se destaca que los titulares sobre IA son variados, desde descubrimientos médicos hasta situaciones preocupantes como chatbots que dan consejos destructivos.
Impactos actuales de la IA
- La oradora enfatiza que, aunque no se puede predecir el futuro de la IA, ya hay efectos negativos visibles en la sociedad y el medio ambiente.
- Los modelos de IA contribuyen al cambio climático y utilizan datos sin consentimiento de artistas y escritores, lo cual plantea problemas éticos significativos.
Sostenibilidad y costos ambientales
- Es crucial rastrear los impactos ambientales de la IA; se necesita transparencia para crear herramientas que ayuden a entender mejor estos efectos.
- La nube donde operan los modelos de IA consume grandes cantidades de energía y recursos materiales, afectando negativamente al planeta.
Iniciativas para mitigar el impacto ambiental
- En 2022, Sebastian participó en BigScience para desarrollar Bloom, un modelo lingüístico ético. El estudio reveló altos costos energéticos: entrenar Bloom consumió tanta energía como 30 hogares en un año.
- Comparado con otros modelos como GPT-3, Bloom emite significativamente menos carbono; sin embargo, las empresas tecnológicas no están midiendo ni revelando estos datos.
Crecimiento desmedido de modelos lingüísticos
- Los modelos lingüísticos han crecido exponencialmente (2000 veces en cinco años), aumentando también sus costos ambientales.
- Cambiar a un modelo más grande puede emitir 14 veces más carbono para tareas similares. Esto resalta una necesidad urgente por evaluar el impacto ambiental antes de implementar nuevas tecnologías.
Herramientas para medir el impacto
- CodeCarbon es una herramienta desarrollada para estimar energía consumida y emisiones generadas por modelos de IA. Permite tomar decisiones informadas sobre sostenibilidad.
Derechos de autor y uso no consentido
- Artistas enfrentan dificultades al demostrar que su trabajo fue utilizado sin permiso para entrenar modelos. Spawning.ai creó "¿Me han entrenado?" para ayudar a buscar información sobre su inclusión en conjuntos de datos.
Ejemplo personal e implicaciones legales
- La oradora comparte su experiencia buscando imágenes propias en bases de datos masivas; esto ilustra cómo se utiliza el trabajo artístico sin consentimiento.
La IA y los Prejuicios en la Sociedad
Colaboración entre Spawning.ai y Hugging Face
- Spawning.ai se asoció con Hugging Face para desarrollar mecanismos de aceptación y exclusión en conjuntos de datos, enfatizando que las obras de arte humanas no deben ser la base para entrenar modelos lingüísticos basados en IA.
Comprendiendo los Prejuicios en la IA
- Los prejuicios en modelos de IA se refieren a patrones que pueden perpetuar estereotipos, racismo y sexismo. La Dra. Joy Buolamwini experimentó esto al notar que su rostro no era detectado por sistemas de IA a menos que usara una máscara blanca.
- Se descubrió que los sistemas de reconocimiento facial eran significativamente menos precisos para mujeres de color comparado con hombres blancos, lo cual puede llevar a acusaciones falsas e injusticias legales.
Consecuencias del Sesgo en Sistemas de IA
- Un caso notable es el de Porcha Woodruff, quien fue erróneamente identificada como sospechosa por un sistema de IA mientras estaba embarazada, resaltando el peligro del uso inadecuado de estas tecnologías.
- Los sistemas sesgados pueden incluir términos peligrosos como "criminal peligroso" o "terrorista", lo cual es problemático cuando se aplican en contextos sociales críticos.
Herramientas para Medir el Sesgo
- Se creó la herramienta Stable Bias Explorer para explorar el sesgo en modelos generativos desde diferentes profesiones, revelando una representación predominante de blancura y masculinidad.
- En un análisis sobre 150 profesiones, se encontró que estos modelos tienden a representar abogados y directores ejecutivos casi exclusivamente como hombres blancos, ignorando la diversidad real.
Accesibilidad y Regulación de la IA
- La herramienta fue presentada en un evento sobre prejuicios de género ante la ONU, destacando su potencial para ayudar a personas sin conocimientos técnicos a interactuar con la IA.
- Es crucial que la IA sea accesible y comprensible ya que está integrada profundamente en nuestras sociedades; esto incluye teléfonos móviles, redes sociales y sistemas judiciales.
Abordando Problemas Complejos con Información Precisa
- No hay soluciones simples para problemas complejos como prejuicios o derechos autorales; sin embargo, herramientas informativas pueden ayudar a abordar estos desafíos conforme avanzamos hacia un futuro más sostenible.
- Las empresas pueden utilizar información sobre sostenibilidad al elegir modelos; legisladores pueden desarrollar regulaciones efectivas basadas en datos precisos sobre el impacto social de la IA.
Reflexiones Finales sobre Riesgos Existenciales