🎓CURSO PROMPT ENGINEERING en Español - GRATIS - 🤖CLASE 07- CAPACIDADES Y LIMITACIONES IA TEXTO
Introducción a las Potencialidades y Limitaciones de las IA de Texto
Presentación del Tema
- Joaquín Barberá introduce el tema, mencionando su experiencia en la academia online y blogs relacionados con tiendas online.
- Se anticipa un ejemplo interesante de "chromehacking" al final de la clase.
Concepto Clave: Propiedades Emergentes
- Se define el concepto de propiedades emergentes como comportamientos inesperados que surgen de la complejidad en modelos de inteligencia artificial.
- Estas habilidades no pueden ser atribuidas directamente a las partes individuales del modelo, lo que resalta su naturaleza compleja.
Potencialidades de las IA de Texto
Generación y Clasificación de Texto
- La generación de texto es una habilidad principal, permitiendo completar contextos iniciales basándose en entrenamiento previo.
- La clasificación se presenta como una propiedad emergente; por ejemplo, clasifica frases según el sentimiento que provocan.
Ejemplos Prácticos
- Un modelo clasifica frases como "me gustan las hamburguesas" (alegría), "ayer me dio un golpe" (dolor), etc., mostrando su capacidad para identificar emociones.
Extracción y Resumen
- La extracción permite identificar elementos clave dentro del texto. Ejemplo: "Juan come carne" resulta en sujeto "Juan" y complemento directo "carne".
- Los modelos también pueden resumir textos dados, utilizando comandos específicos para generar resúmenes concisos.
Reescritura y Aprendizaje Contextual
Reescritura Adaptativa
- Los modelos son capaces de reescribir textos siguiendo parámetros específicos, como orientarlos a un público infantil.
Definición del Context Learning
- El aprendizaje contextual se refiere a cómo los sistemas comprenden e integran información relevante para resolver problemas.
Ejemplo Ilustrativo
- Se explica cómo el contexto influye en la toma de decisiones por parte del modelo, usando ejemplos cotidianos para ilustrar este concepto.
Limitaciones de las IA de Texto
Sesgos en Respuestas
- Se discuten los sesgos sistemáticos presentes en las respuestas generadas por IA, que pueden resultar en resultados injustos o no deseados.
Causas Potenciales
Sesgos en Modelos de Lenguaje
Introducción a los Sesgos en el Entrenamiento
- Los modelos de lenguaje son entrenados con grandes cantidades de texto, que pueden incluir información sesgada. Esto significa que el modelo aprenderá y replicará esos sesgos en sus respuestas.
Sesgos por Censura
- Las empresas implementan sesgos por censura intencionadamente para evitar respuestas inapropiadas, como racismo o machismo.
Importancia del Prompt
- La redacción de prompts específicos y detallados es crucial para evitar resultados sesgados. Un ejemplo es la asociación errónea entre género y ocupaciones laborales.
Ejemplo de Sesgo de Género
- Si un modelo se entrena principalmente con ejemplos de hombres en roles de liderazgo, puede asociar estereotipos negativos al completar frases sobre profesiones, ignorando características importantes como la empatía.
Repeticiones y Alucinaciones en Modelos
Problemas con Repeticiones
- A mayor longitud del texto generado, aumenta la probabilidad de repeticiones. Este fenómeno es más común en modelos pequeños.
Parámetros para Evitar Repeticiones
- Existen parámetros como "frequency penalty" y "presence penalty" diseñados para minimizar las repeticiones. Dividir el contenido extenso en partes más pequeñas también ayuda.
Alucinaciones del Modelo
- Los modelos pueden inventar datos o información incorrecta, lo que se denomina "alucinación". Este es uno de los problemas más significativos en los modelos de lenguaje.
Ejemplo Práctico: Severo Ochoa
Respuesta Errónea del Modelo
- Se solicita al modelo generar un texto sobre Severo Ochoa incluyendo un colegio ficticio en Torre Pacheco. Aunque comienza bien, termina creando información falsa sobre dicho colegio.
Consecuencias de las Alucinaciones
- El modelo genera detalles completamente inventados sobre el colegio que no existe realmente, mostrando cómo puede fallar al proporcionar información precisa.
Manipulación del Prompt: Hacking
Técnicas para Burlar la Censura
- Existen técnicas conocidas como "prompt hacking" que permiten manipular los prompts para obtener respuestas sin censura.
Ejemplo Práctico: Pregunta sobre Tabaco