Power Each AI Agent With A Different LOCAL LLM (AutoGen + Ollama Tutorial)
Configuración del entorno y descarga de modelos
Resumen de la sección: En esta sección, el presentador explica cómo configurar el entorno y descargar los modelos necesarios para el proyecto.
Configuración del entorno
- Se deben instalar los modelos localmente.
- Se utilizará Conda para crear un entorno virtual.
- Se utiliza el comando
conda create -n autogen python=3.11para crear un nuevo entorno llamado "autogen" con Python 3.11.
- Se activa el entorno con
conda activate autogen.
Descarga de modelos
- Se utiliza pip para instalar los modelos requeridos.
- El primer modelo a descargar es "oama".
- Se utiliza el comando
pip install pi autogenpara instalarlo.
- El segundo modelo a descargar es "mistol".
- Se utiliza el comando
pip install lightllmpara instalarlo.
Ejecución del código y uso de los modelos descargados
Resumen de la sección: En esta sección, se muestra cómo ejecutar el código y utilizar los modelos descargados.
Ejecución del código
- Para ejecutar el código, se utiliza el comando
olama run.
- Esto permite utilizar los modelos descargados junto con Autogen y Mistol.
Uso de los modelos descargados
- Los modelos descargados pueden ser utilizados en conjunto con Autogen y Mistol.
- Es posible cargar múltiples modelos al mismo tiempo.
Uso de Cod Llama como envoltorio del modelo Oama SL
Resumen de la sección: En esta sección, se explica cómo utilizar Cod Llama como envoltorio del modelo Oama SL.
- Cod Llama proporciona un envoltorio alrededor de Oama SL que expone una API.
- Se utiliza el comando
lightllm -m oama_slpara iniciar el servidor con el modelo Oama SL.
Ejecución de múltiples modelos simultáneamente
Resumen de la sección: En esta sección, se muestra cómo ejecutar múltiples modelos simultáneamente.
- Es posible ejecutar varios modelos al mismo tiempo utilizando los comandos adecuados.
- Se puede cargar un segundo modelo utilizando el comando correspondiente.
Verificación del entorno y ejecución final
Resumen de la sección: En esta sección, se verifica el entorno y se realiza una última ejecución del código.
- Se verifica que el entorno esté activado correctamente.
- Se utiliza nuevamente el comando
olama runpara ejecutar los modelos descargados.
- Se muestra que los modelos están funcionando correctamente en el entorno configurado.
Ejecución secuencial de servidores
Resumen de la sección: En esta sección, se muestra cómo ejecutar dos servidores en paralelo utilizando el modelo Olama. Los servidores se ejecutan secuencialmente y se intercambian automáticamente.
Configuración de los servidores
- Se utilizan dos modelos: "Mistol" y "Code Llama".
- Se crea una lista de configuración para cada modelo.
- Se especifica la URL local del modelo y el endpoint de la API.
Ejecución del código
- Se importa el módulo necesario.
- Se verifica que las versiones de Python y Conda sean compatibles.
- Si hay algún error, se descarga otro modelo compatible.
Creación de la configuración para Code Llama
- Se crea una nueva lista de configuración para el modelo Code Llama.
- Se especifica la URL local del modelo y el endpoint de la API correspondiente.
Selección y prueba de modelos
Resumen de la sección: En esta sección, se seleccionan diferentes modelos disponibles en Olama para su uso posterior. También se realiza una prueba con el modelo Mistol.
Selección de modelos disponibles
- En la página principal de Olama, se pueden ver los diferentes modelos disponibles.
- Al hacer clic en "Models", aparece una lista con los nombres y descripciones de los modelos.
Prueba con el modelo Mistol
- Se selecciona el modelo Mistol para realizar una prueba.
- El modelo es descargado exitosamente desde la URL proporcionada.
Configuración para el modelo Code Llama
Resumen de la sección: En esta sección, se crea una lista de configuración para el modelo Code Llama.
Creación de la configuración
- Se crea una nueva lista de configuración para el modelo Code Llama.
- Se especifica la URL local del modelo y el endpoint de la API correspondiente.
Eliminación y creación de modelos
Resumen de la sección: En esta sección, el presentador habla sobre cómo eliminar y crear modelos para su uso en el asistente.
Eliminación de modelos
- Se muestra cómo eliminar un modelo específico utilizando el comando "config list" seguido del nombre del modelo.
- Se menciona que es importante asegurarse de tener la sintaxis correcta al ingresar el nombre del modelo a eliminar.
Creación de modelos
- Se explica cómo crear un nuevo modelo utilizando el comando "autogen".
- Se muestra cómo verificar si el nuevo modelo está funcionando correctamente utilizando los comandos "config list" y "print".
- Se menciona que es posible copiar y pegar configuraciones existentes para crear nuevos modelos.
- Se destaca la importancia de configurar adecuadamente las opciones de terminación del modelo para que funcione correctamente con el asistente.
- Se muestra cómo crear múltiples modelos para diferentes tareas o propósitos.
Creación del primer asistente
Resumen de la sección: En esta sección, se explica cómo crear el primer asistente utilizando un modelo preexistente.
Creación del asistente
- Se muestra cómo asignar un nombre al asistente utilizando la variable "assistant = autogen".
- Se menciona que es necesario especificar qué tarea debe realizar el asistente utilizando la función "agent.open()".
- Se destaca la importancia de configurar correctamente el modelo y las opciones de terminación para que el asistente funcione correctamente.
- Se muestra cómo asignar un mensaje de terminación personalizado al asistente.
Creación del segundo asistente
Resumen de la sección: En esta sección, se explica cómo crear un segundo asistente utilizando otro modelo preexistente.
Creación del segundo asistente
- Se muestra cómo crear un segundo asistente siguiendo los mismos pasos que en la creación del primer asistente.
- Se menciona que es importante asegurarse de utilizar el modelo correcto para cada asistente.
- Se destaca la posibilidad de tener múltiples agentes con diferentes modelos para diferentes propósitos.
Configuración del usuario proxy
Resumen de la sección: En esta sección, se explica cómo configurar el usuario proxy para interactuar con los asistentes.
Configuración del usuario proxy
- Se muestra cómo configurar el usuario proxy utilizando el comando "do user proxy agent".
- Se menciona que es posible encontrar más detalles sobre la configuración en una descripción adjunta o en un archivo externo.
- Se destaca la importancia de ajustar adecuadamente las opciones de conversación y terminación según sea necesario.
Prueba y optimización
Resumen de la sección: En esta sección, se habla sobre las pruebas y optimizaciones que se pueden realizar en los asistentes.
Prueba y optimización
- Se menciona la importancia de probar los asistentes con diferentes modelos y ajustes para obtener los mejores resultados.
- Se destaca que es posible experimentar y ajustar las configuraciones según sea necesario.
- Se muestra cómo configurar el feedback del asistente para obtener una mejor retroalimentación durante la conversación.
Conclusión
Resumen de la sección: En esta sección final, se concluye el proceso de creación de los asistentes y se resalta la importancia de ajustar adecuadamente las configuraciones para obtener los mejores resultados.
Conclusiones
- Se enfatiza que es fundamental seleccionar el modelo correcto para cada tarea específica.
- Se destaca que tener múltiples agentes con diferentes modelos puede ser beneficioso para abordar diferentes necesidades.
Generación de un número aleatorio
Resumen de la sección: En esta sección, se habla sobre la generación de un número aleatorio.
Generación de un número aleatorio
- Se utiliza una variable X para representar el número aleatorio generado.