Power Each AI Agent With A Different LOCAL LLM (AutoGen + Ollama Tutorial)

Power Each AI Agent With A Different LOCAL LLM (AutoGen + Ollama Tutorial)

Configuración del entorno y descarga de modelos

Resumen de la sección: En esta sección, el presentador explica cómo configurar el entorno y descargar los modelos necesarios para el proyecto.

Configuración del entorno

  • Se deben instalar los modelos localmente.
  • Se utilizará Conda para crear un entorno virtual.
  • Se utiliza el comando conda create -n autogen python=3.11 para crear un nuevo entorno llamado "autogen" con Python 3.11.
  • Se activa el entorno con conda activate autogen.

Descarga de modelos

  • Se utiliza pip para instalar los modelos requeridos.
  • El primer modelo a descargar es "oama".
  • Se utiliza el comando pip install pi autogen para instalarlo.
  • El segundo modelo a descargar es "mistol".
  • Se utiliza el comando pip install lightllm para instalarlo.

Ejecución del código y uso de los modelos descargados

Resumen de la sección: En esta sección, se muestra cómo ejecutar el código y utilizar los modelos descargados.

Ejecución del código

  • Para ejecutar el código, se utiliza el comando olama run.
  • Esto permite utilizar los modelos descargados junto con Autogen y Mistol.

Uso de los modelos descargados

  • Los modelos descargados pueden ser utilizados en conjunto con Autogen y Mistol.
  • Es posible cargar múltiples modelos al mismo tiempo.

Uso de Cod Llama como envoltorio del modelo Oama SL

Resumen de la sección: En esta sección, se explica cómo utilizar Cod Llama como envoltorio del modelo Oama SL.

  • Cod Llama proporciona un envoltorio alrededor de Oama SL que expone una API.
  • Se utiliza el comando lightllm -m oama_sl para iniciar el servidor con el modelo Oama SL.

Ejecución de múltiples modelos simultáneamente

Resumen de la sección: En esta sección, se muestra cómo ejecutar múltiples modelos simultáneamente.

  • Es posible ejecutar varios modelos al mismo tiempo utilizando los comandos adecuados.
  • Se puede cargar un segundo modelo utilizando el comando correspondiente.

Verificación del entorno y ejecución final

Resumen de la sección: En esta sección, se verifica el entorno y se realiza una última ejecución del código.

  • Se verifica que el entorno esté activado correctamente.
  • Se utiliza nuevamente el comando olama run para ejecutar los modelos descargados.
  • Se muestra que los modelos están funcionando correctamente en el entorno configurado.

Ejecución secuencial de servidores

Resumen de la sección: En esta sección, se muestra cómo ejecutar dos servidores en paralelo utilizando el modelo Olama. Los servidores se ejecutan secuencialmente y se intercambian automáticamente.

Configuración de los servidores

  • Se utilizan dos modelos: "Mistol" y "Code Llama".
  • Se crea una lista de configuración para cada modelo.
  • Se especifica la URL local del modelo y el endpoint de la API.

Ejecución del código

  • Se importa el módulo necesario.
  • Se verifica que las versiones de Python y Conda sean compatibles.
  • Si hay algún error, se descarga otro modelo compatible.

Creación de la configuración para Code Llama

  • Se crea una nueva lista de configuración para el modelo Code Llama.
  • Se especifica la URL local del modelo y el endpoint de la API correspondiente.

Selección y prueba de modelos

Resumen de la sección: En esta sección, se seleccionan diferentes modelos disponibles en Olama para su uso posterior. También se realiza una prueba con el modelo Mistol.

Selección de modelos disponibles

  • En la página principal de Olama, se pueden ver los diferentes modelos disponibles.
  • Al hacer clic en "Models", aparece una lista con los nombres y descripciones de los modelos.

Prueba con el modelo Mistol

  • Se selecciona el modelo Mistol para realizar una prueba.
  • El modelo es descargado exitosamente desde la URL proporcionada.

Configuración para el modelo Code Llama

Resumen de la sección: En esta sección, se crea una lista de configuración para el modelo Code Llama.

Creación de la configuración

  • Se crea una nueva lista de configuración para el modelo Code Llama.
  • Se especifica la URL local del modelo y el endpoint de la API correspondiente.

Eliminación y creación de modelos

Resumen de la sección: En esta sección, el presentador habla sobre cómo eliminar y crear modelos para su uso en el asistente.

Eliminación de modelos

  • Se muestra cómo eliminar un modelo específico utilizando el comando "config list" seguido del nombre del modelo.
  • Se menciona que es importante asegurarse de tener la sintaxis correcta al ingresar el nombre del modelo a eliminar.

Creación de modelos

  • Se explica cómo crear un nuevo modelo utilizando el comando "autogen".
  • Se muestra cómo verificar si el nuevo modelo está funcionando correctamente utilizando los comandos "config list" y "print".
  • Se menciona que es posible copiar y pegar configuraciones existentes para crear nuevos modelos.
  • Se destaca la importancia de configurar adecuadamente las opciones de terminación del modelo para que funcione correctamente con el asistente.
  • Se muestra cómo crear múltiples modelos para diferentes tareas o propósitos.

Creación del primer asistente

Resumen de la sección: En esta sección, se explica cómo crear el primer asistente utilizando un modelo preexistente.

Creación del asistente

  • Se muestra cómo asignar un nombre al asistente utilizando la variable "assistant = autogen".
  • Se menciona que es necesario especificar qué tarea debe realizar el asistente utilizando la función "agent.open()".
  • Se destaca la importancia de configurar correctamente el modelo y las opciones de terminación para que el asistente funcione correctamente.
  • Se muestra cómo asignar un mensaje de terminación personalizado al asistente.

Creación del segundo asistente

Resumen de la sección: En esta sección, se explica cómo crear un segundo asistente utilizando otro modelo preexistente.

Creación del segundo asistente

  • Se muestra cómo crear un segundo asistente siguiendo los mismos pasos que en la creación del primer asistente.
  • Se menciona que es importante asegurarse de utilizar el modelo correcto para cada asistente.
  • Se destaca la posibilidad de tener múltiples agentes con diferentes modelos para diferentes propósitos.

Configuración del usuario proxy

Resumen de la sección: En esta sección, se explica cómo configurar el usuario proxy para interactuar con los asistentes.

Configuración del usuario proxy

  • Se muestra cómo configurar el usuario proxy utilizando el comando "do user proxy agent".
  • Se menciona que es posible encontrar más detalles sobre la configuración en una descripción adjunta o en un archivo externo.
  • Se destaca la importancia de ajustar adecuadamente las opciones de conversación y terminación según sea necesario.

Prueba y optimización

Resumen de la sección: En esta sección, se habla sobre las pruebas y optimizaciones que se pueden realizar en los asistentes.

Prueba y optimización

  • Se menciona la importancia de probar los asistentes con diferentes modelos y ajustes para obtener los mejores resultados.
  • Se destaca que es posible experimentar y ajustar las configuraciones según sea necesario.
  • Se muestra cómo configurar el feedback del asistente para obtener una mejor retroalimentación durante la conversación.

Conclusión

Resumen de la sección: En esta sección final, se concluye el proceso de creación de los asistentes y se resalta la importancia de ajustar adecuadamente las configuraciones para obtener los mejores resultados.

Conclusiones

  • Se enfatiza que es fundamental seleccionar el modelo correcto para cada tarea específica.
  • Se destaca que tener múltiples agentes con diferentes modelos puede ser beneficioso para abordar diferentes necesidades.

Generación de un número aleatorio

Resumen de la sección: En esta sección, se habla sobre la generación de un número aleatorio.

Generación de un número aleatorio

  • Se utiliza una variable X para representar el número aleatorio generado.
Video description

In this video, I show you how to power AutoGen AI agents using individual open-source models per AI agent, this is going to be the future AI tech stack for running AI agents locally. Models are powered by Ollama and the API is exposed using LiteLLM. Enjoy :) Join My Newsletter for Regular AI Updates 👇🏼 https://forwardfuture.ai/ My Links 🔗 👉🏻 Subscribe: https://www.youtube.com/@matthew_berman 👉🏻 Twitter: https://twitter.com/matthewberman 👉🏻 Discord: https://discord.gg/xxysSXBxFW 👉🏻 Patreon: https://patreon.com/MatthewBerman Media/Sponsorship Inquiries 📈 https://bit.ly/44TC45V Links: Instructions - https://gist.github.com/mberman84/ea207e7d9e5f8c5f6a3252883ef16df3 Ollama - https://ollama.ai LiteLLM - https://litellm.ai/ AutoGen - https://github.com/microsoft/autogen https://www.youtube.com/watch?v=VJ6bK81meu8 https://www.youtube.com/watch?v=PUPO2tTyPOo https://www.youtube.com/watch?v=FHXmiAvloUg https://www.youtube.com/watch?v=10FCv-gCKug https://www.youtube.com/watch?v=V2qZ_lgxTzg https://www.youtube.com/watch?v=vU2S6dVf79M