Abel González

Abel González

Otros Artículos:

Desarrollo de agentes con Python, Flask y LLMMs

Compartir en linkedin
LinkedIn
Compartir en facebook
Facebook
Compartir en twitter
Twitter
Compartir en whatsapp
WhatsApp

Capítulo 1 – Un poco de arquitectura

No cabe duda que en el mundo del dato moderno el uso de la IA generativa es ya una realidad. Con mayor o menor adopción en procesos, la mayoría de los planteamientos empresariales está basado en agentes.

  • ¿Y qué es un agente?
  • Un agente es un programa que hace cosas.
  • Me ha quedado clarísimo, gracias.

 

Efectivamente un agente hace cosas, con determinado nivel de especialización y sobre todo se espera que sea capaz de comunicarse, bien con otros agentes, bien con personas humanas. Y para comunicarse con estos últimos, muchas veces necesitaremos del lenguaje natural.

  • Y por eso los LLM
  • Bueno, por eso y por más cosas.
  • Hoy me sigue quedando todo clarísimo, gracias.

 

El primer approach que suelen hacer las empresas a nivel de IA Generativa es con agentes conversacionales, los típicos chatbots que utilizan un modelo LLM a partir de un entrenamiento documental. Los entornos Cloud ya disponen de muchas herramientas para facilitar el tener un agente básico.

  • ¿Pero y si quiero algo más que un agente básico?
  • Pues entonces tendrás que desarrollarlo.
  • Estás siendo de una ayuda inestimable hoy…

 

Aunque parezca una obviedad es así… Si queremos que el comportamiento del agente se salga, por la funcionalidad que sea, del estándar que nos ofrece el entorno cloud tendremos que desarrollarlo a medida.

Y es aquí donde aparece Python y Flask como entorno en el que trabajar… Pero para ello hay que darle una mínima arquitectura al agente, en este caso en tres capas/partes/áreas/tecnologías:

  • Una capa de front, donde se produce la comunicación de entrada y salida con el agente. En nuestro ejemplo, es el chat en sí que interactúa con el usuario pero podría ser cualquier canal de comunicación, por ejemplo un topic de Kafka. Y de nuevo en nuestro ejemplo, se corresponde con una webapp.
  • Una capa de back, donde se produce el tratamiento de los inputs, las llamadas al LLM, las llamadas a otros entornos (porque nuestro chatbot puede querer hacer muchas cosas y actuar sobre muchos entornos), el control de errores, etc. En nuestro caso aquí es donde aplica Python y Flask.
  • Y una capa de LLM, con el modelo disponibilizado con nuestro entrenamiento particular que puede estar en cualquier cloud (vamos a asumir que no lo tenemos en local).

Veremos en capítulos siguientes que esta arquitectura puede ser mucho más compleja por temas de securización del LLM, por ejemplo. Pero todo poco a poco.

¿Y qué necesitamos para comenzar con nuestros agentes? Pues conocer un poquito de Python y un poquito de HTML.

  • Y un poquito de Javascript, algo de seguridad, tema de llamadas a APIs, infraestructuras cloud…
  • Eh, no te me embales…
  • Iremos muy despacito, descuida.

 

Y un IDE en el que poder trabajar. Personalmente me encanta PyCharm y en su edición Community es fantástico para poder hacer los siguientes pasos.

  • ¿Entonces me instalo PyCharm?
  • Deberías.
  • Ya lo tenía instalado…
  • Buen chico.

 

En el siguiente capítulo veremos los componentes que necesitamos para hacer una simple petición desde la web a nuestro back… Y que nos devuelva un resultado.

  • Eso es casi un Hello World
  • Por algo hay que empezar, leñe.
  • Vaaaaale.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Business Data Master Logo

No te pierdas el

WEBINAR
Gratuito

Explicaremos en detalle los contenidos y objetivos del Business Data Master

29/11/2021

18:30 (GTM+1)

Online

BUSINESS DATA MASTER

* Tu información será utilizada exclusivamente para contactarte en relación al Business Data Master. No hacemos spam ni compartimos datos con terceros.