En los últimos 2 meses, tanto en algunos artículos y posts como en eventos, nos habéis oído hablar mucho sobre los asistentes (o Agentes) virtuales y su importancia para el Legaltech, pero sobre todo hemos hablado sobre su adaptabilidad. En este primer artículo exploramos el funcionamiento de los asistentes construidos con la API de Assistants de OpenAI, sus diferencias respecto a los modelos de lenguaje tradicionales como GPT-3 y GPT-4, y la importancia en la integración con bases de datos, documentación y otros servicios. En el próximo artículo, analizaremos su aplicación en la práctica y como explotar su adaptabilidad.
Funcionamiento de los Asistentes de la API
La API de Assistants de OpenAI permite crear asistentes de IA que operan dentro de aplicaciones, adaptándose a diferentes necesidades y contextos. A diferencia de los modelos de GPT tradicionales, que se limitan a la generación de texto con base en patrones aprendidos, los asistentes creados con esta API pueden utilizar modelos, herramientas y archivos para responder de forma más precisa y útil a las consultas del usuario.
Estos asistentes tienen varias capacidades distintivas:
1.- Personalización y Configuración de Instrucciones: Cada asistente puede configurarse con instrucciones específicas para ajustar su personalidad y habilidades. Esto significa que pueden tener un comportamiento mucho más dirigido que un modelo de lenguaje tradicional, al enfocarse en tareas particulares o adoptar un estilo de comunicación o de procesado específico.
2.- Acceso a Herramientas: Los asistentes pueden acceder a múltiples herramientas de manera paralela. Estas herramientas pueden ser tanto aquellas proporcionadas por OpenAI, como el interpretador de código y la búsqueda de archivos, como también herramientas propias del usuario mediante la funcionalidad de llamadas a funciones. Esta capacidad de integración permite que los asistentes no solo respondan preguntas, sino que también ejecuten código, busquen información específica en archivos o interactúen con servicios externos.
3.-Persistencia de Conversaciones: Los asistentes mantienen la información de las conversaciones mediante hilos persistentes. Estos hilos almacenan el historial de mensajes y permiten que el asistente continúe una conversación de manera coherente, incluso si ésta se prolonga más allá de la capacidad de contexto del modelo. La capacidad de truncar y gestionar adecuadamente el historial asegura que el contexto relevante permanezca siempre disponible.
4.-Manejo de Archivos: Los asistentes pueden acceder a archivos proporcionados durante su creación o aquellos generados durante la interacción con el usuario. Esto incluye la habilidad de crear y referenciar archivos, lo cual es útil en aplicaciones donde se necesite gestionar documentos o generar informes.
Diferencias con los Modelos GPT Tradicionales
Los modelos de GPT tradicionales, como GPT-3 y GPT-4, son extremadamente competentes en la generación de lenguaje natural basado en una vasta cantidad de datos textuales. Sin embargo, tienen algunas limitaciones cuando se trata de realizar tareas específicas que requieren interacción directa con sistemas externos o bases de datos.
Los asistentes, en cambio, no solo generan respuestas basadas en texto, sino que también ejecutan acciones específicas y pueden integrarse con sistemas existentes. Gracias a la función de llamada a herramientas y su capacidad para realizar cálculos o interactuar con APIs externas, los asistentes representan una evolución significativa hacia aplicaciones de IA más interactivas y funcionales.
Importancia de la Integración con Bases de Datos y Servicios Existentes
La capacidad de los asistentes de conectar a otros servicios es clave para mejorar la utilidad y eficiencia de la inteligencia artificial. Al permitir que los asistentes interactúen directamente con fuentes de datos, es posible ofrecer respuestas que estén basadas en información actualizada y específica de la organización o del contexto del usuario.
Por ejemplo, en un escenario empresarial, un asistente puede integrarse con sistemas de gestión de clientes para proporcionar respuestas en tiempo real basadas en la información del cliente. Esta capacidad de conectar con diferentes sistemas y manejar datos en tiempo real representa una ventaja significativa sobre los modelos que solo se entrenan con datos preexistentes y no pueden acceder a información dinámica.
Modelos de IA Razonados
Una característica adicional que se está explorando en la evolución de los asistentes es el uso de modelos de IA razonados. Estos modelos no solo generan respuestas basadas en patrones, sino que intentan construir una secuencia lógica que explique sus conclusiones, ofreciendo una suerte de «razonamiento» que ayuda a entender cómo llegaron a una respuesta particular. Esto es especialmente valioso en contextos donde la trazabilidad y la justificación de las decisiones es necesaria, cómo en muchas de las aplicaciones legales.
Estos modelos de IA razonados incrementan la confianza del usuario al poder explicar sus respuestas, haciendo que la inteligencia artificial no solo sea una caja negra que genera resultados, sino una herramienta capaz de ofrecer claridad y transparencia en sus procesos de decisión.
Josep Servent , CEO de EMC Soluciones Legaltech