Faktoria_logo-isotipo-40px
Ilustración del mapa de Europa con diagrama de red neuronal y documentos legales, representando la normativa europea de IA
Normativa europea de IA: guía práctica para empresas en 2026
9 abril, 2026
Por qué nuestro IVR no llama a la nube: ingeniería de NLP híbrido en local
20 abril, 2026

No todo debe resolverlo un LLM: cómo diseñar asistentes inteligentes de verdad

Actualidad, Faktoria

Hay una idea que se repite en muchas conversaciones sobre IA: «con un buen modelo ya tenemos suficiente». Es comprensible. Un LLM avanzado que entiende lenguaje natural, mantiene contexto y responde con coherencia parece capaz de resolver cualquier proceso de atención, soporte o automatización.

El problema surge cuando ese asistente conversacional con IA llega a un entorno real: clientes con casuísticas concretas, integraciones con sistemas del cliente, operaciones que deben ser trazables, procesos que deben cumplir reglas de negocio exactas. Ahí la ilusión se complica.

En Faktoria llevamos tiempo defendiendo un enfoque diferente: diseñar asistentes conversacionales con IA donde los modelos se usen de forma específica y controlada, reservando su intervención para las tareas donde realmente aportan valor, y apoyándonos en lógica determinista, reglas de negocio e integración directa con los sistemas del cliente para todo lo demás.

 

El problema de poner un LLM en el centro de todo

Un LLM destaca en tareas como interpretar lenguaje natural, clasificar texto ambiguo, resumir o reformular. Eso es mucho. Pero no es suficiente para asumir por sí solo todo el comportamiento de un asistente en un entorno operativo. Cuando se delega toda la lógica en un modelo generativo, aparecen problemas muy concretos:

  • Pérdida de control del flujo. Si el modelo decide qué dato pedir, qué proceso activar o qué respuesta dar, garantizar que el asistente cumpla exactamente las reglas del negocio se vuelve difícil. Y auditarlo, más aún.
  • Comportamiento no determinista. El mismo input no siempre produce la misma salida. Aceptable en un asistente informativo. Inaceptable en un proceso donde hay que registrar un pedido, validar una identidad o modificar un registro.
  • Mayor coste y latencia innecesarios. Usar un LLM en todas las etapas incrementa el consumo de tokens y la dependencia del modelo, incluso en tareas que podrían resolverse con lógica estructurada.
  • Riesgo en procesos críticos. Tramitar un pedido, reservar una cita, consultar un expediente, escalar una incidencia. En estos contextos, improvisar no es una virtud.

 

La alternativa: asistentes conversacionales con IA por capas

Diseñar bien un asistente no empieza preguntando «qué modelo usamos». Empieza respondiendo: ¿qué parte del problema necesita realmente IA y qué parte debe resolverse con lógica de negocio? La arquitectura que defendemos separa el sistema en cuatro capas:

1. Comprensión del lenguaje

El modelo interpreta lo que quiere el usuario, detecta intención, extrae entidades o desambigua frases poco estructuradas. Es donde el lenguaje natural aporta valor. Es donde los asistentes conversacionales con IA justifican su uso.

2. Selección del flujo

Una vez identificado el objetivo, el sistema pasa a lógica controlada: reglas, árboles de decisión, máquinas de estados, clasificadores cerrados o búsqueda sobre una base de conocimiento estructurada. Sin improvisación.

3. Ejecución de acciones

Consultar un CRM, abrir un expediente, registrar un pedido, validar disponibilidad, escalar a un agente humano. Todo esto se opera mediante integraciones con APIs y lógica determinista. El modelo no «imagina» qué hacer: el sistema sabe exactamente qué hacer.

4. Generación de la respuesta

El LLM puede volver a intervenir para adaptar el lenguaje o mejorar la naturalidad, pero sin inventar la lógica del proceso. Solo reformula lo que el sistema ya ha resuelto.

 

El valor de los modelos deterministas

Hablar de «modelos deterministas» no significa volver a bots rígidos o scripts lineales. Significa que, una vez entendida la necesidad del usuario, el comportamiento del asistente sigue un camino verificable y repetible. Las ventajas son muy concretas:

  • Fiabilidad operativa. Si alguien quiere pedir gasóleo, reservar una cita o consultar el estado de un trámite, el sistema sigue un procedimiento. No necesita creatividad, necesita exactitud.
  • Menor riesgo. Cuando el asistente maneja importes, fechas, referencias de pedido o datos personales, la improvisación es un problema. No una característica.
  • Integración real con el negocio. Los procesos útiles no terminan en una respuesta conversacional. Terminan en una acción: registrar, consultar, actualizar, confirmar o cerrar una gestión en un sistema del cliente.
  • Mantenibilidad. Los flujos deterministas permiten versionar reglas, auditar decisiones y corregir comportamientos sin depender del prompt o del comportamiento interno del modelo.
  • Eficiencia. Si parte del proceso puede resolverse con reglas y validaciones estructuradas, el coste y la latencia bajan de forma notable.

 

Casos donde este enfoque marca la diferencia

Administración pública

La administración tiene una necesidad clara: atender muchas consultas, con casuísticas variadas, pero siempre apoyadas en procedimientos definidos, requisitos documentales y trazabilidad.

Un LLM puede interpretar preguntas formuladas de múltiples maneras: «quiero empadronarme», «cómo cambio mi dirección», «qué necesito para una licencia». Pero una vez identificada la gestión, lo sensato es derivar a un flujo determinista: tipo de trámite, documentación requerida, canal habilitado, validación de datos mínimos. La clave no está en «hablar bonito», sino en guiar correctamente el trámite y conectarlo con el procedimiento real.

Gestión de citas

El asistente conversacional con IA puede interpretar mensajes como «quiero cita para mañana por la tarde» o «la primera hora que tengáis». Pero a partir de ahí el proceso debe ser determinista: identificar tipo de servicio, consultar agenda, proponer huecos válidos, confirmar datos, registrar la reserva.

Lo que importa es la sincronización con el sistema de agenda o ERP, no la generación libre de texto.

Automatización de pedidos

Un cliente puede expresarse de muchas formas: «quiero pedir gasóleo», «ponme 1.000 litros en la nave», «quiero repetir el último pedido». La IA ayuda a entender la intención y extraer la información. Pero el núcleo del proceso es determinista: identificar cliente, validar dirección, verificar producto, generar y registrar el pedido en el sistema.

Este diseño convierte al asistente en una pieza real del proceso comercial y operativo, no solo en un canal conversacional.

El caso de Avia Esergui: IA donde aporta valor

Un ejemplo concreto de este enfoque es el proyecto que publicaremos con Avia Esergui, centrado en la automatización de pedidos de gasóleo a través de canales telefónicos y escritos —incluyendo WhatsApp—, integrado con Salesforce.

El usuario inicia la interacción de forma natural. Ahí el asistente conversacional con IA aporta valor real: entiende la intención, interpreta frases no estructuradas, detecta datos relevantes, guía la conversación.

Pero a partir de ese punto, el sistema se comporta como un proceso controlado: identifica al cliente, valida la operación, solicita los datos necesarios, consulta y registra en Salesforce, y confirma el pedido.

Cómo lo hacemos en Faktoria

En Faktoria implementamos este modelo a través de Konect, nuestra plataforma de IA conversacional, y Deitu, el softphone inteligente que combina atención humana y automatización en el mismo flujo de llamada.

Ambas soluciones están diseñadas desde la base para operar en entornos empresariales reales: con integraciones a sistemas del cliente, flujos auditables y control total sobre el proceso.

Diseñar para el negocio, no para impresionar

El verdadero reto no es elegir el LLM más potente. El reto es construir asistentes conversacionales con IA que entiendan al usuario, se integren con el negocio, sigan reglas claras, escalen bien y sean auditables.

En Faktoria entendemos la IA conversacional como una tecnología que debe ponerse al servicio de procesos reales: los LLMs se usan de forma específica y controlada, la lógica del negocio permanece bajo control, y la automatización se construye sobre procesos fiables y trazables.

Una IA útil, conectada y operativa. Una IA que no se limita a responder, sino que ayuda a resolver. Porque en entornos reales, la mejor arquitectura no es la que delega todo en un modelo generativo. Es la que sabe exactamente cuándo usar IA y cuándo no.

Leer otros:

¿Quieres saber más sobre Faktoria?

    Solicita una demo

      Solicita tu auditoría

        Solicita tu consultoría