Faktoria_logo-isotipo-40px
IA conversacional en euskera mostrando un asistente virtual diciendo “kaixo” en una interfaz de chat
Cuando Amaia aprendió a decir «kaixo»
13 marzo, 2026
Atención telefónica con inteligencia artificial a través del softphone Deitu
Deitu y la IA que escucha, entiende y sugiere: cómo transformar cada llamada en conocimiento
23 marzo, 2026

IA conversacional en AAPP: cómo usarla sin perder el control

Actualidad, Faktoria

Primero el anuncio, luego las preguntas

Hay un patrón que se repite. Una institución pública anuncia que ha implantado un asistente virtual. Sale en prensa, aparece en la web, se presenta en un congreso. Seis meses después, alguien del equipo técnico empieza a preguntarse cosas incómodas: ¿dónde están almacenadas las conversaciones de la ciudadanía? ¿Podemos auditar por qué el sistema dio esa respuesta incorrecta la semana pasada? ¿Qué pasa si queremos cambiar de proveedor?

Son preguntas que deberían haberse hecho antes. Y el hecho de que no se hicieran no es un problema de mala fe — es un problema de velocidad. La presión por adoptar IA está generando decisiones que priorizan la visibilidad sobre el control.

Llevamos años acompañando a administraciones públicas en proyectos de comunicaciones e infraestructura. Y lo que vemos cada vez más no es falta de interés por la IA — es falta de marco para evaluarla bien.

El AI Act aterrizó. ¿Lo sabe tu proveedor?

El Reglamento Europeo de Inteligencia Artificial ya no es una fecha en el calendario: está en vigor. La AESIAL ha publicado 16 guías prácticas que concretan qué significa cumplirlo en el día a día de una administración pública — en gobernanza del dato, en gestión de riesgos, en supervisión humana.

Esto cambia el escenario de contratación de forma sustancial. Ya no es suficiente que un proveedor diga que cumple con el RGPD. Ahora la pregunta es: ¿puede demostrarlo? ¿Hay trazabilidad de cada decisión que toma el sistema? ¿Existe supervisión humana real o es solo una casilla marcada en el contrato?

Muchos de los sistemas que están funcionando hoy en administraciones españolas no pasarían un audit serio bajo estos estándares. No porque sean malos sistemas, sino porque se diseñaron antes de que estas preguntas fueran obligatorias.

Tres formas concretas en que se pierde el control

No hablamos de riesgos abstractos. Hablamos de situaciones que ocurren.

  • Los datos viajan fuera de Europa. Cuando un ciudadano llama a su ayuntamiento y habla con un asistente virtual, esa conversación se procesa en algún lugar. En demasiados casos, ese lugar está bajo jurisdicción estadounidense o asiática, con garantías de protección de datos que no son equivalentes al RGPD. La institución firmó un contrato, pero no sabe realmente dónde están los datos.
  • El modelo es una caja negra. Si el asistente da una respuesta incorrecta — y los asistentes dan respuestas incorrectas — alguien tiene que poder entender por qué y corregirlo. En muchos despliegues actuales, esa capacidad no existe. La administración depende de que el proveedor lo arregle, en sus tiempos, según sus criterios.
  • Cambiar de proveedor es casi imposible. La arquitectura se diseñó para que todo dependa de un único sistema propietario. Migrar significaría empezar de cero. Ese momento es cuando la dependencia se hace visible — y cuando ya no tiene solución fácil.

Qué debería exigirse antes de firmar

Si una administración nos pregunta qué condiciones debería incluir en un pliego de contratación de IA conversacional, la respuesta tiene cuatro puntos.

  1. Que el despliegue sea en infraestructura europea o en los propios servidores de la institución.
  2. Que la arquitectura sea abierta: logs accesibles, trazabilidad completa, posibilidad de auditoría externa.
  3. Que la gobernanza del dato esté definida por escrito: quién accede, durante cuánto tiempo, qué ocurre al finalizar el contrato.
  4. Que la institución conserve el control sobre el modelo — no solo sobre los resultados, sino sobre cómo evoluciona y qué aprende.

Estas condiciones no son exigencias técnicas de un departamento de IT. Son requisitos de autonomía institucional. Y deberían figurar en los pliegos desde el principio, no negociarse después.

Lo que la IA sí puede hacer bien por la ciudadanía

Dicho todo lo anterior, hay algo importante: la IA conversacional bien implantada transforma de verdad la atención ciudadana. No es hype. Es algo que vemos funcionar.

Un gestor del SAC que recibe en tiempo real la transcripción de la llamada, la intención detectada automáticamente y las referencias normativas relevantes toma mejores decisiones — no porque la IA decida por él, sino porque llega a cada conversación mejor preparado. Las consultas repetitivas que saturan los servicios — Zonas de Bajas Emisiones, trámites de empadronamiento, requisitos documentales — se pueden resolver con agentes especializados, disponibles las 24 horas, entrenados con casos reales. Y cada conversación que hoy se pierde puede convertirse en inteligencia útil: señales sobre qué procesos confunden a la ciudadanía, qué barrios concentran qué problemas, qué normativas generan más fricción.

En servicios de emergencia, el impacto es todavía más directo. Transcripción automática, identificación del tipo de incidente, activación de protocolos, resúmenes para coordinación entre equipos. Conversaciones que se convierten en datos estructurados en tiempo real.

La tecnología para hacer todo esto existe y funciona. La cuestión es bajo qué condiciones se despliega.

Cómo lo hacemos en Faktoria

Faktoria es la suite de comunicaciones omnicanal e IA conversacional desarrollada por Irontec — una empresa tecnológica vasca con más de 20 años trabajando con administraciones públicas en proyectos de comunicaciones, software e infraestructura crítica.

Todo lo que hemos descrito en este artículo no es una lista de deseos. Es la lista de requisitos sobre la que construimos cada proyecto. Despliegue en infraestructura europea u on-premise. Software libre como base. Trazabilidad completa. Supervisión humana integrada en el diseño, no añadida al final. Soporte con modelos entrenados con sensibilidad lingüística real.

Si tu institución está empezando a evaluar cómo incorporar IA conversacional — o si ya tiene algo desplegado y quiere revisar las condiciones en las que opera — podemos ayudarte a hacerlo bien.

Leer otros:

¿Quieres saber más sobre Faktoria?

    Solicita una demo

      Solicita tu auditoría

        Solicita tu consultoría