Por qué una IA generalista no basta en el trabajo policial
Iván Felipe Peris
Cuando se habla de inteligencia artificial, mucha gente se queda en la superficie: rapidez, respuestas fluidas y capacidad para redactar textos con apariencia profesional. Pero en el trabajo policial el problema no es si una IA escribe bien. El problema es si esa herramienta es jurídicamente fiable, trazable y compatible con un entorno donde un error puede tener consecuencias reales.
Y ahí es donde una IA generalista no basta.
Una herramienta de propósito general puede ser útil para tareas abiertas o consultas poco sensibles. Pero en el ámbito policial aparecen riesgos que no se pueden ignorar. El primero es el más evidente: las alucinaciones. Una IA puede ofrecer una respuesta convincente, bien redactada y aparentemente segura, aunque contenga errores, mezcle conceptos jurídicos o incluso invente matices que no existen. En un entorno profesional cualquiera eso ya es grave. En policía, todavía más.
Porque aquí no basta con que algo suene bien. Hace falta saber de dónde sale la respuesta, qué norma la respalda, qué criterio se ha seguido y si esa información puede sostenerse con seguridad. Si no hay una fuente clara detrás, el riesgo jurídico es obvio.
Por eso otro de los grandes problemas de una IA generalista es la falta de trazabilidad. Si una herramienta no permite saber qué documentos ha consultado, qué versión normativa ha utilizado o sobre qué base ha construido su respuesta, el usuario queda a ciegas. Y en policía la trazabilidad no es un detalle técnico. Es una necesidad. Hay que poder revisar el origen de la información, comprobar el camino seguido y reducir al máximo la opacidad del sistema.
A esto se suma otro fallo habitual: utilizar una IA sin un sistema real de recuperación documental, sin etiquetado adecuado y sin un contexto bien delimitado. Si no existe una estructura clara que limite y ordene la información, la IA tenderá a responder por probabilidad, no por control. Y cuando una consulta policial se responde solo desde probabilidad lingüística, sin apoyo documental verificable, aparece una falsa sensación de fiabilidad que puede ser muy peligrosa.
También está el problema de la protección de datos. En el trabajo policial no se puede tratar información operativa, hechos sensibles o datos personales como si fueran simples instrucciones lanzadas a una herramienta genérica. Una IA generalista no resuelve por sí sola el problema de la anonimización. Y además conviene decirlo sin maquillarlo: anonimizar mal no es anonimizar. Si los datos permiten reidentificar a una persona por el contexto, por los hechos, por un vehículo, por un domicilio o por una combinación de elementos, el riesgo sigue existiendo.
Ese punto es especialmente delicado en el ámbito policial. No se trata solo de cumplir formalmente con la normativa de protección de datos. Se trata de evitar que información sensible entre en circuitos que no están diseñados con el nivel de control, segregación y garantías que exige este tipo de trabajo.
Por eso el debate no debería ser si una IA generalista es útil o no. Claro que puede ser útil en determinados contextos. El problema real es otro: no basta cuando entran en juego la seguridad jurídica, la trazabilidad, la fiabilidad documental y la protección del dato.
Una solución realmente útil para policía necesita bastante más que un modelo potente. Necesita control de fuentes, recuperación documental bien diseñada, delimitación del contexto, trazabilidad de las respuestas y una gestión seria de los datos. Necesita, en definitiva, una capa de especialización que reduzca errores y haga la herramienta mucho más sólida en un entorno especialmente sensible.
Ese es el fondo del asunto. La IA generalista puede servir como apoyo general. Pero el trabajo policial exige algo más: exige una herramienta pensada para minimizar alucinaciones, justificar respuestas, proteger los datos y ofrecer un uso más fiable y más defendible.
Y ahí está la diferencia entre una IA qu e impresiona y una IA que realmente sirve.