Por: CP Iván Rodríguez. Colaborador de Auditool.
Recientemente la Organización para la Cooperación y el Desarrollo Económico, OCDE (Organisation for Economic Co-operation and Development – OECD) publicó un documento denominado Perspectivas de anticorrupción e integridad 2024[1]. De acuerdo con dicha organización, en esa primera edición de las Perspectivas de la OCDE de anticorrupción e integridad se analizan los esfuerzos de los países para combatir la corrupción y promover la integridad. Con base en datos de los indicadores de la OCDE sobre integridad pública, se analiza el desempeño de los marcos de integridad de los países, y se explora cómo algunos de los principales retos que afrontan actualmente los gobiernos (tales como la transición verde, la inteligencia artificial y la injerencia extranjera) están agravando los riesgos de corrupción. Así mismo, se aborda cómo las deficiencias de los sistemas de integridad pueden obstaculizar la respuesta de los países a estos grandes retos. Este informe pretende ofrecer una visión panorámica de la situación actual en los países, apoyar la planificación estratégica y las medidas políticas para fortalecer la integridad pública en el futuro.
Uno de los capítulos del documento de la OCDE trata el tema de la inteligencia artificial, mostrando cómo este desarrollo tecnológico puede ser tanto una herramienta poderosa para combatir la corrupción y el fraude como un riesgo potencial si se utiliza de manera inadecuada. Plantea la OCDE los desafíos asociados con su implementación en los sistemas de integridad pública y propone algunas estrategias para maximizar su efectividad al tiempo que se mitigan los riesgos.
Según el documento en mención, la IA tiene un papel crucial en fortalecer los marcos de integridad, especialmente en la prevención, detección y respuesta frente al fraude y la corrupción. Uno de sus usos es la identificación de patrones inusuales, toda vez que la IA puede procesar grandes volúmenes de datos para identificar anomalías en tiempo real, tales como transacciones sospechosas en contratos gubernamentales o flujos financieros no justificados. También se puede efectuar análisis predictivo mediante algoritmos que pueden anticipar áreas de alto riesgo antes de que se produzca el fraude, lo que facilita implementar controles preventivos. De otra parte, es posible emplear la IA en el monitoreo de adquisiciones públicas, pues ciertos sistemas basados en IA contribuyen a supervisar los procesos de licitación y contratación pública, al detectar favoritismos o precios inflados.
La IA juega un papel importante en el fortalecimiento de las auditorías internas pues contribuye en la priorización de áreas de riesgo, ayudando a los auditores internos a identificar sectores críticos y de esta manera se optimizan recursos. Por su parte, al permitir analizar grandes volúmenes de documentos, es posible encontrar irregularidades más rápidamente que los métodos tradicionales. También permiten la supervisión en tiempo real y generar reportes continuos para garantizar que las decisiones adoptadas y las transacciones efectuadas cumplen con las normativas que son aplicables.
Muestra el documento de la OCDE algunos ejemplos en el Uso de IA:
- Administraciones tributarias: Países de la OCDE han utilizado la IA para identificar esquemas de evasión fiscal, detectar facturas falsas y monitorear transacciones internacionales.
- Investigación de sobornos internacionales: Algoritmos avanzados han ayudado a desentrañar redes complejas de corrupción transnacional.
Ahora bien, aunque el uso de la IA parece prometedor, también existe el riesgo de ser utilizada de manera indebida o exponerse a fallas que comprometen la integridad pública. Entre ellos se encuentran:
- Facilitar la corrupción
Esto puede ser posible si hay manipulación de datos. Algoritmos malintencionados pueden ocultar evidencias de corrupción mediante la alteración o falsificación de registros e información base para análisis. De otra parte, la IA puede ser empleada por actores corruptos para desarrollar esquemas más sofisticados y difíciles de detectar, en virtud de la confianza que hay sobre sus resultados.
- Toma de decisiones sesgada
Otro aspecto nocivo que puede surgir al emplear la IA es la toma de decisiones sesgada. Esto puede darse mediante una influencia indebida. La IA puede ser diseñada para favorecer intereses privados, afectando decisiones clave en la formulación de políticas públicas. También podría haber discriminación algorítmica, lo cual ocurre si los datos de entrenamiento contienen sesgos, y por tanto, las decisiones de la IA podrían fomentar y mantener inequidades.
- Dependencia de datos de calidad
La efectividad de la IA depende de la disponibilidad de datos precisos, completos y actualizados. Si existen brechas o deficiencias en la recolección de datos, se limita la utilidad de la IA.
El documento también menciona algunas recomendaciones que permiten mitigar los riesgos y optimizar el uso de la IA. Entre ellas se encuentran:
1. Fortalecer la gobernanza de la IA
- Establecer marcos regulatorios: Crear normas éticas y legales para el desarrollo y uso de sistemas de IA.
- Supervisión independiente: Establecer organismos que supervisen el uso de IA en el sector público.
2. Invertir en capacitación y desarrollo de capacidades
- Capacitar a auditores internos y funcionarios públicos en el uso de herramientas de IA y en los riesgos asociados.
- Fomentar el conocimiento sobre cómo auditar sistemas de IA.
3. Garantizar transparencia
- Publicar algoritmos y criterios: Explicar cómo funcionan los sistemas de IA utilizados en la toma de decisiones públicas.
- Auditorías abiertas: Someter los sistemas de IA a auditorías públicas para asegurar la confianza ciudadana.
El documento, en el capítulo de IA muestra su potencial de fortalecer los esfuerzos anticorrupción al mejorar la eficiencia, la transparencia y la capacidad de detectar irregularidades. Sin embargo, para aprovechar al máximo estos beneficios, se considera esencial desarrollar un marco ético y regulatorio sólido, invertir en formación y monitorear constantemente su uso. Al mismo tiempo, se debe evitar que la IA se convierta en una herramienta para actividades corruptas mediante controles rigurosos y auditorías continuas. Para lograr una mejor comprensión del tema anticorrupción en los países de la OCDE, los auditores deben revisar el material que publica dicha organización y que enriquece el conocimiento al respecto.
[1] Ver: Perspectivas de anticorrupción e integridad 2024
CP Iván Rodríguez - CIE AF
Auditor y consultor, diplomado en Alta Gerencia de Seguros y Derecho de Seguros. Especialista en Dirección Financiera y Desarrollo Organizacional, diplomado en Gerencia de la Calidad. Contador público (CP) de la Pontificia Universidad Javeriana con 20 años de experiencia en diversas empresas. Tiene amplia experiencia en la elaboración y ejecución de auditorías y revisorías fiscales. Dirección y ejecución de asesorías, consultorías y capacitaciones. Colaborador de Auditool.
Bogotá D.C., Colombia.