Por: CP Iván Rodríguez. Colaborador de Auditool 

La inteligencia artificial (IA) ha venido evolucionando, desde una idea teórica hasta convertirse actualmente en una tecnología transformadora que redefine la manera en que las organizaciones operan, toman decisiones y gestionan riesgos. Desde que Alan Turing planteó en 1950 la pregunta ¿Pueden pensar las máquinas?[1], el desarrollo de algoritmos capaces de aprender, analizar grandes volúmenes de datos y automatizar decisiones ha crecido exponencialmente. Hoy en día, la IA se encuentra integrada en múltiples ámbitos de la vida cotidiana y empresarial, desde sistemas de reconocimiento facial hasta asistentes virtuales y análisis predictivo.

En el ámbito organizacional, la inteligencia artificial se ha convertido en un componente clave para optimizar procesos, mejorar la eficiencia operativa y generar valor en la toma de decisiones estratégicas. Sin embargo, su adopción también introduce nuevos riesgos tecnológicos, éticos, regulatorios y de control interno, lo que plantea desafíos significativos para la función de auditoría interna. Es, en este contexto, que la auditoría interna debe evolucionar para comprender, evaluar y supervisar los sistemas de inteligencia artificial utilizados por las organizaciones, asegurando que estos operen bajo principios de transparencia, responsabilidad, seguridad y cumplimiento normativo.

La auditoría interna debe evolucionar para comprender, evaluar y supervisar los sistemas de inteligencia artificial, asegurando que estos operen bajo principios de transparencia, responsabilidad, seguridad y cumplimiento normativo.

En los últimos años, el uso de la inteligencia artificial en las organizaciones ha crecido de manera acelerada. Se estima que hoy día más del 70 % de las empresas utilizan IA en al menos una función empresarial, particularmente en áreas como marketing, desarrollo de productos, tecnología de la información y servicio al cliente. Normalmente, las organizaciones implementan soluciones de IA con diferentes objetivos:

Automatizar tareas repetitivas
📊
Analizar grandes volúmenes de datos
🔍
Identificar patrones complejos
🎯
Mejorar la toma de decisiones
🤝
Optimizar la experiencia del cliente

Por ejemplo, los modelos de aprendizaje automático se utilizan en:

• Detección de fraudes financieros,

• Mantenimiento predictivo en industrias,

• Análisis de comportamiento del cliente,

• Selección y evaluación de candidatos en recursos humanos.

Además, el desarrollo reciente de IA generativa ha ampliado significativamente el alcance de estas tecnologías, permitiendo automatizar la generación de textos, análisis de información, creación de contenidos y asistencia virtual.

Ahora bien, para auditar adecuadamente los sistemas de IA, es necesario comprender tanto los principales modelos utilizados en las organizaciones como los riesgos asociados. Algunos de ellos son:

Riesgos asociados a la IA en las organizaciones

Tipo de riesgo

Descripción

Gobernanza

Relacionados con la supervisión, toma de decisiones y transparencia en el uso de algoritmos.

Operativos

Errores en modelos, fallas en datos o desviaciones en resultados.

Financieros

Impacto en reportes financieros o decisiones económicas automatizadas.

Regulatorios

Incumplimiento de normativas de privacidad, protección de datos o regulación tecnológica.

Tecnológicos

Vulnerabilidades en sistemas, ciberataques o manipulación de modelos.

Reputacionales

Sesgos o decisiones automatizadas que afectan la confianza pública.

Sostenibilidad

Consumo energético elevado de modelos de IA, especialmente en sistemas generativos.

El efecto "caja negra" (Black Box Effect)

Uno de los principales desafíos en la auditoría de inteligencia artificial es la dificultad de interpretar cómo algunos algoritmos generan sus resultados. Este fenómeno, conocido como "black box effect", ocurre cuando la complejidad del modelo impide comprender la relación entre los datos de entrada y los resultados generados.

Para mitigar este riesgo, las organizaciones deben implementar:

• Métricas de precisión y confiabilidad,

• Monitoreo continuo de resultados,

• Análisis de falsos positivos y negativos,

• Validación periódica de modelos,

• Revisión humana de decisiones automatizadas.

🔎 Sesgo algorítmico: un riesgo ético crítico

Los algoritmos pueden reflejar los valores y prejuicios de quienes los diseñan o de los datos utilizados para entrenarlos. Este fenómeno, denominado sesgo algorítmico, puede generar decisiones discriminatorias o injustas. Por ejemplo:

• Sistemas de crédito que penalizan a determinados grupos,

• Algoritmos de contratación que reproducen sesgos históricos,

• Sistemas de reconocimiento facial con menor precisión para ciertos grupos demográficos.

Por ello, la auditoría interna debe evaluar:

• La representatividad de los datos,

• Los mecanismos de detección de sesgos,

• El uso ético de los resultados de los algoritmos.

La auditoría interna no solo contribuye a mitigar riesgos, sino que también acompaña a las organizaciones en la adopción responsable de la inteligencia artificial, asegurando que su uso se mantenga alineado con principios de transparencia, control y generación de valor sostenible.

En este contexto, el reto para la auditoría interna no se limita únicamente a comprender el funcionamiento de estas tecnologías, sino a desarrollar enfoques de evaluación que le permitan analizar de manera integral sus implicaciones en los procesos, los datos y la toma de decisiones. Esto implica fortalecer sus capacidades en materia tecnológica, así como adoptar metodologías que faciliten la supervisión continua y el entendimiento de entornos cada vez más complejos y dinámicos. De esta forma, la auditoría interna no solo contribuye a mitigar riesgos, sino que también acompaña a las organizaciones en la adopción responsable de la inteligencia artificial, asegurando que su uso se mantenga alineado con principios de transparencia, control y generación de valor sostenible.

[1] Puede consultarse en: COMPUTING MACHINERY AND INTELLIGENCE


 

CP Iván Rodríguez - CIE AF

Colaborador de Auditool

Auditor y consultor, diplomado en Alta Gerencia de Seguros y Derecho de Seguros. Especialista en Dirección Financiera y Desarrollo Organizacional, diplomado en Gerencia de la Calidad. Contador público (CP) de la Pontificia Universidad Javeriana con 20 años de experiencia en diversas empresas. Tiene amplia experiencia en la elaboración y ejecución de auditorías y revisorías fiscales. Dirección y ejecución de asesorías, consultorías y capacitaciones. Colaborador de Auditool. 

Escribir un comentario

Enviar
× Progressive Web App | Add to Homescreen

Para instalar esta Web App en su iPhone/iPad presione el ícono. Progressive Web App | Share Button Y luego Agregar a la pantalla de inicio.

Desconectado