Por: CP Iván Rodríguez. Colaborador de Auditool. 

La inteligencia artificial ( en adelante IA) se está utilizando cada vez más en el campo de la auditoría para mejorar la eficiencia y la efectividad del trabajo. Una de las razones de este fenómeno es que la IA puede automatizar tareas repetitivas, así como reducir el tiempo que los auditores pasan revisando y verificando información, lo que les permite centrarse en tareas más estratégicas y de mayor valor. También, puede ayudar a los auditores a identificar patrones y tendencias en grandes conjuntos de datos que pueden ser difíciles de detectar de otra manera. Esto puede ayudar a los auditores a identificar posibles riesgos y áreas problemáticas que requieren una mayor atención.

Dentro de los usos que tiene la IA se incluye la realización de análisis predictivos y de detección de fraude. Incluso, algunas herramientas de IA pueden analizar datos financieros y detectar patrones sospechosos o inusuales que podrían indicar fraude o irregularidades.

Sin embargo, es importante señalar que la IA no reemplaza completamente a los auditores humanos. Los auditores aún necesitan aplicar su juicio y conocimiento para evaluar los resultados de la IA, además de realizar una evaluación crítica de los datos y los hallazgos. Ahora, la IA también puede tener limitaciones en términos de la interpretación y el análisis de ciertos tipos de datos, lo que significa que los auditores humanos aún desempeñan un papel clave en la auditoría.

Por su parte, el uso de IA en las firmas de auditoría ha aumentado en los últimos años para mejorar la eficiencia de sus procesos de auditoría, así como aumentar la precisión de sus análisis. Algunas de las aplicaciones de IA en las firmas de auditoría son:

  • Análisis de datos: la IA se utiliza para analizar grandes cantidades de datos y detectar patrones y anomalías en los estados financieros. Esto ayuda a los auditores a identificar posibles problemas y a realizar una auditoría más eficiente.
  • Automatización de tareas: la IA se utiliza para automatizar tareas repetitivas como la revisión de documentos y la validación de información. Esto permite a los auditores centrarse en tareas más complejas y críticas.
  • Análisis de riesgos: la IA se utiliza para analizar el riesgo financiero de una empresa y determinar qué áreas requieren mayor atención durante la auditoría.
  • Análisis predictivo: la IA se utiliza para predecir tendencias y patrones en los datos financieros de una empresa. Esto ayuda a los auditores a identificar posibles problemas antes de que se conviertan en crisis.

La IA ha estado incursionando constantemente en las soluciones tecnológicas que utilizan las firmas de auditoría y empresas de contabilidad. De modo que, con el desarrollo de nuevas herramientas de IA disponibles, es relativamente fácil para cualquier persona emplearlas para obtener ayuda rápida. No obstante, esto plantea algunos interrogantes críticos:

  • La necesidad de contar con políticas de uso de IA
  • La medición y monitoreo del uso de IA y sus efectos o impactos
  • Regulación en el uso de IA
  • Confidencialidad de datos empleados en herramientas de IA

Así como las herramientas de IA tienen el potencial de proporcionar un aumento significativo en eficiencia, precisión y productividad y, en consecuencia, pueden ayudar a ofrecer beneficios nuevos y poderosos a los clientes, también pueden plantear preocupaciones sobre la información confidencial, la confiabilidad, la precisión y la transparencia de los clientes. Algunos ejemplos de desafíos relacionados con la IA son:

  • Como la IA necesita datos de los que aprender, también es propensa a ser influenciada. También tiene la debilidad de crear sesgos en los datos que se utilizan para la capacitación inicial y el aprendizaje continuo. A medida que los sistemas de IA se vuelven más sofisticados, pueden tomar decisiones y tomar medidas que pueden llegar a afectar significativamente a las personas y la sociedad. A medida que los sistemas de IA se vuelven más autónomos, se deben considerar los problemas de responsabilidad y quién es responsable de las acciones de la tecnología. Por lo tanto, la IA puede plantear cuestiones éticas, incluidas cuestiones de privacidad, autonomía y responsabilidad.
  • A medida que los sistemas de IA se vuelven más complejos puede ser difícil para los humanos entender cómo toman decisiones. Esto puede hacer que la detección y corrección de anomalías o errores en el sistema sea compleja. Por ejemplo, los sistemas de IA utilizados para las proyecciones financieras pueden estar sesgados para aplicar las regulaciones de las grandes corporaciones a las empresas medianas. Tales resultados de IA pueden llegar a ser onerosos para las empresas y los clientes sin una revisión adecuada. Para los auditores, esto puede plantear graves desafíos si los resultados, pronósticos, recomendaciones, observaciones de auditoría, etc., de una IA no se revisan adecuadamente por humanos.
  • Debido a las formas fundamentales en que se construyen, aprenden y funcionan las herramientas de IA, estas son tan buenas como los datos en los que están entrenadas. Eso significa que los datos utilizados para el aprendizaje pueden necesitar ser almacenados en algún lugar, con suerte sin ninguna información de identificación personal. Por lo tanto, los auditores deben reconocer los riesgos de confidencialidad en la profesión contable cada vez más impulsada por la IA. Deben revisar cuidadosamente esas políticas de privacidad y términos de servicio sobre cómo se manejarán los datos del cliente.

Entonces, para mitigar los riesgos inherentes al uso de la IA, las firmas de auditoría y empresas de contabilidad podrían comenzar a pensar si es necesario implementar una política de uso de la IA, entre otras por las siguientes razones:

  • Seguridad y privacidad: la IA puede ser utilizada para recopilar y procesar grandes cantidades de datos personales, lo que plantea preocupaciones sobre la seguridad y privacidad de dichos datos. Las políticas de uso de IA deben garantizar que los datos se recopilen y procesen de manera segura, y que se respeten los derechos de privacidad de las personas.
  • Transparencia: las decisiones basadas en IA pueden ser difíciles de entender, lo que plantea problemas de transparencia. Las políticas de uso de IA deben garantizar que se tomen medidas para garantizar que los algoritmos de IA sean transparentes y comprensibles para los usuarios.
  • Equidad: la IA puede perpetuar prejuicios y discriminación si no se usa de manera equitativa. Las políticas de uso de IA deben garantizar que la IA se utilice de manera justa y que se minimicen los sesgos en los algoritmos.
  • Responsabilidad: La IA puede tomar decisiones que tengan un impacto significativo en las personas y las comunidades. Las políticas de uso de IA deben garantizar que las personas y organizaciones que utilizan la IA sean responsables de sus decisiones, y que se establezcan mecanismos para remediar los daños causados por la IA.

Como se aprecia, las políticas de uso de IA son necesarias para garantizar que se haga un uso responsable y ético, y que se minimicen los riesgos y preocupaciones asociados con su uso.


ivan

CP Iván Rodríguez - CIE AF

Auditor y consultor, diplomado en Alta Gerencia de Seguros y Derecho de Seguros. Especialista en Dirección Financiera y Desarrollo Organizacional, diplomado en Gerencia de la Calidad. Contador público (CP) de la Pontificia Universidad Javeriana con 20 años de experiencia en diversas empresas. Tiene amplia experiencia en la elaboración y ejecución de auditorías y revisorías fiscales. Dirección y ejecución de asesorías, consultorías y capacitaciones. Colaborador de Auditool.

Bogotá D.C., Colombia.

 

Aviso Cookies

Usamos cookies en nuestro sitio web. Algunas de ellas son esenciales para el funcionamiento del sitio, mientras que otras nos ayudan a mejorar el sitio web y también la experiencia del usuario (cookies de rastreo). Puedes decidir por ti mismo si quieres permitir el uso de las cookies. Ten en cuenta que si las rechazas, puede que no puedas usar todas las funcionalidades del sitio web.