Por: CP Iván Rodríguez. Colaborador de Auditool 

La inteligencia artificial en pocos años ha dejado de ser una tecnología experimental y se ha convertido en un componente central de la infraestructura empresarial. Hoy, en un gran número de organizaciones, está integrada en procesos críticos como la toma de decisiones, la automatización operativa, el análisis de datos y la generación de contenido. Sin embargo, esta adopción acelerada ha transformado profundamente la naturaleza del riesgo, puesto que el uso de la IA introduce nuevos modos de falla, amplifica vulnerabilidades existentes y desafía los marcos clásicos de control, cumplimiento y gobernanza. En este contexto, comprender los tipos de riesgos asociados a la IA más que una tarea técnica, debe ser un imperativo estratégico para las organizaciones y por supuesto para los auditores.

La IA opera con base en modelos probabilísticos, no en comprensión real. El riesgo en IA es altamente dinámico pues cambia constantemente, afecta múltiples áreas lo que lo hace transversal y en ocasiones escala más rápido que otros riesgos.

Antes de abordarlos, es importante recordar que la IA opera con base en modelos probabilísticos, no en comprensión real y depende de datos de entrenamiento cuya calidad, origen y sesgos pueden ser inciertos. También debe considerarse que, al evolucionar tan rápidamente, supera la capacidad de los controles tradicionales; esto implica que el riesgo en IA es altamente dinámico pues cambia constantemente, afecta múltiples áreas lo que lo hace transversal y en ocasiones escala más rápido que otros riesgos. Veamos ahora algunos de los principales tipos de riesgos:

🌐 Riesgo social

La IA puede usarse para crear de forma masiva y rápida noticias falsas, deepfakes (videos e imágenes manipuladas), perfiles falsos en redes sociales o campañas de desinformación personalizadas. Esto erosiona la confianza entre las personas, polariza la sociedad, influye en elecciones, genera conflictos sociales y puede desestabilizar países enteros.

🔒 Riesgo de propiedad intelectual

Cuando los empleados suben datos confidenciales, códigos fuente, estrategias empresariales o información sensible a herramientas como ChatGPT, Copilot o Claude, esa información se incorpora al modelo de IA. La empresa pierde el control sobre sus secretos, que podrían ser usados por otros usuarios o filtrados. Una vez que entra en el modelo, es muy difícil (o imposible) borrarlo completamente.

©️ Riesgo de propiedad inválida

El contenido creado por IA (textos, imágenes, código, música) muchas veces se basa en patrones aprendidos de millones de obras protegidas por derechos de autor. Esto puede generar infracciones involuntarias de copyright, lo que deriva en demandas legales, multas o la imposibilidad de comercializar el material generado.

🛡️ Riesgos de ciberseguridad y resiliencia

La IA tiene un aspecto ofensivo pues facilita ataques más sofisticados y a gran escala (phishing hiper personalizado, malware que evade antivirus, Deep fakes para suplantación de identidad). También posee un aspecto defensivo, pues los sistemas de IA pueden ser engañados (adversarial attacks), al ser entrenados con datos incorrectos o imprecisos durante el entrenamiento o hackeados directamente. Esto compromete la seguridad de toda la organización.

🔑 Riesgo por permisos internos débiles (gobernanza de acceso)

Si no se controlan bien los permisos, cualquier empleado (o incluso un proveedor externo) puede usar la IA para consultar información estratégica, datos de clientes, salarios o planes confidenciales. Es como dejar las llaves de la caja fuerte a todo el mundo. Esto aumenta enormemente el riesgo de fugas internas y espionaje corporativo.

👥 Brechas de habilidades (skill gaps)

La mayoría de las empresas carecen de personal con conocimiento suficiente sobre cómo funciona la IA, sus limitaciones técnicas, cómo evaluarla y cómo gestionarla de forma segura. Esto genera errores graves, implementaciones fallidas, sobre confianza y dificultad para detectar riesgos a tiempo. Una consecuencia son proyectos de IA que cuestan mucho dinero y generan más problemas que beneficios.

⚖️ Riesgo por sobrerreacción

Las organizaciones suelen caer en dos extremos peligrosos, bien sea evitar la IA completamente (por miedo), perdiendo competitividad y oportunidades o adoptarla sin control ni gobernanza, confiando ciegamente en ella ("la IA dijo que…"). Ambos extremos son perjudiciales.

🎭 Uso intencional y no intencional

Delincuentes, hackers, incluso organizaciones o estados pueden usar la IA deliberadamente para cometer fraude, crear armas autónomas, manipulación masiva o ciberataques. La IA es muy flexible, lo que la hace poderosa y por tanto, peligrosa.

📊 Riesgo de integridad de datos

Las IA generativas pueden inventar información con total confianza (alucinaciones), citar fuentes que no existen o dar respuestas sesgadas o incorrectas. Si las personas toman decisiones basadas en esa información (médicas, financieras, legales o estratégicas), pueden producirse errores graves con consecuencias económicas o incluso humanas.

⚖️ Riesgo de responsabilidad

Cuando algo sale mal (un diagnóstico médico incorrecto, un coche autónomo que choca, o una recomendación financiera desastrosa), ¿quién es responsable? ¿El usuario que la usó? ¿La empresa que la implementó? ¿El proveedor de la IA? Actualmente hay un vacío legal importante, lo que genera incertidumbre jurídica y dificultades para asegurar estos sistemas.

🔮 Riesgos futuros (IA + computación cuántica y otras tecnologías)

En los próximos años, la combinación de IA avanzada con computación cuántica podría romper los sistemas de cifrado actuales (RSA[1], etc.), haciendo obsoletos muchos protocolos de seguridad. Esto multiplicaría los riesgos de ciberseguridad, privacidad y control de armas autónomas. Otros riesgos emergentes incluyen IA superinteligente, autonomía excesiva y pérdida progresiva de control humano.

Como se aprecia, la inteligencia artificial más que una herramienta tecnológica, también es un factor transformador del riesgo empresarial. Por ello, las organizaciones enfrentan un dilema entre adoptar IA (en ocasiones sin suficiente control lo que entraña un alto riesgo) o evitar la IA (lo que implica pérdida de competitividad). Frente a este panorama, es conveniente que las organizaciones consideren las siguientes elementos y acciones y los auditores las incluyan en sus planeaciones y evaluaciones:

🏛️
Gobernanza estructurada
🔄
Evaluación continua del riesgo
🛡️
Controles de seguridad integrados
📋
Responsabilidad clara y definida

Las organizaciones que logren equilibrar adecuadamente la adopción de IA con estrategias de manejo de riesgos podrán aprovechar sus beneficios sin comprometer la integridad, la seguridad ni la confianza de sus operaciones.

La inteligencia artificial se ha convertido en un componente esencial que redefine los paradigmas tradicionales de gestión y riesgos empresariales. Si bien su potencial de innovación es innegable, también implica desafíos importantes como la necesidad de establecer marcos éticos robustos, invertir en capacitación continua y fomentar una cultura organizacional orientada a la transparencia y la adaptación. Las organizaciones que logren equilibrar adecuadamente la adopción de IA con estrategias de manejo de riesgos podrán aprovechar sus beneficios sin comprometer la integridad, la seguridad ni la confianza de sus operaciones. Así, la IA no solo será una herramienta de ventaja competitiva, sino también un motor para la sostenibilidad y resiliencia en el entorno empresarial actual.

[1] En 1977, los investigadores del MIT Ron Rivest, Adi Shamir y Leonard Adleman describieron un algoritmo que habían desarrollado para la transmisión segura y autenticación de datos. Este algoritmo, fue nombrado por las primeras letras de cada uno de sus apellidos (Rivest-Shamir-Adleman)


 

CP Iván Rodríguez - CIE AF

Colaborador de Auditool

Auditor y consultor, diplomado en Alta Gerencia de Seguros y Derecho de Seguros. Especialista en Dirección Financiera y Desarrollo Organizacional, diplomado en Gerencia de la Calidad. Contador público (CP) de la Pontificia Universidad Javeriana con 20 años de experiencia en diversas empresas. Tiene amplia experiencia en la elaboración y ejecución de auditorías y revisorías fiscales. Dirección y ejecución de asesorías, consultorías y capacitaciones. Colaborador de Auditool.

Escribir un comentario

Enviar
Aviso Cookies

Usamos cookies en nuestro sitio web. Algunas de ellas son esenciales para el funcionamiento del sitio, mientras que otras nos ayudan a mejorar el sitio web y también la experiencia del usuario (cookies de rastreo). Puedes decidir por ti mismo si quieres permitir el uso de las cookies. Ten en cuenta que si las rechazas, puede que no puedas usar todas las funcionalidades del sitio web.

× Progressive Web App | Add to Homescreen

Para instalar esta Web App en su iPhone/iPad presione el ícono. Progressive Web App | Share Button Y luego Agregar a la pantalla de inicio.

Desconectado