Por: CP Iván Rodríguez. Colaborador de Auditool.

Una de las herramientas que está generando beneficios interesantes a las organizaciones y a las personas, pero que a su vez trae ciertas preocupaciones, es el uso de la inteligencia artificial (IA). Si bien las organizaciones reconocen el impacto de esta tecnología en futuros desarrollos de productos y servicios, también advierten que la IA podría exponerlas a diversos riesgos que, en caso de materializarse, pueden originar multas y sanciones por parte de los reguladores.

Recientemente, la Unión Europea propuso un conjunto de regulaciones a la IA[1] que, de no cumplirse, podría resultar en multas materiales. Así mismo, la Comisión Federal de Comercio de Estados Unidos (FTC) notificó que podría responsabilizar a las organizaciones por la proliferación de sesgos o desigualdades a través de la IA[2].

Así como la implementación de IA actualmente podría considerarse fundamental para el éxito futuro de algunas organizaciones, también puede pensarse que las organizaciones líderes serán aquellas que identifiquen y gestionen activamente los riesgos asociados. La necesidad de protección frente a una amplia y creciente gama de riesgos de IA puede parecer abrumadora, pero en el actual entorno, evitar la IA y sus riesgos no parece ser una opción.

Las organizaciones, al considerar el uso y/o desarrollo de aplicaciones de IA, deberían incluir en sus equipos de trabajo a expertos en riesgos y en temas legales, junto con los ingenieros y profesionales que aborden estas aplicaciones. Operar de manera inversa resulta costoso y desgastante, esto aplica para diferentes proyectos. De este modo, un buen análisis de riesgos debe ser parte del diseño inicial de un modelo basado en IA. Con ello se garantizaría que los modelos se ajusten, tanto a las necesidades de los usuarios y clientes, como a los requisitos legales.

Ahora bien, teniendo en cuenta que no existe una manera de determinar cada uno de los diferentes riesgos del amplio espectro que trae la IA, las organizaciones deberían aplicar un plan informado de priorización de riesgos como el paso inicial en un enfoque de gestión de riesgos de IA efectivo, que considere tanto aspectos legales como las mejores prácticas técnicas.

Una manera de priorizar esto es crear una relación o catálogo de los riesgos específicos de la IA propios de la organización y, así, determinar el daño que se busca prevenir. Luego, seguir una metodología clara de evaluación y priorización de esos riesgos para lograr su mitigación.

Para tal efecto, es necesario identificar los riesgos de la IA, lo que puede lograrse si el equipo que trabaja en su implementación y/o desarrollo determina claramente cada evento negativo posible en la implementación de IA. Posteriormente, se tiene que detallar cómo es posible mitigar cada uno de esos riesgos de acuerdo con los estándares apropiados. Una forma útil de pensar en los riesgos potenciales es utilizar un marco o mapa de categorías de riesgo y sus posibles contextos comerciales, como se muestra a continuación[3]:

  • Privacidad: los datos son el alma de cualquier modelo de IA. Las leyes de privacidad de todo el mundo determinan la forma en la que las empresas pueden, o no, usar los datos, mientras que las expectativas de los consumidores establecen estándares normativos. Entrar en conflicto con estas leyes y normas puede resultar en una responsabilidad significativa, así como en daños a los consumidores. Ahora, violar la confianza del consumidor, incluso si el uso de datos fue técnicamente legal, también puede conducir a un riesgo de reputación y una disminución en la lealtad del cliente.
  • Seguridad: los nuevos modelos de IA tienen vulnerabilidades complejas que están en evolución. Estas vulnerabilidades como la extracción de modelos y el envenenamiento de datos (en los que se introducen datos "malos" en el conjunto de entrenamiento, lo que afecta la salida del modelo) pueden plantear nuevos desafíos a los enfoques de seguridad.
  • Equidad: puede ser fácil codificar inadvertidamente el sesgo en los modelos de IA o introducir un sesgo al acecho en la alimentación de datos en el modelo. El sesgo que, potencialmente o de facto, daña a clases y grupos particulares de personas puede exponer a la empresa a riesgos y responsabilidades de equidad.
  • Transparencia: la falta de transparencia en torno a cómo se desarrolló un modelo, o la incapacidad de explicar cómo un modelo llegó a un resultado particular puede conducir a problemas, uno de los cuales es, potencialmente, entrar en conflicto con los mandatos legales.
  • Seguridad y rendimiento: las aplicaciones de IA, si no se implementan y prueban correctamente, pueden sufrir problemas de rendimiento, lo que puede llevar a no cumplir con las garantías contractuales y, en casos extremos, representan amenazas para la seguridad personal. Supongamos que se utiliza un modelo para garantizar actualizaciones oportunas de maquinaria en la fabricación o la minería, una falla de este modelo podría constituir negligencia bajo un contrato y/o provocar daños a los empleados.
  • Riesgos de terceros: las organizaciones pueden externalizar la recopilación de datos, la selección de modelos o los entornos de implementación. La organización que involucra a terceros debe conocer y comprender los estándares de mitigación de riesgos y gobernanza aplicados por cada tercero, así mismo, debe probar y auditar de forma independiente todos los insumos de alto riesgo.

De acuerdo con McKinsey, la mayoría de los riesgos de IA se asignan al menos a uno de los tipos generales de riesgo descritos anteriormente y, a menudo, abarcan múltiples tipos. Las organizaciones (y los auditores) deben Identificar el contexto en el que pueden ocurrir estos riesgos, lo cual ayudaría a proporcionar orientación a las medidas de mitigación.

 

[1] Puede consultarse en: https://www.europarl.europa.eu/news/es/headlines/society/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial

[2] Entre las noticias referentes a este caso puede verse: https://www.swissinfo.ch/spa/inteligencia-artificial-eeuu_la-ftc-de-eeuu-abre-una-amplia-investigaci%C3%B3n-sobre-openai-y-su-popular-herramienta-chatgpt/48663404

[3] Tomado y traducido de: https://www.mckinsey.com/capabilities/quantumblack/our-insights/getting-to-know-and-manage-your-biggest-ai-risks


ivan

CP Iván Rodríguez - CIE AF

Auditor y consultor, diplomado en Alta Gerencia de Seguros y Derecho de Seguros. Especialista en Dirección Financiera y Desarrollo Organizacional, diplomado en Gerencia de la Calidad. Contador público (CP) de la Pontificia Universidad Javeriana con 20 años de experiencia en diversas empresas. Tiene amplia experiencia en la elaboración y ejecución de auditorías y revisorías fiscales. Dirección y ejecución de asesorías, consultorías y capacitaciones. Colaborador de Auditool.

Bogotá D.C., Colombia.

 

Aviso Cookies

Usamos cookies en nuestro sitio web. Algunas de ellas son esenciales para el funcionamiento del sitio, mientras que otras nos ayudan a mejorar el sitio web y también la experiencia del usuario (cookies de rastreo). Puedes decidir por ti mismo si quieres permitir el uso de las cookies. Ten en cuenta que si las rechazas, puede que no puedas usar todas las funcionalidades del sitio web.

× Progressive Web App | Add to Homescreen

Para instalar esta Web App en su iPhone/iPad presione el ícono. Progressive Web App | Share Button Y luego Agregar a la pantalla de inicio.

Desconectado