La Inteligencia Artificial (IA) se está convirtiendo rápidamente en algo omnipresente a la hora de apoyar las decisiones clave para el negocio, y para muchas organizaciones es fundamental para su transformación digital y sus nuevos modelos de negocio. Con las organizaciones avanzando rápidamente para identificar nuevas formas de extraer valor competitivo de sus datos, los reguladores se están preparando para intervenir. Ansiosos por evitar ir demasiado atrás de la curva o permitir que se desarrolle un "salvaje oeste", los legisladores de la UE ya están trabajando para regular e imponer directrices sobre el uso de la IA. Aunque la nueva Ley de IA no entrará en vigor hasta dentro de unos años, adelantarse a la legislación entrante dará a los departamentos de TI y de seguridad una enorme ventaja sobre la competencia, garantizando que los programas activos de IA no se vean restringidos o ralentizados para aplicar los requisitos de cumplimiento y ética de última hora.
Entonces, ¿en qué consiste la Ley de IA de la UE?
En esencia, los reguladores han reconocido el impacto potencial que la IA podría tener en la sociedad—y en concreto en los derechos de los ciudadanos de la UE—y están planeando una legislación para evitar el mal uso de la IA y proteger a las personas. La Ley contiene poderes para que los organismos de supervisión exijan la retirada de un sistema de IA o requieran que un modelo de IA sea reentrenado si se considera de alto riesgo. Piense que sigue exactamente el mismo patrón que la UE adoptó con el RGPD/GDPR. Por supuesto, el RGPD/GDPR se centra en los datos personales y en su uso y manejo responsable. Esta nueva legislación propuesta añadirá otra capa sobre el RGPD/GDPR y garantizará que los sistemas de IA utilizados en el mercado de la UE cumplan con los requisitos y la legislación existente sobre derechos fundamentales.
¿Es esencialmente una actualización del RGPD/GDPR?
Esta Ley y sus requisitos se situarán junto al RGPD/GDPR, por lo que las organizaciones tendrán que cumplir con ambos, y pueden potencialmente caer en las repercusiones del incumplimiento de ambos. Es probable que la Ley tenga el mismo alcance extraterritorial.
El RGPD/GDPR puede imponer multas de hasta el 4% de los ingresos de la empresa, ¿seguramente esto no será tan severo?
Los borradores actuales de la Ley de IA contemplan multas de hasta el 6% de los ingresos globales en caso de incumplimiento, así que si las multas de hasta el 4% de los ingresos del RGPD/GDPR llamaron la atención de su consejo de administración, puede estar seguro de que la Ley de IA también aparecerá en su radar.
Así que, ¿qué exigirá la Ley?
Actualmente, se espera que la nueva legislación garantice que se establezcan, implementen, documenten y mantengan sistemas y procesos de gestión de riesgos. Las organizaciones tendrán que determinar si sus sistemas de IA entran en la categoría de "alto riesgo" y posiblemente tendrán que someterse a una evaluación periódica. Con el RGPD/GDPR, las expectativas incluían la identificación de los riesgos conocidos y previsibles, la evaluación de los riesgos de uso indebido razonablemente previsible y la adopción de controles y contramedidas adecuados. También se espera que la Ley exija a las organizaciones que se comuniquen con los interesados para informarles de cuándo y cómo se ha utilizado la IA para tomar decisiones. Todavía no se sabe si esta comunicación tendrá que ser proactiva o sólo a petición del interesado.
Esta legislación es naturalmente adyacente a la legislación existente del RGPD/GDPR y ambas podrían aplicarse, si, por ejemplo, una mala higiene de la protección de datos conduce a la negligencia en la IA que se alimenta del conjunto de datos en cuestión.
¿Cómo es la negligencia en la IA?
Esta es una de las grandes cuestiones que los legisladores de la UE están considerando actualmente. Es probable que pueda ir desde una mala higiene de la protección de datos hasta permitir deliberadamente que se tomen decisiones discriminatorias utilizando conjuntos de datos con sesgos conocidos.
Entonces, si cumplo el RGPD/GDPR, ¿estoy a mitad de camino?
Sí y no.
Sí: las lecciones que todos hemos aprendido del RGPD/GDPR—incluyendo la higiene de los datos, las normas y los procesos—serán enormemente útiles para cumplir con la Ley de IA.
No: la premisa central en torno al RGPD/GDPR es que una organización posee datos que necesitan ser protegidos... pero con la IA se está regulando la metodología de la toma de decisiones basada en esos datos y eso implica mucho más que los propios datos constitutivos en bruto. Los algoritmos de toma de decisiones, por supuesto, pero piense también en esto… la filtración de datos ya no es la única preocupación. Es posible que su sistema de IA utilice un conjunto de datos en el que actores malintencionados quieran infiltrarse con datos "falsos". Aunque el compromiso de la integridad de los datos puede parecer una amenaza improbable, si esas manipulaciones de datos guían a una IA a tomar una decisión diferente (aumentando la puntuación de riesgo para los individuos que compran un seguro de vida, por ejemplo), podría ser realmente una acción con un objetivo clave que un perpetrador de la amenaza podría utilizar para dañar la organización.
De acuerdo, tengo que hacer algo más que copiar y pegar mis políticas del RGPD/GDPR. ¿Qué puedo hacer ahora para empezar a prepararme?
- Asegurarse de que las personas adecuadas de la organización tienen cargos de responsabilidad sobre la IA y el cumplimiento de la futura legislación sobre IA. Formar un comité de ética de la IA.
- Asegúrese de documentar el uso y las políticas de la IA, y de reflexionar debidamente en la documentación sobre los problemas surjan y la forma de tratarlos. Esta documentación es un componente crucial para garantizar un uso responsable de la IA, pero—quizás igual de importante—también es fundamental para la defensa de una organización frente a reclamaciones por negligencia grave (al igual que en el RGPD/GDPR se espera que pueda demostrar que cuando las cosas van mal es a pesar de la debida diligencia y los procesos adecuados).
- Empiece a educar y a mantener conversaciones sobre la IA con los empleados de toda la empresa para que no se convierta en una actividad entre bastidores o de última hora. La transparencia genera confianza. Es fácil suponer que los líderes empresariales, especialmente los que se centran en la ciencia e inteligencia de datos, se sentirán amenazados, pero en muchas situaciones, una buena postura ética debe ser apoyada de arriba a abajo en la organización.
- La negligencia es el factor determinante, por lo que debe poder demostrar que entiende el uso y el impacto potencial de su programa de IA y que ha evaluado las consideraciones éticas.
Aunque la aplicación de una nueva regulación de la UE sobre la IA podría estar a unos años vista, no hay duda de que se acerca y las empresas que tomen medidas ahora estarán mejor preparadas y se enfrentarán a menos trastornos cuando se implemente la Ley.