Las tecnologías basadas en Automatización Inteligente ofrecen grandes oportunidades para transformar los modelos de negocio de sus organizaciones y lograr un mayor rendimiento. La inteligencia artificial, combinada con el análisis avanzado de datos y las soluciones cognitivas, están habilitando una nueva generación de automatización inteligente que está cambiando la naturaleza del trabajo y la calidad de los servicios. Impulsa el desarrollo de nuevos productos y experiencias de cliente, pero para que realmente tenga éxito debe implantarse de forma responsable.

En este contexto, en KPMG consideramos que lo verdaderamente importante será crear las habilidades que las empresas van a necesitar para alcanzar el éxito y potenciar su valor a largo plazo.

KPMG define los siguientes 5 pilares sobre las políticas y acciones que pueden llevar a cabo las organizaciones para que la IA sea productiva y les permita implantar modelos con integridad y transparencia, es decir, crear empresas éticas donde la Inteligencia Artificial se controle de manera responsable:

1. Transformar el lugar de trabajo

 Aunque se ha prestado mucha atención al potencial impacto negativo de las tecnologías de automatización inteligente en los puestos de trabajo, desde KPMG creemos que, si la organización integra correctamente la tecnología con las personas, no sólo favorecerá sus resultados financieros sino que también reforzará su cultura. La formación en el puesto de trabajo con el desarrollo de nuevas habilidades es un paso crucial que las empresas más punteras ya han empezado a adoptar. 

2. Establecer supervisión y buen gobierno

Existen iniciativas emergentes enfocadas a regular y supervisar la IA como el Reglamento General de Protección de Datos (RGPD) de 2018 o la American AI Initiative de febrero de 2019. Pero desde KPMG consideramos que además es la empresa la que debe establecer políticas claras de supervisión y gobierno de la IA, como el correcto uso de los datos y las reglas de privacidad. Crear algoritmos basados en un marco ético es un imperativo para los responsables de implantar la IA de manera responsable. Estas políticas a nivel empresarial pueden sin duda ayudar a influir en la dirección de la legislación.   

3. Alinear la ciberseguridad y la ética en IA

Y no sólo los algoritmos deben tener una base ética sino también aportar una fuerte seguridad. Las empresas son conscientes de que hay que gestionar los riesgos de seguridad que plantean los algoritmos para no poner en peligro su reputación y otros activos clave de la misma. La ciberseguridad por tanto es crucial para inspirar confianza a los líderes empresariales y generar modelos de algoritmos sólidos y con integridad. 

4. Reducir sesgos

Los líderes empresariales deben asumir el imperativo moral de mitigar el sesgo en todo el ciclo de gobierno de la IA. Los algoritmos van evolucionando, desde su concepción hasta su construcción y uso, por tanto, el sesgo puede aparecer en cualquier momento y puede ponerse en peligro la información que incorpora. KPMG propone verificar que el diseño esté en consonancia con las principios y normas, valores y ética empresariales para evitar los sesgos en la medida de lo posible.

5. Aumentar la transparencia

En un contexto de análisis masivo de datos sensibles, las empresas deben proporcionar a los clientes la claridad y transparencia en la información que buscan y necesitan. Es necesario hacer llegar al mercado que la empresa está actuando con transparencia y el alcance de las decisiones tomadas en base a datos personales. Establecer los mecanismos y normas adecuadas para construir, controlar y aportar seguridad a través de los sistemas de IA es el elemento clave para que sea implantada de forma ética. Aquellas organizaciones que aporten transparencia, seguridad y privacidad rigurosa a la gestión de datos se verán recompensadas con un aumento de la confianza por parte del cliente. 

Más información sobre inteligencia artificial