Sin normas o políticas reconocidas a nivel mundial en relación a la ética de la Inteligencia Artificial (IA), son las propias compañías tecnológicas las que se han adelantado, auto imponiéndose lineamientos y reglas para una aplicación de la IA que se centre en el ser humano, que garantice la transparencia y mantenga la seguridad de los datos, entre otros objetivos.
Es el caso de firmas como IBM, Microsoft y SAP, que han presentado públicamente estos criterios con el fin de marcar el camino. Esto, en un contexto mundial donde la demanda por IA solo promete crecer: según un estudio realizado a fines de 2018 por la firma consultora McKinsey, casi la mitad de las empresas ya han adoptado la IA, mientras que otro 30% actualmente ejecuta proyectos pilotos de IA para su futura implementación. A su vez, el 44% adicional planea buscar proveedores para la mayoría de sus necesidades de inteligencia artificial.
Sin embargo, en la discusión pública, la IA puede ser un tema controversial. Cuando las máquinas toman decisiones que afectan la vida de los seres humanos, es muy probable que algunas de las personas afectadas estarán en desacuerdo con su presencia.
Lo anterior lleva a preguntas complejas con las que las grandes tecnológicas tendrá que lidiar, siendo una de ellas cómo pueden aquellos que desarrollan y venden sistemas autónomos garantizar que tanto el creador como el cliente sienta confianza moral en las decisiones de una IA.
Según los expertos, eso significa tener que cuestionar críticamente algunas ideas y encontrar una manera de dirigir la innovación hacia casos de uso ético. Es por eso que se está explorando cómo proporcionar pautas o incluso términos y condiciones a los clientes para guiar el uso éticamente apropiado de la plataforma de IA. De ahí que establecer criterios para la ética de la IA es tan importante.