miércoles, octubre 9, 2024

Volver al futuro: inteligencia artificial, protección de datos y desafíos

Antes de comenzar a escribir sobre la práctica del derecho y los desafíos que enfrentamos los y las abogadas in house en materia de protección de datos e inteligencia artificial, […]

Antes de comenzar a escribir sobre la práctica del derecho y los desafíos que enfrentamos los y las abogadas in house en materia de protección de datos e inteligencia artificial, recordé la aclamada franquicia “Back to the Future”, donde Michael J. Fox interpreta al intrépido Marty MacFly.

Sin duda, esta trilogía fue una de mis grandes aproximaciones a la tecnología y la inteligencia artificial. Años más tarde, en el ejercicio profesional corporativo, ya se percibía que el rubro de la tecnología no podría encontrarse ajeno a un marco legal y ético, a pesar de no estar regulado de manera consolidada como es el caso de la industria de telecomunicaciones o de servicios básicos. 

La tecnología avanza a pasos agigantados en comparación con la legislación que debe regular, como ha sido el caso en Chile con el Proyecto de ley que regula el tratamiento de Datos Personales, que durante años quedó rezagado. 

Volviendo al futuro: un presente sin sesgos

Volviendo al ejemplo de la saga “Back to the Future”, probablemente en los años 80 más de algún cinéfilo se planteaba el dilema ético de viajar en un DeLorean hacia el futuro, robar o hurtar un almanaque y regresar al pasado con información privilegiada, cambiando el curso natural de los acontecimientos, causando perjuicios a otros en el camino y enriqueciéndose a consecuencia de un delito. 

En el ámbito empresarial, ocurre algo parecido. La tecnología, la robótica y la inteligencia artificial se despliegan al servicio del ser humano para mejorar la productividad y la eficiencia. Sin embargo, las nuevas tecnologías no pueden ni deben ser utilizadas de manera indiscriminada. 

Por ejemplo, los algoritmos utilizados por la IA en los procesos de reclutamiento de personal deben estar libres de sesgos que permitan una adecuada participación de hombres y mujeres en igualdad de condiciones. O bien, por el contrario, ¿debiese estar permitida la discriminación no arbitraria que permita incrementar la dotación femenina en las compañías de la mano de la equidad de género? 

Desde la perspectiva de la protección de datos y de su tratamiento, una IA debidamente programada, podría convertirse en una aliada del Data Protection Officer, siempre y cuando se encuentre diseñada para facilitar la obtención del consentimiento del titular del dato. Por ejemplo, procurando y asegurando que dicho consentimiento sea libre, informado y específico en cuanto a su o sus finalidades. 

Una IA ética y legal

Debe tratarse de una IA que cuente con instrucciones adecuadas para que se logre acreditar que este consentimiento también es inequívoco.

La industria cuenta con un gran desafío de elaborar las instrucciones necesarias que incluyan aspectos que van más allá de un simple paso lógico y comiencen a incorporar elementos más emocionales como las preferencias, las motivaciones y/o el nivel de comprensión del titular del dato sobre el uso que se le dará al mismo cuando es recopilado por la IA. 

Lo anterior, con el objeto de determinar si esa persona comprende o no, la finalidad del tratamiento que se pretende. Sí de selección de personal y gestión humana se trata, es ampliamente conocido que algunas organizaciones emplean softwares cuya función principal es cotejar nombres o números de identificación con listas restrictivas, listas sancionatorias, listas PEP (personas expuestas públicamente) y listas de noticias, entre otras. 

Además, un software de Debida Diligencia podría ser utilizado con el objeto de detectar si un candidato está siendo procesado por algún delito y se encuentra en calidad de imputado.

En estos casos, las empresas deben estar preparadas para desarrollar políticas y procedimientos que establezcan lineamientos claros sobre en qué casos será legal, a la luz del Proyecto de Ley de Protección de Datos Personales, verificar esta información a través de medios tecnológicos sin el consentimiento del candidato, así como determinar en qué situaciones se debiera obtener un consentimiento previo. 

Todo esto debe analizarse en atención a la nueva Ley de Protección de Datos Personales, el artículo 19 N°16 de la Constitución Política de la República y el artículo segundo inciso final del Código del Trabajo. Una vez superada la cuestión del consentimiento del titular del dato y aplicando el cruce de información conforme a la ley y a la Constitución, se debe implementar una especie de “Debido Proceso” al interior de la organización. 

En este proceso, tal y como ocurre en los procedimientos de denuncia interna, en la medida en que la persona no haya sido condenada por intermedio de sentencia firme y ejecutoriada, debiera primar durante toda la revisión de antecedentes, el principio de presunción de inocencia. Incluso si la persona fue condenada y cumplió con la pena impuesta, nos deberíamos plantear si le corresponde al sector privado adoptar políticas de reinserción social. 

Esto sin duda implica cambios significativos no sólo en términos de algoritmos o habilidades en el manejo de prompts, sino que, de paradigmas, al poner nuevamente a la persona en el centro, mezclando ética y responsabilidad social empresarial, tecnología y eficiencia. En este contexto, la IA podría discriminar y tomar decisiones dependiendo de si estamos frente a candidatos procesados, condenados y/o frente a aquellas personas que han cumplido condena.

Macarena Blanc
Macarena Blanc
Gerente Legal en Coasin Logicalis.
ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

mas leídas