Regulación de la IA: ni ingenuidad ni paranoia

0
26

La Inteligencia Artificial (IA) está en el centro del debate durante 2024 por su potencial como agente transformador de la economía y por los límites necesarios que implica su desarrollo.

El escritor Yuval Noah Harari plantea en su nuevo libro “Nexus” que la IA es una amenaza invisible y hay que regularla.

Para llegar a semejante afirmación hace un largo desarrollo donde refuerza el carácter peligroso de las IA sin control dado que se encuentran a disposición del potencial uso de los gobiernos totalitarios.

Para contrarrestar esta tendencia apela a la conciencia y a una valoración de la verdad que imponga mecanismos de autocontrol, aunque no identifica ninguno concreto.

Harari tiene una visión que agudiza una lectura amenazante de los nuevos desarrollos tecnológicos, cercana a las teorías paranoicas de la ciencia ficción, aunque tiene la ventaja de contrarrestar las lecturas más ingenuas de muchos economistas que apuestan, sin más, al desarrollo tecnológico, sin contemplar sus potenciales riesgos ni consecuencias del uso indiscriminado de sus funcionalidades.

Lo cierto es que cada día cientos de IAs desarrollan nuevos progresos, como las imágenes de Fluxpro.art con un realismo imposible de diferenciar de una foto real, o Vive.art que transforma una foto en video con los gestos de otra persona.

También Filmora puede clonar la propia voz o la de terceros. Y así a cada hora, todos los días. Cada nuevo desarrollo con IA está comenzando a plantear riesgos reales en la información privada y el prestigio al ser usada con intenciones dañinas.

Las empresas están preocupadas porque los ataques están comenzando a ser ciertos, y puedo ponerme como ejemplo. Aunque en Argentina todo llega con cierto delay, ya tengo casos concretos de ataques al prestigio de marcas y personas quienes han utilizado IA sin medir las consecuencias.

Por eso es que debemos estar atentos e impulsar activamente una regulación clara y transparente de la IA que no impida la fuerza de su capacidad innovadora, pero que contenga sus riesgos. Para eso podemos basarnos en las normas ya existentes en el mundo, como la SB1047 de California y en el reglamento de la UE 2024/1689 formulado este año, más concretamente el 23 de junio.

La subsecretaría de Tecnologías de la información de Argentina también emitió un conjunto de recomendaciones en 2023 que debería actualizarse y hacerse más exhaustivo, ya que constituye una excelente base para comenzar.

Solamente hay que estar atentos a los nuevos desarrollos y regulaciones a nivel mundial que señalan el camino.

No son necesarias teorías paranoicas o ingenuas respecto a las dificultades que nos trae esta nueva realidad, sólo hay que ponerle cabeza y trabajo para avanzar en un desarrollo tecnológico que brinde mejores herramientas de mayor productividad, y al mismo tiempo garanticen los derechos.

Harari es también conocido como integrante de la corriente de los “tecno pesimistas” y tiene una mirada reflexiva sobre el potencial totalitario en la IA.

Dice que nunca antes hemos visto algo similar en la historia dado que la IA y su integración en los dispositivos, tanto personales como del hogar, urbanos o vehículos, podría derivar en el desarrollo de una capacidad de vigilancia sin precedentes donde sería posible la creación de regímenes de vigilancia total que aniquilarían la privacidad.

Países enteros de IA, donde no se necesitarían agentes humanos para seguir a todos los humanos.

De todos modos, más allá de las teorías tanto negativas como favorables al desarrollo de la IA, la realidad concreta nos enfrenta al desafío y hay que responderle.

Es importante que podamos acordar una regulación de la Inteligencia Artificial teniendo en cuenta la realidad y asumir la responsabilidad que nos toca. No se trata de ingenuidad ni de paranoia sino de límites claros para una sana coexistencia con lo humano y poder avanzar en lograr herramientas que hagan mejor nuestras vidas.  

SIN COMENTARIOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí