Las recientes intervenciones de la Autoridad Garante sobre el tema de la IA (que, en particular, tiene condiciones dictado precisas para que OpenAI procese legalmente los datos de los usuarios de ChatGPT) han dado lugar a algunas reflexiones.
En particular, el desarrollo de los sistemas de IA, desde hace algunos años, impone la necesidad de prestar atención, por ejemplo, al principio de transparencia, así como a una mayor claridad en relación con los parámetros de funcionamiento del algoritmo y las medidas adoptadas para proteger los derechos y libertades de las partes interesadas.
La evaluación de los impactos en los derechos y libertades de las partes interesadas es cada vez más compleja: cuanto más sofisticados se vuelven los algoritmos, mayores son las limitaciones éticas del algoritmo y la evaluación de los impactos en los derechos humanos.
Índice de temas
Innovación y protección de datos: ¿cuáles son los impactos
Estos aspectos se discutieron durante los trabajos de Simposio sobre privacidad la conferencia internacional cuyo objetivo es aumentar el diálogo internacional, la cooperación y la difusión de la disciplina de protección de datos, que se celebró del 17 al 21 de abril en la encantadora Universidad Ca’ Foscari de Venecia.
Como moderador, participé en el panel titulado «Inteligencia artificial versus privacidad: posibles soluciones para apoyar la innovación y mejorar la protección de datos», que, como ya lo expresa bien el título, exploró temas de inteligencia artificial y protección de datos.
Precisamente, la complejidad de evaluar los impactos de la inteligencia artificial en los derechos y libertades de las partes interesadas suscita preocupaciones compartidas no solo por la mayoría de quienes abordan estas cuestiones desde una perspectiva legal, sino también por los emprendedores del sector tecnológico.
Solo por mencionar uno, Elon Musk, cuya carta abierta publicada por el Future of Life Institute sobre los problemas éticos derivados del desarrollo descontrolado de la inteligencia artificial ha sido firmada y compartida por otros mil investigadores. Del texto se desprende la sensación de que la humanidad está cerca de un punto evolutivo sin retorno y que conviene parar: de ahí la solicitud de una moratoria de seis meses, para desarrollar prácticas y directrices compartidas en el entrenamiento de los sistemas de IA antes de que la situación se vaya de las manos.
ChatGPT y las demás intervenciones del Garante sobre la IA
La intervención de la Autoridad Garante en ChatGPT y la solicitud de información sobre la base jurídica del tratamiento con el fin de entrenar los algoritmos, junto con la ausencia de medidas para verificar la edad de los usuarios y, en particular, de los menores, plantean cuestiones que se suman a las que surgieron en otras ocasiones, por ejemplo, con la investigación de la Autoridad sobre el sistema Replika.
En las pruebas en sistemas como Replika, también surgieron respuestas inadecuadas para la edad del interlocutor, aunque se trataba de un sistema de IA destinado a menores para brindar asesoramiento psicológico y, por lo tanto, a sujetos aún más vulnerables.
En realidad, las consideraciones a las que se hacía referencia en la última disposición del Garante, incluidas las de carácter ético, ya habían surgido, sin crear la misma sensación mediática que en el caso ChatGPT, ni siquiera en las medidas relacionadas con el caso Bocconi y Glovo, en las que se prescribía la obligación del responsable del tratamiento de explicar el funcionamiento del algoritmo.
En la disposición de ChatGPT, la propia naturaleza de la herramienta es más compleja y requiere no solo explicar los parámetros operativos del algoritmo, sino también identificar la base legal de los datos personales que se han utilizado para entrenar el algoritmo y las medidas adoptadas para garantizar el cumplimiento de los principios de procesamiento establecidos en el art. 5 del GDPR, incluido el principio de precisión.
La última intervención de la Autoridad Garante en ChatGPT ha provocado una serie de críticas por parte de la opinión pública. Estas críticas, bien analizadas, conducen a la percepción de que los ciudadanos consideraban que el uso de esta tecnología era de vital importancia para el desarrollo de la humanidad, incluso a expensas del respeto de las normas y la protección de los derechos.
Questa è la risposta
Protecciones y normas que, como suele ocurrir, asumen un papel marginal, ya que siempre hay un fin más importante que justifica los medios, a saber, la limitación de los derechos.
Esperando la Ley de IA
No cabe duda de que la inteligencia artificial puede desempeñar un papel fundamental en muchos aspectos, piénsese en la ayuda que estos sistemas podrían ofrecer para una mayor eficiencia y calidad en términos de asistencia sanitaria, así como en el campo de la investigación científica; por otro lado, sin embargo, existen una serie de riesgos, incluidos los sociales y culturales, que no nos permiten ignorar la búsqueda de normas específicas. Normas que, cuando se refieren a la protección de la privacidad, generan escándalo y disenso colectivo.
Mientras tanto, la tan esperada «Ley de IA» tarda en llegar. Lo que surge es la voluntad de la legislatura de querer abarcar todas las áreas futuras a toda costa, con el riesgo de quedar ya anticuada. Es bueno recordar que se derivan de normas que no son específicas para casos individuales, sino de normas generales y siempre actuales que van de la mano de la evolución tecnológica, que permiten construir soluciones a partir de estas normas y no al revés. GDPR
La evolución de la normativa en materia de IA, como también ha pedido el Órgano, requiere la participación de las autoridades garantes, que, gracias a su contribución vertical, podrían mejorar la regulación y frenar ese tipo de liberticidio desenfrenado.
Fuente: cybersecurity360



