Adolescente utilizó inteligencia artificial para sexualizar a sus compañeras
Ocurrió en Córdoba. Un estudiante utilizó inteligencia artificial para hacer un video porno con el rostro de sus compañeras. El padre de una alumna presentó la denuncia ante la Justicia y se inició una investigación en la Unidad Judicial Contravencional de Género. De qué se trata el proyecto de ley de “uso responsable de la inteligencia artificial” presentado por un diputado cordobés para terminar con el vacío legal en el país.
La inteligencia artificial y los riesgos de su utilización volvieron a ser tema de discusión pública esta semana luego de la trascendencia que tomó una denuncia judicial contra un estudiante cordobés por fusionar con esa herramienta digital imágenes de mujeres sexualizadas con los rostros de sus compañeras y divulgar el material en sitios de contenido pornográficos.
El alumno, menor de edad, pertenece a la Escuela Superior de Comercio Manuel Belgrano (ESCMB), una institución educativa de nivel preuniversitario, dependiente de la Universidad Nacional de Córdoba (UNC).
El material artificial creado por el estudiante contenía, además, descripciones cosificadoras hacia sus compañeras. Esto derivó en una denuncia judicial del padre de una de las víctimas ante el fiscal Juan Ávila Echenique, quien investiga delitos contra la integridad sexual. No obstante, la Justicia se encontró con una limitación legal, ya que las jóvenes son mayores de edad.
En abril de 2018 se aprobó en ambas cámaras del Congreso la modificación del artículo 128 del Código Penal, que establece una pena de tres a seis años de cárcel para aquella persona que “produjere, financiare, ofreciere, comerciare, publicare, facilitare, divulgare o distribuyere, por cualquier medio” representaciones sexualizadas de personas menores de edad. Por eso, la ley solo aplica para víctimas “menores de 18 años”.
Por eso, el funcionario derivó el caso a una unidad judicial contravencional de género, ya que desde el ámbito penal no se puede tomar ninguna acción.
Las autoridades del Colegio tomaron cartas en el asunto mediante el área de Asesoría en Violencia de Género y el equipo de Masculinidades, según indicaron a medios locales. En tanto, afirmaron haber iniciado un expediente en la Secretaría de Asuntos Académicos de la UNC. “Hicimos todos los trámites administrativos que corresponden como institución”, explicó a Doce TV la directora, Andrea Marinelli.
“Como escuela nos ocupa que podamos identificar estos casos, educar a la comunidad, hacer prevención. Esto debe servir para otras escuelas, también para que puedan trabajar en la prevención y reparación de estos casos”, reflexionó.
¿Un cuchillo con doble filo?, cómo y para qué regular la IA
La regulación del desarrollo, producción y uso de sistemas basados en inteligencia artificial es un tema que se aborda en el mundo desde hace años. Como ocurrió hace tiempo con la explosión del Internet y la World Wide Web (WWW), hay especialistas que buscan establecer límites para proteger los derechos y la salud de las personas sin intervenir en la libertad de expresión, la innovación y la competitividad.
En marzo pasado, la Unión Europea (UE) fue pionera en la sanción de un marco legal para garantizar la seguridad y la transparencia en el uso de la IA en su territorio. En Estados Unidos, en tanto, también se avanzó sobre un marco normativo en varios estados, como el de California, para la gestión de riesgos asociados con esta herramienta digital.
Naciones Unidas, a través de la UNESCO, también expresó en su momento la necesidad de la regular las inteligencias artificiales, y emitió recomendaciones sobre la ética de este dispositivo al destacar su impacto en la vida de las personas.
En este marco, a comienzos de junio, el diputado nacional de Córdoba de la Democracia Cristiana Juan Brügge, perteneciente al bloque Hacemos Coalición Federal, presentó un proyecto de ley para regular el uso de la inteligencia artificial de forma “responsable”. Es decir, con intenciones “éticas y trasparentes, respetando los derechos humanos, la privacidad, la seguridad y la equidad”.
El documento se propone determinar “una serie de parámetros para identificar los posibles riesgos que el uso de la IA pueda traer aparejados para la vigencia real y efectiva de los derechos humanos y las garantías constitucionales”, tomando en cuenta los antecedentes de la UE y otros países del mundo.
“Buscamos que se califique el nivel de riesgo”, detalló el diputado en diálogo con Página|12. El texto divide a las prácticas como de riesgo “inaceptable” o “prohibidas”, o de riesgo “alto”, “medio” y “bajo”.
A modo de ejemplo, señaló como altamente riesgosa una aplicación que se hizo popular en los últimos meses y promete brindar apoyo psicológico y acompañamiento a personas en situaciones de crisis emocional.
Según el proyecto de ley de Brügge, una vez que se fijen estos parámetros técnicos y jurídicos del uso de la inteligencia artificial, se podrá avanzar en “el rol de la autoridad de aplicación en la temática, con facultades no solo de control, sino también de sanción”.
También propone la opción de que los “afectados por el uso irresponsable de la IA” puedan ejercer una “acción judicial” con sanciones monetarias bajo la divisa Argentino oro –utilizada en el derecho aeronáutico– para evitar que “las sanciones pierdan efectividad debido a la depreciación de la moneda local, garantizando así que las multas sean justas y equitativas”, independientemente de los cambios económicos.
Así todo, el diputado cordobés remarcó que se tratará de un marco regulatorio desde el punto de vista civil, ya que no modifica el Código Penal.
“En paralelo, estamos trabajando en un nuevo proyecto de ley complementario, que sí plantea modificaciones en el Código Penal para tipificar figuras penales concretamente, con penas importantes en función a estas situaciones que se presentan, porque entendemos que, efectivamente, hay un vacío legal”, sostuvo.
“El proyecto que presenté en junio sirve el uso responsable de la inteligencia artificial desde el punto de vista civil, y para establecer las responsabilidades que le cabrían a proveedores de sistemas de IA; importadores, distribuidores y fabricantes de productos o servicios de IA; los usuarios que provoquen un daño a otros; y los destinatarios de la IA”, apuntó.
El proyecto de ley ya fue presentado al presidente de la Comisión de Comunicaciones de la Cámara de Diputados, Pablo Carro, y una vez que se reúnan proyectos similares, resta que se inicien las jornadas de audiencias públicas para que especialistas e interesados en la temática participen del debate. “Lo lógico es que se dialogue y que después se avance en un proyecto concreto”, concluyó.
Por Manuela Tobia
www.pagina12.com.ar