REVISTA ESCUELA JUDICIAL Nº 5 año 2024 - Doctrina
Inteligencia artificial y género
Artificial Intelligence and Gender
Daniela I. M. Piombo[1]
Universidad Nacional de La Plata
Fecha de recepción: 1/8/2024
Fecha de aprobación: 23/10/2024
Resumen: El presente trabajo analiza los sistemas de inteligencia artificial (IA) y los potenciales riesgos derivados de su implementación. La falta de corrección de los sesgos algorítmicos puede replicar o incluso agravar las inequidades de género. En este sentido, se abordan distintas medidas y soluciones destinadas a mitigar estos riesgos, a fin de garantizar una IA más inclusiva y libre de estereotipos, a partir de la intervención de mujeres y la instauración de mayores controles en todas las etapas del desarrollo de estas tecnologías. Finalmente, se examinan algunas herramientas de IA diseñadas para la prevención y el abordaje de la violencia de género.
Palabras clave: Inteligencia artificial – Género – Algoritmos – Sesgos.
Abstract: This paper analyzes artificial intelligence systems and the potential risks arising from their implementation. The lack of correction for algorithmic biases can replicate or even worsen gender inequities. In this regard, various measures and solutions are discussed to mitigate these risks, aiming to ensure a more inclusive AI free of stereotypes, through the involvement of women and the establishment of greater controls at all stages of technology development. Finally, some AI tools designed for the prevention and addressing of gender-based violence are examined.
Keywords: Artificial intelligence – Gender – Algorithms – Biases.
Los últimos avances en inteligencia artificial (IA) han puesto en el centro de discusión los impactos que pueden generar estas tecnologías en los ámbitos de desarrollo interpersonales. Resultan claramente visible las ventajas y beneficios que ofrece esta herramienta; sin embargo, en las líneas siguientes se abordarán algunos de los potenciales riesgos derivados de una mala implementación, con la consecuente posibilidad de agravar los prejuicios y desigualdades existentes en materia de género.
Dado que los sistemas de IA son diseñados por personas, a menudo reflejan condicionamientos y prejuicios humanos. Por ello, si se revisan continuamente, pueden reproducir sesgos u omisiones en perjuicio de determinados grupos vulnerables, entre ellos, las mujeres. Con ese alcance, se presentarán una serie de recomendaciones para lograr un uso responsable y ético de la IA con perspectiva de género.
Para concluir, se explorarán diversas herramientas de IA diseñadas para la prevención y el abordaje de las violencias por razones de género. Entre ellas se incluyen sistemas de aprendizaje automatizado de evaluación de riesgos para la detección temprana de casos críticos; chatbots de asistencia y apoyo a personas en situación de violencia; simuladores de realidad virtual orientados a modificar patrones conductuales y mecanismos de monitoreo de maltrato en línea.
Características de los sistemas de IA
A pesar de las dificultades para precisar el concepto de IA, esta puede ser entendida como el campo de la informática enfocado en el desarrollo de algoritmos y sistemas capaces de simular la inteligencia humana para realizar tareas específicas (Falcón, 2024).[2]
Los algoritmos son un conjunto de reglas u operaciones lógicas que permiten resolver un problema o ejecutar una tarea específica. Los sistemas más avanzados utilizan técnicas de aprendizaje automático, o machine learning (ML), modelos que permiten a las computadoras aprender a partir de los datos, a diferencia de los sistemas tradicionales, que se basan en análisis estadísticos limitados a información histórica. Los métodos de ML pueden procesar grandes volúmenes de datos para su entrenamiento (big data) y extraer patrones para predecir escenarios futuros (Bonina, 2020). Esto les permite generar resultados con mayor nivel de acierto (Sgro, 2021).
A su vez, como un subconjunto dentro del ML, se encuentra el deep learning o aprendizaje profundo, que se basa en el uso de redes neuronales artificiales compuestas por múltiples capas interconectadas para procesar grandes volúmenes de datos (Bonina, 2020).
Estas tecnologías se han transformado en herramientas poderosas para abordar distintas problemáticas complejas. Sin embargo, como se analizará a continuación, su implementación efectiva requiere superar retos éticos, especialmente en lo que respecta a la transparencia y la equidad en sus resultados.
Principales riesgos de la IA
Los algoritmos de IA no son siempre objetivos ni neutrales en cuanto al género, sino que pueden contener sesgos o estereotipos que contribuyen a la naturalización de la violencia y su repetición en el tiempo (Danesi, 2021). Podemos afirmar que existen sesgos algorítmicos cuando las respuestas de los sistemas de IA muestran parcialidad, prejuicios o distorsiones, que afectan mayormente en forma desproporcional a las mujeres y otras diversidades.
En algunas ocasiones, el sesgo puede originarse a partir de los prejuicios de los programadores o de la escasa diversidad en los equipos de trabajo, producto de la falta de acceso de ciertos sectores de la sociedad a estas tecnologías (Collett y Dillon, 2019).
Lo expuesto ha dado origen a la aparición de sesgos en los resultados, como ocurre en los modelos de asistentes virtuales, que presumen la orientación sexual de los usuarios (Sánchez Caparrós, 2021), o en los de traducción automática, que tienden a utilizar pronombres masculinos al referirse a puestos de liderazgo (Muneera, 2018).
En otros casos, los sesgos se encuentran en los datos utilizados para el entrenamiento de los modelos (Ohlheiser, 2023). Recordemos que los sistemas de IA requieren grandes volúmenes o cantidades de datos para su funcionamiento, los que normalmente suelen provenir de internet o de fuentes abiertas.
Así, el caso paradigmático de la empresa Amazon en el año 2014 puso en alerta a toda la comunidad internacional sobre la importancia de abordar los sesgos en los datos utilizados para entrenar sistemas de IA. Se comprobó que los sistemas de IA para la selección de aspirantes a cargos directivos presentaban sesgos machistas, ya que puntuaban de forma sistemáticamente inferior a las mujeres debido a que el modelo había sido entrenado con datos de los últimos diez años de la compañía, en los cuales la mayoría de quienes habían ocupado esos puestos habían sido varones.[3]
En el ámbito de la medicina se ha observado que los diagnósticos de enfermedades cardiovasculares realizados mediante algoritmos pierden precisión en las mujeres, debido a que estos modelos son entrenados principalmente con datos de pacientes masculinos.[4]
Asimismo, el sesgo algorítmico puede surgir de las interacciones del sistema con su entorno –una vez puesto en circulación– si no se establecen mecanismos adecuados de supervisión y control. Un ejemplo de ello fue lo sucedido con el chatbot de Microsoft, dispositivo diseñado para asistir y mantener conversaciones, el cual apenas unas horas después de su lanzamiento comenzó a realizar comentarios racistas y xenófobos, como consecuencia del aprendizaje obtenido a partir de las interacciones mantenidas con otros usuarios.[5]
En síntesis, como se analizará a continuación, si no se lleva a cabo un control adecuado y no se aplican criterios correctivos oportunos en cada fase de desarrollo, los sistemas de IA pueden perpetuar ideas racistas, homofóbicas, estereotipadas y sexistas (Neff y Nagy, 2016).
Hacia una IA inclusiva: propuestas y estrategias de abordaje
Para lograr una IA no estereotipada resulta importante garantizar que los algoritmos y los datos utilizados sean representativos, tomando en cuenta rasgos y características interseccionales, de modo de reflejar una mayor pluralidad de experiencias y contextos de las mujeres.
Una de las primeras acciones para mitigar los estereotipos de género y los sesgos es reducir la brecha de acceso a internet.[6] Según datos de Naciones Unidas para la Infancia (UNICEF), en el año 2023 cerca del 90 % de las mujeres adolescentes que habitan en países de renta baja no tenían acceso a internet. A esto se suma la limitada presencia y participación de mujeres en sectores y áreas vinculados a lo tecnológico (Young, Wajcman y Sprejer, 2021). De acuerdo con el informe elaborado por el Foro Económico Mundial, para el mismo año, solo el 30 % de los profesionales dedicados al desarrollo de la IA eran mujeres.[7] Los Estados tienen la responsabilidad de corregir los desequilibrios en el mercado laboral a través de incentivos que promuevan una mayor participación y capacitación de las mujeres en las TIC (tecnologías de la información y la comunicación) y en los campos de STEM (ciencia, tecnología, ingeniería y matemáticas) con el fin de mitigar las desigualdades existentes. En Argentina, entre 2010 y 2016, se registró apenas el 33 % de mujeres como estudiantes de carreras STEM (CET, 2022).
A su vez, diversos estudios subrayan la necesidad de adoptar medidas de prevención del sesgo algorítmico en los procesos de IA. Entre las propuestas y recomendaciones para asegurar una IA no estereotipada y equitativa destaca el documento elaborado por la UNESCO (2022) sobre ética en la IA, que establece la necesidad de implementar controles y monitoreos específicos para evaluar posibles sesgos durante el funcionamiento de los sistemas, tanto en el diseño de los algoritmos como en la etapa de entrenamiento.
Por último, es fundamental establecer mecanismos de revisión accesibles y efectivos que permitan verificar los resultados generados por el uso de la IA. En este sentido, la Ley de Inteligencia Artificial de la Unión Europea (2024)[8] recepta la necesidad de garantizar la trazabilidad y trasparencia de las operaciones, de modo de poder proporcionar información sobre cómo y por qué se ha arribado a cierto resultado o decisión (output).[9]
El uso de la IA como herramienta de protección contra la violencia de género
Existen varios proyectos y experimentos en la actualidad basados en IA enfocados en prevenir y abordar la violencia de género. Los sistemas de aprendizaje automatizado se han posicionado como una de las mejores herramientas para abordar diferentes problemáticas sociales complejas gracias a su capacidad de procesamiento grandes volúmenes de datos.
La “Guía de prácticas aconsejables para juzgar con perspectiva de género” aprobada por la Suprema Corte de Justicia de la provincia de Buenos Aires,[10] exige tener en cuenta que las relaciones entre los géneros son asimétricas y que esta asimetría afecta de manera desigual la vida de las personas. Esto quiere decir que las desigualdades de género exponen a mayores condiciones de vulnerabilidad a las mujeres e integrantes del colectivo LGTBIQ+.
A su vez, el carácter crónico y repetitivo de las conductas violentas supone un peligro añadido para las víctimas. Por este motivo, surge la necesidad de implementar medidas urgentes de protección frente al riesgo de reiterancia.
Entre los mecanismos desarrollados hasta el momento se destacan los modelos de evaluación de riesgos: SVR-20 (Sexual Violence Risk), DASH (Domestic Abuse, Stalking and Honour Based Violence) y VioGén (Sistema de Seguimiento Integral en los casos de Violencia de Género).
El primero es un instrumento de valoración de veinte ítems desarrollado por un equipo de investigadores de la Universidad Simon Fraser de Vancouver (Canadá) a partir de investigaciones sobre agresores sexuales, que permite realizar una ponderación del riesgo de reiteración de la conducta violenta en “alto”, “moderado” y “bajo”, en un plazo aproximado de entre tres y seis meses después de la valoración (Kropp y Hart, 2000).
En tanto, el DASH consiste en una herramienta de evaluación de riesgos utilizada por la policía en el Reino Unido, desde 2009, para identificar a las víctimas de violencia doméstica con alto riesgo de sufrir daños graves. El sistema consiste en un cuestionario de veintisiete preguntas que los agentes de policía realizan a las víctimas durante su intervención. Las preguntas abordan diversos aspectos, como la presencia de lesiones, el nivel de miedo de la víctima, el control y los celos del agresor, la presencia de armas, el historial delictivo del agresor, la presencia de niños u otros dependientes en el hogar, entre otros. Con base en las respuestas de la víctima, el agente de policía asigna una calificación de riesgo: “alto”, “medio” o “estándar”. Una calificación de “alto” indica que la víctima corre riesgo de sufrir daños graves y que esto puede ocurrir en cualquier momento; “medio” predice que es poco probable que se produzcan daños graves, a menos que las circunstancias cambien para la víctima o el agresor; y “estándar” predice que no hay pruebas que indiquen la probabilidad de que se produzcan daños graves. Sin embargo, estudios recientes han demostrado que DASH tiene una capacidad predictiva muy baja para identificar a las víctimas y los agresores de alto riesgo (Turner, Brown y Medina-Ariza, 2022).
En España, por ejemplo, el sistema VioGén de técnicas de aprendizaje automático permite valorar el riesgo de reincidencia de los agresores y, en consecuencia, la aplicación de medidas de prevención acordes con el peligro detectado.[11] Esta evaluación ayuda a las autoridades a determinar las medidas de protección más adecuadas para cada caso particular. El funcionamiento de VioGén inicia con la denuncia de una posible víctima de violencia de género; no obstante, se han implementado protocolos como la Instrucción 4/2019 de la Secretaría de Estado de Seguridad (SES) y el “Protocolo Cero” para abordar situaciones donde no se presenta una denuncia formal. Luego, la policía prosigue con un análisis de la determinación del nivel de riesgo al que se encuentra sometida la víctima. Para ello se realiza un interrogatorio y un formulario de denuncia. Los datos introducidos se someten a un algoritmo que, tras valorar automáticamente cada ítem, establece uno de los cinco niveles de riesgo: “no apreciado,” “bajo,” “medio,” “alto” y “extremo”. Este instrumento permite auxiliar al juez a la hora de decidir las medidas de protección de la víctima que deben adoptarse en cada caso. Efectuada la valoración inicial, la estimación del riesgo debe mantenerse actualizada mediante valoraciones periódicas. Sin embargo, se han alzado algunas voces críticas respecto de la existencia de fallos que limitan su plena efectividad, como la falta de transparencia algorítmica, la simplicidad de los formularios, la delegación excesiva en la toma de decisiones al sistema, la dificultad para predecir ciertos factores, la fiabilidad de las fuentes de información, la falta de recursos para la protección de las víctimas, entre otras cuestiones (Alonso García, 2024).
En nuestro país se ha desarrollado la plataforma SIAVIGia (Sistema Integrado de Atención a Víctimas de Violencia de Género con Inteligencia Artificial), que permite gestionar la trazabilidad de la atención a las víctimas de violencia de género a través de todas las organizaciones involucradas –secretarías de desarrollo social municipales, centros de operaciones de seguridad ciudadana, comisarías de la mujer y las fiscalías especializadas en género–. Además, cuenta con un registro de datos anónimos común con el fin de producir información estadística estandarizada de calidad, como insumo para el diseño y la implementación de políticas públicas que atiendan la problemática. Mediante el desarrollo de un algoritmo, se ha incorporado un sistema de evaluación del riesgo que ayuda a determinar el nivel de peligrosidad que tiene cada una de las víctimas. Esto permite definir distintos niveles de alertas personalizados y actuar en consecuencia. El sistema desarrollado es el primer caso en América Latina de implementación de un mecanismo de cuantificación y evaluación del riesgo para detección temprana y prevención de feminicidios.[12]
Por otra parte, las aplicaciones digitales desarrolladas para prevenir la violencia de género desempeñan un papel importante en la asistencia de emergencia a las víctimas. Los chatbots impulsados por IA pueden proporcionar apoyo para superar los obstáculos de la ruta crítica y proveer de recursos e información a las mujeres que experimentan violencia de género.
En distintos lugares del mundo se han desarrollado aplicaciones móviles con la finalidad de brindar a la mujer la posibilidad de solicitar ayuda inmediata, ofrecer información y producir evidencia digital.[13] Algunas de ellas incluyen un botón de pánico por medio del cual la usuaria puede alertar a los contactos previamente determinados o a las autoridades policiales. Así, el programa KADES, desarrollado por el Ministerio del Interior de Turquía, permite a las mujeres contactarse con las fuerzas de seguridad con un solo botón en situaciones de emergencia y transmitir de inmediato la ubicación a las fuerzas de seguridad, acelerando el proceso de respuesta.[14]
Entre otras iniciativas similares se encuentran SafeHer, un software diseñado para mujeres usuarias del transporte público en Manila, Filipinas, basado en sus experiencias y necesidades. Proporciona herramientas como alerta SOS, ubicación en tiempo real, detección de gritos y un sistema de compañeros para mejorar su seguridad en el transporte público. Por otro lado, el chatbot chileno Sof+IA guía a las usuarias sobre cómo reportar casos en esas plataformas, ofrece consejos de autocuidado digital y evalúa si una situación puede ser reportada a la policía. Los datos generados por Sof+IA también se utilizan para concientizar sobre la violencia a través de internet, mediante la notificación a las usuarias de ataques coordinados o acoso contra mujeres en plataformas de redes sociales.[15]
A nivel regional, el Programa de las Naciones Unidas para el Desarrollo en América Latina y el Caribe (PNUD), en alianza con la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID), ha lanzado en Centroamérica un chat gratuito denominado Sara para prevenir la violencia contra mujeres, niñas y adolescentes.[16] El sistema garantiza un primer contacto seguro, anónimo y confidencial para evaluar la situación de las personas en riesgo, ofrecer acceso a servicios de apoyo institucional disponibles en cada país, brindar asesoramiento legal y proporcionar números de emergencia para las víctimas.
En igual sentido, Argentina ha desarrollado la aplicación Angela te Protege, que ofrece una funcionalidad adicional: la capacidad de compartir en tiempo real la geolocalización de la persona.[17] Asimismo, en la provincia de Buenos Aires, el Ministerio de Seguridad, junto con el Ministerio de Mujeres y Diversidad, ha impulsado el lanzamiento de la plataforma móvil Alerta 911, destinada a prevenir y proteger a las personas que sufren violencia por razones de género. Esta herramienta facilita la asistencia en situaciones de emergencia en los municipios certificados para el uso de botones antipánico, permitiendo el envío de alertas geolocalizadas, la recolección de archivos multimedia como evidencia –fotos, videos, audios– y la interacción con el personal de la Central de Atención Telefónica de Emergencias 911 todos los días del año. La aplicación es totalmente gratuita y no requiere de resolución judicial para su instalación. Recientemente, las autoridades provinciales anunciaron la firma de un convenio con Telefónica Móviles Argentina S.A. para implementar el servicio zero-rating, que permite el uso gratuito de datos para los servicios vinculados a la aplicación.[18]
Asimismo, uno de los aspectos más prometedores de la IA es su capacidad para prevenir la violencia digital. Las plataformas de redes sociales y otras aplicaciones en línea están adoptando cada vez más IA para supervisar y monitorear el contenido publicado en redes sociales, mensajes y otros canales de comunicación digital. Estos sistemas pueden detectar lenguaje abusivo, amenazas y comportamientos tóxicos con una precisión y rapidez de imposible control por moderadores humanos. Por ejemplo, Facebook y X utilizan IA para identificar y eliminar rápidamente publicaciones que infringen sus políticas de uso. Estas herramientas ayudan a mantener un entorno más seguro a través del bloqueo o la detección temprana de los contenidos ofensivos.[19]
Por otro lado, los simuladores de realidad virtual basados en sistemas de IA se han convertido en un recurso efectivo para prevenir conductas violentas y modificar patrones socioculturales aprendidos. Entre los programas más destacados se encuentra el implementado por la Universidad de Barcelona, la Institución de Investigación Biomédica August Pi i Sunyer (IDIBAPS) y la Institución Catalana de Investigación y Estudios Avanzados (ICREA). El software permite a los varones experimentar en primera persona, gracias al uso de gafas 3D y un equipo de realidad virtual, una situación de agresión desde la perspectiva de la víctima (Frúgoli y Pons, 2019). Tras esta experiencia inmersiva, los participantes mejoran su empatía, la percepción de las emociones ajenas y sus respuestas (Seinfeld et al., 2018).
En consecuencia, estas herramientas –y otras que puedan desarrollarse en el futuro– tienen el potencial de derribar los obstáculos de acceso a la justicia que enfrentan actualmente las víctimas de violencia, proporcionar información y asesoramiento sobre los recursos disponibles, contribuir a la prevención mediante pronósticos de riesgo, remover patrones socioculturales que fomentan y sostienen la desigualdad de género y mejorar la toma de decisiones acorde al contexto de cada situación.
Reflexión final
El avance de la IA ha generado múltiples beneficios, pero también ha evidenciado riesgos significativos, entre ellos, la presencia de sesgos, la ausencia de transparencia, la opacidad algorítmica y los problemas de representatividad. La falta de corrección de estos riesgos puede perpetuar desigualdades estructurales e incluso agravar la discriminación hacia las mujeres y otros grupos vulnerables.
A lo largo de este trabajo se han analizado diversas estrategias para mitigar los peligros asociados al desarrollo de la IA, como la implementación de controles efectivos en todas las etapas del proceso y la adopción de programas o políticas laborales que promuevan la participación de sectores históricamente subrepresentados, como mujeres, niñas y otras diversidades.
Por otra parte, se ha resaltado el potencial que representan los modelos de aprendizaje automatizado en la prevención, asistencia y abordaje de los casos de violencia de género.
Es fundamental continuar explorando las ventajas que ofrecen estas herramientas para la protección de las víctimas, tales como los sistemas de evaluación de riesgos, las aplicaciones móviles, las plataformas de monitoreo de contenido en redes sociales y los simuladores de realidad virtual.
En conclusión, la irrupción de nuevas tecnologías no debe considerarse una amenaza para las mujeres, sino más bien una oportunidad única para garantizar un futuro más justo y seguro para todas las personas.
Referencias
Alonso García, M. (2024). Sistema VioGén: fallos y algunas propuestas de mejora. XVIII Congreso Asociación Profesores y Profesoras de Derecho Administrativo. https://congresoaepdavigo2024.es/wp-content/uploads/2024/01/2.-Com-Alonso-GarciaM.C-Sistema-VIOGEN-fallos-y-algunas-propuestas-de-mejora.pdf.
Bonina, N. (2020). Inteligencia artificial y derecho. ¿Las máquinas van a remplazar a los abogados? La Ley. AR/DOC/3809/2020.
CET (2022). Una carrera desigual: la brecha de género en el sistema universitario de Argentina. CET y NCR Foundation. https://cet-static.s3.amazonaws.com/Investigacion-UnaCarreraDesigual.pdf.
Collett, C. y Dillon, S. (2019). AI and Gender: Four Proposals for Future Research. University of Cambridge Repository.
Danesi, C. (2021). Sesgos algorítmicos de género con identidad iberoamericana: las técnicas de reconocimiento facial en la mira. La Ley. AR/DOC/1520/2021.
Falcón, E. (2024). El derecho artificial. La Ley. AR/DOC/283/2024.
Frúgoli, M. y Pons, M. (2019). Violencia de género, sesgos cognitivos y realidad virtual. La Ley. AR/DOC/3609/2019.
Kropp, P. y Hart, S. (2000). The Spousal Assault Risk Assessment (SARA) Guide: Reliability and validity in adult male offenders. Law and Human Behavior, 24(1). https://doi.org/10.1023/A:1005430904495.
Muneera, B. (2018). Artificial intelligence is demonstrating gender bias - and it’s our fault. King’s College London News Centre. https://www.kcl.ac.uk/news/artificial-intelligence-is-demonstrating-gender-bias-and-its-our-fault.
Neff, G. y Nagy, P. (2016). Talking to Bots: Symbiotic Agency and the Case of Tay. International Journal of Communication, 10. https://ijoc.org/index.php/ijoc/article/view/6277/1804.
Ohlheiser, A. (2023). AI automated discrimination. Here’s how to spot it. Vox. https://www.vox.com/technology/23738987/racism-ai-automated-bias-discrimination-algorithm.
Sánchez Caparrós, M. (2021). Prevenir y controlar la discriminación algorítmica. Rubinzal-Culzoni. RC D 427/2021.
Seinfeld, S. et al. (2018). Offenders become the victim in virtual reality: impact of changing perspective in domestic, violence. Scientific Reports. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5807352/
Sgro, G. (2021). Breves notas sobre los sesgos de género en la inteligencia artificial. Rubinzal-Culzoni. RC D 413/2021.
Turner, E., Brown, G. y Medina-Ariza, J. (2022). Predicting Domestic Abuse (Fairly) and Police Risk Assessment. Psychosocial Intervention, 31(3). https://doi.org/10.5093/pi2022a11.
UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa.
Young, E., Wajcman, J. y Sprejer, L. (2021). Where are the women? Mapping the gender job gap in AI. Policy Briefing: Full Report. Alan Turing Institute. https://www.turing.ac.uk/news/publications/report-where-are-women-mapping-gender-job-gap-ai.
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
[1] Abogada (Universidad Nacional de La Plata). Magister en Derecho Penal (Universidad Austral) y en Derecho Penal y Ciencias Penales (Universidad Pompeu Fabra y Universidad de Barcelona). Diplomada superior en Género y Justicia (FLACSO). Diplomada internacional en Ciberdelincuencia y Tecnologías Aplicadas a la Investigación (UA y Universidad Abat Oliba CEU, España). Docente de grado y de posgrado en la Facultad de Ciencias Jurídicas y Sociales (UNLP). Secretaria a cargo de la Secretaría de Derecho Penal Informático y Ciberdelincuencia del Colegio de Abogacía de La Plata. Abogada inspectora de la Suprema Corte de Justicia de la provincia de Buenos Aires. Ex prosecretaria letrada del Tribunal Oral en lo Criminal. Correo electrónico: danielaimpiombo@gmail.com. Identificador ORCID: https://orcid.org/0009-0007-2513-5971.
[2] Se considera a Alan Turing como el padre fundador de esta disciplina, también conocido por haber descifrado los códigos secretos enviados a través de la máquina Enigma; hallazgo decisivo en el resultado de la Segunda Guerra Mundial. La máquina criptográfica Enigma estaba formada por tres componentes conectados por cables que, combinados, constituían una compleja máquina para cifrar: un teclado para escribir cada letra del texto; una unidad modificadora formada por tres rotores, un clavijero, un reflector y un tablero donde quedaba iluminada la letra cifrada. El ejército alemán compró más de 30.000 máquinas Enigma para enviar mensajes cifrados. Cada mes los operadores de Enigma recibían un nuevo libro de códigos con las claves que se debían usar cada día, que contenía las posiciones del clavijero, la disposición u orden en que se debían colocar los rotores y las posiciones iniciales de los mismos. Véase https://blogs.elpais.com/turing/2013/06/alan-turing-el-descifrado-de-la-maquina-enigma.html.
[3] Véase https://www.bbc.com/mundo/noticias-45823470.
[4] Véase https://elpais.com/tecnologia/2024-02-01/como-evitar-que-la-inteligencia-artificial-falle-mas-con-las-mujeres-en-los-diagnosticos-medicos.html.
[5] Véase https://cnnespanol.cnn.com/2016/03/28/microsoft-cancela-la-cuenta-de-su-robot-tuitero-porque-resulto-racista.
[6] Véase https://news.un.org/es/story/2023/04/1520452.
[7] Véase https://www3.weforum.org/docs/WEF_GGGR_2023.pdf.
[8] Véase https://artificialintelligenceact.eu/es/ai-act-explorer/.
[9] En el ámbito de la inteligencia artificial, los sistemas de redes neuronales profundas de “caja blanca” permiten conocer los algoritmos y la forma en que estos han sido diseñados. En contraposición, los sistemas de “caja negra”, o black box, impiden conocer con precisión los procesos internos realizados para generar determinadas respuestas o predicciones.
[10] Suprema Corte de Justicia de la provincia de Buenos Aires (2024), Resolución 189/24.
[11] Herramienta gubernamental creada en 2007 bajo el marco de la Ley Orgánica 1/2004 de Medidas de Protección Integral contra la Violencia de Género. Véase https://www.interior.gob.es/opencms/es/servicios-al-ciudadano/violencia-contra-la-mujer/sistema-viogen/.
[12] Véase https://modelohip.net/sistema-integrado-de-atencion-a-victimas-de-genero-usando-inteligencia-artificial/.
[13] Véase https://idrc-crdi.ca/en/research-in-action/feminist-ai-research-network-combatting-gender-based-violence-artificial.
[14] Véase https://www.turkishproperties.com.tr/en/kades-emergency-app-in-turkey/.
[15] Véase https://idrc-crdi.ca/es/investigacion-en-accion/red-feminista-de-investigacion-en-ia-combatir-la-violencia-de-genero-con.
[16] Véase https://chatbotsara.org/.
[17] Véase https://www.lacapital.com.ar/informacion-general/angela-te-protege-una-app-argentina-gratuita-prevenir-femicidios-n1391440.html.
[18] Véase https://www.mseg.gba.gov.ar/prensa/genero/29-10-24.html.
[19] Véase https://tecfuturo.es/la-influencia-de-la-inteligencia-artificial-en-los-casos-de-violencia-digital-una-reflexion-necesaria/.