Una mujer en Florida, Estados Unidos, fue arrestada tras realizar una denuncia falsa de agresión sexual, utilizando como evidencia una imagen generada con inteligencia artificial (IA).
PUBLICIDAD
De acuerdo con el informe policial, Brooke Schinault, de 32 años, afirmó que un hombre desconocido había irrumpido en su casa, la lanzó al suelo y la agredió sexualmente. Aseguró incluso haber logrado tomar una fotografía del atacante sentado en su sofá.
Sin embargo, al analizar la supuesta imagen, los agentes descubrieron que el rostro del presunto agresor había sido creado digitalmente mediante IA, y que el archivo se encontraba en una carpeta eliminada con fecha anterior a la denuncia.
Schinault fue detenida por presentar una denuncia falsa de delito, considerada una falta menor en el estado de Florida. Pasó una noche en la cárcel del condado de Pinellas antes de ser liberada bajo una fianza de USD 1.000.
Según el reporte, la policía ya había recibido una llamada de la misma mujer días antes, cuando también afirmó haber sido atacada por un desconocido. En ambas ocasiones, los investigadores encontraron inconsistencias en su versión.
El documento judicial no precisa el motivo del engaño. Sin embargo, en una publicación previa en redes sociales, Schinault mencionó haber sido víctima de violencia doméstica y que octubre es el mes de concientización sobre la violencia de género en Estados Unidos.
En Florida, presentar un informe falso de un crimen es un delito menor de primer grado, sancionado con hasta un año de prisión o libertad condicional, además de multas económicas.
El caso ha abierto un debate sobre el uso indebido de la inteligencia artificial en denuncias falsas y los desafíos que enfrentan las autoridades para verificar la autenticidad de las pruebas digitales.