En un sorprendente giro, un detector de inteligencia artificial (IA) clasificó la Declaración de Independencia de los Estados Unidos como un texto generado por IA en un 99,9%.
Este resultado, evidentemente erróneo dado que el documento fue redactado en 1776, ha reavivado el debate sobre la precisión y confiabilidad de las herramientas diseñadas para identificar contenido creado por máquinas.
La herramienta en cuestión, ZeroGPT, evaluó el texto histórico y concluyó que era casi en su totalidad producto de una IA. Este tipo de errores, conocidos como “falsos positivos”, no son aislados.
Otras plataformas, como GPTZero, asignaron al mismo documento una probabilidad del 89% de haber sido escrito por humanos, mientras que Quillbot lo identificó como 100% humano. Estas discrepancias evidencian la falta de consenso y precisión entre diferentes detectores de IA.
Un antecedente
Este incidente no es aislado. En 2023, un estudio reveló que varios detectores de IA clasificaron erróneamente la Constitución de los Estados Unidos como texto generado por IA.
Además, investigaciones han demostrado que estos detectores presentan sesgos, especialmente contra escritores no nativos del inglés, aumentando la tasa de falsos positivos en este grupo .
La creciente dependencia de estas herramientas en entornos académicos y profesionales plantea preocupaciones éticas y prácticas. Estudiantes y profesionales podrían enfrentar consecuencias injustas basadas en evaluaciones erróneas.