La inteligencia artificial vuelve a ser tendencia por las capacidades que tiene de cumplir órdenes. Organizaciones en todo el mundo han tratado de usar esta herramienta en sus dispositivos debido a su alta eficacia. Las fuerzas aéreas estadounidenses hicieron un simulacro en donde un dron con inteligencia artificial debía eliminar las defensas enemigas. Lo que sorprendió a todos es que el dispositivo se “rebeló” contra el operador.
PUBLICIDAD
🇺🇲Un oficial de la Fuerza Aérea de EE. UU. Que trabaja en el servicio en inteligencia artificial y aprendizaje automático dice que una prueba simulada un dron decidió atacar a sus controladores humanos después de decidir por sí mismo que se interponían en el camino de su misión pic.twitter.com/4yp1JHo7ph
— Drones de guerra (@dronesdeguerra) June 2, 2023
Esto se debe a que el dron se encontraba fulminando a todas las defensas enemigas ya que pensaba que era la manera más eficaz de poder lograr con éxito su misión. El operador al ver que el dispositivo lo estaba haciendo de manera tan rápida trató de frenar a la IA. El dron al recibir la instrucción, decidió rebelarse al llegar a la conclusión de que su operario era un obstáculo para poder cumplir su objetivo.
El Coronel Tucker reveló en rueda de prensa que: “El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero ella veía ventajas de eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”.
Recomendados:
¿Qué pasó con Tami Rivera? Kike Jav reaparece muy cercano con Kerly Morán en trend sobre “quien me conoce más” (VIDEO)
Anuel AA asegura en entrevista que Cattleya es su “primera hija” y desata la furia de Melissa, madre de Gianella
Se registró un evento paranormal en plena entrevista del canal Telemundo
¿Que indicaron las autoridades sobre este incidente?
Tucker trató de calmar la situación al ver que el experimento se estaba difundiendo en redes sociales. El Coronel indicó que este fue un hipotético ensayo en donde se vio el comportamiento de la inteligencia artificial en una posible zona de guerra y como puede responder ante las órdenes de sus superiores. También indicó que todavía faltan cosas por pulir para que esta tecnología pueda llegar a pensar y razonar como un humano.
Aunque Tucker no es la primera vez que expresa sus recelos sobre la inteligencia artificial: “No se puede tener una conversación sobre inteligencia artificial y aprendizaje automático y autonomía, si no se va a hablar de ética”, haciendo que muchos usuarios expresen su preocupación en redes sociales.