Noticias

¿Se pueden falsificar audios de conversaciones?

¿Se pueden falsificar audios de conversaciones al editarlos? Sí se puede, sin embargo es necesaria una lista de requisitos para hacerlo.

Recientemente, tras conocerse actos de corrupción en Latinoamérica, personas desde varios países han denunciado la falsificación o edición de audios.

Determinar si un audio es verdadero o falso, es algo que corresponde a las autoridades competentes de cada país. No obstante, expertos en sonido pueden hablar de los detalles técnicos para la edición de una audio.

De esta forma, Metro consulto a expertos sobre si se pueden falsificar audios o editarlos sin que se llegue a notar que han sufrido cambios.

Antes de continuar y explicar la opinión de los especialistas, es importante recalcar que aunque las entrevistas se refirieron únicamente a aspectos técnicos, se ha hecho el pedido de no identificarlos en las publicaciones para evitar cualquier tipo de inconvenientes al estar en boga en los medios de comunicación los asunto de corrupción.

Un ingeniero de audio y productor musical explicó que los audios sí pueden ser falsificados o editados, logrando hacer que parezcan reales.

No obstante, resaltó que se requieren de ciertas condiciones y experticia para lograrlo.

Aunque, hay procesos de edición de audio más sencillo, se destaca que normalmente tienen que ser personas con tengan conocimientos al respecto.

Esto debido a que, al menos para que la edición parezca real, se debe ser detallista en la edición.

De igual forma se detalla que existen varios programas que cuentan con el software especializados para la edición de audios, que pueden ser empleados para estos fines.

 

Sin embargo, existe una complicación mayor que se requeriría para hacer un audio falso: la grabación en un estudio con las personas que harán las voces.

Aquí, existen varios aspectos que deben ser resaltados. Primero, el estudio se emplearía para poder grabar el audio sin ruidos y poder agregarle los efectos que sena necesarios sin complicaciones. Segundo, no se puede suplantar una voz, la persona involucrada tiene que ser la que grabe.

Esto último se debe a que, según explican ninguna voz es igual a otra, ‘es como la firma o como la huella digital, la voz es única’.

Por eso, se explica que en el cotejo de voces se podría determinar si se trata de la misma persona y sería fácilmente identificable si se trata de otra persona.

Esto se debería a que los registros vocales son únicos y con entonación, tono, timbre de voz, se puede identificar a una persona. Además, en los programas de edición de audio se puede ver la curvatura de onda del audio, así como se puede colocar un analizador de efectos, se explica.

Por otra parte, se ha aclarado que no se pueden agregar palabras, por ejemplo, a los diálogos, lo único que se podría hacer en el trabajo de edición, es quitar elementos.

Para hacer este trabajo, dependiendo de la extensión del audio, se podría tardar de 1 a 2 días de edición.

Al cuestionar si, una vez bien editado un audio se puede determinar que fue trabajado, la respuesta fue negativa: ‘A uno le llega solo el producto final’, no se puede determinar’.

 

Nueva tecnología para imitar voces:

La voz humana es algo tremendamente difícil de imitar para la tecnología. Los avances tecnológicos no consiguen replicar los matices humanos y cuando Siri, Alexa o nuestro GPS nos hablan, es bastante obvio que nos comunicamos con una máquina. Sin embargo, un nuevo algoritmo de Inteligencia Artificial, Lyrebird, ha desarrollado un generador de voz que puede imitar prácticamente cualquier voz de una persona e incluso añadir un golpe emocional cuando sea necesario. El sistema no es perfecto, pero anuncia un futuro en el que los tonos particulares de cada persona, como las fotos, se podrán falsificar fácilmente.

Lyrebird puede imitar la voz de cualquier persona y leer cualquier texto con una emoción o entonación predefinidas. Increíblemente, puede hacer esto después de analizar solo unas pocas docenas de segundos de audio pregrabado. En un esfuerzo por promover su nueva herramienta, la compañía produjo varias muestras de audio usando las voces de Barack Obama, Donald Trump y Hillary Clinton. Puedes comprobar su eficiencia escuchando estos audios.

¿Y cómo es posible?

Mediante el uso de redes neuronales artificiales, que funcionan de manera similar a las redes neuronales biológicas en el cerebro humano. Esencialmente, el algoritmo aprende a reconocer patrones en el habla de una persona en particular y luego reproduce esos patrones durante el discurso simulado. El resultado final está lejos de ser excelente: las muestras todavía presentan problemas de claridad, pero se puede reconocer quién está siendo imitado por el generador de voz. Los cambios en la entonación son también discernibles. A diferencia de otros sistemas, la solución de Lyrebird requiere menos datos por altavoz para producir una nueva voz y funciona en tiempo real.

Pero no es todo tan bonito. Esta forma de síntesis del habla introduce una serie de problemas éticos y preocupaciones de seguridad. Eventualmente, una versión refinada de este sistema podría reproducir la voz de una persona con una precisión increíble, lo que haría prácticamente imposible para un oyente humano diferenciar el original de la emulación, con todos los problemas de suplantación de identidad que eso supondría.

Te puede inetresar:

 

 

 

 

 

 

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último