Dicen que los deepfakes serán imposibles de identificar en dos años
Han sido utilizados para entrener y como un recurso en algunas películas, sin embargo, su uso también implica un riesgo mayúsculo en materia de fraudes y pornovengaza.
En más de una ocasión, los deepfakes han generado polémica debido a los riesgos que pueden generar. Esta tecnología manipula, mediante inteligencia artificial, una fotografía o video, de manera en que sea posible hacerse pasar por otra persona.
La herramienta puede copiar rostros, manipular expresiones faciales e incluso imitar el habla de las personas mediante una combinación de algoritmos y códigos que permiten superponer el rostro de alguien en el de otra persona.
La posibilidad de suplantar la identidad de alguien más representa un dilema mayúsculo, pues potencia la posibilidad de los fraudes y para la creación y difusión de noticias falsas.
Ahora, después de diferentes casos en las que los deepfakes han sido utilizados para tergiversar hechos pasados o suplantar personas, debido en gran medida a que aplicaciones de fácil acceso (Fakeapp, FaceSwap, entre otras) permiten que prácticamente cualquiera puede tener acceso a ellos, ahora los expertos consideran que en un par de años el uso y la mala práctica de estos será mucho mayor, al grado de que los humanos no podrán reconocerlos.
Debido a lo anterior, el tema ya es contemplado en la propuesta de regulación europea sobre Inteligencia Artificial, en busca de obligar a las empresas a especificar si algo se ha creado usando esta tecnología, similar a cuando hablas con un chatboot. Sin embargo, esta propuesta no toma en cuenta a los deepfakes caseros y que ciertamente son los que contemplan un mayor riesgo.
Deepfakes, un peligroso aliado de la porno venganza
Los deepfakes son similares a las imágenes de Photoshop, y pueden ser solo eso un potencial recurso para el quehacer cinematográfico y televisivo, pero en su forma más grave son un riesgo para cualquier persona.
De acuerdo con la firma de inteligencia artificial Sensity, el 96% de los deepfakes son pornográficos y se utilizan específicamente para suplantar a mujeres, además, la cantidad de estos vídeos pornográficos se duplica cada seis meses.
Es muy difícil saber de un vistazo si un video deepfake es real o no, y cuando se trata de contenido íntimo, es aún más difícil. Cuando se hace un deepfake sexual de alguien, puede ser tan realista que no se puede saber su veracidad, mientras tanto el daño está hecho y puede ser similar al de alguien que ha visto sus imágenes o videos genuinos ser compartidos sin su consentimiento.
¿Cómo identificar un deepfake?
Detectar deepfakes amateur es relativamente sencillo: los bordes del video pueden estar borrosos, el audio es inconsistente o el video simplemente se verá poco natural, pero el porno deepfake más creíble, creado con redes neuronales, será más difícil de detectar.
Debido a la complejidad, es necesario recurrir a la tecnología o incluso a análisis forenses digitales para identificar una falsificación. Aquí es donde radica la preocupación con respecto al porno deepfake: si parece completamente creíble, ¿cómo podrá la víctima demostrar que no es real?"
Algunas empresas tecnológicas están estudiando cómo abordar el problema desarrollando soluciones que reconozcan el contenido manipulado, uno de esos proyectos es Project Origin, resultado de una colaboración entre Microsoft y organizaciones de medios como la BBC.