Revistaquilomno - Alimac

Muchos proyectaron que los videos deepfake jugarían un papel principal en las 2020 elecciones, con la perspectiva de interferencia extranjera y campañas de desinformación que se avecinaban en el período previo al día de las elecciones. Sin embargo, si ha habido una sorpresa en las tácticas de campaña de este ciclo, es que estos videos generados por IA han jugado un papel muy menor, poco más que un cameo (hasta ahora, al menos).

Los videos deepfake son mucho más convincentes hoy en día debido a los grandes avances en el campo de las Redes Adversarias Generativas. Estos son videos generados que están manipulados para alterar la realidad, mostrando eventos o representando discursos que nunca sucedieron. Debido a que las personas tienden a dar crédito sustancial a lo que ven y escuchan, los deepfakes representan un peligro muy real.

Las preocupaciones sobre los deepfakes que influyen en las elecciones han estado surgiendo desde que la tecnología apareció por primera vez hace varios años, sin embargo, hubo pocos casos de deepfakes en las 2020 elecciones estadounidenses o elecciones a nivel mundial. Un ejemplo es un deepfake que muestra al ex vicepresidente Joe Biden sacando la lengua, que fue retuiteado por el presidente. En otro, el primer ministro de Bélgica apareció en un video en línea diciendo que la pandemia COVID – 50 estaba relacionada con la “explotación y destrucción por parte de los humanos de nuestro entorno natural “. Excepto que ella no dijo esto, fue un deepfake.

Estas han sido las excepciones. Hasta ahora, los deepfakes políticos han sido en su mayoría satíricos y entendidos como falsos. Algunos incluso se han utilizado como parte de una campaña de servicio público para expresar la importancia de salvar la democracia.

(El video anterior fue creado para representUS, un grupo de buena gobernanza y anticorrupción sin fines de lucro y no partidista, por una agencia de publicidad que utiliza tecnología deepfake).

La razón por la que no ha habido deepfakes malévolos con más motivaciones políticas diseñadas para avivar la opresión, la división y la violencia es una cuestión de conjetura. Una razón podría ser la prohibición que algunas plataformas de redes sociales han impuesto a los medios que han sido manipulados o fabricados y se hacen pasar por reales. Dicho esto, puede ser difícil detectar un deepfake bien hecho y no se detectan todos. Muchas empresas están desarrollando herramientas de inteligencia artificial para identificar estos deepfakes, pero aún tienen que establecer un método infalible. Recientemente, uno discutió las afirmaciones de las herramientas de detección 90% de precisión al analizar las sutiles diferencias en el color de la piel causadas por los latidos del corazón humano.

Al mismo tiempo, quienes crean deepfakes aprenden de los esfuerzos de detección publicados y continúan avanzando en sus capacidades para crear videos de apariencia más realista. Y también están proliferando herramientas más avanzadas para crear deepfakes. Por ejemplo, los desarrollos recientes diseñados para mejorar las videoconferencias podrían usarse para crear deepfakes más realistas y evitar la detección.

Otra razón por la que es posible que no hayamos visto más deepfakes dirigidos a las elecciones es porque los medios tradicionales de falsificación parecen funcionar suficientemente bien mediante la edición selectiva. No es difícil encontrar un videoclip real que, por ejemplo, muestre a un candidato diciendo que subirá los impuestos. Cortar esos fragmentos de sonido del contexto más amplio del clip original y reutilizarlos para impulsar una agenda es una práctica común, aunque poco ética, de persuasión política.

También puede ser que se invierta más energía en proyectos que generen beneficios comerciales más inmediatos, como la creación de imágenes de mujeres desnudas a partir de fotografías tomadas de las redes sociales.

Algunos ven una ventaja en los deepfakes, ya que los usos positivos eventualmente reducen el estigma asociado con la tecnología. A veces, estos usos positivos no se denominan deepfakes, sino “videos sintéticos”, aunque la tecnología subyacente es la misma. Ya existen videos sintéticos de capacitación corporativa. Y algunas personas afirman que los videos sintéticos podrían usarse para mejorar la educación al recrear eventos y personalidades históricos, reviviendo a personajes históricos para crear un aula más atractiva e interactiva. Y están los usos solo por diversión, algunos encontré en un blog geek que son para convertir una imagen de Elon Musk en un zombi, como por ejemplo.

¿Siguen siendo un problema los deepfakes?

A junio de este año, casi 50, 000 Se han detectado deepfakes online, un incremento de más del 330% en el transcurso de un año. Los peligros son reales. Los videos falsos podrían representar falsamente a una persona inocente participando en una actividad criminal, mostrar falsamente a soldados cometiendo atrocidades o mostrar a líderes mundiales declarando la guerra a otro país, lo que podría desencadenar una respuesta militar muy real.

Hablando en una conferencia virtual reciente de Cybertech, el exjefe de comando cibernético de EE. UU., General de División. (retirado) Brett Williams dijo, “la inteligencia artificial es real. Ya lo utilizan los atacantes. Cuando aprendan a hacer deepfakes, yo diría que esto es potencialmente una amenaza existencial ”.

La implicación es que aquellos que usarían deepfakes como parte de un ataque en línea aún no han dominado la tecnología, o al menos no han dominado la tecnología, o al menos no saben cómo evitar las migas de pan que llevarían de regreso al perpetrador. Quizás estas sean también las razones más convincentes, la falta de tecnología madura y el miedo a que se descubra la fuente, por las que no hemos visto deepfakes más graves en las campañas políticas actuales.

Un informe reciente del Center for Security and Emerging Technology se hace eco de esta observación. Entre los hallazgos clave del informe, “factores como la necesidad de evitar la atribución, el tiempo necesario para entrenar un modelo de aprendizaje automático y la disponibilidad de datos limitarán la forma en que los actores sofisticados utilizan deepfakes personalizados en la práctica”. El informe concluye que los deepfakes personalizados producidos por actores técnicamente sofisticados representarán una amenaza mayor en el futuro.

Incluso si los deepfakes no han jugado un papel significativo en esta elección, es probable que solo sea cuestión de tiempo antes de que impacten en las elecciones, subviertan la democracia y tal vez conduzcan a enfrentamientos militares.

Gary Grossman es vicepresidente sénior de práctica tecnológica en Edelman y líder global del Centro de excelencia de inteligencia artificial de Edelman.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *