danger in the digital age

danger in the digital age

As the technology behind deepfakes improves, the ability for audiences to distinguish fact from fiction is becoming increasingly difficult. As we dive deeper into …

A medida que mejora la tecnología detrás de los deepfakes, la capacidad de las audiencias para distinguir los hechos de la ficción se vuelve cada vez más difícil. A medida que nos adentramos más en la era digital, las noticias falsas , el engaño en línea y el uso generalizado de las redes sociales están teniendo un impacto profundo en todos los elementos de la sociedad. Desde influir en las elecciones hasta manipular hechos probados por la ciencia. Deepfaking es el acto de utilizar inteligencia artificial y tecnología de aprendizaje automático para producir o alterar contenido de video, imagen o audio. Se hace usando la secuencia del original para crear una versión de algo que no ocurrió. Una vez que un tema solo se discutía en los laboratorios de investigación informática, los deepfakes fueron catapultados a los medios de comunicación en 2017. Esto fue después de que varias comunidades en línea comenzaron a intercambiar rostros de personalidades de alto perfil con actores de películas pornográficas. “Necesita una pieza de aprendizaje automático para digerir todas estas secuencias de video. La máquina finalmente aprende quién es la persona, cómo está representada, cómo se mueve y evoluciona en el video ”, dice el Dr. Richard Nock, experto en aprendizaje automático de nuestro equipo de Data61 . «Entonces, si le pide a la máquina que cree una nueva secuencia de esta persona, la máquina podrá generar automáticamente una nueva». “La pieza de tecnología es casi siempre la misma, de ahí proviene el nombre ‘deepfake’ ”, dice el Dr. Nock. «Por lo general, es aprendizaje profundo, un subconjunto del aprendizaje automático, que se utiliza para pedirle a la máquina que forje una nueva realidad». Como resultado, los deepfakes se han descrito como uno de los factores que contribuyen al Infocalypse. Un término utilizado para etiquetar la era de los ciberdelincuentes, la desinformación digital, el clickbait y el uso indebido de datos . A medida que mejora la tecnología detrás de los videos generados por IA, la capacidad de las audiencias para distinguir la realidad de la ficción se vuelve cada vez más difícil. Crear un deepfake convincente es una hazaña poco probable para el usuario general de computadoras. Pero una persona con conocimientos avanzados de aprendizaje automático (el software específico necesario para alterar digitalmente una pieza de contenido) y acceso al perfil de redes sociales de la víctima disponible públicamente para contenido fotográfico, de video y audio, podría hacerlo. Ahora, las aplicaciones de transformación de rostros incorporadas con inteligencia artificial automatizada y aprendizaje automático se están volviendo más avanzadas. Por lo tanto, la creación deepfake podría llegar a ser posible para la población en general en el futuro. Un ejemplo de esto es la introducción de Snapchat del filtro de intercambio de género. El costo de una descarga gratuita es todo lo que se necesita para que un usuario de Snapchat aparezca como otra persona. El filtro de intercambio de género de la aplicación altera completamente la apariencia del usuario. Ha habido numerosos casos de pesca de gatos (un individuo que fabrica una identidad en línea para engañar a otros y entablar relaciones emocionales o románticas de explotación) a través de aplicaciones de citas en línea que utilizan la tecnología. Algunas personas utilizan la experiencia como un experimento social y otras como una estratagema para extraer información confidencial. Los políticos, las celebridades y los que están en el centro de la atención pública son las víctimas más obvias de las falsificaciones profundas. Pero el aumento de la publicación de múltiples videos y selfies en plataformas públicas de Internet pone a todos en riesgo. ‘La creación de imágenes explícitas es un ejemplo de cómo se están utilizando deepfakes para acosar a las personas en línea. Una aplicación impulsada por IA está creando imágenes de cómo se verían las mujeres, según el algoritmo, sin ropa ‘. Según el Dr. Nock, un efecto alternativo de la farsa electoral podría ser un éxodo en línea . Básicamente, un segmento de la población que deposita su confianza en las opiniones de un círculo cerrado de amigos, ya sea físico o en un foro online, como Reddit. “Una vez que haya pasado ese punto de ruptura y ya no confíe en una fuente de información, la mayoría de la gente comenzaría a retractarse. Abstenerse de acceder al contenido de los medios públicos porque ya no se puede confiar en él . Y, finalmente, depender de sus amigos, lo que puede ser limitante si las personas están más expuestas a opiniones que a hechos «. El deepfake de Obama fue un éxito viral. Hubo más de seis millones de visitas del video aparentemente producido por el presidente de Estados Unidos. El video sacó a la luz la existencia de la tecnología deepfake junto con una advertencia sobre la confianza que los usuarios depositan en el contenido en línea. Hay tres formas de prevenir las falsificaciones profundas según el Dr. Nock: Inventar un mecanismo de autenticidad. Ya sea un sello físico como una cadena de bloques o una marca, para confirmar que la información proviene de una fuente confiable y que el video muestra algo que sucedió. Entrene el aprendizaje automático para detectar falsificaciones profundas creadas por otras máquinas. Estos mecanismos tendrían que ser ampliamente adoptados por diferentes fuentes de información para tener éxito. “Blockchain podría funcionar, si se elabora cuidadosamente, pero un componente de marca de agua probablemente no funcionaría”, explica el Dr. Nock. “Cambiar el formato de un documento original eventualmente alteraría la marca de agua, mientras que el documento obviamente permanecería original. Esto no sucedería con blockchain «. El aprendizaje automático ya está detectando falsificaciones profundas. Investigadores de UC Berkeley y la Universidad del Sur de California están utilizando este método para distinguir movimientos únicos de cabeza y rostro. Estas sutiles peculiaridades personales actualmente no están modeladas por algoritmos falsos profundos, y la técnica arroja un nivel de precisión del 92 por ciento. Si bien esta investigación es reconfortante, los malos actores inevitablemente continuarán reinventando y adaptando las falsificaciones generadas por IA. El aprendizaje automático es una tecnología poderosa. Y uno que se vuelve más sofisticado con el tiempo. Dejando a un lado los deepfakes, el aprendizaje automático también está aportando enormes beneficios positivos a áreas como la privacidad, la salud, el transporte e incluso los vehículos autónomos.
rn

danger in the digital age

rn

Share this post

Deja una respuesta

Tu dirección de correo electrónico no será publicada.