Tabla de contenido:

Falsificaciones profundas: se le enseñó a Neuroset a generar falsificaciones de sonido y video
Falsificaciones profundas: se le enseñó a Neuroset a generar falsificaciones de sonido y video

Video: Falsificaciones profundas: se le enseñó a Neuroset a generar falsificaciones de sonido y video

Video: Falsificaciones profundas: se le enseñó a Neuroset a generar falsificaciones de sonido y video
Video: Sabías esto? Cómo subirse en las nuevas sillas del aeropuerto sin romperte la falda.Que peligroso es 2024, Mayo
Anonim

Para crear una imagen de noticias "individual" para cualquiera de nosotros y falsificar los informes de los medios seleccionados en ella, los esfuerzos de un programador son suficientes hoy. Especialistas en inteligencia artificial y ciberseguridad se lo contaron a Izvestia.

Más recientemente, estimaron que esto requería el trabajo de varios equipos. Esta aceleración se ha hecho posible con el desarrollo de tecnologías para ataques a redes neuronales y la generación de falsificaciones de audio y video utilizando programas para la creación de “deep fakes”. El diario Izvestia fue objeto recientemente de un ataque similar, cuando tres portales de noticias libios publicaron a la vez un mensaje que supuestamente apareció en uno de los números. Según los expertos, dentro de 3-5 años podemos esperar una invasión de manipuladores robóticos, que automáticamente podrán crear muchas falsificaciones.

Nuevo mundo valiente

Cada vez son más los proyectos que ajustan la imagen de la información a la percepción de usuarios específicos. Un ejemplo de su trabajo fue la acción reciente de tres portales libios, que publicaron una noticia supuestamente publicada en el número de Izvestia el 20 de noviembre. Los creadores de la falsificación modificaron la portada del periódico, publicando en ella un mensaje sobre las negociaciones entre el mariscal de campo Khalifa Haftar y el primer ministro del Gobierno de Acuerdo Nacional (PNS) Fayez Sarraj. La falsificación, en tipografía Izvestia, iba acompañada de una foto de los dos líderes tomada en mayo de 2017. La etiqueta con el logotipo de la publicación se cortó del número real publicado del 20 de noviembre y todos los demás textos de la página del número del 23 de octubre.

Desde el punto de vista de los especialistas, en un futuro previsible, tales falsificaciones se pueden realizar de forma automática.

The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias
The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias

“Las tecnologías de inteligencia artificial ahora están completamente abiertas, y los dispositivos para recibir y procesar datos se están miniaturizando y volviéndose más baratos”, Yuri Vilsiter, Doctor en Ciencias Físicas y Matemáticas, Profesor de la Academia de Ciencias de Rusia, jefe del departamento FSUE "GosNIIAS", le dijo a Izvestia. - Por tanto, es muy probable que en un futuro próximo ni el Estado y las grandes corporaciones, sino simplemente los particulares, puedan espiarnos y espiarnos, así como manipular la realidad. En los próximos años será posible, mediante el análisis de las preferencias del usuario, influir en él a través de feeds de noticias y falsificaciones muy ingeniosas.

Según Yuri Vilsiter, ya existen tecnologías que pueden utilizarse para tal intervención en el entorno mental. En teoría, la invasión de robots robóticos se puede esperar en unos años, dijo. Un punto límite aquí puede ser la necesidad de recopilar grandes bases de datos de ejemplos de respuestas de personas reales a estímulos artificiales con seguimiento de las consecuencias a largo plazo. Es probable que dicho seguimiento requiera varios años más de investigación antes de que se obtengan consistentemente ataques dirigidos.

Ataque de visión

Alexey Parfentiev, jefe del departamento de análisis de SearchInform, también está de acuerdo con Yuri Vilsiter. Según él, los expertos ya predicen ataques a redes neuronales, aunque ahora prácticamente no existen tales ejemplos.

- Los investigadores de Gartner creen que para 2022, el 30% de todos los ataques cibernéticos estarán dirigidos a corromper los datos en los que se entrena la red neuronal y a robar modelos de aprendizaje automático listos para usar. Entonces, por ejemplo, los vehículos no tripulados pueden comenzar repentinamente a confundir a los peatones con otros objetos. Y no hablaremos de riesgo financiero o reputacional, sino de la vida y la salud de la gente corriente, cree el experto.

Los ataques a los sistemas de visión por computadora se están llevando a cabo como parte de la investigación ahora. El propósito de tales ataques es hacer que la red neuronal detecte algo en la imagen que no está allí. O, por el contrario, no ver lo planeado.

The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias
The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias

“Uno de los temas en desarrollo activo en el campo del entrenamiento de redes neuronales son los llamados ataques adversarios (“ataques adversarios”- Izvestia)”, explicó Vladislav Tushkanov, analista web de Kaspersky Lab. - En la mayoría de los casos, están dirigidos a sistemas de visión artificial. Para llevar a cabo un ataque de este tipo, en la mayoría de los casos, es necesario tener acceso completo a la red neuronal (los llamados ataques de caja blanca) o los resultados de su trabajo (ataques de caja negra). No existen métodos que puedan engañar a cualquier sistema de visión artificial en el 100% de los casos. Además, ya se han creado herramientas que le permiten probar las redes neuronales para determinar la resistencia a los ataques adversarios y aumentar su resistencia.

En el curso de un ataque de este tipo, el atacante intenta cambiar de alguna manera la imagen reconocida para que la red neuronal no funcione. A menudo, el ruido se superpone a la foto, similar al que se produce al fotografiar en una habitación poco iluminada. Una persona generalmente no nota bien tal interferencia, pero la red neuronal comienza a funcionar mal. Pero para llevar a cabo tal ataque, el atacante necesita acceder al algoritmo.

Según Stanislav Ashmanov, director general de Neuroset Ashmanov, actualmente no existen métodos para abordar este problema. Además, esta tecnología está disponible para cualquier persona: un programador medio puede utilizarla descargando el software de código abierto necesario del servicio Github.

The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias
The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias

- Un ataque a una red neuronal es una técnica y algoritmos para engañar a una red neuronal, que hacen que produzca resultados falsos y, de hecho, la rompan como una cerradura de puerta, cree Ashmanov. - Por ejemplo, ahora es bastante fácil hacer que el sistema de reconocimiento facial piense que no eres tú, sino Arnold Schwarzenegger frente a él; esto se hace mezclando aditivos imperceptibles para el ojo humano en los datos que llegan a la red neuronal. Los mismos ataques son posibles para los sistemas de análisis y reconocimiento de voz.

El experto está seguro de que solo empeorará: estas tecnologías han llegado a las masas, los estafadores ya las están utilizando y no hay protección contra ellas. Como no existe protección contra la creación automatizada de falsificaciones de video y audio.

Falsificaciones profundas

Las tecnologías deepfake basadas en Deep Learning (tecnologías de aprendizaje profundo de redes neuronales. - Izvestia) ya suponen una amenaza real. Las falsificaciones de video o audio se crean editando o superponiendo los rostros de personajes famosos que supuestamente pronuncian el texto necesario y juegan el papel necesario en la trama.

“Deepfake le permite reemplazar los movimientos de los labios y el habla humana con video, lo que crea una sensación de realismo de lo que está sucediendo”, dice Andrey Busargin, director del departamento de protección de marca innovadora y propiedad intelectual en Group-IB. - Falsos famosos “ofrecen” a los usuarios en las redes sociales participar en el sorteo de valiosos premios (smartphones, coches, sumas de dinero), etc. Los enlaces de estas publicaciones en video a menudo conducen a sitios fraudulentos y de suplantación de identidad, donde se solicita a los usuarios que ingresen información personal, incluidos los detalles de la tarjeta bancaria. Tales esquemas representan una amenaza tanto para los usuarios comunes como para las figuras públicas que se mencionan en los comerciales. Este tipo de estafa comienza a asociar imágenes de celebridades con estafas o productos publicitados, y aquí es donde nos encontramos con daños de marca personal, dice.

The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias
The Truman Show - 2019: Cómo las redes neuronales enseñaron a falsificar la imagen de las noticias

Otra amenaza está asociada con el uso de "votos falsos" para el fraude telefónico. Por ejemplo, en Alemania, los ciberdelincuentes utilizaron la voz deepfake para hacer que el director de una filial del Reino Unido transfiriera urgentemente 220.000 € en una conversación telefónica, haciéndose pasar por el director de una empresa.en la cuenta de un proveedor húngaro. El director de la firma británica sospechó un truco cuando su "jefe" pidió un segundo giro postal, pero la llamada procedía de un número austriaco. Para entonces, el primer tramo ya se había transferido a una cuenta en Hungría, desde donde se retiraba el dinero a México.

Resulta que las tecnologías actuales le permiten crear una imagen de noticias individual llena de noticias falsas. Además, pronto será posible distinguir las falsificaciones del video y audio reales solo por hardware. Según los expertos, es poco probable que las medidas que prohíben el desarrollo de redes neuronales sean efectivas. Por tanto, pronto viviremos en un mundo en el que será necesario volver a comprobar todo constantemente.

“Necesitamos prepararnos para esto, y esto debe ser aceptado”, enfatizó Yuri Vilsiter. - La humanidad no es la primera vez que pasa de una realidad a otra. Nuestro mundo, forma de vida y valores son radicalmente diferentes del mundo en el que vivieron nuestros antepasados hace 60.000 años, hace 5.000 años, hace 2.000 años e incluso hace 200-100 años. En un futuro cercano, una persona se verá privada en gran medida de su privacidad y, por lo tanto, se verá obligada a no ocultar nada y actuar con honestidad. Al mismo tiempo, nada en la realidad circundante y en la propia personalidad puede tomarse por fe, todo tendrá que ser cuestionado y revisado constantemente. Pero, ¿será terrible esta realidad futura? No. Simplemente será completamente diferente.

Recomendado: