Cuidado con los Deepfakes: Protege tu identidad y evita estafas de suplantación de identidad generadas por IA

    Icono de seguridad para los deepfakes

    Los deepfakes son una de las grandes amenazas de los próximos años para las empresas. ¿Por qué? La llegada al mundo de la Inteligencia Artificial ha supuesto grandes ventajas para las compañías, pero al mismo tiempo ha incrementado las amenazas. Identificarlas es la clave para poder prevenirlas. Una de ellas, son los conocidos «replicantes» o ‘gemelos digitales’ a los que cada vez tenemos que prestar más atención.

    ¿Qué son los deepfakes?

    Los deepfakes es una palabra que hemos empezado a escuchar mucho en el mundo empresarial. Este término se refiere a un tipo de suplantación de identidad que se hace mediante IA. Se trata de vídeos que se manipulan de forma muy realista para poder cambiar la cara y la voz de las personas con el objetivo de generar una estafa u otra actividad ilícita.

    Este tipo de vídeos son un problema, ya que se puede hacer que una persona «diga y haga lo que quiera» por parte de los ciberdelincuentes. En los últimos tiempos este tipo de suplantación se ha convertido en la más utilizada. Esto es debido gracias a la calidad que tiene para generar todo tipo de campañas falsas de publicidad y todo tipo de noticias falsas.

    El aumento de calidad: un inconveniente

    La calidad podía ser un problema antes para este tipo de vídeos, ya que era muy complicado conseguir realismo. Eso hoy en día, ya no es un inconveniente para los delincuentes, sino para las empresas. El aumento y la mejora de la IA ha hecho que cada vez sea más fácil producir una suplantación casi imperceptible.

    Pero, ¿es realmente un problema esta mejora? El FBI en el año 2022 decidió avisar a las empresas, ya que vieron un aumento significativo de esta técnica para las entrevistas en remoto. A ese punto hemos llegado, por eso, tener una ciberseguridad competente y eficiente es más importante que nunca.

    Principales amenazas de los deepfakes

    Estas son las principales amenazas de este tipo de técnica para estafar a las empresas.

    Suplantación de identidad de altos cargos

    La suplantación de identidad de los altos cargos de la empresa es una de las grandes amenazas de este tipo de estafas. Con ello, pueden conseguir todo tipo de acciones en la empresa sin tener que pasar por ningún tipo de filtro.

    Esto se suele utilizar para dar órdenes a los empleados que supongan un riesgo para la compañía y un beneficio para el ciberdelincuente. Por ejemplo, podría usarse para un desvío de fondos o para truncar un buen acuerdo. Es importante que los empleados conozcan este tipo de ilegalidades, de esta manera dudarán si hay una orden que no les parece muy normal.

    Deepfakes pornográficos para extorsión

    Una de las prácticas más comunes para la extorsión a empleados son los deepfake pornográficos. Puede parecer que cierto empleado está manteniendo relaciones sexuales y que se le ha grabado. Con esto lo que intentan conseguir la mayoría de ocasiones es información privilegiada de la empresa. El mayor problema de esto, es que si la extorsión se alarga mucho puede generar muchos inconvenientes en la compañía.

    Apropiación de imagen

    Hoy en día, una de las cosas más importantes que tiene una empresa es su valor de marca. Que sus accionistas o clientes cambien la imagen que tienen de una compañía puede ser un problema irreparable. Este tipo de técnicas se utilizan para que salgan las caras visibles y digan cosas que no son adecuadas o correctas.

    Prevención frente a los «replicantes»

    La gran pregunta que se hacen las empresas es: ¿hay alguna manera de detectar estos vídeos? No hay un método claro, ni existe una ciencia cierta, pero si que hay ciertos aspectos en los que nos podemos fijar para darnos cuenta de la suplantación. A continuación los explicamos:

    • El parpadeo: replicar el parpadeo humano es algo muy complejo. Por eso, para poder identificar a un «replicante» o gemelo digital debemos fijarnos en que no es un parpadeo normal, sino sistemático. Es decir, parpadea cada ciertos segundos y lo hace de forma muy antinatural.
    • El modo de mover los labios: el movimiento de los labios puede ser uno de los aspectos que nos destapen estos vídeos realizados con IA. Pero, ¿cómo? Tendremos que fijarnos en que no abre mucho la boca o incluso en que no llega a cerrarla, o que no se le seca. Los pequeños detalles son los que marcan estas cosas.
    • La coordinación de audio y boca: aunque la calidad de estos vídeos es muy alta, en ocasiones hay claves que nos destapan el fake. Es importante fijarse en sí la voz va acorde con el movimiento de la boca. Si el sonido no está coordinado con la boca, probablemente pueda ser una estafa.

    Consejos para prevenir esta práctica

    Como hemos dicho, no hay una manera certera de poder evitar estas prácticas. Pero aún así, igual que se pueden emplear medidas sencillas para protegernos frente al call spoofing se pueden seguir una serie de consejos para afrontar la amenaza que suponen este tipo de vídeos.

    • La formación del personal en este tipo de técnicas es clave para poder prevenirlas.
    • Que los diferentes departamentos tengan una buena comunicación va a evitar que no hablen de órdenes extrañas o de un vídeo que no tiene sentido para ellos.
    • La implantación de medidas de IA para prevenir y encontrar este tipo de vídeos es fundamental. Esta inteligencia se puede usar también para encontrar brechas de seguridad.
    • Implementar logística zero trust es otra gran solución, ya que solamente da acceso a los empleados para la realización de la tarea asignada en cada momento. De esta forma se evita que los delincuentes tengan el acceso más fácil.
    • Solicitar que la persona que llame por vídeo se ponga de costado a la cámara.
    • Preguntar cosas personales que un suplantador tenga difícil adivinar.

    La prevención y las diferentes medidas de reautentificación son las principales bases para proteger a las empresas frente a los deepfake. Actualizar los diferentes sistemas de ciberseguridad y formar a todos los empleados de la empresa son medidas básicas que se deben afrontar en el corto plazo. En Pasiona, contamos con la formación y la experiencia necesaria para fortalecer a las empresas ante esta nueva amenaza.

    Banner con texto: "Ciberseguridad. ¿Hablamos?"

    , , , ,

    Go back