Deepfakes, el temor de los expertos en un año plagado de citas electorales en el mundo

deepfakes

Deepfakes, el temor de los expertos en un año plagado de citas electorales en el mundo

VALORACIÓN DEL ARTÍCULO:
5/5

Hay consenso por parte de los gurús y expertos en tecnología en que este año será un punto de inflexión en cuanto a la implantación y uso de la inteligencia artificial. La IA invade todas las capas que podamos imaginar y hay cierto miedo en cuanto a los objetivos que tienen algunos con ella. Una de las innovaciones más impactantes y a la vez preocupantes es el desarrollo de los «deepfakes«.

Estas son manipulaciones digitales que utilizan inteligencia artificial para crear contenido audiovisual falso, generalmente mediante la sustitución del rostro o la voz de una persona por la de otra, con resultados sorprendentemente realistas. Aunque esta tecnología puede tener aplicaciones creativas y divertidas, también plantea una serie de desafíos éticos, legales y sociales que requieren una reflexión profunda.

¿Qué es y de donde proceden los deepfakes?

El término «deepfake» surge de la combinación de «deep learning» (aprendizaje profundo) y «fake» (falso). La tecnología deep learning, una rama del aprendizaje automático basada en redes neuronales artificiales, es fundamental para la creación de estos videos manipulados. Los deepfakes se popularizaron a través de las redes sociales y plataformas de video online, donde se utilizan para crear contenido humorístico, parodias e incluso videos de entretenimiento.

Aunque los deepfakes pueden parecer inofensivos en su uso recreativo, plantean serias preocupaciones éticas y sociales. Por un lado, pueden ser utilizados para difamar, extorsionar o difundir desinformación, comprometiendo la reputación y la privacidad de las personas. Por otro lado, también pueden ser utilizados con fines políticos para manipular la opinión pública o generar discordia social.

 

Desafíos legales y de seguridad

La proliferación de deepfakes plantea desafíos legales y de seguridad significativos. ¿Quién es responsable cuando se crea y distribuye contenido deepfake que daña la reputación de alguien? ¿Cómo se puede verificar la autenticidad de los videos en un mundo donde la tecnología permite la manipulación digital perfecta? Estas son preguntas complejas que desafían los marcos legales y las normativas existentes.

Ante la creciente preocupación por los deepfakes, diversas instituciones y empresas están trabajando en soluciones para detectar y mitigar su impacto. Esto incluye el desarrollo de algoritmos de detección de deepfakes, la promoción de la alfabetización mediática para ayudar a las personas a reconocer contenido manipulado y la implementación de políticas y regulaciones para abordar el uso malicioso de esta tecnología.

El futuro de los deepfakes

A medida que la tecnología deepfake continúa evolucionando, es probable que surjan nuevas aplicaciones y desafíos. Es importante que la sociedad esté preparada para enfrentar estos cambios y trabajar hacia un uso ético y responsable de la tecnología. Esto requerirá una combinación de regulación, educación pública y avances tecnológicos para garantizar que los deepfakes no se conviertan en una amenaza para la confianza y la integridad en el mundo digital.

¿Puede influir esta IA en las elecciones de Estados Unidos?

Vinculado este tipo de desarrollo tecnológico con la actualidad, hay que destacar que distintos expertos han mostrado cierta preocupación sobre el posible impacto que pueden tener contenidos deepfake en las próximas elecciones de Estados Unidos. La primera potencia mundial se prepara para una cita en la que los ciberriesgos están a la orden del día.

elecciones-EEUU

Check Point® Software Technologies Ltd., líder en soluciones de ciberseguridad basadas en IA para entornos en la nube, ha realizado un análisis exhaustivo sobre el funcionamiento de la tecnología deepfake y las múltiples capas de este submundo digital, con el fin de alertar sobre el aumento en la disponibilidad de estos servicios en la Darknet a través de la plataforma Telegram. Se ha visto que en estos espacios existe contenido audiovisual falso y altamente realista, diseñado para confundir a la opinión pública o desacreditar a figuras políticas.

De forma concreta, en plataformas como GitHub, se han identificado más de 3.000 repositorios relacionados con la tecnología deepfake, lo que indica su amplio desarrollo y el potencial de su distribución. Por otro lado, Telegram cuenta con más de 400 canales y grupos dedicados a ofrecer servicios de deepfake, que van desde bots automatizados que guían a los usuarios en el proceso, hasta servicios personalizados.

Los especialistas subrayan que el acceso a estos servicios es muy sencillo y, al mismo tiempo, muy económico, ya que por un mínimo de 2 dólares se puede crear un contenido deepfake. Una de las tácticas más frecuentemente utilizadas con la tecnología deepfake es la clonación de voces, la cual permite replicarlas con una precisión extraordinaria. Esta técnica resulta más sencilla de producir y de compartir que los deepfakes de vídeo, y es notablemente efectiva para difundir desinformación.

A principios de este año, se divulgó una llamada automatizada en la que se escuchaba la voz falsa de Joe Biden, actual presidente de los Estados Unidos y candidato a la reelección, instando a los residentes de New Hampshire a no votar. Esta acción generó preocupación y reflexión sobre el impacto de la manipulación digital en los procesos electorales. Como respuesta, Estados Unidos ha prohibido las llamadas automáticas generadas por inteligencia artificial, reflejando así la creciente preocupación por el potencial de la manipulación digital para influir en las elecciones y socavar la integridad del proceso democrático.

 

TAMBIÉN TE INTERESA

seguridad de los datos personales

Descuidos en tu día a día que comprometen la seguridad de los datos personales

Hoy es el Día de Internet Segura, una jornada para concienciar a los usuarios sobre la importancia de cuidar la seguridad de los datos personales. La seguridad en Internet se ha convertido en una prioridad global para todos, amén del creciente número de robos virtuales e intrusiones de los delincuentes a la información sensible de

planes de entrenamiento con IA

La era de los gimnasios smart y los planes de entrenamiento con IA

El sector de los gimnasios está empezando a introducir la tecnología para sus usuarios. Los planes de entrenamiento con IA ya son una realidad en espacios como los de Metropolitan. Es cuestión de tiempo que toda la innovación que viene de la tecnología comience a aterrizar en nuestras vidas para cuidar nuestro cuerpo. De hecho,

apps de citas

Apps de citas y el fraude romántico: ligoteo y estafas

Hay a quien las apps de citas le funcionan muy bien en todos los sentidos. Además de lograr el match deseado, su seguridad no se ve comprometida en ningún momento. Así da gusto, encontrar pareja nunca fue tan sencillo. Otra cosa es que la otra persona con la que se hace match no sea la

riesgos DeepSeek

Reportan los primeros riesgos de seguridad en DeepSeek

Pocos días después de la irrupción de DeepSeek en el mundo, ya empiezan a aflorar algunos problemas relacionados con la seguridad en DeepSeek y la privacidad de los datos que emplean los usuarios. Son millones y millones personas las que ya están probando las mieles de la IA china. El modelo R1 de DeepSeek ha