lunes, diciembre 1, 2025

El engaño con IA es una amenaza para nuestras sociedades

TecnologíaEl engaño con IA es una amenaza para nuestras sociedades

Dondequiera que haya habido conflicto en el mundo, la propaganda nunca ha estado muy lejos. Viaje en el tiempo a 515 a. C. y lea la inscripción de Behistun, una autobiografía del rey persa Darío que discute su ascenso al poder. Más recientemente, vea cómo los diferentes periódicos informan sobre las guerras, donde se dice: «La primera víctima es la verdad».

Si bien estas formas de comunicación podrían dar forma a las creencias de las personas, también tienen limitaciones en torno a la escalabilidad. Cualquier mensajería y propaganda a menudo perdería su poder después de viajar una cierta distancia. Por supuesto, con las redes sociales y el mundo en línea hay pocos límites físicos en el alcance, aparte de donde cae la conexión a Internet de alguien. Agregue el surgimiento de la IA, y tampoco hay nada para detener la escalabilidad.

Este artículo explora lo que esto significa para sociedades y organizaciones que enfrentan la manipulación y el engaño de información con IA.

El surgimiento de la cámara de eco

Según el Centro de Investigación Pew, alrededor de uno de cada cinco estadounidenses reciben sus noticias de las redes sociales. En Europa, ha habido un aumento del 11% en las personas que utilizan plataformas de redes sociales para acceder a las noticias. Los algoritmos de IA están en el corazón de este cambio de comportamiento. Sin embargo, no están obligados a presentar ambos lados de una historia, en la forma en que los periodistas están capacitados y que los reguladores de medios requieren. Con menos restricciones, las plataformas de redes sociales pueden centrarse en servir contenido a los que a sus usuarios les gusta, desean y reaccionan.

Este enfoque en mantener los globos oculares puede conducir a una cámara de eco digital y puntos de vista potencialmente polarizados. Por ejemplo, las personas pueden bloquear las opiniones con las que no están de acuerdo, mientras que el algoritmo ajusta automáticamente los alimentos de los usuarios, incluso monitoreando la velocidad de desplazamiento, para aumentar el consumo. Si los consumidores solo ven contenido con el que están de acuerdo, están llegando a un consenso con lo que AI les está mostrando, pero no con el mundo en general.

Además, más de ese contenido ahora se está generando sintéticamente utilizando herramientas de IA. Esto incluye más de 1,150 sitios web de noticias generados por IA poco confiables identificados recientemente por NewsGuard, una compañía especializada en confiabilidad de la información. Con pocas limitaciones para la capacidad de producción de AI, los procesos políticos de larga data están sintiendo el impacto.

Cómo se está desplegando AI para el engaño

Es justo decir que los humanos somos impredecibles. Nuestros múltiples sesgos e innumerables contradicciones se desarrollan constantemente en cada uno de nuestros cerebros. Donde miles de millones de neuronas hacen nuevas conexiones que dan forma a las realidades y, a su vez, nuestras opiniones. Cuando los actores maliciosos agregan IA a esta potente mezcla, esto lleva a eventos como:

  • Videos de Deepfake que se extienden durante las elecciones de los Estados Unidos: Las herramientas de IA permiten que los cibercriminales creen imágenes falsas, con personas que se mueven y hablan, utilizando solo indicaciones de texto. Los altos niveles de facilidad y velocidad significan que no se necesita experiencia técnica para crear imágenes realistas con AI. Esta democratización amenaza los procesos democráticos, como se muestra en el período previo a las recientes elecciones estadounidenses. Microsoft destacó la actividad de China y Rusia, donde se observó que «los actores de amenaza integraban la IA generativa en sus esfuerzos de influencia electoral estadounidense».
  • Clonación de voz y lo que dicen las figuras políticas: Los atacantes ahora pueden usar IA para copiar la voz de cualquier persona, simplemente procesando unos segundos de su discurso. Eso es lo que le sucedió a un político eslovaco en 2023. Una grabación de audio falsa se extendió en línea, supuestamente presentando a Michal Simecka discutiendo con un periodista cómo arreglar una próxima elección. Si bien se descubrió que la discusión era falsa, todo esto sucedió solo unos días antes de que comenzara las encuestas. Algunos votantes pueden haber emitido su voto mientras creía que el video de AI era genuino.
  • LLMS fingiendo el sentimiento público: Los adversarios ahora pueden comunicar tantos idiomas como su LLM elegido, y a cualquier escala también. En 2020, una LLM temprana, GPT-3, recibió capacitación para escribir miles de correos electrónicos a los legisladores estatales de los Estados Unidos. Estos abogaron por una combinación de problemas desde la izquierda y la derecha del espectro político. Se enviaron alrededor de 35,000 correos electrónicos, una mezcla de escritos humanos y escritos por IA. Las tasas de respuesta del legislador «fueron estadísticamente indistinguibles» en tres temas planteados.

El impacto de la IA en los procesos democráticos

Todavía es posible identificar muchos engaños con IA. Ya sea de un marco fallido en un video o una palabra mal pronunciada en un discurso. Sin embargo, a medida que avanza la tecnología, se volverá más difícil, incluso imposible separar los hechos de la ficción.

Los verificadores de datos pueden adjuntar seguimientos a las publicaciones falsas de las redes sociales. Los sitios web como Snopes pueden continuar desacreditando las teorías de conspiración. Sin embargo, no hay forma de asegurarse de que estos vieran todos los que vieron las publicaciones originales. También es bastante imposible encontrar la fuente original de material falso, debido a la cantidad de canales de distribución disponibles.

Ritmo de evolución

Ver (o escuchar) es creer. Lo creeré cuando lo vea. Muéstrame, no me digas. Todas estas frases se basan en la comprensión evolutiva del mundo humano del mundo. A saber, que elegimos confiar en nuestros ojos y oídos.

Estos sentidos han evolucionado durante cientos, incluso millones de años. Mientras que ChatGPT se lanzó públicamente en noviembre de 2022. Nuestros cerebros no pueden adaptarse a la velocidad de la IA, por lo que si las personas ya no pueden confiar en lo que está frente a ellos, es hora de educar a los ojos, oídos y mentes de todos.

De lo contrario, esto deja a las organizaciones abiertas al ataque. Después de todo, el trabajo a menudo es donde las personas pasan más tiempo en una computadora. Esto significa equipar las fuerzas laborales con conciencia, conocimiento y escepticismo cuando se enfrenta al contenido diseñado para generar acción. Si eso contiene mensajes políticos en el momento de las elecciones, o pidiendo a un empleado que evite los procedimientos y realice un pago a una cuenta bancaria no verificada.

Significa hacer que las sociedades sean conscientes de las muchas formas en que los actores maliciosos juegan en sesgos naturales, emociones e instintos para creer lo que alguien está diciendo. Estos se desarrollan en múltiples ataques de ingeniería social, incluido el phishing (‘el tipo de crimen de Internet número uno’ según el FBI).

Y significa apoyar a las personas para saber cuándo hacer una pausa, reflexionar y desafiar lo que ven en línea. Una forma es simular un ataque con IA, para que obtengan experiencia de primera mano de cómo se siente y qué tener en cuenta. Los humanos dan forma a la sociedad, solo necesitan ayuda para defenderse, las organizaciones y las comunidades contra el engaño con IA.


Artículos más populares