lunes, diciembre 1, 2025

$ 3,000 en Shiba Inu en 2024: los resultados de un año están...

Una inversión en Shiba Inu realizada en...

Defensores de los Browns dicen que Jennings de los 49ers cruzó la línea...

CLEVELAND -- Varios defensores de los Browns,...

La IA china DeepSeek-R1 genera código inseguro cuando se le solicita mencionar al...

Una nueva investigación de CrowdStrike ha revelado...

Sam Altman de Chatgpt advierte sobre la próxima epidemia global de estafas de IA – Deepfake You

MundoSam Altman de Chatgpt advierte sobre la próxima epidemia global de estafas de IA - Deepfake You

Alerta de fraude de IA real: por qué nuestra voz, nuestra cara, y nuestro dinero, podrían ser el siguiente en la fila. En esta imagen de stock: el logotipo de Operai ChatGPT se muestra en un teléfono inteligente, con el CEO Sam Altman en segundo plano. Crédito: El editorial de El, Shutterstock

‘El hecho de que no estemos liberando la tecnología no significa que no exista … algún mal actor la lanzará. Esto viene muy, muy pronto.

Es posible que desee pensar dos veces antes de confiar en esa llamada FaceTime de su madre, o ese correo de voz urgente de su jefe. Según el CEO de OpenAI, Sam Altman, no se acerca la edad del fraude de Deepfake. Ya está aquí, y suena exactamente como tú. Según Altman, esto es solo el comienzo de una crisis global.

Durante un evento reciente en Washington, DC, Altman emitió una advertencia siniestra: la IA generativa pronto permitirá que los malos actores imitaran perfectamente las voces, las caras e incluso las personalidades de las personas, y los use para estafarlo de su dinero, sus datos o ambos. Alguien podrá hazlo.

‘En este momento, es una llamada de voz; Pronto será un video o FaceTime que sea indistinguible de la realidad «, dijo Altman a la vicepresidenta de la Reserva Federal Michelle Bowman.

Entonces, ¿qué pasa? de hecho Siendo aquí, ¿y deberías estar preocupado?

Huellas de voz y falsificaciones de video: las nuevas armas de fraude

La preocupación de Altman se centra en el hecho de que algunos bancos y empresas aún usan la autenticación de VoicePrint, es decir, le permiten mover dinero o acceder a cuentas simplemente reconociendo su voz. Pero con las herramientas de IA de hoy, solo se necesitan unos segundos de audio para clonar la voz de alguien. Ahora hay docenas de aplicacionesAlgunos gratis, eso puede hacerlo.

Los estafadores ya están llamando a las personas y grabando sus voces cuando contestan el teléfono. Solo se necesita una muestra para ellos poder Produce una versión realista de tu voz diciendo lo que quieran.

Combine eso con un video generado por IA cada vez más realista, y tiene una tormenta perfecta: los estafadores ahora pueden crear llamadas a FaceTime o Video completamente falsas que se ven y suenan como su cónyuge, su jefe o su hijo. Ya no solo recibirá un correo electrónico sospechoso, está recibiendo una persona falsa.

Estrabas del mundo real: cuando tu ‘hijo’ no es en realidad tu hijo

Estas advertencias no son teóricas. Aquí hay algunos ejemplos de cómo ya se está desarrollando el fraude de IA:

Según lo informado por CBC Canadálos estafadores clonaron la voz del hijo de una mujer y la llamaron reclamación él ‘necesario hablar’. «Era su voz», dijo. Manitoba Mum escucha la voz de su hijo en el teléfono, pero no era él.

Leann Friesen, madre de tres hijos de la pequeña comunidad de Miami, Manitoba, recibió una extraña llamada de un número privado hace unas semanas. Lo que escuchó en el otro extremo la detuvo en seco: era la voz de su hijo, sonando angustiada.

«Él dijo: ‘Hola mamá’, y yo dije hola», recordó Friesen. «Él dijo: ‘Mamá, ¿puedo decirte algo?’ y dije que sí.

Fue entonces cuando las campanas de alarma comenzaron a sonar.

«Me estoy confundiendo un poco en ese momento, como, ¿por qué me preguntas esto?» ella dijo.

Algo sobre la conversación se sintió mal. Friesen decidió acortarlo, diciéndole a la persona que llamaba que volvería a llamar en el móvil de su hijo, y colgaba.

Ella inmediatamente marcó su número.

Ella dijo que lo despertó. Había estado dormido todo tiempo, Porque trabajó turnos. «Él dijo: ‘Mamá, no te llamé'».

«Fue definitivamente La voz de mi hijo que estaba en el otro extremo de la línea «.

El video de Hong Kong Deepfake y el caso del FBI

En Hong Kong, un trabajador de finanzas fue engañado por un video Deepfake para que se transfiera $ 25 millones USD Después de creer que estaban en una reunión de zoom con su compañía DIRECTOR DE FINANZAS.

Según el FBI, yoEn los EE. UU., Los imitadores utilizaron llamadas generadas por IA que decían ser a gobierno oficial Para acceder a información confidencial, en un caso, incluso pretendiendo ser el senador Marco Rubio en llamadas a diplomáticos extranjeros.

Entonces, ¿qué está haciendo Operai exactamente?

Altman insiste en OpenAi no está construyendo herramientas de suplantación. Técnicamente, eso es cierto. Pero Algunos de sus proyectos pueden ser usado de esa manera.

Sora, generador de videos de Openai, crea videos ultra realistas a partir de indicaciones de texto. Es un salto adelante en Creative AIpero potencialmente un salto hacia adelante por fraude también. Imagine alimentarlo con un guión y pedir «un video de Joe Bloggs que llama a su banco para solicitar un restablecimiento de contraseña».

Controversia del escáner del globo ocular

Altman también respalda el Orbe de WorldCoin, un controvertido dispositivo biométrico que escanea su globo ocular para verificar su identidad. Se comercializa como un nuevo tipo de prueba de persona Pero los críticos argumentan que es un distópico respuesta a un problema digital.

Operai dice que no aprueba el mal uso, pero Altman admite que otros no podrían jugar tan bien.

‘El hecho de que no estemos liberando la tecnología no significa que no exista … algún mal actor la lanzará. Esto viene muy, muy pronto.

La tecnología está superando el ley

Los gobiernos todavía están luchando para ponerse al día. El FBI y Europol han emitido advertencias, pero las leyes globales sobre la suplantación de IA son irregulares en el mejor de los casos. La Ley de Seguridad en línea del Reino Unido aún no cubre todas las formas de medios sintéticos, y los reguladores aún están debatiendo cómo definir el fraude generado por la IA.

Mientras tanto, los estafadores son explotación el retraso.

¿Qué puedes hacer para protegerse?

Altman puede estar preocupado, pero hay formas de protegerse y sus cuentas. Esto es lo que debe considerar hacer hoy:

  1. Deje de usar la autenticación de voz: Si su banco lo usa Pide un diferente método. Ya no es seguro.
  2. Use contraseñas fuertes y únicas y autenticación de dos factores (2FA): Prefiera 2FA basado en aplicaciones sobre SMS siempre que sea posible. Sigue siendo tu mejor defensa.
  3. Verificar a través de otro canal: Si usted conseguir una llamada sospechosa o un mensaje de videoIncluso si se ve real – Póngase en contacto con la persona por separado en otro plataforma o número de teléfono.
  4. Educar a los miembros de su familia: Algunos parientes mayores son especialmente vulnerables. Ayúdelos a comprender cómo se ve y suena el fraude de IA.
  5. Tenga cuidado con su voz en línea: Solo toma unos segundos de audio claro para crear una falsificación convincente. Evite publicar videos largos o correos de voz si no es necesario.

Pensamientos finales: ya no estamos en Kansas

Las herramientas de IA que pueden imitar su voz o cara con precisión escalofriante ya no son ciencia ficción. Están en la naturaleza. La advertencia de Sam Altman puede sonar egoísta, pero no está equivocado: esto empeorará antes de que mejore.

Y mientras los estafadores se mueven rápidamente, nuestras instituciones, desde bancos hasta reguladores, se mueven dolorosamente lentamente.

Hasta que el sistema se ponga al día, la mejor seguridad que tiene es su propio escepticismo.

Entonces, ¿la próxima vez que su ‘jefe’ envíe un mensaje de video pidiendo una transferencia de cable a las 4 am? Es posible que desee dormir en él.

Obtener más noticias tecnológicas.

Obtenga más fresco Noticias de celebridades por la mañana.

Artículos más populares