WATCH LIVE

LIVE STREAMING
Imagen de Meta
Imagen de Meta

Aumentan las Estafas a Personas Mayores de EEUU con Tecnología de Inteligencia Artificial

MORE IN THIS SECTION

Origin of the Carnaval

COP16 in Colombia

The World’s Birdwatching

choreographic groups

Blacks and Whites Carnival

Solar storm and great photos

FestiJazz comes to Mompox

Colombia Exports Cannabis

SHARE THIS CONTENT:

Escrito por: Alejandra Legarda- Periodista

Las estafas dirigidas a personas mayores que utilizan contenido generado por inteligencia artificial (IA), especialmente en forma de videos "deepfake", clonación de voces y chatbots impulsados por IA, están en aumento en los Estados Unidos. Estas estafas se han vuelto cada vez más sofisticadas, lo que dificulta que las víctimas las detecten.

Una estafa común implica el uso de IA para clonar la voz de un ser querido, típicamente un nieto, para engañar a las personas mayores haciéndoles creer que están en una situación de emergencia y necesitan dinero de inmediato. Los estafadores solo necesitan un breve clip de audio, a menudo obtenido de redes sociales, para crear una réplica convincente de la voz de la persona. Este método es especialmente peligroso porque explota la confianza y la preocupación que las personas mayores tienen por sus familiares​.

Además, la IA puede generar videos "deepfake" y mensajes personalizados altamente realistas, lo que aumenta la credibilidad de estas estafas. A medida que la tecnología de IA sigue avanzando, se espera que la amenaza de estas estafas crezca, lo que ha llevado a legisladores y agencias como la Comisión Federal de Comercio (FTC) a pedir más protecciones y campañas de concientización​

Para combatir esta creciente amenaza, es esencial que las personas mayores y sus familias se mantengan informadas sobre las últimas tácticas de estafa y tomen medidas preventivas, como establecer palabras clave familiares para emergencias y ser cautelosos con las comunicaciones no solicitadas que solicitan información personal o dinero​.

  • LEAVE A COMMENT:

  • Join the discussion! Leave a comment.

  • or
  • REGISTER
  • to comment.
  • LEAVE A COMMENT:

  • Join the discussion! Leave a comment.

  • or
  • REGISTER
  • to comment.