Skip to main content
  1. Casa
  2. Tendencias

Una estafa de larga duración es aún más efectiva con IA

Sin duda, ha oído hablar de la estafa en la que el perpetrador llama a una persona mayor y finge ser su nieto o algún otro pariente cercano. La rutina habitual es actuar en un estado de angustia, fingir que están en una situación difícil y solicitar una transferencia de efectivo urgente para resolver la situación.

Mientras que muchos abuelos se darán cuenta de que la voz no es la de su nieto y colgarán, otros no se darán cuenta y, muy dispuestos a ayudar a su pariente ansioso, seguirán adelante y enviarán dinero a la cuenta de la persona que llama.

Recommended Videos

Un informe del Washington Post del domingo revela que algunos estafadores han llevado la estafa a un nivel completamente nuevo al implementar tecnología de inteligencia artificial capaz de clonar voces, lo que hace aún más probable que el objetivo caiga en la trampa.

Una persona mayor sosteniendo un teléfono.
Ono Kosuki/Pexels

Para lanzar esta versión más sofisticada de la estafa, los delincuentes requieren «una muestra de audio con solo unas pocas oraciones», según el Post. Luego, la muestra se ejecuta a través de una de las muchas herramientas en línea ampliamente disponibles que usan la voz original para crear una réplica que se puede indicar que diga lo que quiera simplemente escribiendo frases.

Los datos de la Comisión Federal de Comercio sugieren que solo en 2022, hubo más de 36,000 informes de las llamadas estafas de impostores, y más de 5,00 de ellas ocurrieron por teléfono. Las pérdidas reportadas alcanzaron los $11 millones.

El temor es que con las herramientas de IA cada vez más efectivas y más ampliamente disponibles, aún más personas caerán en la estafa en los próximos meses y años.

Sin embargo, la estafa aún requiere cierta planificación, ya que un perpetrador determinado necesita encontrar una muestra de audio de una voz, así como el número de teléfono de la víctima relacionada. Las muestras de audio, por ejemplo, podrían localizarse en línea a través de sitios populares como TikTok y YouTube, mientras que los números de teléfono también podrían localizarse en la web.

La estafa también puede tomar muchas formas. El Post cita un ejemplo en el que alguien que fingió ser un abogado ó a una pareja de ancianos, diciéndoles que su nieto estaba bajo custodia por un presunto delito y que necesitaban más de $ 15,000 para costos legales. El falso abogado luego fingió entregar el teléfono a su nieto, cuya voz clonada suplicó ayuda para pagar los honorarios, lo que hicieron debidamente.

Solo se dieron cuenta de que habían sido estafados cuando su nieto los llamó más tarde ese día para charlar. Se cree que el estafador puede haber clonado su voz de los videos de YouTube que publicó el nieto, aunque es difícil estar seguro.

Algunos piden que las compañías que fabrican la tecnología de IA que clona voces sean responsables de tales crímenes. Pero antes de que esto suceda, parece seguro que muchos otros perderán dinero a través de esta estafa nefasta.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
El último examen de la humanidad: la prueba definitiva que debería dar la IA y aprobar
IA- robot frente a un PC

Existe consenso entre la comunidad científica de que los modelos de lenguaje de IA (LLM) deben tener mayor precisión para convertirse en verdaderos aportes sociales y así no perjudicar a la humanidad.

Por eso, un grupo de científicos está creando la prueba final para poner a prueba a las diferentes empresas que están detrás de estos sistemas.

Leer más
Hay un truco en Midjourney para hacer imágenes de IA muy realistas de personas
Midjourney fotos

Las actualizaciones en los programas generadores de imágenes de IA están difuminando la delgada línea entre una fotografía real y una inventada por la inteligencia artificial. Y Midjourney con su nuevo modelo 7 está yendo un paso más allá.

Esto porque un de X, Min Choi, descubrió que con una técnica y la utilización de un nombre de archivo genérico de cámaras como Canon, podría recibir como respuesta una imagen muy realista.

Leer más
La IA está respondiendo con una franqueza brutal a por qué no deberíamos usarla
ChatGPT: cómo usar el chatbot del que todo el mundo habla.

Hace unos días se viralizaron imágenes realizadas con ChatGPT 4o que imitan al estilo de Studio Ghibli. Miles de imágenes llenaron las redes sociales. Algunas me parecieron graciosas por hacer referencia a memes muy locales. Después, lo que en algún momento fue novedoso, acabó llenando mi timeline en X y provocándome un poco de hartazgo (no fui el único). Días antes también se habían viralizado las respuestas que Grok —la IA de X— había realizado a preguntas de índole política. Fue entonces que, precisamente, encontré una respuesta de Grok que, me parece, responde con brutal franqueza por qué no deberíamos utilizar estas herramientas o al menos por qué deberíamos ser más mesurados o conscientes al utilizarlas.

https://x.com/grok/status/1905398950930112620

Leer más