Skip to main content
  1. Casa
  2. Computación

DT en Español podría recibir una comisión si compras un producto desde el sitio

Hackers están usando IA para crear malware vicioso, dice el FBI

El FBI ha advertido que los hackers se están volviendo locos con herramientas generativas de inteligencia artificial (IA) como ChatGPT, creando rápidamente código malicioso y lanzando olas de delitos cibernéticos que habrían requerido mucho más esfuerzo en el pasado.

El FBI detalló sus preocupaciones en una llamada con periodistas y explicó que los chatbots de IA han alimentado todo tipo de actividades ilícitas, desde estafadores y estafadores que perfeccionan sus técnicas hasta terroristas que consultan las herramientas sobre cómo lanzar ataques químicos más dañinos.

Un hacker escribiendo en una computadora portátil Apple MacBook mientras sostiene un teléfono. Ambos dispositivos muestran código en sus pantallas.
Sora Shimazaki / Pexels

Según un alto funcionario del FBI (a través generadores de voz de IA para hacerse pasar por personas de confianza con el fin de estafar a sus seres queridos o ancianos.

Recommended Videos

No es la primera vez que vemos a hackers tomar herramientas como ChatGPT y torcerlas para crear malware peligroso. En febrero de 2023, investigadores de la firma de seguridad Checkpoint descubrieron que los actores maliciosos habían podido alterar la API de un chatbot, permitiéndole generar código de malware y poniendo la creación de virus al alcance de casi cualquier posible hacker.

¿Es ChatGPT una amenaza para la seguridad?

Un MacBook Pro en un escritorio con el sitio web de ChatGPT que se muestra en su pantalla.
Hatice Baran / Unsplash

El FBI adopta una postura muy diferente de algunos de los expertos cibernéticos con los que hablamos en mayo de 2023. Nos dijeron que la amenaza de los chatbots de IA ha sido exagerada en gran medida, y la mayoría de los hackers encuentran mejores exploits de código a partir de fugas de datos más tradicionales e investigación de código abierto.

Por ejemplo, Martin Zugec, Director de Soluciones Técnicas de Bitdefender, explicó que «es probable que la mayoría de los creadores de malware novatos no posean las habilidades necesarias» para eludir las barreras antimalware de los chatbots. Además de eso, explicó Zugec, «la calidad del código de malware producido por los chatbots tiende a ser baja».

Eso ofrece un contrapunto a las afirmaciones del FBI, y tendremos que ver qué lado demuestra ser correcto. Pero con el fabricante de ChatGPT, OpenAI, descontinuando su propia herramienta diseñada para detectar el plagio generado por chatbot, las noticias no han sido alentadoras últimamente. Si el FBI tiene razón, podría haber tiempos difíciles en la batalla contra los hackers y sus intentos de malware alimentado por chatbot.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más
Llama 3.1: Meta estrena la IA más poderosa hasta el momento
llama 3 1 ia codigo abierto imagine meta ai

Un momento único en la industria de la IA está generando este 23 de julio la gente de Meta, ya que acaba de presentar su nueva variación de IA de código abierto: Llama 3.1, que en algunos aspectos supera a OpenAI con su ChatGPT.

Según la compañía supera a GPT-4o y Claude 3.5 Sonnet de Anthropic en varios puntos de referencia. También está haciendo que el asistente de IA de Meta basado en Llama esté disponible en más países e idiomas, al tiempo que agrega una función que puede generar imágenes basadas en la semejanza específica de alguien. El CEO Mark Zuckerberg ahora predice que Meta AI será el asistente más utilizado para fines de este año, superando a ChatGPT.

Leer más
Elon Musk le dice a Tim Cook que no quiere el «espeluznante spyware» de Apple
que es clubhouse elon musk

Elon Musk ha arremetido contra el plan de Apple de asociarse con OpenAI para llevar funciones de inteligencia artificial al iPhone, diciéndole directamente al CEO de Apple, Tim Cook, que "detenga este espeluznante spyware" y amenazando con prohibir los iPhones en las instalaciones de sus empresas: SpaceX, Tesla y X (anteriormente Twitter).

Apple anunció la asociación con el fabricante de ChatGPT en la jornada inaugural de su Conferencia Mundial de Desarrolladores (WWDC) el lunes. Pero solo unas horas después, Musk publicó una serie de publicaciones en las que expresaba su molestia por el plan, calificándolo de "una violación de seguridad inaceptable".

Leer más