Los investigadores de ciberseguridad han detallado cómo los ciberdelincuentes utilizan Open AI. ChatGPT Herramienta de inteligencia artificial para crear malware peligroso. Desde que la herramienta ChatGPT AI se lanzó al público el mes pasado, los usuarios de las redes sociales han estado publicando sus experiencias con ella, incluidas muchas capturas de pantalla que muestran cómo usan la herramienta para escribir artículos, poemas, guiones de películas y más. Muchos también lo utilizan para escribir fragmentos de código, lo que demuestra que el software está lo suficientemente desarrollado como para hacer muchas cosas que los humanos pueden hacer.
Según investigadores de ciberseguridad de Check Point Research (CPR), algunos miembros de comunidades clandestinas de hackers están utilizando ChatGPT para escribir códigos maliciosos que pueden utilizarse para llevar a cabo ciberataques. Si bien algunos de estos creadores de malware son piratas informáticos de sombrero negro que utilizan la herramienta para perfeccionar su código malicioso y crear malware más sofisticado, incluso los usuarios sin conocimientos o experiencia en codificación pueden utilizar la nueva herramienta basada en inteligencia artificial para crear software malicioso.
ChatGPT se utiliza para escribir malware
Los investigadores proporcionaron ejemplos de cómo los piratas informáticos utilizan ChatGPT para crear herramientas de piratería maliciosas. A finales de diciembre, en un hilo de un foro clandestino de piratería no identificado, un hacker explicó cómo pudieron crear malware de robo de información basado en Python utilizando técnicas descritas en publicaciones de investigación. Según el cartel, el malware copia documentos e imágenes en el sistema comprometido antes de cargarlos en un servidor operado por piratas informáticos.
También revelaron que crearon malware basado en Java que puede descargar y ejecutar software malicioso de forma remota en sistemas comprometidos. Otro cartel afirmó que también usaron ChatGPT para escribir un script de Python que, según afirmaron, fue el primer script que crearon utilizando la herramienta de inteligencia artificial. Según los investigadores de CPR, el script está diseñado para cifrar y descifrar archivos, algo que potencialmente puede convertirse en ransomware.
Crear código con la intención de utilizarlo para actividades ilegales es una violación de los términos y condiciones de Open AI. Sin embargo, por ahora no parece haber ninguna forma de tomar medidas contra los actores maliciosos, ya que todos los ejemplos de código compartido en los foros se pueden utilizar de forma benigna. Aún así, también se pueden modificar fácilmente para usarlos como ransomware (u otras formas de malware) con un poco más de trabajo. ChatGPT puede ser una gran herramienta para la mayoría de los usuarios. Pero también puede convertirse en una herramienta peligrosa en manos de las personas equivocadas, que es sólo una de las muchas advertencias que tienen los investigadores cuando se trata de la proliferación de herramientas de inteligencia artificial como OpenAI. ChatGPT y otros productos.
Fuente: Investigación de Check Point
Source link