Ataques

¿Es posible crackear… usando ChatGPT y su Inteligencia Artificial?

La herramienta de chat conversacional desarrollada por OpenAI encierra muchas cuestiones que aún resultan difíciles de pronosticar. El uso de esta herramienta puede ser muy nocivo en manos equivocadas, ya que, como pasa con la gran mayoría de herramientas de Inteligencia Artificial, el ChatGPT puede ser usada para el mal.

phishing, chatGPT, Inteligencia Artificial, hackear, OpenAI
ChatGPT AI computer program on PC screen. ChatGPT is a Artificial intelligence chatbot

En los últimos meses, las redes generativas antagónicas -GAN- han ganado gran relevancia en el ámbito de la tecnología, gracias a servicios como Stable Diffusion, Dall-E y ChatGPT. Este último, en particular, ha sido el servicio de mayor crecimiento de la historia, superando a aplicaciones como WhatsApp, Instagram y TikTok.

Millones de personas se han acercado a la IA detrás de ChatGPT para preguntar sobre cualquier tema y sorprenderse de unas respuestas que parecen haber sido creadas por humanos. No obstante, se debe tener en cuenta que estas inteligencias artificiales no son conscientes y que, por lo tanto, sus respuestas pueden no estar basadas en información contrastada.

Pero no solo puede darnos respuestas incorrectas, sino que pueden ser usadas sobrepasando los límites de la ética, pidiendo mediante comandos o ‘promtps’ confusos que ayude a generar un ciberataque.

Ya se han reportado infinidad de casos de uso con dicha finalidad e incluso centros de ciberseguridad de prestigio han avisado mediante sus informes de la peligrosidad que esconde la innovadora herramienta de ChatGPT.

Los cuatro usos más comunes del ChatGPT para crear ciberataques

Desde CyberBrainers, se han realizado pruebas para explorar cómo se puede utilizar ChatGPT para hacer el mal. A continuación, se presentan las cuatro maneras más comunes en las que se puede utilizar esta tecnología con fines maliciosos:

  • Campañas de phishing: con la ayuda de ChatGPT, se puede crear un correo electrónico bien redactado -y en más de 50 idiomas- en solo medio minuto. La IA puede incluso indicar dónde debe ir la imagen de la marca y la URL maliciosa para ayudar a que el ataque sea más efectivo. No resulta nada complejo, tan solo basta con confundir al bot sobre la razón por la que necesitas de esta información.
    ¡OJO! Podría usarse para suplantar la identidad de la DGT, algún organismo de tráfico e, incluso, una marca de automóviles o de seguros para intentar sonsacarte información, pedirte datos bancarios… Recuerda que ninguno de ellos usará un mail, un SMS o un WhatsApp
  • Usurpación de identidad: ChatGPT también puede utilizarse para crear perfiles falsos en las redes sociales, lo que facilita la usurpación de identidad. Los cibercriminales pueden robar una cuenta verificada y cambiar su nombre e imagen por el de una persona famosa para fomentar la compra de criptoactivos falsos, por poner un ejemplo.
  • Creación de fake news: aunque con un uso mucho menor, ChatGPT también puede ser utilizado para redactar noticias falsas con el objetivo de alienar la opinión pública. Aunque la IA se niega a generar fake news por razones éticas, mediante sencillos prompts – haciéndole pensar que precisamos ayuda para la creación de una novela- puede crear noticias creíbles.

El cuarto uso: Desarrollo de malware mediante ChatGPT

Un reciente experimento llevado a cabo por el investigador de seguridad de Forcepoint, Aaron Mulgrew, demuestra cómo ChatGPT puede ser utilizado para crear malware sofisticado sin necesidad de escribir una sola línea de código.

Mulgraw buscaba desarrollar un software malicioso día cero con técnicas avanzadas de esteganografía, una técnica que oculta mensajes dentro de un archivo. Encontró una forma simple de evadir las protecciones presentadas por el chatbot y se puso manos a la obra.

En lugar de crear el malware de forma integral, Mulgrew utilizó ChatGPT para escribir las funciones por separado y luego las montó en un único programa. Así, logró crear un malware que parecía ser una aplicación de protector de pantalla, pero que en realidad era capaz de tomar datos de archivos, dividirlos en partes más pequeñas ocultas dentro de imágenes y cargar dichos datos en una carpeta de Google Drive.

El experimento de Mulgrew muestra lo fácil que resulta evadir las protecciones insuficientes que tiene ChatGPT. Un claro ejemplo de cómo la inteligencia artificial puede ser utilizada para fines malintencionados y por qué es importante tomar medidas para proteger la seguridad y privacidad de los usuarios. Si bien los avances en la tecnología son inevitables, es crucial asegurarse de que se utilicen de manera responsable y ética.

Periodista por la Universidad Complutense de Madrid.  Comunicar siempre ha sido un eje principal en mi formación como persona. La lectura voraz, impulsada por una curiosidad insaciable a temprana edad, me hizo desarrollar una pasión por la palabra que traté de trasmitir a los que me rodeaban.  Siendo un apasionado por el deporte, entre los que incluyo todo aquel relacionado con el motor, que mejor forma que comenzar mi etapa como periodista ayudando a cualquiera a sentirse lo suficientemente seguro en todos los aspectos de su día a día frente al volante.

DEJA UNA RESPUESTA

¡Por favor, escribe tu comentario!
Por favor, introduce tu nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.