Monitor de Innovación

Se ofrece a po­ten­ciales 'clientes' en la dark web y tiene el po­ten­cial de fa­ci­litar de­litos in­for­má­ticos

FraudGPT, el clon siniestro de ChatGPT

Entre sus apli­ca­ciones está el 'phishing', el robo de datos ban­ca­rios y todo tipo de en­gaños

ChatGPT.
ChatGPT.

ChatGPT, el ce­le­bé­rrimo 'chatbox' ba­sado en Inteligencia Artificial (IA) tiene, como casi todo en in­for­má­tica, un re­verso te­ne­broso. Se trata de FraudGPT, he­rra­mienta a gusto y me­dida de los de­lin­cuentes capaz de si­mular con mi­nu­cio­sidad co­mu­ni­ca­ciones de ban­cos, crear pro­gramas ma­li­cio­sos, no­ti­cias falsas y todo tipo de fe­cho­rías 'online'.

FraudGPT ha encontrado su entorno de promoción ideal en la 'dark web', a su vez el lado oscuro de internet. Este área de la red, donde proliferan todo tipo de delitos, solo puede visitarse a través de buscadores especiales que ocultan la identidad y localización del usuario.

Un 'todo en uno' para piratas informáticos

Una de las aplicaciones más destacadas de Fraud GPT es su inmenso potencial para el 'phishing', forma de estafa 'online' que consiste en el envío de mensajes que simulan provenir de entidades u organizaciones de confianza (bancos o cajas de ahorro, por ejemplo).

A través de estas comunicaciones, los cibercriminales intentan captar datos confidenciales del usuario, que posteriormente son utilizados para la realización de algún tipo de fraude.

El potente código de esta IA permite emitir misivas y comunicaciones con un nivel de verosimilitud y complejidad que multiplica su peligro y efectividad a la hora de captar incautos. Sin embargo, y como buena máquina pensante, sus posibilidades van mucho más allá.

Un potencial infinito para el fraude

La generación de imágenes falsas de alta sofisticación ('deepfakes') puede ser utilizada para la extorsión, para campañas de desinformación e incluso para propósitos aún más sucios relacionados con la pornografía o el crimen. La capacidad de imitar de forma fidedigna la apariencia o la voz de una persona abre una enorme ventana para todo tipo de bulos, falsos escándalos y agresiones contra el derecho al honor y a la propia imagen.

Además, esta IA también tiene una faceta de 'asesoría', especialmente beneficiosa para los interesados en el robo de información personal y datos financieros. Los ciberdelincuentes y aspirantes a serlo pueden recibir del 'chatbox' toda suerte de tutoriales sobre las maneras más efectivas de replicar tarjetas de crédito, sustraer claves bancarias o burlar la seguridad de redes privadas.

Toda esta gama de 'servicios' puede ser ofrecida en múltiples idiomas, lo que eleva aún más el riesgo, pues acentúa el carácter transfronterizo de la ciberdelincuencia. Por último, FraudGPT puede ser un importante apoyo en la creación de 'malware' y todo tipo de programas informáticos dañinos o maliciosos, permitiendo crear virus y ciberataques más sofisticados y con una tasa mayor de eficiencia.

Artículos relacionados