Aumentan exponencialmente los dominios ilegales relacionados con ChatGPT

  • Seguridad
Riesgo

La popularidad de ChatGPT ha atraído la atención de delincuentes que buscan lucrarse mediante palabras y nombres de dominio que parecen estar relacionados con la web. La unidad de investigación de Palo Alto Networks, contabilizó más de 100 URL maliciosas relacionadas con ChatGPT al día entre noviembre de 2022 y principios de abril de 2023.

Unit 42, la unidad de investigación de Palo Alto, ha realizado una investigación sobre nuevos registros de dominios y de dominios ilegales relacionados con ChatGPT. Según los datos que arroja, desde noviembre de 2022 hasta principios de abril de 2023, se observó un aumento del 910% en los registros mensuales de dominios relacionados con ChatGPT. Por otra parte, durante ese mismo periodo de tiempo, los registros de DNS Security revelaron un crecimiento del 17.818% en dominios ocupados relacionados. Además, se observaron hasta 118 detecciones diarias de URL maliciosas relacionadas con ChatGPT capturadas a partir del tráfico visible en su sistema avanzado de filtrado de URL.

La investigación analiza varios casos que ilustran los diversos métodos utilizados por los estafadores para atraer a usuarios y conseguir que descarguen un malware o que compartan información confidencial. Dado que OpenAI lanzó su API oficial para ChatGPT el pasado 1 de marzo, se ha observado un número creciente de productos sospechosos que la utilizan. Por ello, se destacan algunos peligros potencialmente graves derivados del uso de imitadores de chatbots, con el fin de alentar a los usuarios de ChatGPT a que adopten una actitud precavida al respecto.

Según esta compañía, los estafadores pueden utilizar la ingeniería social de ChatGPT para el robo de identidad o el fraude financiero. Aunque OpenAI ofrece a los usuarios una versión gratuita de ChatGPT, estos estafadores conducen a las víctimas a sitios web fraudulentos, alegando que tienen que pagar por estos servicios. Por ejemplo, la falsa página web de ChatGPT pretende engañar a las víctimas para que faciliten información confidencial, como los datos bancarios y las direcciones de correo electrónico.

A su vez, también se ha detectado que algunos estafadores se aprovechan de la popularidad creciente de OpenAI, de su logotipo o del nombre de personas conocidas como Elon Musk para atraer a sus víctimas y cometer fraudes criptográficos.