Viernes, 27 de Diciembre 2024

ChatGPT facilita la vida de los delincuentes, advierte la Europol

En su primer informe sobre modelos de lenguaje extenso, la agencia de cooperación policial europea alertó sobre tres áreas de riesgo clave

Por: EFE

La Inteligencia Artificial, ¿al servicio del bien o del mal? ESPECIAL/UNSPLASH

La Inteligencia Artificial, ¿al servicio del bien o del mal? ESPECIAL/UNSPLASH

La capacidad de ChatGPT para redactar textos muy realistas a gran velocidad y escala hace de esta herramienta de inteligencia artificial un recurso para fraudes y desinformación, y también un aliado de ciberdelincuentes con pocos conocimientos técnicos al generar códigos en varios lenguajes de programación, advirtió el lunes la Agencia de la Unión Europea para la Cooperación Policial (Europol).

Los modelos de lenguaje extenso como ChatGPT tienen un “lado oscuro”, admitió Europol, que ha publicado su primer informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes, algo que, dice, “ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley.

ChatGPT, una tecnología de acceso público capaz de procesar y generar texto como si fuera una persona, puede: responder preguntas sobre una variedad de temas, traducir textos, chatear, generar contenido nuevo y producir código funcional. No obstante, también facilitaría actividades ilegítimas al ayudar a los delincuentes a permanecer en el anonimato o a cometer delitos específicos, como el terrorismo y la explotación sexual infantil.

El Laboratorio de Innovación de Europol se sumó a la creciente atención pública mundial que recibe Chat GPT, un chatbot al que ya han salido a competirle rivales como Bard (Google) y Bing (Microsoft). Los expertos de Europol investigaron cómo los delincuentes pueden abusar de estos modelos de lenguaje extenso (LLM, por sus siglas en inglés).

Los expertos de la agencia identificaron numerosas áreas de preocupación, pero destacan tres ámbitos relevantes: el fraude, la desinformación y la ciberdelincuencia.

¿Por qué preocupa?

Por su forma de facilitar las tareas de fraude, suplantación de identidad e ingeniería social. La capacidad de ChatGPT para redactar textos muy auténticos cambia las reglas del juego: el “phishing” más básico era fácil de detectar dado que usaba mensajes y correos llenos de errores gramaticales y ortográficos, pero ahora es posible hacerse pasar por una organización o individuo de manera realista y con pocos conocimientos lingüísticos.

“Hasta ahora, este tipo de comunicación engañosa ha sido algo que los delincuentes tenían que producir por su cuenta (...) las víctimas de este tipo de delitos a menudo podían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto”, señaló Europol.

Con la tecnología artificial, estos “phishing” y fraude virtual se pueden crear de “manera más rápida, mucho más auténtica y a una escala significativamente mayor”, y permiten “responder a mensajes en contexto y adoptar un estilo de escritura específico”, alertó.

Por otra parte, Europol agregó: “Las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación. El modelo se puede usar para recopilar más información en general que pueda facilitar las actividades terroristas, como, por ejemplo, la financiación del terrorismo o el intercambio anónimo de archivos”.

A pesar de sus enormes ventajas, Europol destacó por primera vez en un informe los riesgos de la tecnología como la de ChatGPT. ESPECIAL/UNSPLASH


Este tipo de aplicación no solo facilita la perpetración de desinformación, incitación al odio y contenido terrorista en internet, sino que también permitiría a los usuarios “darle una credibilidad fuera de lugar, ya que ha sido generada por una máquina y, por lo tanto, posiblemente parezca más objetivo para algunos que sí fuera producido por un humano”.

Junto al fraude y la desinformación, Europol destaca la ciberdelincuencia como tercer área de preocupación, puesto que ChatGPT no se limita a generar un lenguaje similar al humano, sino que también es capaz de producir código en varios lenguajes de programación distintos, con una variedad de resultados prácticos en cuestión de minutos ingresando las indicaciones correctas en la página web de esta herramienta.

“Es posible crear herramientas básicas para una variedad de propósitos maliciosos. A pesar de que son solo básicas, esto proporciona un comienzo para el delito cibernético, ya que permite que alguien sin conocimientos técnicos explote un vector de ataque en el sistema de una víctima”, subrayó la agencia en su informe.

Las medidas de seguridad que impiden que ChatGPT genere un código con posible uso malicioso solo funcionan si la herramienta entiende lo que está haciendo, pero si se le dan indicaciones que se dividen en pasos individuales, es “trivial eludir estas medidas de seguridad”.

Un usuario con conocimientos más avanzados también podría explotar las capacidades mejoradas de ChatGPT para perfeccionar aún más o incluso automatizar modus operandi sofisticados de los ciberdelincuentes.

Temas

Lee También

Recibe las últimas noticias en tu e-mail

Todo lo que necesitas saber para comenzar tu día

Registrarse implica aceptar los Términos y Condiciones