Connect with us

Tecnología

La Europol alerta de los peligros del uso que hacen los delincuentes de ChatGPT

Desde su lanzamiento a finales del mes de noviembre, la inteligencia artificial ChatGPT se ha convertido en uno de los servicios de Internet que más ha crecido en los últimos meses, superando los 100 millones de usuarios en sus dos primeros meses de vida.

Una tecnología que, gracias a su capacidad de generar textos similares a los escritos por los humanos, puede beneficiar tanto a las empresas como a los usuarios. Sin embargo, la Europol, el órgano encargado de facilitar las operaciones de lucha contra la delincuencia en el seno de la Unión Europea, subrayó que también representa un desafío para la aplicación de la ley, ya que los ciberdelincuentes pueden explotar sus usos de forma maliciosa.

«Los delincuentes suelen explotar rápidamente las nuevas tecnologías y ya han sido vistos explotando estos usos criminales, proporcionando los primeros ejemplos prácticos apenas unas semanas después del lanzamiento público de ChatGPT», se puede leer en el primer informe presentado por la entidad el pasado lunes y titulado ‘ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley’. Un documento que proporciona una descripción general del posible uso indebido de las tecnologías IA, como ChatGPT, que ofrece una perspectiva de lo que aún puede estar por venir.

Usos maliciosos de ChatGPT

Los expertos identificaron una serie de casos de uso ilegal de ChatGPT que también persisten en el modelo más avanzado de OpenAI, GPT-4, donde el potencial de las respuestas dañinas del sistema es incluso más avanzado.

Como ChatGPT puede generar información de lectura, Europol advierte que dicha tecnología emergente puede acelerar el proceso de investigación de un delincuente sin conocimiento previo de un área delictiva potencial como: allanamiento de morada, terrorismo, ciberdelincuencia o abuso sexual infantil. «Si bien toda la información que proporciona ChatGPT está disponible gratuitamente en Internet, la posibilidad de usar el modelo para proporcionar pasos específicos al hacer preguntas contextuales revela que es significativamente más fácil para los actores malintencionados comprender mejor y, posteriormente, llevar a cabo varios tipos de delitos», expone el informe.

Por otro lado, el phishing, la práctica de enviar un correo electrónico falso para que los usuarios hagan clic en un enlace, es, según Europol, un área de aplicación crucial. En el pasado, estas estafas eran fácilmente detectables debido a errores gramaticales o de idioma. Sin embargo, gracias a la utilización de estas tecnologías, el texto generado por la IA permite estas suplantaciones de forma mucho más realista.

Advertisement

De manera similar ocurre con el fraude en línea, ya que permite la posibilidad de crear una participación falsa en las redes sociales que podría ayudar a pasar como legítima una oferta fraudulenta. En otras palabras, gracias a estos modelos, «estos tipos de phishing y fraude en línea se pueden crear de forma más rápida, mucho más auténtica y a una escala significativamente mayor».

Asimismo, la capacidad de la IA para suplantar el estilo y el discurso de personas específicas puede dar lugar a varios casos de abuso en cuanto a suplantación, propaganda, incitación al odio y desinformación.

Por otro lado, además de poder crear texto, también es capaz de generar código en diferentes lenguajes de programación, ampliando la capacidad de los delincuentes con poco o ningún conocimiento para transformar el lenguaje natural en malware. «Críticamente, las medidas de seguridad que impiden que ChatGPT proporcione código potencialmente malicioso solo funcionan si el modelo comprende lo que está haciendo. Si las indicaciones se dividen en pasos individuales, es trivial eludir estas medidas de seguridad», agregó el informe.

Otro riesgo es que estos grandes modelos de lenguaje puedan estar disponibles en la ‘dark web‘ sin ninguna protección y ser entrenados con datos particularmente dañinos. El tipo de datos que alimentarán estos sistemas y cómo podrían ser vigilados son importantes interrogantes para el futuro, revelan en el informe.

Por último, mientras el Parlamento Europeo finaliza su posición sobre la Ley de IA, la Europol parece pensar que el desafío que plantean estos sistemas solo aumentará a medida que lo haga su disponibilidad, por lo que es urgente tomar medidas para evitar este tipo de usos.

Advertisement

Fuente

Advertisement

Nacional

Más

Populares