Diez riesgos de ChatGPT para la seguridad de las empresas

En los últimos meses se ha puesto de moda la utilización de esta inteligencia artificial y los hackers están explorando esta vía para atacar a las compañías

Publicado el 14 Mar 2023

85938_64

A lo largo de estos meses se ha popularizado enormemente el uso de ChatGPT, uno de los últimos desarrollos de inteligencia generativa que se han puesto a disposición del público en general, motivando gran curiosidad y debate. Se trata de una forma de aprendizaje automática, basada en modelos de lenguaje, capaz de generar contenido nuevo en cualquier formato (texto, imagen, video, voz, código).

Pero este tipo de avances no son nuevos. Hace unas semanas, Microsoft presentó su propuesta de Bing con IA (Inteligencia Artificial), cuya potencialidad, de hecho, es mucho mayor que la de ChatGPT; y, en breve, se espera el lanzamiento de Bard, la solución de Google. Junto a ellas, están proliferando multitud de propuestas que no se limitan a ofrecer resultados textuales basados en modelos de lenguaje, sino a la generación y combinación de cualquier tipo de contenido.

Se trata de avances en proceso de evolución que, como en el caso de muchos otros desarrollos tecnológicos, aportan múltiples ventajas y oportunidades, tanto para el ámbito de la seguridad como para la sociedad en su conjunto. No obstante, y teniendo en cuenta el rápido avance de estas tendencias,Prosegur Research, el Insight&trends center de Prosegur, ha analizado las implicaciones de ChatGPT desde la perspectiva de la seguridad, y ha identificado los 10 principales riesgos que puede haber al usar esta aplicación en diferentes ámbitos. Se trata de los siguientes:

  1. Polarización social: las IA generativas, dada su capacidad de producir contenidos multimedia, pueden ser utilizadas para difundir mensajes de odio o discriminación, así como mensajes de carácter radical o extremista.
  2. Phishing: generación automatizada de correos de apariencia real con objeto de engañar a usuarios a efectos de acceder a información confidencial o a los sistemas informáticos. Hay que tener en cuenta que las IA generativas redactan con gran calidad, lo que invalida las sospechas que sí puede despertar un phishing con baja calidad.
  3. Desinformación: a través de la generación de noticias falsas, se trata de influir en la opinión pública, dañar la cohesión social o afectar a procesos electorales. La desinformación es una clara cuestión que afecta a la seguridad nacional, dañando la cohesión social y los principios democráticos.
  4. Doxing: la desinformación también es susceptible de afectar a empresas y organizaciones, con la difusión de bulos, informaciones sesgadas, la creación de falsos perfiles laborales, o la manipulación de documentos para dañar la credibilidad de las organizaciones. Su finalidad puede ir desde la parodia hasta el ataque a la reputación o la influencia en los mercados.
  5. Fuga de información y robo de datos: empresas como Amazon o Google han alertado a sus empleados sobre los riesgos de compartir información sobre la empresa en ChatGPT y aplicaciones similares, que posteriormente pudiera ser desvelada en las respuestas que ofrece a usuarios.
  6. Fraudes y estafas: son tipologías delictivas que están creciendo con durante estos últimos años. Los fraudes tradicionales, existentes en todos los sectores económicos, son potenciados por el uso de internet, redes sociales y nuevas tecnologías. Las IA generativas pueden contribuir a diseñar fraudes con mucha más calidad, así como a perfilar objetivos.
  7. Generación de chatbots maliciosos con objetivos delictivos: pueden interactuar con individuos para la obtención de información sensible o fines ilícitos económicos.
  8. Suplantaciones de identidad: mediante la utilización de las denominadas “deep fakes” y la capacidad de la IA para generar textos imágenes, videos e, incluso, simular la voz. Con el apoyo de la creación de avatares que integren todos estos elementos, se aumenta la verosimilitud de la identidad.
  9. Generación de código malicioso, como virus, troyanos, malware, ransomware, spyware: el objetivo es cometer ciberdelitos de diferente naturaleza.
  10. Lucha de poder geopolítico y geoeconómico: en un contexto de poderes difusos y fragmentados, el liderazgo ya no sólo se mide por la capacidad económica, la diplomática o la militar. Ya en el año 2017, Vladimir Putin señaló que quien dominara la IA dominaría el mundo. La geopolítica y la geoeconomía presentan nuevos riesgos, pero también oportunidades para estados y empresas que sean capaces de leer el futuro. Los datos, junto a las tecnologías, están en el centro de configuración del poder, lo que genera una asimetría entre quienes disponen de ellos y quienes no.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

T
Redacción TICPymes

Artículos relacionados

Artículo 1 de 4