Global Technology

En este último año hemos vivido acontecimientos históricos como la publicación de ChatGPT, que han permitido la democratización de la inteligencia artificial. Este hecho ha supuesto un gran paso haciéndola accesible a mucha gente pero, ¿conocemos todos los riesgos que conlleva el uso de la inteligencia artificial?

Vulnerabilidades más complejas

Con el auge del uso de la inteligencia artificial no podemos dejar de lado las vulnerabilidades que implican la implementación de una IA. Al igual que en el resto de tecnológicas, en la inteligencia artificial también existen vulnerabilidades que nos pueden poner en un compromiso.

Las dos vulnerabilidades más destacables son el envenenamiento de datos y los “adversarial attacks”. Ambas relacionadas con la gran dependencia de la inteligencia artificial con los datos.

El envenenamiento de datos consiste en inyectar datos maliciosos en el conjunto de entrenamiento del modelo de IA para distorsionar el comportamiento del modelo. Asimismo, los “adversarial attacks” manipulan sutilmente las entradas con cambios sutiles que llevan a la IA a la predicción incorrecta.

Pero estas no son las únicas preocupaciones en la implantación de la IA. Otros ejemplos son:

  • La fragilidad de los modelos que implica que pequeños cambios en los datos pueden dar resultados muy dispares.
  • La violación de la privacidad ya que hay muchos modelos que requieren de datos confidenciales o personales.
  • La falta de explicabilidad de los resultados en aplicaciones donde sea crucial entender las decisiones finales y los algoritmos considerados como “cajas negras”.

vulnerabilidades de la IA

Ciberataques contra la IA

Un ciberataque contra la IA es la manipulación intencionada de un sistema con esta tecnología con el fin de provocar un mal funcionamiento.

Los ciberataques habituales se benefician de los errores cometidos por los programadores o por los usuarios. Por el contrario, los ataques contra la IA explotan las limitaciones intrínsecas de los algoritmos subyacentes.

Como consecuencia, la mitigación tradicional de vulnerabilidades corrigiendo errores, aplicando de parches o educando de los usuarios no servirá completamente. Las propias características de los modelos actuales crean vulnerabilidades explotables para los atacantes.

Sin embargo, a pesar de las diferencias, ambos están muy relacionados. Muchos ataques contra la IA se ven favorecidos por el acceso a activos obtenidos a través de los ataques que comprometen la confidencialidad e integridad de los sistemas. Por lo tanto, es muy importante aplicar una ciberdefensa robusta para protegerse.

Security-by-design en los sistemas de IA

Security-by-design es un enfoque de la ciberseguridad en el cual se integran las medidas de seguridad desde las primeras fases de un proyecto. Es decir, no se toma la seguridad como una característica adicional, sino que se considera uno de los objetivos.

En relación con la inteligencia artificial, este enfoque se puede plantear de la siguiente manera:

  • Diseño seguro: es importante hacer énfasis en el modelado de amenazas y su impacto desde el primer momento.
  • Desarrollo e implementación segura: se recomienda crear protocolos para informar sobre las amenazas modelizadas.
  • Mantenimiento y operatividad segura: haciendo una vigilancia constante del sistema de IA.

De esta manera, se minimizarán riesgos permitiendo mantener los datos no corruptos para el entrenamiento de la IA, control del acceso a estos o a otros activos del sistema entre otros. Además, este planteamiento permite tener detecciones de posibles amenazas para prevenir riesgos en estos sistemas.

Security-by-desing

Hacktivistas unidos a la Inteligencia Artificial

El auge de la inteligencia artificial junto con su democratización ha permitido a los hacktivistas utilizar esta tecnología. La inestabilidad internacional junto a estas herramientas ha derivado en un aumento en el riesgo de la ciberseguridad.

La metodología de los ciberdelincuentes ha cambiado. Herramientas como ChatGPT e incluso sus alternativas “malvadas” como WormGPT, permiten el desarrollo de malwares o contenidos maliciosos sin ser un experto.

Estas herramientas no solo generan ciberdelincuentes cada vez más preparados. A su vez, hacen que ataques de phishing cada vez sean más realistas y, cada vez menos perceptibles.

Falta de regulación de la IA

Está claro que el auge de la inteligencia artificial está cambiando nuestras vidas. Al igual que puede ayudarnos y hacer infinitud de cosas buenas, también se puede revertir y causar el efecto contrario.

¿De quién son los derechos de las imágenes creadas? ¿Cuál es el límite? ¿Qué es lo que está permitido y lo qué no?

Por el momento no hay normas claras que regulen el uso de esta tecnología para su uso ético y responsable. La unión europea es la primera que presenta un proyecto firme de Ley de Inteligencia Artificial tras su acuerdo de diciembre de 2023.

Actualmente, este acuerdo político está sujeto a su aprobación formal por el Parlamento Europeo y del Consejo. Tras esta aprobación estaríamos ante el primer marco jurídico global sobre inteligencia artificial en todo el mundo.

Desde Global Technology podemos ayudarte con los riesgos de la Inteligencia Artificial

Casi cada día vemos actualizaciones o mejoras de nuestra tecnología y, la inteligencia artificial no se queda atrás en este aspecto. Al igual que las mejoras, los riesgos o las vulnerabilidades también se van actualizando y, es importante conocerlas.

Desde el equipo de Global Technology te podemos ayudar en la detección de los riesgos, la implantación de inteligencias artificiales o las dudas que te surjan en este nuevo mundo que está emergiendo.