Autoridades británicas dicen que chatbots de IA podrían entrañar riesgos cibernéticos

Reuters

Publicado 30.08.2023 13:53

Por Raphael Satter y Martin Coulter

30 ago (Reuters) - Las autoridades británicas advirtieron a las organizaciones sobre la integración de chatbots basados en inteligencia artificial en sus empresas, afirmando que las investigaciones han demostrado cada vez más que pueden ser engañados para realizar tareas perjudiciales.

En un par de entradas de blog publicadas el miércoles, el Centro Nacional de Ciberseguridad británico (NCSC, por sus siglas en inglés) indicó que los expertos aún no han llegado a comprender los posibles problemas de seguridad relacionados con los algoritmos que pueden generar interacciones que parezcan humanas, conocidos como modelos de lenguaje extensos (LLM, por sus siglas en inglés).

Estas herramientas basadas en inteligencia artificial se están empezando a utilizar en forma de chatbots que, según algunas previsiones, sustituirán no sólo a las búsquedas en Internet, sino también a los servicios de atención al cliente y las llamadas de ventas.

Según el NCSC, esto podría entrañar riesgos, sobre todo si esos modelos se integraran en los procesos empresariales de otras organizaciones. Académicos e investigadores han encontrado en repetidas ocasiones formas de subvertir los chatbots introduciéndoles comandos falsos o engañándolos para que burlen sus propias barreras de seguridad.

Por ejemplo, un chatbot con IA desplegado por un banco podría ser engañado para que realizara una transacción no autorizada si un pirata informático estructurara su consulta de forma correcta.

"Las organizaciones que crean servicios que utilizan LLM deben tener cuidado, del mismo modo que lo tendrían si estuvieran utilizando un producto o una biblioteca de código en fase beta", afirmó el NCSC en una de sus entradas de blog, en referencia a las versiones experimentales de software.