Todavía estamos a tiempo de paliar los gravísimos riesgos que puede ocasionar la mala práctica de la Inteligencia Artificial subraya un informe realizado por 26 investigadores y académicos, notables organizaciones civiles y asociaciones anglosajones, surgidos de las universidades de Cambridge, Oxford, Yale y Stanford, en el que también ha participado Open Artificial Intelligence, la asociación del visionario emprendedor Elon Musk.
El informe, bajo el título de ‘The malicious use de AI: forecasting, prevention and mitigation’ y un centenar de páginas ofrece una realista visión de las amenazas de la Inteligencia Artificial en el mundo digital, físico y político. Destaca la cibercriminalidad, acividad mucho más fácil de realizar con menos coste y dificílmente atribuible gracias a métodos muy eficientes de captación y suplantación de identidades. La ciberciminalidad lleva años perfeccionándose e incrementando su coste, cifrado en el último informe de McAfee en 600.000 millones de dólares anuales.
La fundación estadounidense Electronic Frontier, que ha participado en el estudio, y que defiende la privacidad y libertad de expresión en el mundo digital, destaca que el siempre problema de la mala utilización de las tecnologías se agrava cuando aparece un factor como la Inteligencia Artificial y todo lo que esta conlleva de autoaprendizaje de las máquinas.
Estados totalitarios o amenazantes podrían influir con más eficacia en las elecciones democráticas mediante manipulaciones mucho menos groseras que las que puedan utilizarse actualmente, también la utilización de drones y robots, cada vez más baratos y accesibles, para ataques criminales o terroristas, y la explotación de sabotajes en los sistemas de inteligencia artificial que vayan siendo comunes en la sociedad, como puede ser el transporte autónomo, son amenazas descritas en el informe, de un centenar de páginas.
La propagación de información falsa mucho más creíble es otra de las amenazas más relevantes. La Inteligencia Artificial permitirá recrear voces y caras con gran precisión, usurpando la identidad de personajes influyentes, todo ello con una gran capacidad de anonimato. Ya este mes se han conocido casos de manipulación de caras y cuerpos de actrices para la creación de vídeos pornográficos. Con el desarrollo de la IA estas manipulaciones pueden ser indetectables pudiendo generar una gran confusión cuando se use con fines políticos manipulando los discursos de las elites.
Los investigadores deben detectar los riesgos del mal uso para prevenirlos
Los autores del informe son rotundos: Hay que actuar ya. El informe ofrece cuatro recomendaciones para prevenirse frente a estos riesgos, que implican una mejor cooperación entre los poderes públicos y los investigadores para mitigar los riesgos de la mala utilización. Es necesaria una toma de conciencia por parte de los ingenieros e investigadores que trabajan en el desarrollo de inteligencia artificial, de la naturaleza de doble uso de ésta, para que sean proactivos en paliar las malas prácticas, influir en las prioridades de seguridad y normativa, y poner en alerta proactivamente a quienes puedan tomar medidas cuando sea previsible un uso dañino de determinado software.
Deben ser identificadas las mejores prácticas en materia de investigación para rebajar la preocupación del doble uso, también aumentando el número de expertos en áreas de investigación más diversas a efectos de debatir sobre estos retos.