Un reciente estudio de la Universitat Rovira i Virgili (URV) de Tarragona, España, ha puesto de manifiesto las importantes limitaciones que existen para eliminar datos personales de los grandes modelos de inteligencia artificial (IA). La investigación advierte que las técnicas actuales de «desaprendizaje» no garantizan la supresión total de información sensible, lo que plantea un serio desafío para la privacidad y el cumplimiento de la normativa vigente. Los expertos analizaron la efectividad de estos métodos en sistemas populares como ChatGPT, Bard o Copilot, y concluyeron que la única forma de asegurar el olvido completo de un dato es entrenar el modelo nuevamente desde cero, excluyendo dicha información.

Esta incapacidad para borrar selectivamente los datos entra en conflicto directo con el derecho al olvido, un pilar fundamental del Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Dicha normativa obliga a las organizaciones a suprimir la información personal de un individuo si este así lo solicita. Sin embargo, las grandes compañías tecnológicas entrenan sus modelos con ingentes volúmenes de datos para potenciar su rendimiento, una práctica que complica enormemente la identificación y eliminación posterior de fragmentos de información específicos, ya sean personales, incorrectos o discriminatorios.
Los investigadores señalan que, si bien el reentrenamiento completo es la única opción segura, su coste computacional es extremadamente elevado, haciéndolo inviable en muchos casos. La alternativa, que busca eliminar partes concretas del conocimiento sin rehacer todo el sistema, es más eficiente pero no ofrece garantías plenas de que la información no persista de alguna forma. El problema se agrava, según el estudio, por el hecho de que ni siquiera los propios desarrolladores conocen con precisión cómo se almacena la información dentro de estas complejas redes neuronales, lo que subraya la necesidad urgente de desarrollar nuevas arquitecturas y métodos de entrenamiento para la IA.







Deja una respuesta