Un estudio realizado por la Universitat Rovira i Virgili (URV) de Tarragona, en España, expuso las limitaciones actuales del aprendizaje – y el desaprendizaje – en modelos de inteligencia artificial. En un escenario de proliferación de las herramientas de Inteligencia Artificial, el informe destacó la necesidad de avanzar en métodos que permitan borrar datos sensibles o personales de forma efectiva.
La investigación se centró en algunos de los principales modelos de lenguaje extensos como ChatGPT, Mixtral, Bard o Copilot, evaluando técnicas diseñadas para suprimir información personal, incorrecta o discriminatoria. La conclusión fue clara: hoy por hoy no existe una solución que garantice el olvido total de los datos, excepto volver a entrenar el modelo desde cero, sin incluir la información que se busca eliminar.
Este hallazgo entra en tensión con el derecho al olvido establecido por el Reglamento General de Protección de Datos de la Unión Europea. En detalle, el mismo obliga a eliminar datos personales cuando así lo solicite el titular.
El problema se agrava porque los grandes modelos de IA se entrenan con volúmenes masivos de datos para optimizar su rendimiento, lo que dificulta detectar y suprimir elementos específicos de manera selectiva.
Cabe destacar que, actualmente, los modelos de IA son entrenados con vastos volúmenes de información para mejorar su rendimiento. Esta alimentación sin límites marca una dificultad a la hora de identificar y eliminar, de manera selectiva, ciertos datos.
Fuente: Ambito


