Tecnología Escuchar artículo

La Protección de Datos en la Era de la Inteligencia Artificial: Desafíos y Oportunidades

La Asociación Profesional Española de Privacidad (APEP), liderada por Marcos Judel, examina la creciente necesidad de regulaciones estrictas y gobernanza en sistemas de inteligencia artificial.

La Protección de Datos en la Era de la Inteligencia Artificial: Desafíos y Oportunidades

La Asociación Profesional Española de Privacidad (APEP), liderada por Marcos Judel, examina la creciente necesidad de regulaciones estrictas y gobernanza en sistemas de inteligencia artificial.

La Asociación Profesional Española de Privacidad (APEP), liderada por Marcos Judel, examina la creciente necesidad de regulaciones estrictas y gobernanza en sistemas de inteligencia artificial que procesan datos personales. Con más de 1.300 miembros, la entidad busca proteger los derechos de los usuarios en un entorno de IA cada vez más omnipresente.

En 2009, cuando Facebook aún era una plataforma emergente, la privacidad en línea era una preocupación incipiente y los teléfonos móviles eran predominantemente modelos Nokia o primeros smartphones con capacidades limitadas. En este contexto de digitalización temprana, se fundó la Asociación Profesional Española de Privacidad (APEP), que reunió a 53 profesionales especializados en derecho y tecnología, preocupados por el futuro de la privacidad en la era digital.

Entre estos pioneros se encontraba Marcos Judel, actual presidente de la APEP y socio del bufete Audens. La entidad, que ahora cuenta con más de 1.300 miembros, ha evolucionado junto con el crecimiento de la tecnología y la inteligencia artificial (IA), extendiendo su influencia en temas como la protección de datos personales y el cumplimiento del Reglamento General de Protección de Datos. (RGPD).

Durante el congreso "IA, Derecho y Empresa", organizado por Lefebvre, Judel destacó cómo el RGPD establece un marco de seguridad para proteger la privacidad de los usuarios frente al uso extensivo de la IA. En palabras de Judel, el reglamento “crea un sistema basado en la identificación de riesgos para los derechos y libertades de las personas”, y su enfoque es necesario ante la creciente complejidad de la IA generativa. Asimismo, recordó la necesidad de contar con una gobernanza robusta para el manejo de la IA, en la que participen expertos en protección de datos, ciberseguridad y desarrollo de inteligencia artificial.

Desafíos de la Gobernanza de la IA y Protección de Datos
Judel enfatizó que, cuando los sistemas de IA interactúan directamente con datos personales, el RGPD entra en vigor, requiriendo que las empresas establezcan un sistema de gobernanza específico para la IA. “Es crucial determinar quién debe participar en cada etapa del proceso, sea desde el diseño hasta la aplicación”, explicó Judel, indicando que diferentes expertos serán necesarios según el tipo de datos procesados.

Un punto clave en el cumplimiento del RGPD es el concepto de “privacidad desde el diseño”, que exige que los responsables de protección de datos participen desde las primeras fases de desarrollo de un sistema de IA que involucra información personal. “Sin esta previsión, un sistema de IA podría ser inutilizable si no cumple con las normas de protección de datos”, advirtió Judel, subrayando que la privacidad debe ser una prioridad desde el inicio del proyecto.

El Ciclo de Vida de los Datos y la Proporcionalidad en su Uso
Judel ilustró con un ejemplo sencillo cómo la IA puede captar información sensible de los usuarios. En el caso de un chatbot en un sitio web de una entidad pública, como un ayuntamiento, el sistema podría registrar datos de usuarios, como la dirección IP, y realizar sugerencias basadas en estas interacciones. Este tipo de recopilación, advirtió Judel, debe ser evaluado para asegurar que sea proporcional y necesario para el propósito que persigue, evitando así un tratamiento desmedido de los datos personales.

Consecuencias de Infringir el RGPD y el Reglamento de IA
El incumplimiento del RGPD o del Reglamento de IA puede acarrear sanciones significativas. Judel resaltó que las multas por violaciones al Reglamento de IA, dirigidas especialmente a los desarrolladores y comercializadores, pueden ser aún más graves que las establecidas por el RGPD, que están orientadas a los usuarios del sistema de IA. Además, puntualizó que actividades como influir subliminalmente en las personas mediante IA están expresamente prohibidas, lo cual refuerza la necesidad de un marco regulador riguroso.

La APEP, a través de estas iniciativas, busca no solo proteger la privacidad de los usuarios, sino también educar a las empresas sobre la importancia de comprender y gestionar adecuadamente los riesgos asociados con la IA y la protección de datos personales. Con este enfoque, se espera que tanto las entidades públicas como privadas desarrollen una cultura de gobernanza que respete y salveguarde los derechos fundamentales en un entorno tecnológico en constante avance.

Comentarios
Volver arriba