“A diferencia del sistema anglosajón,
Europa se resignará a poner las normas en un campo de juego, pero sin ser
jugador. Seremos los campeones de la regulación, pero no de la innovación”. Con estas palabras ha explicado Borja Adsuara,
experto en Derecho, Estrategia y Comunicación Digital y
director de Divulgación de OdiseIA,
cómo el sistema de código cerrado europeo está generando que solo se pueda
llevar a cabo lo expresamente permitido, frente al anglosajón, de código
abierto. “Creo que el reglamento europeo de Inteligencia Artificial es
transversal, pero, hasta que no se aplique a cada uno de los sectores y se
comprueben los usos de riesgo, es muy genérico e incluso peligroso”.
Adsuara ha analizado los peligros, los
riesgos y los límites de la Inteligencia Artificial (IA) para la privacidad en
el marco del encuentro ‘Privacidad, protección de datos e inteligencia
artificial. ¿Una ecuación imposible?’ celebrado en la Universidad. Una jornada en la que el experto ha invitado a perder el miedo a
las tecnologías: “No hay que tener miedo a la inteligencia artificial, sino
a la maldad humana”.
Por este motivo, para dar seguridad a la
sociedad civil, “se debería realizar no solo un análisis jurídico y ético de
los algoritmos, sino también de transparencia por parte de las Administraciones
Públicas”. En este sentido, el director de Área de OdiseIA ha
apuntado que “la IA
debe usarse para prevenir, no solo para sancionar. Debe divulgarse cuál es el
sentido de la norma y cuál el de la sanción”. “¿Qué ocurriría si la Agencia Española de Protección
de Datos se dedicase a vigilar exhaustivamente con IA, no solo a las empresas
privadas, sino también a la Administración Pública? Hay que obligar a las empresas
y las Administraciones a ser transparentes y a usar la IA no solo para la
sanción, también para evaluación de políticas públicas”.
Junto al experto en Derecho,
Estrategia y Comunicación Digital ha participado el director de Regulación y Derechos de
OdiseIA, Lorenzo
Cotino, quien ha explicado la importancia de la responsabilidad
individual, que nos obliga a cambiar de modelo: “No todo puede pasar por
nuestro consentimiento, esto ha debilitado nuestra privacidad en las últimas
décadas”. Para el catedrático de Derecho Constitucional de la Universidad
de Valencia “no solo se trata de implantar estas nuevas técnicas, sino que,
en el caso de que se manejen datos anonimizados inferidos con técnicas de
inteligencia artificial, hay que implementar más garantías”.
Por su parte, la presidenta de la Asociación
de Internautas, Ofelia
Tejerina, ha analizado la importancia de controlar y seleccionar qué
datos se quieren compartir. “Tenemos que saber a quién estoy dando mis datos.
Como usuario, podemos ‘jugar’ con el algoritmo para mostrar aquello que queremos
y lo que no”, ha explicado. Asimismo, en línea con los otros ponentes,
Tejerina ha destacado la importancia de implementar un marco regulatorio y de
garantías que otorgue seguridad a los internautas. “Las sanciones han hecho
que la sociedad civil haya abandonado la confianza en grandes tecnológicas, lo
que supone una pérdida de reputación y de usuarios, así como la consecuente
renovación de la imagen por parte de la compañía”.
La jornada también ha contado con la participación de Richard Benjamins, Chief AI & Data Strategist en Telefónica; Gabriel López Serrano, director de Asuntos Gubernamentales y responsable de IA de Microsoft; Manel Carpio, Risk Advisory Partner de Deloitte; y Miguel Ángel Liébana, de Human Trends, en la mesa redonda titulada 'Los sectores privado y público, la IA y la privacidad: retos de
presente y futuro.
La rectora de la Universidad, Rosa
Visiedo, ha clausurado esta jornada señalando que la transformación
digital que estamos viviendo es ya irrenunciable. “Debemos humanizar la
tecnología, acercarla a la sociedad humana, y aprovechar todos los avances para
lograr nuevos descubrimientos que contribuyan al bien común”, ha apuntado.
En este sentido, Visiedo ha asegurado que “la tecnología debe ser una fuerza
para hacer el bien; siempre imprime un sentido, puede generar avances y
soluciones técnicas”. Sin embargo, ha subrayado, “puede generar nuevos
problemas y conflictos como la privacidad de las personas, incluso la reputación
y la dignidad, por eso es imprescindible proteger a las personas del mal uso”.
My Identity
Durante este encuentro
se ha presentado ‘My Identity’, la primera aplicación que permite
proteger datos, identidad y reputación digital por 1 euro al mes; una herramienta impulsada por Human Trends,
en colaboración con OdiseIA. ¿Cómo funciona? Primero se verifica que el
usuario es quien dice ser con un selfie, para no entregar los datos a
otro usuario. Después, se detectan todos los documentos y las páginas webs en
las que se muestran los datos personales, si las contraseñas están filtradas en
internet e, incluso, las fotos públicas en las que aparece el usuario.
Finalmente, el usuario puede decidir si quiere que se gestione la retirada de
algún contenido no deseado de internet. Para mantener la protección, el sistema
realiza una búsqueda continuada de los datos para estar alerta ante cualquier
nueva aparición. "Con esta aplicación queremos que los usuarios vuelvan
a retomar el control de su identidad digital a un precio accesible para
cualquier persona interesada", ha explicado Miguel Ángel Liébana, miembro de
Human Trends.