El modelo europeo de garantía jurídica de los derechos humanos en la investigación con datos es un logro irreemplazable e irrenunciable. Y, de hecho, la ética de la inteligencia artificial (IA), basada en la dignidad del ser humano y la inalienable garantía de sus derechos, encuentra en nuestro sistema legal un pilar tan sólido como ejemplar. Por otra parte, hay que reforzar la construcción de un modelo europeo de open data y la eliminación de barreras y monopolios sobre el uso de los datos no personales.

Más leyes que ciencia

Sin embargo, resulta significativo que en el reciente encuentro organizado por el proyecto europeo BigMedilytics en Valencia, –“Big Data: Fueling the transformation of Europe’s Healthcare Sector”–, el Derecho haya sido protagonista en lugar de la ciencia.

No es una buena noticia. La regulación debería ser como una fina capa protectora transparente. Algo que sabemos que está ahí, que nos ayuda y a la vez se integra armónicamente proporcionando la seguridad de que todo irá bien. Y, sin embargo, no es así. El investigador, la industria, la universidad, –incluso el Gobierno y la administración–, perciben la norma como una barrera insalvable. Esto obedece a razones de naturaleza muy diversa que no necesariamente derivan de la calidad normativa.

El Big Data nunca duerme: cuántos datos se generan cada minuto en 2019

En primer lugar, pueden identificarse carencias culturales significativas. Del lado de la investigación no existe una cultura jurídica adecuada. Se trata de una carencia institucional. Desgraciadamente, en muchos casos la infraestructura de soporte jurídico y en ciberseguridad es deficitaria o inexistente. Y también lo es la generación del talento necesario para dotar de estos recursos e integrarlos en los equipos de investigación. La industria, de la mano del cumplimiento normativo, se ha dotado de recursos generalmente adecuados pero centrados en un enfoque defensivo ante un marco regulador muy disuasorio.

Por otra parte, hay que imputar a nuestro gremio de juristas tradicionales una manifiesta carencia de cultura científica y tecnológica. Y, si bien las nuevas generaciones alcanzan a entender aquello que su experiencia vital les proporciona, ser un milenial graduado en Derecho y usuario de redes sociales no resulta en absoluto un aval suficiente.

Efectos perversos

Esta carencia cultural genera efectos particularmente perversos. La suma de desconocimiento y el riesgo sancionador condenan a la investigación a dictámenes jurídicos defensivos, a un permanente alud de noes, o en el peor de los casos al diseño de unos modelos de cumplimiento imposibles de aplicar en la práctica.

Finalmente, el natural celo de los reguladores en la garantía de ciertos derechos, y en particular la protección de datos personales, olvida que la investigación científica también es un derecho fundamental. Y ello pese a que el Convenio Europeo de los Derechos Humanos, la Carta de los Derechos Fundamentales de la Unión Europea y el Reglamento General de Protección de Datos conciban la investigación como una actividad de interés público orientada al bien común. El resultado práctico es muy evidente, guías centradas en el cumplimiento normativo hay muchas, pero no encontrará el lector en ellas indicaciones sobre cómo conseguir investigar.

Y esta es sin duda la paradoja. La UE ha sido capaz de diseñar un modelo normativo inteligente que debería poder generar un entorno de investigación y desarrollo tecnológico comprometidos con la garantía de los derechos. Y, sin embargo, la maraña de instituciones, regulaciones nacionales, criterios divergentes e interpretaciones ineficientes de las propias normas, impide avanzar. Y, por supuesto, cada nueva barrera genera un grupo de estudio, una fuerza operativa que en unos 18 ó 24 meses puede que encuentre una solución que resuelva problemas del lejano pasado.

La parálisis europea

Mientras, en el Lejano Oriente, la carencia de reglas democráticas dinamiza avances sin frenos, y al otro lado del mar un modelo dinámico centrado en cláusulas de opting out,-bastando que las personas afectadas no se opongan-, y en una filosofía antigua centrada en la responsabilidad cuando se causan daños, puede avanzar a toda máquina. Ni se está de acuerdo con modelos carentes de toda humanidad ni con escenarios que han alumbrado la regla de “ir rápido y romper cosas”. Lo que no se alcanza a entender es la incapacidad europea para definir reglas de compromiso que permitan un desarrollo armónico de su modelo.

Parece razonable considerar que la regulación debería permitir al menos dos esfuerzos para la investigación con datos:

  • De una parte, empoderar a la ciudadanía ofreciendo el control sobre sus datos y la oportunidad de contribuir al progreso de la ciencia. España, por ejemplo, en el ámbito de la salud, es un país de donantes de órganos, médula y sangre. Pero no se donan datos. El temor reverencial a las posiciones de los reguladores ha bloqueado permanentemente esta vía hasta la disposición adicional decimoséptima sobre tratamientos de datos de salud de la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales.
  • Por otra parte, la investigación con datos anonimizados, y los modelos de codificación fuerte, deberían permitir la generación de entornos de open data controlados.

Sin embargo, lo que se percibe en muchos países de la unión Europea es la imposibilidad de encontrar las condiciones adecuadas para generar estos ecosistemas. La industria no puede arriesgar el 4% de sus ingresos anuales globales en un experimento. Las universidades carecen de los recursos para ello. Los gobiernos se pierden en una maraña burocrática y en una actitud más preocupada de una opinión pública muy sensible al fantasma del Gran Hermano que del compromiso con la generación de los bancos de datos abiertos.

Y mientras esto sucede perdemos la oportunidad de construir esos repositorios para la investigación (data lakes) y de hacerlo orientando el esfuerzo concertado de los sectores público y privado hacía el bien común. Vivir en ciudades ecológicamente viables, ahorrar en gasto farmacéutico y prevenir la enfermedad, definir modelos educativos centrados en las capacidades del individuo, ordenar el tráfico…, prácticamente cualquier política pública ordenada al bien común dependerá de la investigación con datos. No necesitamos más normas, necesitamos un modelo europeo compartido que fije criterios homogéneos centrados en recetas posibles de aplicar.

Y disponemos de las personas, el talento, y las organizaciones capaces de hacerlo. Pero la Ley de Moore es implacable. Hay que hacerlo si no queremos ver pasar el tren de la innovación y ni siquiera subir al vagón de los early adopters, de los pioneros. Y hay que hacerlo ya, con todas las garantías, pero también con todas las posibilidades.The Conversation

Ricard Martínez Martínez, Profesor de Derecho Constitucional. Director de la Cátedra de Privacidad y Transformación Digital., Universitat de València

Este artículo fue publicado originalmente en The Conversation. Lea el original.

FUENTE

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir!

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *