La necesidad de regular la actividad de algoritmos y robots

¿Quién dicta la ética en la inteligencia artificial?

Las máquinas cada vez tienen más autonomía para tomar decisiones y esto plantea nuevos retos éticos y jurídicos. La Comisión Europea trabaja en un documento de principios sobre inteligencia artificial. ¿Es suficiente la autorregulación ética o hay que establecer normas de obligado cumplimiento? Hemos puesto a dos expertos a debatir sobre esta cuestión.

30 Abr | Ignacio Santa María | Soziable.es

La inteligencia artificial (IA) está cada vez más presente en nuestras vidas. Muchos de los mensajes o anuncios que nos llegan a través del email, de las redes sociales o del whatsapp no son enviados por personas sino por algoritmos. Si hacemos un solicitud para acceder a un puesto de trabajo, ingresar en una universidad o tener mesa en un restaurante es posible que no sea un ser humano el que gestione nuestra petición sino un algoritmo. Y esto es solo el principio: en un futuro muy cercano veremos coches autónomos, robots que hacen nuestro trabajo y toda una serie de avances basados en la IA.

¿Cuáles son los principales problemas que todo ello plantea desde el punto de vista ético?  “El aspecto fundamental tiene que ver con evitar que la robótica y la inteligencia artificial acaben siendo una vía para hacer a las personas menos humanas y más pasivas, con una autonomía reducida, con una dependencia creciente y una pérdida de la capacidad de iniciativa con una eventual situación de subordinación irreversible que pueda expropiar nuestra libertad y la humanidad misma”. Así se expresa Moisés Barrio, letrado del Consejo de Estado, profesor de Derecho de Internet y experto en ciberderecho.

A este respecto, Richard Benjamins, embajador de IA y Big Data de Telefónica, distingue entre decisiones poco relevantes y aquellas que tienen un impacto en la vida de las personas. “No es lo mismo que Spotify te recomiende una canción que hacer un diagnóstico a un paciente”. En este sentido, Benjamins cree que en las decisiones que tienen impacto en la vida de las personas la última palabra debe ser la de un ser humano. “La máquina puede dar muchas sugerencias y en muchos casos serán acertadas porque la IA aplicada a ámbitos muy concretos tiene un rendimiento altísimo, pero la responsabilidad de tomar la decisión debe ser de la persona”.

R. Benjamins: “La máquina puede dar muchas sugerencias pero la responsabilidad de la decisión debe ser de la persona"

Desde 2016, grandes compañías como Google, Facebook, Deutsche Telekom y Orange han elaborado códigos éticos relativos a la IA y al Big Data. En esta línea, Telefónica ha elaborado un documento de principios donde establece que la IA debe ser justa, transparente y explicable; tener como prioridad a las personas, así como garantizar la privacidad y la seguridad desde el diseño.  

“La IA y el Big Data son tecnologías transversales, transformadoras y tienen un impacto positivo en muchas áreas distintas. Traen muchas oportunidades pero también entrañan riesgos y ante eso conviene recordar cuáles son nuestros valores y normas al respecto”, afirma Benjamins, quien señala que "estos principios van dirigidos a toda la compañía, como medida de sensibilización, pero sobre todo están enfocados a los desarrolladores, los gestores de producto, que deciden si se lanzan al mercado o no, y también al departamento de compras, porque adquirimos muchos productos a terceros".

De los “efectos secundarios no deseables” que podrían acarrear estas teconologías, el directivo de Telefónica destaca dos: la discriminación en el tratamiento de datos y la falta de transparencia: “Si las decisiones de los algoritmos impactan en la vida de las personas es muy importante que puedan explicar por qué las toman. Si yo solicito plaza en un colegio para mi hijo y la decisión de admitirlo depende de un algoritmo, como padre, pediré que me expliquen esa decisión”.

¿Es suficiente la autorregulación?

El letrado del Consejo de Estado y experto en ciberderecho valora “la actitud proactiva” que están adoptando las compañías tecnológicas pero advierte del riesgo que supone dejar en manos de estas empresas de manera exclusiva el desarrollo ético y jurídico de la IA. Por eso está convencido de que deberían promulgarse normas internacionales, bajo el liderazgo de la ONU, o en su defecto, al nivel de las instituciones de la Unión Europea

M. Barrio: "Es necesario crear una rama jurídica nueva: el Derecho de los Robots y de la Inteligencia Artificial" 

De hecho, la Comisión Europea hace tiempo que se ha puesto manos a la obra y está a punto de aprobar la versión definitiva de un documento sobre los principios éticos que deben regir cualquier desarrollo de IA. Para elaborar este trabajo, el Ejecutivo comunitario ha seleccionado a 52 expertos independientes procedentes del ámbito académico, el empresarial y la sociedad civil. El pasado diciembre vio la luz un primer borrador que enumera cinco principios éticos que deben guiar la IA: contribuir al bien común, no causar daño, respetar la autonomía del ser humano, y cumplir los criterios de justicia y transparencia.

“Lo que ha elaborado la Comisión Europea es una guía y no tiene ninguna intención de transformarla en una norma. Son simplemente recomendaciones que las organizaciones deben tener en cuenta cuando utilizan estas tecnologías”, matiza el embajador de IA y Big Data de Telefónica.

Benjamins cree que aún no es posible pasar de la ética a las leyes en relación  con tecnologías tan disruptuivas: “Cómo funcionan los algoritmos, cómo toman las decisiones, la transparencia, el sesgo, la discriminación.... todo eso es muy nuevo todavía; es muy pronto para fijar normas porque nadie sabe qué es exactamente lo que hay que regular”.

Por este motivo, el directivo de Telefónica se muestra partidario de seguir por el camino de la autorregulación ética: “Lo que hace la CE con sus recomendaciones y lo que hacemos nosotros con los principios es propiciar una serie de cuestiones que hay que tener en cuenta como desarrollador, como comprador o como gestor de producto. Esto tiene que llevar a que cada persona asuma una responsabilidad”.

Pero, a juicio de Barrio, estas iniciativas son insuficientes y hay que pasar de la ética a la ley: “Las normas éticas sólo vinculan en el foro interno y su incumplimiento supone pecado, y quizás condena eterna, pero nada más. Son las normas jurídicas las que llevan aparejadas, en caso de incumplimiento, sanciones, multas e incluso penas de prisión”. Por ello, este letrado defiende la necesidad de crear una rama jurídica nueva: el Derecho de los Robots y de la Inteligencia Artificial, como en su momento se hizo con el Derecho del Trabajo o el Derecho del Medio Ambiente.

Barrio reconoce la dificultad de legislar sobre aspectos tan complejos y novedosos, pero piensa que se puede conseguir si se constituyen equipos interdisciplinares que integren a científicos, investigadores, sociólogos, filósofos y juristas.

Siete requisitos para una inteligencia artificial fiable y ética

Agregar comentario

Comentarios

Añadir ComentarioDesplegar formulario para comentar

2 Comentarios

  • En una sociedad postmoderna como la actual seguir dándole a la ética los sentidos de una modernidad en ruinas no es muy coherente. Lo mismo pasa con la visión lineal del derecho y las leyes. La robótica la leo cómo la construcción del superhombre de Nietzsche. Desde allí vale discutir sobre autonomía y economía como de nueva educación. Me agradaría ese debate.

  • El derecho de los robots?
    La inteligencia artificial forma parte del problema:
    La arritmia acelerante de la sociedad moderna. Nos disgregamos del ritmo y evolucion naturales como si fueramos a conquistar la independencia del medio natural.
    La ciencia esta obsesionada en anteponer su inteligencia a la conciencia por la sostenibilidad global. Y el mercantilismo alimenta esa obsesion.
    Un mal camino no nos lleva a un buen destino.

Últimas noticias

Ir al inicio del contenido