Hacia la regulación europea en IA

El 18% de las grandes empresas españolas adoptan la Inteligencia Artificial en su sistema productivo

El Observatorio Nacional de Tecnología y Sociedad (ONTSI) ha publicado el dossier de indicadores sobre el uso de inteligencia artificial en empresas durante el año 2020 en España y en la Unión Europea. Se trata del primer estudio oficial publicado por la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) sobre la adopción de esta tecnología.

Las empresas españolas adoptan la Inteligencia Artificial

07 Mayo 2021 | Rocío Barrie | Soziable.es

Aunque la inclusión de la Inteligencia Artificial (IA) a nivel empresarial es aún limitado en Europa, según el estudio de ONTSI, España se encuentra ligeramente por encima de la media de los 27 países miembros de la UE. “El 7% de las empresas españolas usan IA frente al 6% de media de la UE27”, destaca. En el caso de las grandes empresas (de más de 250 empleados), señala que estas son más intensivas en su incorporación, llegando al 18% de adopción frente al 17% en Europa.

“El 91% de las empresas españolas y el 93% de las europeas todavía no usan sistemas de inteligencia artificial”

El tipo de tecnología de IA más exitosa en nuestro país entre las grandes empresas es el aprendizaje automático con un 17% frente al 11% en las de la UE; seguido de los robots de servicios (9%), el análisis del lenguaje natural (6%) y el asistente virtual a clientes (5%). Por sectores, son el turístico y el sector TIC los más proclives a incorporar IA, mientras que en el lado opuesto se sitúan la construcción, la metalurgia y el sector inmobiliario.

“Las grandes empresas que aún no usan IA son el 73% en España, siendo la media de la UE del 76%”.

En este sentido, el estudio, cuyos indicadores sobre el uso de inteligencia artificial en los Estados Miembro son los primeros disponibles en la actualidad, afirma que habrá un florecimiento en la adopción de IA en los próximos años, consolidando a España en un grupo aventajado. Así, sostiene que la extensión de la IA en el sistema productivo impactará en una amplia gama de aplicaciones en diversos sectores y ocupaciones, incrementando la productividad, la riqueza y modificando la estructura laboral de la mayor parte de los sectores económicos, por lo que se alterará de forma significativa la economía y la sociedad tal y como la conocemos.

No obstante, se recomienda que para lograr impulsar la aún incipiente adopción de IA, serían necesarias medidas de incentivo para su desarrollo, sobre todo en las pymes, ya que su uso todavía es muy limitado y esto perjudicaría a su competitividad frente a las grandes empresas. Asimismo, indica que sería necesario establecer una regulación consensuada de IA que aporte transparencia a los algoritmos para que estos contribuyan a reforzar una sociedad y una economía más próspera a la vez que ética, equilibrada e inclusiva.

“En 2020, el 92% de las pymes españolas y el 93% de las europeas no utilizaban ningún sistema de inteligencia artificial”

Primera regulación europea sobre Inteligencia Artificial

De hecho, la Comisión Europea presentó en el mes de abril su legislación sobre IA, un primer marco normativo sobre esta tecnología con gran incidencia en el futuro, que la Eurocámara y los distintos gobiernos de la UE todavía tienen que aprobar. Esta regulación tiene como objetivo garantizar la seguridad y los derechos fundamentales de las personas y de las empresas, al tiempo que reforzará la adopción, la inversión y la innovación en materia de IA en toda la UE.

En palabras del comisario europeo de Mercado Interior, Therry Breton, "la IA tiene un enorme potencial en ámbitos como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad, pero también entraña riesgos".

De ahí que esta nueva norma aborde también los riesgos específicos que plantean los sistemas de IA, por lo que establece prohibir determinados usos de esta tecnología que considera riesgos inadmisibles. Así, quedarán prohibidos los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas, tales como los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios (por ejemplo, juguetes que utilizan asistencia vocal para incitar a comportamientos peligrosos a los menores) y sistemas que permitan la puntuación social por parte de los Gobiernos para diferenciar a los ciudadanos.

Otros sistemas de IA que son considerados de alto riesgo son aquellas aplicaciones empleadas en infraestructuras críticas, como el transporte, que puede poner en peligro la vida y la salud de los ciudadanos; en la formación educativa y profesional, que puede determinar el acceso de una persona a la educación o carrera profesional, como la puntuación de exámenes; los componentes de seguridad de los productos, como la cirugía asistida por robots; o en servicios públicos y privados, en la aplicación de las leyes, en inmigración o la IA en la administración de la justicia y procesos democráticos.

En estos supuestos, la norma establece que la IA debe quedar sujeta a una serie de obligaciones estrictas antes de que pueda comercializarse. Es el caso de unos sistemas adecuados de evaluación y mitigación de riesgos, la alta calidad de los conjuntos de datos, la trazabilidad de los resultados, una documentación detallada, una información clara y adecuada al usuario, supervisión humana para minimizar riesgos y un alto nivel de solidez, seguridad y precisión.

Además, también considera de alto riesgo todos los sistemas de identificación biométrica remota. En principio, su uso en directo en espacios de acceso público con fines policiales está prohibido, excepto, por ejemplo, cuando sea estrictamente necesario para la búsqueda de un menor desaparecido, para prevenir una amenaza terrorista concreta e inminente o para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave.

Como riesgos limitados, apunta a sistemas de IA que conllevarán obligaciones específicas de transparencia, como cuando se usan los chatbots, donde los usuarios deben estar informados de que están hablando con una máquina. Por otra parte, como riesgo mínimo o nulo, la propuesta permite el uso gratuito de aplicaciones tales como videojuegos basados en la IA o filtros de correo basura. 

Además, junto con esta propuesta, la Comisión Europea ha anunciado que se complementará con nuevas normas sobre maquinaria, que adaptarán las normas de seguridad para dar mayor confianza a los usuarios y fomentar la innovación en la generación de productos de consumo y profesionales, desde robots hasta cortadoras de césped, impresoras 3D, máquinas de construcción y líneas de producción industrial.

En términos de gobernanza, la Comisión propone que las autoridades nacionales controlen las nuevas normas e invita a crear códigos de conducta voluntarios para que la IA no entrañe un alto riesgo, así como espacios controlados de pruebas para facilitar la innovación responsable. Asimismo, la creación de un Comité Europeo de Inteligencia Artificial facilitará su aplicación e impulsará la creación de normas en materia de IA.

En este contexto, el Parlamento Europeo y los Estados miembro tendrán que adoptar las propuestas de la Comisión sobre un planteamiento europeo en materia de inteligencia artificial y de maquinaria en el procedimiento legislativo ordinario, que posteriormente serán directamente aplicables en toda la UE. Un proceso que podría alargar más de un año la implementación de estas medidas.

Agregar comentario

Comentarios

Añadir ComentarioDesplegar formulario para comentar

0 Comentarios

No hay comentarios

Últimas noticias

Ir al inicio del contenido