Hacer el bien y no el mal: la UE publica su primer borrador de principios éticos para la Inteligencia Artificial

20MINUTOS.ES

  • Un grupo de expertos propone cinco derechos fundamentales para toda IA.
  • Hacer el bien, no hacer el mal, autonomía de los humanos, justicia y acciones explicables.

Inteligencia artificial

En Yo, robot, Isaac Asimov planteaba los problemas de la creación de seres artificiales inteligentes. Los relatos de ese libro, publicado en 1950, hablaban de las tres leyes de la robótica, una especie de deseable compendio de moral para ser aplicado con los robots inteligentes.

Antes que robots inteligentes, en el sentido antropomorfo que la literatura y el cine nos han mostrado, estamos teniendo máquinas inteligentes. La Inteligencia Artificial (IA) está ya en todo. Sin ir más lejos, es posible que el teléfono móvil con el que estás leyendo este artículo tenga IA, aunque sólo sea para hacer mejores fotos.

Y puesto que la inteligencia de las máquinas es ya presente, las autoridades intentan prever sus consecuencias. En esa línea, la Comisión Europea ha publicado el primer borrador de los principios éticos "para una Inteligencia Artificial confiable". Este texto provisional propone una serie de principios rectores como la supervisión por parte de seres humanos y el respeto por la privacidad y la transparencia, para lograr una "Inteligencia Artificial centrada en el ser humano".

Reconoce la Comisión Europea que "aunque puede traer beneficios a los individuos y la sociedad, la IA también puede tener un impacto negativo". Se establecen una serie de derechos básicos en el desarrollo de la Inteligencia Artificial, entre los que destaca que "debería ser desarrollada, desplegada y utilizada con un propósito ético".

Una IA de confianza debe ser capaz de rendir cuentas

La IA, proponen, debe estar basada en varios derechos fundamentales. Básicamente, cinco: hacer el bien, no hacer el mal, autonomía de los humanos, justicia y que sus acciones sean explicables. Estos principios se aplicarían de manera general, pero especialmente en las situaciones con grupos vulnerables, como niños, discapacitados y minorías, así como a empleados y consumidores.

En el borrador también se disponen como valores básicos la ausencia de discriminación, la necesidad de que siempre sea posible una supervisión por parte de seres humanos, y el respeto a la privacidad de los mismos. Se indica que una IA de confianza debe ser capaz de rendir cuentas, contar con un diseño para todas las personas y respetar la autonomía del ser humano.

En este borrador de los principios éticos "para una Inteligencia Artificial confiable" trabaja un grupo de 52 expertos en IA de la Comisión Europea, procedentes del ámbito académico, empresarial y de la sociedad civil. El texto definitivo se publicará en marzo de 2019. Este grupo de trabajo está abierto a nuevas sugerencas y aportaciones hasta el próximo 18 de enero.





Fuente: www.20minutos.es/ IFTTT