Monday, July 13, 2015

Ética robótica.

Las tres leyes de la robótica por primera vez aparecieron en un relato de 1942, "Runaround", del escritor de ciencia ficción Isaac Asimov.

Estas tres leyes dicen: 1) no hacer daño a un ser humano, por inacción o dejar que se le haga daño 2) obedecer todas las ordenes de los seres humanos a excepción de aquellas que entren en conflicto con 1) y 3) un robot debe proteger su propia existencia a no ser que entre en conflicto con 1) o 2).

Estas tres leyes parecen que finalmente tendrán que hacerse realidad en el 2015. Los robots o sistemas automatizados cada vez se están haciendo más autonomos y necesitan una guía ética. Este pasado mes de mayo en el Brookings Institute, un think tank de Whashington, se celebró un panel de debate sobre coches sin conductor. En én se discution sobre qué hacer en una situación de crisis como por ejemplo cuando el coche sin conductor tiene que evitar golpear a un niño pero golpea a cosas que están cercanas.

El desarrollo de la IA y la capacidad de actuar por si mismo afectará a drones militares, robots médicos o cualquir otro dispositivo autónomo. Introducir software para la resolución y toma de decisiones éticas en situaciones que la requieran es una demanda urgente.

Diversos proyectos desarrollados por organismos como la Oficina de los EE.UU. de Investigación Naval o el Consejo Gubernamental de Ingeniería del Reino Unido están realizando estudios que reunen a cientificos computacionales, ingenieros, éticos y filósofos para examinar la cada vez mayor autonomía de los robots y sistemas automatizados.

Imagínate que un robot asistencial que tiene que recordar que un paciente tome la medicación se encuentra con que la persona no quiere tomar la medicación. Aunque esto pueda parecer trivial tiene un problema ético de fondo muy serio. El robot se encontraría con un conflicto frente a su mandato,  pero no podría interferir en la autonomía de la persona: ¿qué hacer?

Hay otras situaciones en los que robots o sistemas automatizados y más concretamente los coches sin conductor se pueden encontrar de una forma rutinaria: ¿Cómo decidir entre dos males?

Se debe encontrar la manera en que los sitemas de IA piensen de la forma más adecuada en situaciones éticas. Los dilemas morales son escenarios en los que la toma de decisión y el razonamiento se encuentra con situaciones donde no hay una fácil respuesta. Entre los dilemas morlaes más famosos porque han servido a los filósofos para estudiar las intuiciones éticas de la gente ordinaria son "los problemas del tranvía". En estos problemas un tranvía va sin control por una vía dirigido hacia cinco personas que se encuentran al final. La persona se encuentra con la decisión de girar una palanca que conduciría el tranvía hacia otra vía donde solo se encuentra una persona al final. Pero la persona situada en un puente también puede empujar a un transeunte situado con él en el puente para impedir que el tranvía llegue a hacer daño a las cinco personas.

Este escenario o dilema moral explora la doctrina del doble efecto que dice que inflingir daño está mal incluso aunque conducza a un bien, pero que está bien infligir daño si no es deliberado, sino la consecuencia de un bien.

Algunos científicos computacionales con ayuda de filósofos están intruduciendo en los parámetros de software está doctrina del doble efecto e incluso la más compleja doctrina del triple efecto.

El transporte autónomo de compañias como Google ya está empezando a ser estudiado y analizado por filósofos porque su operatividad en las carreteras está cada vez más cerca. Ya se están haciendo pruebas por california (aquí).

Tendremos que convivir con robots de eso no hay duda, pero para ello, los robots han de estar guiados por principios éticos. El nuevo campo de investigación y estudio de la ética robótica deberá institucionalizarse y crearse formación reglada en ella.



-------------------------------------------
ResearchBlogging.orgDeng B (2015). Machine ethics: The robot's dilemma. Nature, 523 (7558), 24-6 PMID: 26135432

No comments: