Ética y robótica: ¿Hasta dónde debería llegar el avance de los robots?

El avance de la robótica en una variedad extensa de áreas y disciplinas genera preguntas ¿Quién asume la responsabilidad de una máquina cuando se esta produce efectos indeseados? ¿Llegará el día en que los robots desarrollen otras máquinas y seamos incapaces de comprender su funcionamiento o manera de pensar?

Y la pregunta que más nos inquieta ¿Podemos perder el control sobre los robots? 




Para poder dar respuesta a estas preguntas, las sociedades, los gobiernos y estados deberían comenzar a establecer algunos límites. 


Ya en el año 1942 Isaac Asimov enunció tres leyes que la 

robótica debería seguir:

1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra

daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos excepto si estas órdenes

entrasen en conflicto con la 1ª ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en

conflicto con la 1ª o la 2ª ley.

Más tarde, Asimov se dio cuenta de que era necesario añadir una cuarta ley que fuese la primera de todas:

0. Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra

daño.

 Han pasado décadas desde entonces, y la comisión de Asuntos Jurídicos del Parlamento Europeo tomó cartas en el asunto para, en el año 2016, emitir un documento en el que proponía una serie de leyes para proteger a la humanidad y controlar el crecimiento de los robots. Sobre todo, en uno de los campos donde

parece que están teniendo un efecto mayor y más inmediato: la sustitución de robots por seres humanos en los puestos de trabajo. Entre sus puntos se encuentran:

1. Proteger a los seres humanos de los daños causados por robots. Una norma que parece sencilla pero que se vuelve tremendamente complicada cuando la aplicamos a los coches autónomos. Por ejemplo, se pueden presentar dos dilemas. En uno, un coche autónomo con un pasajero llega a un cruce, en ese instante otro coche con cinco pasajeros se salta el semáforo y se interpone en el camino del primero. ¿Qué debería hacer el coche autónomo? ¿Seguir recto y matar a las 5 personas? ¿O girar y colisionar contra un muro acabando con la vida de su pasajero? En el otro, dos coches autónomos con un pasajero cada uno, circulan cerca de un precipicio mientras llueve. Uno de ellos resbala y se dirige al borde. ¿Qué debería hacer el coche autónomo?

¿Seguir recto y caer por el precipicio o desviarse, lo que empujaría al otro coche al vacío?

2. Respetar el rechazo a la atención por parte de un robot. Si una persona se siente incomoda con la presencia del robot puede negarse a ser atendido por uno.

3. Proteger la libertad humana frente a los robots. Las máquinas podrían llegar a imponer comportamientos a las personas.

4. Proteger a la humanidad contra las violaciones de la privacidad cometidas por un robot. La cantidad de sensores con los que recogen información los robots podría llegar a poner en peligro nuestra intimidad.

5. Gestionar de manera ética los datos personales procesados por robots. Con toda la información que podrían recopilar, podríamos llegar a perder el control sobre como la utilizan y con qué fines.

6. Proteger a la humanidad de ser manipulados por robots. Siempre que un robot simule emociones, existe el riesgo de que una persona sienta lo mismo y genere un vínculo. Es decir, no enamorarnos de una máquina.

7. Evitar la disolución de los vínculos sociales, principalmente en el ámbito de la salud y el cuidado de las personas mayores. No es lo mismo que un robot atienda y ayude a un anciano acompañándolo que abandonemos la interacción y cuidado cediéndola por completo a los robots y aislando socialmente a los atendidos.

8. Igualdad de acceso al progreso en la robótica. Que no solo tengan acceso a los robots las grandes compañías.

9. Restringir el acceso humano a las nuevas tecnologías. Esta ley no busca contradecir a la anterior, sino que lo que se pretende que evitar la aparición de ciborgs sin control. La creación de híbridos humano-máquina mejorados y con sus capacidades ampliadas sin restricciones, obligaría al resto de la humanidad a mejorar o desaparecer.

El debate está abierto y las preguntas del principio nos seguirán interpelando también en los próximos años.



Para pensar ¿Qué otro principio o ley debería sancionarse para marcar un límite ético en la relación robots - humanos? 

Fuentes: Fund.Telefónica España. /Imágenes: Web

Comentarios

Entradas populares