Roxana Méndez González*
@roxanapaganini

  • Facebook
  • Twitter
  • Linkedin
  • Gmail

Llegó el 2020 y con él muchos avances a nivel tecnológico, cultural, social, entre otros. Nos encontramos en un punto donde ya no es prematuro pensar en la posibilidad de que los robots no solo se encuentren en escenarios donde deban tomar decisiones difíciles, sino también, decisiones éticas.

Déjenme ilustrarlos con un ejemplo, un automóvil llega a su casa a las 8 am para cumplir con la tarea específica de llevarlo a su trabajo. Usted se sube en el asiento trasero del automóvil, deja su maleta al lado y saca su Kindle para continuar con la lectura del libro que lo tenía tan enganchado la noche anterior. Un viaje rutinario, donde nunca se han presentado inconvenientes en el trayecto, inclusive por la hora hay poca congestión, sin embargo, hoy ocurre algo inusual y terrible: son dos niños que cruzan la calle de manera imprudente sin percatarse de la velocidad a la que va el automóvil, con la viva esperanza de alcanzar a pasar… no hay tiempo para frenar, solo hay una opción y es girar a la izquierda, aunque no es lo más viable ya que una moto se aproxima, otro dato, el automóvil no tiene conductor, solo es usted y la máquina.

Ninguno de los resultados es ético, estrictamente hablando, pero en ese orden de ideas, ¿cuál es el menos ético? Este dilema provocado por los niños cruzando de manera imprudente frente al automóvil es una variación contemporánea del dilema del tranvía, un experimento mental en ética ideado por la filósofa británica Philipa Foot, gran estudiosa de la ética aristotélica, contribuyendo al resurgimiento de la ética normativa, que básicamente consiste en la siguiente situación:

Un tranvía avanza sin frenos y está a punto de atropellar a 5 personas que se encuentran sobre la carrilera, usted está a un lado del camino y tiene la opción de activar una palanca que puede salvarles la vida ya que esta hará que automáticamente el tranvía se desvié, pero, matara a una persona que está en el otro carril. Usted solo tiene 10 segundos para tomar la decisión, si no hace nada, mueren 5 personas, si hace algo, muere una ¿usted qué haría?

Este cuestionamiento ha existido durante décadas y aún divide a los filósofos, específicamente a los utilitaristas, los cuales argumentan que es necesario actuar en pro de la felicidad y el bienestar de las mayorías, sin embargo, ya no es un tema meramente humano, estamos hablando de “máquinas éticas”.

Puede que usted piense que estamos lejos de estos escenarios, pero y si fuera así, ¿por qué el Massachusetts Institute of Technology (MIT), inició un proyecto llamado Moral Machine, donde se evidencia claramente como por medio de los datos de crowdsourcing se pueden entrenar a las máquinas de manera efectiva para tomar mejores decisiones éticas en el contexto de los automóviles autónomos?¿por qué la comisión de ética en Alemania sobre la conducción automatizada muestra especial preocupación por dichos casos y recomiendan programar a las máquinas de tal manera que se priorice la vida humana en todo momento?

A partir de estos planteamientos surgen muchas incógnitas como: ¿qué rol tomarían los humanos en torno a la ética imbuida en los robots? ¿será el gobierno quien decida? ¿sus fabricantes? o ¿propiamente el consumidor? Y de ser así, ¿usted podrá entrar a un concesionario y seleccionar la programación ética del automóvil de la misma manera que el color?

Es un tema inquietante que invita a la reflexión, lo animo a que usted me diga si ha reflexionado sobre la robótica en el futuro y los límites éticos de la inteligencia artificial.

*Miembro de número de la dirección de Emprendimiento.

Pin It on Pinterest

Share This