Un Conflicto Moral Detrás de un Avance Tecnológico


Sin duda alguna, los vehículos autónomos están destinados a cambiar el estilo de vida no solo de los conductores sino también, la de todos los transeúntes, trayendo consigo seguridad y comodidad. También conocidos como automóviles autónomos, estos vehículos tienen un mercado que alcanzará aproximadamente los $ 42 mil millones de dólares para 2025 y la tasa de crecimiento anual compuesta (CAGR en inglés) prevista en 21 por ciento hasta 2030. Este cambio será excelente ya que trae consigo nuevos tipos de negocios y servicios; pero la implementación de este sistema en los autos también generará implicaciones éticas igualmente importantes.

Según la Organización Mundial de la Salud (OMS), alrededor de 1.35 millones de personas en todo el mundo mueren cada año en accidentes de tránsito, la mayoría causados ​​por errores humanos. El objetivo principal de los autos con este sistema autónomo es escencialmente el de reducir estos accidentes. Se estima que con la ayuda de estos vehículos se podría disminuir hasta en un 90 por ciento los accidentes de tránsito. A pesar de que los beneficios de los automóviles autónomos son claros, aún existen desafíos que, si no se les pone atención, probablemente podrían arruinar la promesa que trae consigo la tecnología.

Cómo se valora la vida humana es uno de los desafíos clave para los fabricantes de vehículos autónomos. ¿Quién toma la decisión de quién vive y quién muere en una fracción de segundo, o el valor de una vida humana sobre otra? Y, lo más importante, ¿cómo se calcula esa decisión? Estar en la carretera es naturalmente peligroso, y con el peligro vienen compromisos inevitables que se harán a medida que los automóviles autónomos se enfrenten a situaciones de vida o muerte. Para estas situaciones, son necesarias pautas éticas, ya que, si un vehículo autónomo comete un error, podría provocar la muerte de una persona. Y para escenarios como estos, las preguntas sobre quién decide quién vive y cómo se toman esas decisiones se vuelven muy importantes.

Durante años, los investigadores han luchado con esta idea, como el problema del carro propuesto en 1967 por el filósofo Philipa Foot, que se ha intensificado en muchas variantes. Principalmente, se usó para evaluar las decisiones que tomarían las personas cuando se les pidiera elegir una acción que mataría a una persona contra matar a diez, por ejemplo. En el caso de que un automóvil autónomo encuentre una falla mecánica donde su aceleración aumente y continúe sin poder detenerse, causando que pueda chocar contra un grupo de peatones o desviarse y chocar contra un obstáculo que mata al conductor, ¿qué debería hacer el automóvil? ¿Quién decide qué debe hacer el automóvil? ¿Quién es responsable de lo que hace el automóvil? Los conductores humanos han tenido años para estar listos para tomar decisiones como estas, pero aún así, no siempre toman las decisiones correctas.

Los vehículos autónomos podrían elegir quién vive o muere mediante la adopción de principios utilitarios que se centran en el mayor bien para la mayor cantidad de personas. Aún así, ¿cuál es el costo? Por ejemplo, ¿por qué mi vida es menos importante que la de cinco personas que no conozco? Otra opción sería que los automóviles autónomos sigan los principios que garantizarían que el automóvil mantenga su rumbo para mantener al conductor seguro, incluso si daña a otras personas. ¿Preferirían los compradores vehículos autónomos que sigan los principios que matan al conductor para proteger a extraños, o matan a extraños para proteger al conductor? ¿Quién decide qué pautas éticas seguirá la inteligencia artificial en los automóviles autónomos? La verdad es que lo hacemos votando con nuestro dinero.

Hoy en día, la tecnología avanzada está siendo desarrollada por las compañías tecnológicas líderes y no por los gobiernos. Los fabricantes de automóviles autónomos pueden decidir que, para vender sus vehículos, necesitan hacer lo que los consumidores quieren. El crecimiento en el uso de vehículos autónomos viene con la confianza y la comodidad que las personas que compran o usan esos automóviles tienen al usar la tecnología. A principios de 1900, cuando los ascensores se volvieron autónomos, mucha gente se sintió muy incómoda con ellos. Pero a medida que los fabricantes ajustaron y añadieron características, la gente gradualmente comenzó a aceptar el cambio y ahora apenas pensamos en subir a un ascensor.

La idea de que tal vez no tengamos que decidir cómo debe valorarse la vida humana también está sobre la mesa. ¿Es la Inteligencia Artificial determinando sus propios resultados, guiados solo por una base de principios morales que son aceptados globalmente, lo correcto?

El problema con esto es que la ética puede definirse de manera diferente en la forma en que los valores se definen de manera diferente. Lo que puede ser aceptable en un país puede no serlo en otro. En un artículo para la Revista Digitalist (Digitalist Magazine en inglés), Rudeon Snell dijo: "Espero que no nos sorprendamos por las consecuencias no deseadas que podrían descarrilar la promesa que ofrece la tecnología innovadora solo porque no nos tomamos un momento para anticipar cómo podríamos lidiar con ellas. Después de todo, lo correcto y lo incorrecto están influenciados por otros factores además de los pros y los contras de una situación. Si hacemos las preguntas difíciles ahora, podemos conducir nuestro mundo en la dirección que queremos, no solo para nosotros hoy, sino para nuestros hijos mañana”.

[Source: Digitalist Magazine]

Name
Location
Email
Comment