20 de Julio de 2018

A+ A A-

Los autos autónomos y la ética en algoritmos

Valora este artículo
(0 votos)

Un tren circula a alta velocidad por una vía.

Todavía está a cierta distancia del lugar donde estás y ves que más adelante hay 5 personas reparando la vía.

No tenés manera de avisarle al maquinista ni a los obreros del inminente peligro, pero delante tuyo hay una palanca que permite desviar el tren a una vía alternativa en la que está trabajando una sola persona.

Solo hay 10 segundos para tomar una decisión. ¿Usarías el mecanismo para salvar a cinco pero activamente condenar a uno? ¿O dejarías que mueran más personas pero sin tener responsabilidad activa en esas muertes?

Este es un dilema que se usa con mucha frecuencia para ilustrar la complejidad filosófica de los problemas éticos. Sirve como disparador del pensamiento pero la situación es tan artificial que jamás podría presentarse. ¿O sí?

Estamos a unos pocos años de que circulen autos autónomos en nuestras calles. Es decir, vehículos que no serán conducidos por personas sino por computadoras dotadas de mucha más cantidad de sensores y con mucha más potencia y confiabilidad que dos ojos y dos orejas.

Esa es una gran noticia porque los humanos somos muy malos manejando: la abrumadora mayoría de las muertes por accidentes viales se deben a errores conductivos y no a fallas mecánicas.

Las computadoras no toman alcohol, no tienen una “mala noche” y hasta pueden enviar mensajes de whatsapp sin que eso reduzca su capacidad de atención. La conducción autónoma reducirá drásticamente la cantidad de accidentes y salvará miles y miles de vidas.

Pero un efecto secundario de este cambio es que el problema ético del inicio se convertirá en una realidad tangible. Si por una situación imprevista, digamos la rotura inesperada de un neumático, el “cerebro” del auto determina que una colisión es inevitable, el auto deberá “elegir” qué accidente es preferible. En otras palabras, para poder circular los autos autónomos deberán tener un algoritmo que les proporcione una ética, una manera de definir este tipo de conflictos morales.

Más concretamente: imaginá que un auto autónomo está circulando por un camino de cornisa y ocurre una falla que hace que un accidente sea inevitable.

El auto puede entonces elegir entre dos opciones: una alternativa es evitar el precipicio y chocar de frente a un ómnibus escolar lleno de chicos, probablemente matando a varios de ellos y dejando herido al dueño del auto; la otra opción es lanzarse al precipicio para evitar matar a los chicos pero condenando a muerte al ocupante. ¿Qué querrías que haga tu auto si fueras esa persona?

Las preguntas no se agotan allí. Te comparto solo algunas para que pienses. ¿Te subirías a un auto sabiendo que puede decidir matarte si así salva otras vidas? ¿Cuántas vidas habría que salvar para que estés dispuesto a perder la tuya? ¿Queremos una sociedad de autos “egoístas” que prioricen a su pasajero ante todo? ¿Legislaremos una ética unificada o convivirán varias diferentes? ¿Elegiremos a nuestros vehículos de acuerdo a cuál se acerca más a nuestros valores?

Decidir qué criterio ético darle a nuestros autos es un tema de enorme sensibilidad que está empezando a ser trabajado y discutido por investigadores, filósofos y tecnólogos.

La discusión es apasionante y de su resultado depende la posibilidad de salvar miles de vidas, tal vez la tuya o la mía. Pero está en juego también la chance de que quizás te toque ser sacrificado por un algoritmo para salvar a otras personas. ¿Estamos listos para el futuro?

Comentario en Facebook

Copyright 2012 © - Todos los derechos Reservados | Design by ideas2.com.ar