continguts

LECTURA 146: A QUI HA D'INTENTAR ESQUIVAR PRIMER UN VEHÍCLE AUTÒNOM?

A qui ha d’intentar esquivar primer un vehicle autònom?

Suposem que anem conduint i ens surt una persona que creua el carrer incorrectament. I que, si l’esquivem, atropellarem una altra persona que camina pel lloc correcte. Què faríem nosaltres en aquesta situació? La manera com es resolga dependrà de l’experiència, els reflexos, la destresa i la serenitat del conductor i, també, de l’atzar i del que facen altres conductors o vianants. Un conductor intentarà salvar la situació fent el mínim de mal a ell mateix, als seus possibles passatgers i a tercers. Per contra, un cotxe autònom no funciona així. Els vehicles sense conductor tenen nombrosos sensors i un sistema informàtic que els diu què han de fer. Coses tan senzilles com aturar-se en el lloc indicat quan el semàfor està en vermell o impedir girar a la dreta, si hi ha un senyal que prohibeix aquesta maniobra.

El cotxe es trobarà amb moltes altres situacions. En alguns casos ha de prendre decisions senzilles: moderar la velocitat si el terra està mullat o extremar les precaucions si la visibilitat és menor per culpa de la boira. Però, què passa si ha d’afrontar la situació que hem citat al principi? O si ha de triar entre atropellar un ciclista o xocar contra un vehicle que ve de front? O entre esquivar una dona embarassada o una persona gran? No hi ha respostes clares ni unes que siguen èticament més acceptables que altres, però el sistema informàtic del vehicle sense conductor ha de tenir uns paràmetres per decidir.

Un equip d’investigadors dels Estats Units, el Canadà i França han intentat fer una aportació al debat. L’ha encapçalat Iyad Rahwan, del MIT Media Lab, i s’ha publicat a Nature, encara que cal fer un avís previ: els autors no afirmen que volen trobar un barem perquè el cotxe autònom decidisca a qui ha d’esquivar i a qui no, sinó veure quines prioritats morals expressa majoritàriament la gent. Consideren que si els cotxes es programen de manera que davant d’un dilema moral actuen de forma diferent de com la societat troba que és acceptable, hi haurà menys gent disposada a comprar-los o a tolerar que proliferen.

Per conèixer les opinions i observar si hi ha diferències per grups socials o per territoris, calia una mostra molt gran i universal. Per això es van inventar un joc —un serious game—, un joc que no té únicament objectius lúdics. Van crear una plataforma que van anomenar Màquina Moral, van plantejar una sèrie de situacions i van rebre la visita de més de dos milions de participants de 233 països i territoris.

Les preguntes eren de l’estil que comentàvem al principi. En la tessitura de canviar de carril per no atropellar algú o de no fer res per no crear un altre possible problema, què caldria fer? Les qüestions anaven destinades a fer que la gent explicara si té prioritat per animals o persones, per grups o per individus sols, per homes o per dones, per joves o per grans... Vora mig milió de persones ho van fer. I tothom es geolocalitzava per classificar les respostes per zones del planeta.

Els resultats indiquen que hi ha unes decisions que es prendrien de forma pràcticament universal per part de qualsevol persona de qualsevol grup social i territori. Són aquestes: salvar abans una persona que un animal, intentar salvar el màxim nombre de persones i, finalment, prioritzar salvar els joves davant dels grans. Algunes diferències culturals no alteren el resultat, si bé rebaixen algunes preferències. Així, en la zona que han anomenat Est (països de l’est i el sud asiàtics) la preferència per salvar els joves no és tan clara com a la resta. En altres casos, sí que hi ha diferències. Així, als països on hi ha més confiança en les lleis i les institucions la prioritat és salvar els qui segueixen les normes, però als països que no tenen tanta confiança en els governants hi ha més tolerància amb els qui se salten alguna norma.

Com reconeixen els autors, les situacions que planteja el joc no són realistes. Es considera que l’obstacle s’identifica amb un cent per cent de certesa i que també se sap amb tota seguretat quina maniobra acabarà amb la mort d’algú. Cal afegir que tampoc no es tracta de reproduir la realitat i saber què pensa la gent a fi de programar de la mateixa manera els vehicles autònoms. L’objectiu és extraure conclusions, com ara que la Màquina Moral no permet acordar els principis d’una inexistent ètica universal —cosa, d’altra banda, polèmica però sabuda. I a banda d’això, posar sobre la taula un debat important. En una societat en què les màquines decideixen cada vegada més coses, cal marcar quines tendències s’introdueixen en els algoritmes que els permeten decidir o potser concloure que, en molts casos, deixar que la màquina decidisca és massa arriscat.

TEST


FONT: enciclopedia.cat (adaptació)