Tramvaj se řítí na pět lidí, kteří o tom nevědí. Na vedlejší koleji je jen jedna osoba, kterou vůz srazí, dojde-li k přehození výhybky. Náhodný kolemjdoucí situaci sleduje a výhybku může přehodit. Otázka zní: je eticky legitimní to udělat?
Bořivoj Brdička (youtube.com) |
Ten, kdo přehazuje výhybku, dnes nutně nemusí být člověk. Je-li to automat (robot), celá věc bude vypadat docela jinak. Stejný problém musí občas řešit například autonomní (samořízené) vozidlo. Představte si analogickou situaci: Auto se řítí na stánek se zeleninou, u něhož stojí 5 lidí. Existuje možnost strhnout řízení směrem, kde stojí jeden člověk. Co se má stát?
Problém najednou dostává úplně jiné dimenze. Už tu není řidič, který se musí ve zlomku vteřiny rozhodnout, co udělá (skoro jistě by v té situaci dal přednost tomu řešení, které by bylo nejvýhodnější pro něj samotného). Je zde umělá inteligence pracující s funkcí strojového učení, které lze určitý postup ve specifických situacích vnutit. Má preferovat minimalizaci následků, tj. zabít jen jednoho člověka? Co když je to dítě? Která varianta znamená větší riziko pro cestující? Má dát přednost ochraně majitele (cestujících)?
Zvolené řešení přestává být etickým problémem řidiče a stává se problémem vývojářů společností, které autonomní vozidla vyvíjejí. Jak se k tomuto problému staví lidé napříč etniky a kontinenty s pomocí svých studentů zkoumá Iyad Rahwan, profesor MIT Media Lab a ředitel Max Planck Institute for Human Development. Vyvinuli nástroj, který prostřednictvím webu měří reakce návštěvníků na různé problémové situace (Moral Machine). Řekl bych, že by jeho vyzkoušení mohlo být docela zajímavým doplňkem výuky.
Celý text naleznete zde
0 komentářů:
Okomentovat