Rasističtí a sexističtí roboti? Britové vydali etický kodex pro robotiku
Nebezpečí umělé inteligence
Robot nesmí ublížit člověku, musí ho poslouchat a musí chránit sám sebe před poškozením. Takové zákony robotiky nastavil už před sedmdesáti lety otec sci-fi literatury Isaac Asimov. Britský normalizační ústav nyní vydal poněkud konkrétnější a aktuálnější etický kodex, který se zabývá soužitím lidí a robotů, píše britský The Guardian. Kodex počítá také s tím, že se roboti mohou chovat jako lidé, a to se všemi lidskými chybami.
„Roboti by neměli být určeni výhradně nebo převážně k ublížení nebo zabíjení lidí. Lidé, ne roboti, nesou odpovědnost. Vždy by měl existovat způsob, jak zjistit, kdo je zodpovědný za daného robota a jeho chování,“ píše se v úvodu etického kodexu, který sestavil Britský normalizační ústav. Je určen především pro vývojáře, kteří pracují s umělou inteligencí. Text varuje především před klamáním ze strany robotů, závislosti na robotech a nekontrolované strojové učení robotů.
Vědci se třeba zabývali tím, jaké důsledky může mít vyvinutí emocionálního vztahu k robotovi, jako příklad uvedli roboty určené k interakci s dětmi či staršími lidmi. Podle Noela Sharkeyho, emeritního profesora robotiky a umělé inteligence z University of Sheffield, ukázal nedávný experiment v mateřské školce, že se děti s roboty opravdu podle svých slov „spřátelily“ a považovaly je dokonce za chytřejší než domácí zvířata.
Právě kognitivní schopnosti robotů podléhají neustálému vývoji, prudce se například rozvíjí oblast strojového učení, zvaná hluboké učení (deep learning). Robot s takovým systémem se nerozhoduje podle předem nastavených algoritmů, ale dokáže se učit samostatně. Software totiž simuluje šíření vzruchů mezi neurony v lidském mozku. Robot stejně jako člověk pak používá staré poznatky k řešení nových úkolů. Závěry však mohou být občas pravým opakem toho, co vývojáři očekávali. Kodex tak upozorňuje na to, že roboti nemusí rozumět kulturní diverzitě či pluralismu, a mohou se tak chovat sexisticky či rasisticky.
Roboti s předsudky
„Už nyní se to ukazuje u policejních technologií,“ podotýká profesor Sharkey, podle kterého systémy na rozpoznávání podezřelých osob na letištích dokazují, že mají rasové preference. „Systémy hlubokého učení trénují na datech na internetu, tato data jsou však často plná předsudků. Tyto systémy pak mají tendenci preferovat bílé muže ve středním věku, což je jednoznačně katastrofa. Mají tendenci absorbovat všechny lidské předsudky,“ říká Alan Winfield, profesor robotiky na University of the West of England.
Podle vědců hrozí, že roboti v medicíně budou hůře pracovat při diagnóze žen nebo lidí z etnických minorit. Už nyní existují podle The Guardian softwary pro rozpoznávání hlasu, které hůře rozumí ženám, či systémy pro rozpoznávání obličejů, které hůře identifikují černé tváře na rozdíl od těch bílých.
Kodex se zabývá i závislostí na strojích, které se postupně dostávají do všech oblastí lidského života. Nenabízí však pro vývojáře způsob, jak toto řešit, jedná se tak spíše o společenskou a psychologickou otázku.
Text pracuje i s vidinou z budoucnosti, kdy se ve stylu Čapkova R.U.R. mohou roboti vzbouřit a vytvořit své vlastní plány, což by mohlo mít „nedozírné následky“. V takovém případě pak bude podle kodexu nutné přijmout zákonná opatření.