Roboti zabíjejí lidi už dávno. Umělá inteligence je činí ještě nebezpečnějšími

Zdroj: Pixabay
Technologie 11. 09. 2023

Roboti zabíjejí lidi už dávno. Umělá inteligence je činí ještě nebezpečnějšími

Roboti podle webu The Atlantic zabíjejí lidi už desítky let. Vývoj pokročilejší umělé inteligence jen zvýšil potenciál strojů způsobit škodu. A je proto potřeba je regulovat.

Jednoho dne v roce 1979 se robot v odlévárně společnosti Ford Motor Company porouchal – lidským pracovníkům se zdálo, že se nepohybuje dostatečně rychle. A tak byl pětadvacetiletý Robert Williams požádán, aby vylezl do skladovacího regálu a pomohl s přesunem věcí. Robot o hmotnosti jedné tuny ale pokračoval v práci, udeřil Williamse do hlavy a na místě ho zabil, píše server The Atlantic. Jednalo se údajně o první incident, při kterém robot zabil člověka.

V roce 1981 ve společnosti Kawasaki Heavy Industries zemřel Kenji Urada. Ten šel zkontrolovat nefunkčního robota, který mu zastoupil cestu a zabil ho. Robot jednoduše usoudil, že nejefektivnější způsob, jak eliminovat hrozbu, je zatlačit pracovníka do sousedního stroje.

Hrozbou jsou samořiditelná auta i robotičtí psi

Od roku 1992 do roku 2017 měli roboti na pracovišti na svědomí 41 úmrtí zaznamenaných ve Spojených státech – a to je pravděpodobně podhodnocený údaj, zejména když vezmeme v úvahu vedlejší účinky, jako je ztráta pracovních míst v důsledku automatizace. Samohybné protiletadlové dělo zabilo v roce 2007 devět jihoafrických vojáků, když možné selhání softwaru způsobilo, že se stroj začal divoce otáčet a během necelé sekundy vystřelil desítky smrtících nábojů.

A tyto hrozby mohou ještě narůst. Na amerických silnicích již jezdí samořiditelná auta a orgány činné v trestním řízení využívají robotické psy. Počítačové systémy získávají schopnost používat zařízení, což jim umožňuje přímo ovlivňovat fyzický svět. Proč si dělat starosti s teoretickým vznikem všemocného superinteligentního programu, když máme přede dveřmi bezprostřednější problémy? Regulace by podle webu The Atlantic měla vést společnosti k bezpečným inovacím a inovacím v oblasti bezpečnosti. Tam jsme se ještě nedostali.

Je potřeba regulace

Historicky bylo k podnícení regulace zapotřebí velkých katastrof – takových, které bychom v ideálním případě předvídali a kterým bychom se v dnešním paradigmatu umělé inteligence vyhnuli. Katastrofa v továrně na boty Grover v roce 1905 vedla k předpisům upravujícím bezpečný provoz parních kotlů.

Podniky tehdy tvrdily, že velké stroje s parní automatikou jsou příliš složité na to, aby porušovaly bezpečnostní předpisy. To nepochybně vedlo k přehlížení bezpečnostních mezer a k nárůstu počtu katastrof. Teprve když Americká společnost strojních inženýrů požadovala analýzu rizik a transparentnost, bylo nebezpečí, které představovaly tyto obří nádrže s vařící vodou, kdysi považované za tajemné, lépe vyhodnoceno.

Snad nejlepší analogií je vývoj Federálního úřadu pro letectví. Úmrtí v prvních desetiletích letectví si vynutila regulaci, která si vyžádala nový vývoj legislativy i technologií. Počínaje zákonem o leteckém obchodu z roku 1926 Kongres uznal, že integrace letecké technologie do života lidí a ekonomiky vyžaduje nejvyšší kontrolu. Dnes je každá letecká nehoda pečlivě zkoumána a inspiruje nové technologie a postupy.

Mění se technologie, musí se změnit i regulace

Jakákoli regulace průmyslových robotů vychází ze stávající průmyslové regulace, která se vyvíjela po mnoho desetiletí. Protože se však technologie stále mění, musí podle webu The Atlantic vláda jasněji regulovat, jak a kdy lze roboty ve společnosti používat. Zákony musí vyjasnit, kdo nese odpovědnost v případě, že činnost robotů způsobí škodu, a jaké budou právní důsledky. Ano, nehody se stávají. Ale zkušenosti z letectví a bezpečnosti práce ukazují, že nehodám lze předcházet, pokud se o nich otevřeně diskutuje a jsou řádně prověřeny.

Společnosti zabývající se umělou inteligencí a robotikou si to nepřejí. Například společnost OpenAI údajně bojovala za „zmírnění“ bezpečnostních předpisů a snížení požadavků na kvalitu umělé inteligence. Podle článku v časopise Time lobbovala u orgánů EU proti klasifikaci modelů, jako je ChatGPT, jako „vysoce rizikových“, což by vedlo k „přísným právním požadavkům včetně transparentnosti a lidského dohledu“.

Odůvodněním údajně bylo, že OpenAI nezamýšlela, aby její produkty byly používány k vysoce rizikovým účelům – což je podobná logika, jako když majitelé Titaniku lobbovali za to, aby na lodi nebyly kontrolovány záchranné čluny na základě zásady, že se jedná o loď „pro všeobecné použití“.

Odpovědnost mají především samotné firmy

Velké korporace mají tendenci vyvíjet počítačové technologie pro vlastní potřebu, přenášet břemeno svých nedostatků na celou společnost nebo tvrdit, že bezpečnostní předpisy, které chrání společnost, ukládají nespravedlivé náklady samotným korporacím. To všechno už jsme slyšeli a měli bychom podle webu The Atlantic být k takovým tvrzením velmi skeptičtí.

Současná úmrtí způsobená roboty s umělou inteligencí se nijak neliší od nehod robotů v minulosti. Od prvního známého úmrtí v lednu 2016 se podle oficiálních zpráv autopilot společnosti Tesla podílel na více než 40 úmrtích. Některé vozy s autopilotem špatně četly dopravní značky, náhle vrazily do jiných aut či stromů nebo narazily do dobře označených servisních vozidel.

S tím, jak směřujeme k budoucnosti, kdy se roboti stanou nedílnou součástí našich životů, nesmíme podle webu The Atlantic zapomínat, že bezpečnost je důležitou součástí inovací. Skutečný technologický pokrok vychází z uplatňování komplexních bezpečnostních standardů ve všech technologiích, a to i v těch nejfuturističtějších a nejúchvatnějších robotických vizích. Poučením se z minulých úmrtí můžeme zdokonalit bezpečnostní protokoly, opravit konstrukční chyby a zabránit dalším zbytečným ztrátám na životech.

Autor: redakce

FocusOn je zpravodajský web zaměřený na nové trendy v ekonomice s důrazem na využívání moderních technologií.

Další články