Nový test, který pomůže samořiditelným autům činit „morální“ rozhodnutí

Datum 12.07.2025

Foto: Timo Wielink, Unsplash

Největším problémem u samořiditelných aut s nastupující umělou inteligencí je morální dilema v případě kritických situací, kterých je na cestách spoustu. A právě na takováto zatím ryze lidská rozhodnutí se soustředili vědci z Univerzity v Severní Karolíně. Jejich experimenty s morální psychologií byly testovány s využitím nejkritičtějšího publika, které výzkumníky napadlo: filozofů.

Vědci se snažili najít způsob, jak shromáždit kvantifikovatelná data z provozu auta, protože taková data jsou nezbytná k vycvičení umělé inteligence v automobilu k možnému morálnímu rozhodování. Musí prokázat, že taková data mají smysl a lze je použít k trénování umělé inteligence.

Technika, kterou výzkumníci vyvinuli, je založena na modelu Agent Deed Consequence (Důsledek úkonu agenta). Tato technika testuje, jak lidé posuzují morálnost rozhodnutí při řízení, a to tak, že testovaným osobám sdělí různé scénáře dopravních situací a poté je nechají odpovědět na řadu otázek týkajících se morální přijatelnosti a různých aspektů toho, co se v jednotlivých scénářích odehrálo.

Pro tuto ověřovací studii výzkumníci získali 274 účastníků studie s vysokoškolským vzděláním v oboru filozofie. Výsledky této studie jsou zásadní pro etické programování AV a naznačují, že tyto systémy by měly být navrženy tak, aby zvládaly nejen dilemata s vysokými sázkami, ale také nuance v morálním prostředí každodenního řízení. Naše práce vytváří základ pro zainteresované strany, aby mohly do rozhodovacích algoritmů AV integrovat lidské morální soudy.

René Pajurek
zdroj: North Carolina State University

Infotherma – 700 x 200 px

Napsat komentář