
GPT se rychle vyvíjí a umělá inteligence využívá nových schopností. Vzniká však rizikové chování
20.03.2023GPT-4 je tady, jen několik měsíců po ChatGPT. Je chytřejší, přesnější a hůře se dá oklamat. Nyní má ...
Datum 12.07.2025
Foto: Timo Wielink, Unsplash
Největším problémem u samořiditelných aut s nastupující umělou inteligencí je morální dilema v případě kritických situací, kterých je na cestách spoustu. A právě na takováto zatím ryze lidská rozhodnutí se soustředili vědci z Univerzity v Severní Karolíně. Jejich experimenty s morální psychologií byly testovány s využitím nejkritičtějšího publika, které výzkumníky napadlo: filozofů.
Vědci se snažili najít způsob, jak shromáždit kvantifikovatelná data z provozu auta, protože taková data jsou nezbytná k vycvičení umělé inteligence v automobilu k možnému morálnímu rozhodování. Musí prokázat, že taková data mají smysl a lze je použít k trénování umělé inteligence.
Technika, kterou výzkumníci vyvinuli, je založena na modelu Agent Deed Consequence (Důsledek úkonu agenta). Tato technika testuje, jak lidé posuzují morálnost rozhodnutí při řízení, a to tak, že testovaným osobám sdělí různé scénáře dopravních situací a poté je nechají odpovědět na řadu otázek týkajících se morální přijatelnosti a různých aspektů toho, co se v jednotlivých scénářích odehrálo.
Pro tuto ověřovací studii výzkumníci získali 274 účastníků studie s vysokoškolským vzděláním v oboru filozofie. Výsledky této studie jsou zásadní pro etické programování AV a naznačují, že tyto systémy by měly být navrženy tak, aby zvládaly nejen dilemata s vysokými sázkami, ale také nuance v morálním prostředí každodenního řízení. Naše práce vytváří základ pro zainteresované strany, aby mohly do rozhodovacích algoritmů AV integrovat lidské morální soudy.
René Pajurek
zdroj: North Carolina State University