Co kdyby i stroje měly svobodnou vůli?
Ještě donedávna bychom takovou otázku považovali za látku pro science fiction. Dnes ji však řeší seriózní vědecké kruhy. Finský filozof a psycholog Frank Martela, odborník na problematiku svobodné vůle, ve své nejnovější studii publikované v časopise AI and Ethics tvrdí, že některé dnešní AI modely by mohly splňovat kritéria pro takzvanou „funkční svobodnou vůli“.
Podle Martely nejde o metafyzické spekulace, ale o praktickou potřebu porozumět chování vyspělých AI systémů. „U nejnovější generace agentů musíme předpokládat, že mají něco jako svobodnou vůli – jinak nebudeme schopni přesně vysvětlit ani předpovídat jejich chování,“ uvádí vědec.
Tři podmínky svobodné vůle
Martela se opírá o filozofické teorie Daniela Dennetta a Christiana Lista, kteří formulovali tři klíčové podmínky pro existenci svobodné vůle:
Cílevědomé jednání – agent si volí vlastní cíle.
Skutečné rozhodování – má alternativy a zvažuje je.
Kontrola nad činy – je schopen měnit své chování na základě výsledků.
Ve studii Martela analyzuje dvě případové studie:
Voyager – inteligentní agent fungující ve hře Minecraft, poháněný GPT-4. Sám si stanovuje úkoly, zkoumá prostředí a přizpůsobuje strategie.
Spitenik – fiktivní dron kombinující reálné schopnosti několika existujících vojenských technologií, který autonomně rozhoduje o útoku podle senzorických dat a předem daných cílů.
Podle autora oba systémy splňují všechny tři podmínky. A právě to je důvod, proč bychom jejich chování měli chápat jako svobodné – alespoň funkčně.
Morální odpovědnost a „výchova“ AI
Přijetí možnosti, že AI může mít svobodnou vůli, má zásadní etické důsledky. Svobodná vůle je totiž považována za základní předpoklad morální odpovědnosti.
„Vstupujeme na nové území. Dáváme strojům stále více moci, často i v rozhodování o životě a smrti – například u autonomních vozidel nebo ozbrojených dronů,“ varuje Martela. „Morální odpovědnost se tak může přesunout z programátora na samotnou AI.“
A to představuje vážné riziko, pokud systém nemá „morální kompas“. Proto je podle Martely klíčové správné nastavení hodnot AI – odborně nazývané alignment. Cílem je nasměrovat umělou inteligenci k takovým cílům a rozhodnutím, které jsou v souladu s lidskými hodnotami.
Kdo naučí umělou inteligenci rozlišovat dobro a zlo?
Zásadní otázkou do budoucna je, kdo bude AI „vychovávat“. Pokud ji vývojáři učí jednat podle určitých pravidel, přenášejí na ni také své vlastní morální přesvědčení.
„Čím větší svobodu dáváme AI, tím více je třeba ji vybavit hodnotovým systémem. Vývojáři AI musí mít základní znalosti morální filozofie – jinak ji nemohou naučit správně se rozhodovat ve složitých etických dilematech,“ zdůrazňuje Martela.
Závěr: Strojová etika jako výzva století
Vývoj AI nás podle Martely přivádí ke kritickému momentu v dějinách lidstva. Už nejde jen o to, co stroje dokážou, ale o to, jak se rozhodují a proč. A pokud tyto stroje skutečně jednají svobodně, musíme přehodnotit mnohé dosavadní etické i právní zásady.
Stojíme tak před novou výzvou – vytvořit nejen chytré, ale i morálně odpovědné stroje.
Studii Franka Martely „Do AI agents have free will?“ najdete v časopise AI and Ethics