Výzkum v oblasti bezpečnosti a uspořádání hodnot umělé inteligence to nemá jednoduché. Většina laické veřejnosti má z budoucí umělé inteligence obavy. Ty však vycházejí ze zkreslených představ. Lidé si představují zlý systém Skynet a vraždící Terminátory. Ještě horší je názor mnoha mých kolegů, protože jde o názor expertů. Leckdo z nich tvrdí, že řešit bezpečnost umělé inteligence AI je nesmysl. Buď že je natolik v plenkách, že reálně nedokáže člověka ohrozit. A navíc stojí před tolika technickými problémy, že se je ani nikdy nepodaří vyřešit. Nebo že je v plenkách, a až se podaří všechny technické těžkosti odstranit, tak se nějak samy vyřeší i ty bezpečnostní potíže.
První z argumentů je pitoreskní: psychologický aspekt popření nepohodlné situace je zřejmý, přičemž příslušní výzkumníci raději prohlásí, že předmět jejich výzkumu − umělá inteligence samotná − je nesmyslný a nedosažitelný. Představme si, že by něco podobného prohlásila komunita onkologických výzkumníků: najednou by řekli, že stejně vědí, že lék na rakovinu nelze vytvořit. U druhého argumentu si opět představme lékařské vědy a farmaceutický výzkum: pojďme vyvíjet léky jen s ohledem na jejich účinnost, nikoli na bezpečnost. A pokud by se u léku při jeho používání mělo ukázat, že je toxický, tak to řešme, až to přijde.
Přál bych si, aby si mnohem více humanitně vzdělávaných studentů osvojovalo principy algoritmického myšlení, udělalo si kurzy programování a pustilo se do experimentování s neuronovými sítěmi. Zjistili by totiž, že to není zdaleka taková věda, ale hlavně by pomohli naředit současný fachidiotismus inženýrské komunity, jejíž nemalá část takříkajíc "nevidí za poslední brázdu" svých hračiček. Takovéto naředění umělá inteligence potřebuje.