Digitální svět, často spojený s umělou inteligencí, je fascinující, ale také právně poměrně složitý. Pokud vyvíjíte nebo provozujete software, zbystřete. Můžete se totiž ocitnout v situaci, kdy budete čelit náhradě škody, ačkoliv jste „jedničky a nuly“ pečlivě otestovali. Pravidla se přiostřují a je dobré být připravený. Evropská unie přichystala dvě směrnice, které výrazně zpřísní odpovědnost za případné škody. Nová pravidla zasáhnou prakticky každého, kdo se pohybuje v oblasti vývoje softwaru nebo AI systémů.
Kdo ponese odpovědnost?
Dosud byla odpovědnost za škody způsobené vadou softwaru poměrně nejasná. To se ale změní. Nové směrnice, konkrétně modernizovaná Směrnice o odpovědnosti za vadné výrobky (Product Liability Directive) a Směrnice o odpovědnosti za umělou inteligenci (AI Liability Directive), přesně stanoví, kdo za co odpovídá.
Pokud tedy vyvíjíte aplikaci nebo poskytujete cloudové řešení, budete odpovědní za škody, které váš produkt způsobí. A nejde jen o vývojáře – odpovědnost dopadne i na distributory a provozovatele.
Směrnice o odpovědnosti za vadné výrobky nahrazuje původní směrnici z roku 1985, která nemohla reflektovat vývoj moderních technologií. Nyní pod definici výrobků spadnou i software a digitální výrobní soubory. Cílem je zajistit právní jistotu a ochranu těm, kteří požadují náhradu škody.
Zásadní změnou je i zavedení domněnky příčinné souvislosti mezi zaviněním žalovaného a způsobenou škodou. V praxi to znamená, že pokud váš systém selže a vznikne škoda, bude se automaticky předpokládat, že za ni můžete vy. Stačí, pokud žalobce prokáže, že jste porušili povinnost řádné péče stanovené unijním nebo vnitrostátním právem a že je pravděpodobné, že to mělo dopad na výstup systému AI (nebo to, že systém AI takový výstup nevytvořil). Důkazní břemeno se tak obrací – pro úspěšnou obhajobu budete muset prokázat, že škoda vznikla z jiného důvodu.
Pro firmy to znamená významné změny v přístupu k vývoji a provozu softwaru. Nestačí už jen dobře naprogramovaný produkt – klíčová bude precizní dokumentace, pravidelné testování a důkladná bezpečnostní opatření.
Směrnice také stanovují nová pravidla pro zpřístupnění důkazů. Ať už vyvíjíte vysoce rizikový systém AI, nebo jen běžný software, soud vám může nařídit, abyste předložili veškerou dokumentaci k nim jako důkazní prostředek.
Pavel Čech
partner a vedoucí oddělení softwarového práva v advokátní kanceláři Sedlakova Legal. Ve své praxi se specializuje na dodavatelské, licenční, distribuční a zejména softwarové smlouvy a na problematiku umělé inteligence. Softwarovým smlouvám se věnuje i v rámci publikační činnosti.
Co když umělá inteligence selže
Dopady nových předpisů lze demonstrovat pomocí příkladu. Společnost X nasadila na velkém stadionu systém dálkové biometrické identifikace, který má urychlit odbavení fanoušků a zabránit vstupu problémovým osobám. Jenže při jednom zápase umělá inteligence označila pana Nováka jako nežádoucího návštěvníka. Ochranka ho na základě tohoto vyhodnocení necitlivě vyvedla ze stadionu, čímž mu způsobila nejen veřejné ponížení, ale i menší zranění. Pan Novák přišel o drahé lístky i sportovní zážitek a rozhodl se společnost žalovat.
Díky pravidlům stanoveným novými směrnicemi má pan Novák situaci usnadněnou – stačí, aby prokázal, že jeho chování nebylo takové, aby mohl být označen za nežádoucí osobu, a že škoda (zranění, propadlé vstupenky, újma na cti) skutečně vznikla. Soud pak společnosti X nařídí zpřístupnit dokumentaci k AI systému. Ukáže se, že chyběla transparentnost v rozhodování algoritmu a lidský dohled byl nedostatečný – ochranka slepě věřila AI bez jakéhokoli ověřování.
Protože dálková biometrická identifikace patří mezi vysoce rizikové systémy AI, provozovatel měl jasně stanovené povinnosti podle AI Act. Jejich porušení má přímý dopad na chybnou identifikaci, a tím i na vznik škody. V důsledku toho se aktivuje vyvratitelná domněnka odpovědnosti – společnost X musí dokázat, že nepochybila. Pokud se jí to nepodaří, pan Novák pravděpodobně uspěje s nárokem na odškodnění.
Tento příklad ukazuje, jak důležité je u vysoce rizikových systémů dbát na transparentnost, dokumentaci a lidský dohled. Bez nich se provozovatelé snadno dostanou do situace, kdy bude odpovědnost připsána přímo jim a obrana bude složitá.
Zmíněná pravidla mohou na české podnikatele dopadnout dříve, než by se mohlo zdát. Směrnice o odpovědnosti za vadné výrobky byla schválena v říjnu 2024 a členské státy musí nejpozději do 9. prosince 2026 přijmout předpisy nezbytné pro dosažení souladu s touto směrnicí. Směrnice o odpovědnosti za umělou inteligenci stále prochází legislativním procesem EU, nicméně i její účinnost můžeme očekávat v podobném časovém horizontu.
Přestože se může zdát, že je času dost, doporučujeme firmám začít s přípravami co nejdříve. Změny, které budou muset implementovat, mohou být časově i finančně náročné.
Jak se mohou vývojáři chránit
Klíčové jsou v tomto procesu správně nastavené smlouvy, důsledná dokumentace vývoje a testování, implementace bezpečnostních opatření a pravidelné aktualizace. U AI se doporučuje i pravidelný audit algoritmů a validace výstupů. Nezapomeňte také na krizový plán pro případ incidentů a odpovídající pojištění odpovědnosti.
Firmám doporučujeme provést důkladný audit současných produktů a procesů. Je třeba identifikovat potenciální rizika a připravit se na nové požadavky. Součástí přípravy by měla být i revize smluvních vztahů s dodavateli a zákazníky.
Při vývoji softwaru a nástrojů umělé inteligence jde nejen o technologii, ale i o právní odpovědnost. Firmy by měly vědět, jak se chránit před riziky a předcházet sporům. Digitalizace je budoucnost, ale bez právní prevence se může snadno změnit v noční můru. Zvlášť ve světě AI se pravidla mění téměř každým rokem. Pokud tedy působíte v oblasti vývoje softwaru nebo AI, sledujte nové právní předpisy a přizpůsobte jim své smlouvy, bezpečnostní opatření a celkový přístup k odpovědnosti.