Ręka robota obok ręki człowieka podpisującego dokument

Odpowiedzialność cywilna za sztuczną inteligencję

  • Mateusz Krukowski, autor |

4 maja 2020 roku Parlament Europejski wydał projekt rozporządzenia wraz z zaleceniami dla Komisji Europejskiej dotyczący charakteru odpowiedzialności cywilnej za sztuczną inteligencję (dalej jako „Projekt”) wobec poszkodowanych osób fizycznych i prawnych. Co prawda tego typu projekty nie stanowią źródła prawa europejskiego, mogą one jednak znaleźć pełne odzwierciedlenie w przyszłych regulacjach UE w tej materii.

Dla wielu przedsiębiorców tematyka Projektu stanowi dzisiaj science-fiction, nie ulega jednak wątpliwości, że wraz z upływem lat sztuczna inteligencja i narzędzia z nią związane będą się coraz bardziej rozpowszechniać, a co za tym idzie będą tańsze i konieczne dla bieżącej działalności. Zresztą, w różnych formach sztuczna inteligencja już od kilku dobrych lat jest obecna w używanej przez nas technologii – przy wyszukiwaniu informacji w wyszukiwarce Google, w bankowości, czy przy okazji tłumaczenia tekstu przez internetowe narzędzia.

Autorzy Projektu zwracają uwagę, że z jednej strony należy zapewnić osobom pokrzywdzonym możliwość dochodzenia odszkodowania od podmiotu, który zawinił szkodzie, a z drugiej strony należy umożliwić tym podmiotom rozwój technologiczny ich produktów lub usług. Przyjęte rozwiązanie powinno zatem spełniać oczekiwania producentów, osób wdrażających systemy sztucznej inteligencji, ale też pokrzywdzonych czy innych zainteresowanych podmiotów trzecich. Jak wskazano w Projekcie, regulacja powinna dotyczyć krzywdy lub szkody na życiu, zdrowiu, integralności cielesnej i majątku osoby fizycznej lub prawnej, wyrządzonej na terenie Unii Europejskiej.

Poniżej przedstawiamy najistotniejsze założenia Projektu, w jego obecnym brzmieniu. Należy zauważyć, że Projekt nie znajduje się obecnie na ścieżce legislacyjnej, stąd jego treść może ulec diametralnej zmianie.

1. Charakter odpowiedzialności

Przede wszystkim należy podkreślić, że odpowiedzialność zawsze ponosi człowiek – działania autonomicznie podejmowane przez sztuczną inteligencję mają swoją „pierwotną przyczynę” w działalności człowieka, który projektuje, wdraża lub modyfikuje systemy sztucznej inteligencji. Zdaniem autorów dokumentu, odpowiedzialność powinien ponosić podmiot wdrażający, albowiem kontroluje on ryzyko związane ze sztuczną inteligencją, na poziomie porównywalnym do ryzyka właściciela psa czy samochodu. Jeżeli wdrażających będzie kilka podmiotów, to mają oni ponosić odpowiedzialność solidarną.

Warte podkreślenia jest to, że zgodnie z art. 2 ust. 2 Projektu poniższych zasad nie można ograniczyć w drodze umownej pomiędzy wdrażającym system sztucznej inteligencji a daną osobą fizyczną lub prawną. Wszelkie tego typu postanowienia umowne będą nieważne. Ponadto, rozwiązania Projektu będą miały pierwszeństwo przed uregulowaniami krajowymi w przypadku konfliktu przepisów.

Charakter odpowiedzialności będzie zależał od konkretnego przypadku.

1) Zasada ryzyka

Jeżeli system stwarza wysokie zagrożenie, tj. jego samodzielnie działanie może wyrządzić szkodę jednej czy wielu osobom i to w przypadkowy sposób, który trudno przewidzieć, to po stronie podmiotu wdrażającego istnieje szeroka odpowiedzialność, bo ukształtowana na zasadzie ryzyka. Zasada ryzyka dlatego jest taka dotkliwa, bo jest ona oderwana od jakiejkolwiek winy, jednakże wdrażający będzie mógł się od niej uwolnić, jeżeli wykaże, że szkoda została wyrządzona z powodu zaistnienia siły wyższej. W aneksie do dokumentu wskazano rodzaj systemów, stwarzających wysokie zagrożenie. Są to:

  • bezzałogowe statki powietrzne (drony),
  • autonomiczne pojazdy,
  • autonomiczne systemy zarządzania ruchem,
  • autonomiczne roboty oraz
  • autonomiczne urządzenia czyszczące miejsca publiczne.

Lista ta, zgodnie z zamierzeniem, stanowi katalog zamknięty, jednakże może być modyfikowana przez akty prawne wydawane przez Komisję Europejską (z vacatio legis wynoszącym sześć miesięcy).

2) Zasada winy

Wszystkie inne mechanizmy, systemy i urządzenia niż wskazane w aneksie, o którym mowa wyżej, powinny prowadzić do odpowiedzialności na zasadzie winy, która będzie domniemywana, tj. podmiot wdrażający będzie musiał udowodnić, że fakt wyrządzenia szkody nie nastąpił z jego winy. Ponadto będzie on mógł się uwolnić od odpowiedzialności, jeśli system uruchomiono bez jego zgody i wiedzy, przy zachowaniu uzasadnionych i niezbędnych środków w celu uniknięcia takiego uruchomienia lub gdy właściwy system sztucznej inteligencji wybrano do właściwego zadania z zachowaniem należytej staranności i według fachowej wiedzy, jednocześnie przy jego stałej aktualizacji.

Jeżeli szkoda została wyrządzona na skutek działania osoby trzeciej, to wdrażający i tak pozostanie odpowiedzialny, jeżeli osoba ta nie zostanie wykryta i zidentyfikowana. Wdrażający powinni zatem szczególnie zwrócić uwagę na bezpieczeństwo, w tym cyberbezpieczeństwo, tych systemów. 

2. Ubezpieczenie i przedawnienie roszczeń

Projekt zakłada obowiązkowe ubezpieczenia odpowiedzialności cywilnej co do urządzeń wysokiego ryzyka, wskazanych w aneksie. W Projekcie wskazano również maksymalne kwoty, które mogą być wypłacone osobom poszkodowanym:

  • w przypadku szkody wyrządzonej osobie fizyczne lub osobom fizycznym, skutkującym śmiercią lub uszczerbkiem na zdrowiu – 10 milionów euro;
  • w przypadku strat materialnych po stronie osoby fizycznej lub prawnej – 2 miliony euro z jednego zdarzenia. 

Skoro żądanie wypłaty odszkodowania jest roszczeniem majątkowym, to będzie ono podlegało przedawnieniu. Określono również ramy dla przedawnienia roszczeń, które wynoszą:

  • 30 lat, w przypadku spowodowania śmierci, wyrządzenia uszczerbku na zdrowiu lub naruszenia integralności cielesnej,
  • 10 lat albo 30 lat w przypadku wyrządzenia szkody majątkowej.

3. Zakończenie

Technologia zmienia się bardzo szybko, a prawo ma trudności by za nią nadążyć. Z tego powodu wszelkie inicjatywy legislacyjne, które pokazują świadomość technologiczną po stronie organów europejskich cieszą. Tym bardziej, że Projekt ma na celu ustabilizowanie sytuacji prawnej osób poszkodowanych przez systemy sztucznej inteligencji oraz podniesienie świadomości osób wdrażających systemy co do ich własnej odpowiedzialności.

Zakładany termin wejścia w życie rozporządzenia UE w omawianej tematyce nie jest znany, natomiast najprawdopodobniej rozporządzenie ma wejść w życie do 2024 roku. W chwili wejścia w życie rozporządzenia UE, znajdzie ono zastosowanie bezpośrednio w każdym państwie członkowskim UE, w tym Polski.

Sztuczna inteligencja | AI | Odpowiedzialność cywilna sztucznej inteligencji