Przede wszystkim należy podkreślić, że odpowiedzialność zawsze ponosi człowiek – działania autonomicznie podejmowane przez sztuczną inteligencję mają swoją „pierwotną przyczynę” w działalności człowieka, który projektuje, wdraża lub modyfikuje systemy sztucznej inteligencji. Zdaniem autorów dokumentu, odpowiedzialność powinien ponosić podmiot wdrażający, albowiem kontroluje on ryzyko związane ze sztuczną inteligencją, na poziomie porównywalnym do ryzyka właściciela psa czy samochodu. Jeżeli wdrażających będzie kilka podmiotów, to mają oni ponosić odpowiedzialność solidarną.
Warte podkreślenia jest to, że zgodnie z art. 2 ust. 2 Projektu poniższych zasad nie można ograniczyć w drodze umownej pomiędzy wdrażającym system sztucznej inteligencji a daną osobą fizyczną lub prawną. Wszelkie tego typu postanowienia umowne będą nieważne. Ponadto, rozwiązania Projektu będą miały pierwszeństwo przed uregulowaniami krajowymi w przypadku konfliktu przepisów.
Charakter odpowiedzialności będzie zależał od konkretnego przypadku.
1) Zasada ryzyka
Jeżeli system stwarza wysokie zagrożenie, tj. jego samodzielnie działanie może wyrządzić szkodę jednej czy wielu osobom i to w przypadkowy sposób, który trudno przewidzieć, to po stronie podmiotu wdrażającego istnieje szeroka odpowiedzialność, bo ukształtowana na zasadzie ryzyka. Zasada ryzyka dlatego jest taka dotkliwa, bo jest ona oderwana od jakiejkolwiek winy, jednakże wdrażający będzie mógł się od niej uwolnić, jeżeli wykaże, że szkoda została wyrządzona z powodu zaistnienia siły wyższej. W aneksie do dokumentu wskazano rodzaj systemów, stwarzających wysokie zagrożenie. Są to:
- bezzałogowe statki powietrzne (drony),
- autonomiczne pojazdy,
- autonomiczne systemy zarządzania ruchem,
- autonomiczne roboty oraz
- autonomiczne urządzenia czyszczące miejsca publiczne.
Lista ta, zgodnie z zamierzeniem, stanowi katalog zamknięty, jednakże może być modyfikowana przez akty prawne wydawane przez Komisję Europejską (z vacatio legis wynoszącym sześć miesięcy).
2) Zasada winy
Wszystkie inne mechanizmy, systemy i urządzenia niż wskazane w aneksie, o którym mowa wyżej, powinny prowadzić do odpowiedzialności na zasadzie winy, która będzie domniemywana, tj. podmiot wdrażający będzie musiał udowodnić, że fakt wyrządzenia szkody nie nastąpił z jego winy. Ponadto będzie on mógł się uwolnić od odpowiedzialności, jeśli system uruchomiono bez jego zgody i wiedzy, przy zachowaniu uzasadnionych i niezbędnych środków w celu uniknięcia takiego uruchomienia lub gdy właściwy system sztucznej inteligencji wybrano do właściwego zadania z zachowaniem należytej staranności i według fachowej wiedzy, jednocześnie przy jego stałej aktualizacji.
Jeżeli szkoda została wyrządzona na skutek działania osoby trzeciej, to wdrażający i tak pozostanie odpowiedzialny, jeżeli osoba ta nie zostanie wykryta i zidentyfikowana. Wdrażający powinni zatem szczególnie zwrócić uwagę na bezpieczeństwo, w tym cyberbezpieczeństwo, tych systemów.