2023-06-05
Odpowiedzialność odszkodowawcza, a sztuczna inteligencja

Na gruncie obowiązujących przepisów Kodeksu cywilnego odpowiedzialność odszkodowawcza w ujęciu cywilistycznym oznacza obowiązek naprawienia powstałej szkody i w zależności od okoliczności – w których doszło do zdarzenia powodującego szkodę – oparta jest na zasadzie winy, ryzyka lub zasadzie słuszności.

 

Obowiązek odszkodowawczy na zasadzie winy wynika z niewykonania, nienależytego wykonania zobowiązania bądź czynu niedozwolonego, jednakże odpowiedzialność ta może zostać wyłączona, gdy za ww. okoliczności nie można przypisać winy danemu podmiotowi.  W sytuacji jednak, gdy brak jest okoliczności wyłączających odpowiedzialność za powstałą szkodę, to wówczas na gruncie art. 363 Kodeksu cywilnego naprawienie szkody powinno nastąpić według wyboru poszkodowanego  – przez przywrócenie stanu poprzedniego lub przez zapłatę odpowiedniej sumy pieniężnej, jednak gdyby przywrócenie stanu poprzedniego było niemożliwe albo gdyby pociągało za sobą dla zobowiązanego nadmierne trudności lub koszty, roszczenie poszkodowanego ogranicza się do świadczenia w pieniądzu.

 

Z uwagi na ciągły rozwój i coraz szersze wykorzystanie sztucznej inteligencji konieczne zdaje się uregulowanie kwestii odpowiedzialności za ewentualne wyrządzone szkody przez sztuczną inteligencję, zarówno na poziomie krajowym, jak i międzynarodowym.

 

Dyrektywa Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji wprowadza przepisy dotyczące sztucznej inteligencji m. in. w zakresie odpowiedzialności za powstałe szkody. Uzasadnienie ww. dyrektywy wskazuje na takie problemy jak: brak dopasowania przepisów krajowych dotyczących odpowiedzialności – w szczególności opartej na zasadzie winy – do rozpatrywania roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi oparte na sztucznej inteligencji oraz trudność i wysokie koszty po stronie poszkodowanego przy ustaleniu osoby ponoszącej odpowiedzialność, z uwagi na cechy szczególne sztucznej inteligencji. Przepisy krajowe dotyczące odpowiedzialności nakładają na osoby poszkodowane ciężar udowodnienia bezprawnego działania lub zaniechania osoby, która wyrządziła szkodę – co jak słusznie zostało wskazane w treści uzasadnienia omawianego aktu – w odniesieniu do sztucznej inteligencji może okazać się niebywale trudne.

 

Obecnie na gruncie prawa polskiego brak jest definicji legalnej pojęcia sztucznej inteligencji.  W tym zakresie niezbędne jest sięgnięcie do rozwiązań międzynarodowych. Zgodnie z definicją przyjętą przez Organizację Europejskiej Współpracy Gospodarczej i Rozwoju pojęcie „sztuczna inteligencja” odnosi się do „systemu opartego na maszynie, który może, dla określonego zestawu celów określonego przez człowieka, przewidywać, rekomendować lub podejmować decyzje wpływające na środowisko rzeczywiste lub wirtualne”. Dyrektywa Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji dokonuje podziału sztucznej inteligencji na: systemy wysokiego ryzyka i pozostałe systemy sztucznej inteligencji.

 

Co do zasady – w przypadku braku zapisów umownych w danym zakresie –  odpowiedzialność z tytułu powstałej szkody rozpatrywana jest na gruncie przepisów państwa, w którym powstała szkoda. Brak  konkretnych przepisów dotyczących odpowiedzialności w przypadku szkody spowodowanej przez sztuczną inteligencję w poszczególnych krajach skutkować będzie tym, że jeśli osoba poszkodowana zdecyduje się na skierowanie sprawy na etap sądowy, to wówczas sąd zmuszony będzie do dostosowania obecnych przepisów do konkretnej sprawy. Powyższe rodzi wiele trudności, gdyż w praktyce oznaczać to będzie niepewność co do prawa spowodowaną problemem w przewidzeniu, w jaki sposób sąd dokona interpretacji, a następnie jak zastosuje obecne przepisy dotyczące odpowiedzialności w odniesieniu do odpowiedzialności za szkodę powstałą w związku ze sztuczną inteligencją. Dyrektywa Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji ma na celu ustanowienie wspólnych przepisów dotyczących: 1) ujawniania dowodów dotyczących systemów sztucznej inteligencji (AI) wysokiego ryzyka, co ma umożliwić powodowi uzasadnienie pozaumownego cywilnoprawnego roszczenia odszkodowawczego opartego na zasadzie winy  oraz 2) ciężaru dowodu w przypadku pozaumownych cywilnoprawnych roszczeń  odszkodowawczych opartych na zasadzie winy wnoszonych do sądów  krajowych z tytułu szkód spowodowanych przez system sztucznej inteligencji.

 

Proponowane na gruncie omawianego aktu zmiany mają wprowadzić m. in.  domniemanie istnienia związku przyczynowego między winą pozwanego, a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, przy czym domniemanie to może zostać obalone. Co więcej, Dyrektywa Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji wprowadza także domniemanie winy w przypadku roszczenia odszkodowawczego dotyczącego systemu sztucznej inteligencji, które miałoby zastosowanie wyłącznie  w sytuacji, gdy sąd krajowy uzna, że udowodnienie przez powoda związku przyczynowego między winą pozwanego, a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku jest nadmiernie trudne.

 

Mając na względzie zachodzące zmiany w otaczającym nas  świecie, konieczne wydaje się wprowadzenie ww. rozwiązań i dostosowanie krajowych przepisów do postępu technologicznego. Należy jednak zwrócić uwagę na zagrożenia wynikające z użycia nieostrych pojęć tj.  „nadmiernie trudne”, co niewątpliwie będzie rodziło problemy interpretacyjne. Jednakże, co do zasady zastosowanie proponowanych regulacji doprowadzi do zapewnienia ochrony osobom poszkodowanym, dzięki temu, iż każda ze stron będzie miała pewność co do zasad, na podstawie których możliwe będzie dochodzenie swoich praw w związku z powstałą szkodą, co bezpośrednio przełoży się na wzrost zaufania  społecznego i szersze zastosowanie sztucznej inteligencji.

 

Klaudia Trzaska
Aplikant adwokacki
Specjalista ds. postępowania sądowego
Kancelaria Prawnicza Maciej Panfil i Partnerzy Sp. k.
Departament Cywilno-Gospodarczy