Czy programista odpowie za błąd AI albo gdzie kucharek 6
Sprawa z odpowiedzialnością sztucznej inteligencji (w skrócie, przypominam, „SI” albo z angielskiego „AI”) jest skomplikowana. Niestety. I prawodawcy i prawnicy nie są zachwyceni samo-odpowiedzialnością AI. O tym dlaczego, pisałam już częściowo we wpisie o strachu przed Skynetem. Teraz pora przejść do konkretniejszych obaw ekspertów. I zastanowić się co dalej, bo jeśli nie sztuczna inteligencja, to kto? Właściciel, producent czy programista odpowie za błąd AI?
CYWILNE ZASADY ODPOWIEDZIALNOŚCI NIE DLA AI
Koronnym argumentem przeciwników pomysłu aby sztuczna inteligencja sama ponosiła odpowiedzialność za wyrządzone przez siebie szkody są zasady ponoszenia odpowiedzialności prawa cywilnego.
Te zasady są uniwersalne, nie dotyczą tylko polskiego prawa i omówiłam je już w jednym z poprzednich wpisów o sztucznej inteligencji. Tutaj tylko przypomnę, że są to : zasada winy, ryzyka i słuszności.
GDZIE KUCHAREK SZEŚĆ, W TYM JEDNA SZTUCZNA
Koronnym argumentem przeciwników pomysłu aby sztuczna inteligencja sama ponosiła odpowiedzialność za wyrządzone przez siebie szkody jest „argument kucharek”. Sama wymyśliłam nazwę, więc bądź tolerancyjny i bez uśmieszków proszę. No dobrze, z tymi uśmieszkami, to żartowałam.
W każdym razie „gdzie kucharek sześć, tam nie ma co jeść” głosi stare polskie przysłowie.
Bardzo wielu ekspertów uważa, że w powstanie i używanie sztucznej inteligencji jest „zamieszane” za wiele osób. Producent, programista, tester oprogramowania, sprzedawca, właściciel, użytkownik i tak dalej i tak dalej. A do tego jeszcze masz w tym wszystkim udział mniej lub bardziej samo-uczącej się i samodzielnie podejmującej działania sztucznej inteligencji. Nie dość, że kucharek sześć, to jeszcze jedna sztuczna. Jak i komu tu przypisać odpowiedzialność za szkodę? A pamiętaj, że trzeba to robić zgodnie z zasadami ponoszenia odpowiedzialności prawa cywilnego.
A POZA TYM Z KLASYKĄ SIĘ NIE DYSKUTUJE
Co ciekawe zwolennicy argumentu kucharek często w wypowiadają go jednym tchem ze stwierdzeniem, że samej AI absolutnie odpowiedzialności się przypisać nie da, bo przykładowo:
„Próby przypisania odpowiedzialności samej AI nie wydają się być prawnie racjonalne i efektywne”, a w ogóle to „należy przeciwstawić się działaniom nadającym osobowość prawną AI”. A dlaczego? Ano dlatego, że „(…) Koncepcja ta jest sprzeczna z klasycznymi zasadami prawa cywilnego i podmiotowości prawnej”.
Acha, no to wszystko jasne. Klasyczne zasady, to klasyczne zasady i kropka. Duża. Nie da się i koniec. Oczywiście kompletnie się z tym nie zgadzam. Rzeczywistości i postępu nie zatrzymamy. Żadne klasyczne koncepcje nic tu nie pomogą. Prawo musi się dostosować i nadążać za rzeczywistością, a jak się da, to przygotować się też na przyszłość. Czyli albo damy sztucznej inteligencji jakąś formę osobowości prawnej (może być ułomna) albo stworzymy jakieś kompletnie nowe rozwiązanie. Skrojone pod AI.
I jeszcze jedno. Żeby nie było, że zmyślam. Oba powyższe cytaty z gromkim „nie” dla osobowości prawnej AI, wyszły spod klawiatur ekspertów współpracujących przy opracowaniu „Założenia do strategii AI w Polsce” przygotowanego przez Ministerstwo Cyfryzacji .
JEŚLI NIE SAMA AI TO KTO: CZY PROGRAMISTA ODPOWIE ZA BŁĄD AI?
W porządku. Czyli jeśli nie sama sztuczna inteligencja, to kto może potencjalnie odpowiadać prawnie za jej błędy?
Poniżej lista kucharek, czyli osób, które najczęściej wymienia się jako kandydatów do poniesienia odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję
- Programista – Kandydat najoczywistszy. Jak napisałeś program mojego inteligentnego miksera, a tymczasem ten zamiast grzecznie miksować zupę, zaatakował moje lewe oko mieszadłem, to ma chyba prawo oczekiwać, że mi naprawisz poniesioną szkodę. Poza tym, mogę też sobie wyobrazić, że dostaję oprogramowanie sztucznej inteligencji na licencji open source (darmowe, dostępne dla każdego oprogramowanie). Wtedy drogi programisto jesteś już w zasadzie jedynym kandydatem do wypłacenia mi odszkodowania za błąd Twojej AI.
- Użytkownik albo właściciel – oczywiście jeśli jesteś przytomnym umysłowo programistą, to powinieneś się zacząć bronić, że przecież Twój program jest idealny. To pewnie ja jako użytkownik coś schrzaniłam. Poza tym, gdybym pożyczyła mikser od sąsiadki, to być może to ona, jako właściciel AI powinna mi naprawić szkodę czyli pokryć koszty leczenia oka ?
- Producent – jeśli coś produkujesz, to obecnie możesz ponosić odpowiedzialność za szkody wyrządzone przez Twój produkt. Poza ogólnymi zasadami odpowiedzialności, unijne przepisy i nasz kodeks cywilny przewidują jeszcze odpowiedzialność za szkody wyrządzone przez tzw. produkt
- Software Developer, tester albo dostawca danych (data provider) – gdyby sztuczna inteligencja popełniła błąd i wyrządziła jakąś szkodę jeszcze wtedy kiedy AI się uczyła, to ich odpowiedzialność jak najbardziej wchodzi w grę.
PROGRAMISTA ODPOWIE ZA BŁĄD AI NA ZASADZIE RYZYKA?
Jak widzisz kandydatów do poniesienia odpowiedzialności za błędy AI jest multum. I teraz zaczynają się schody.
Skoro póki co musimy podążać ścieżkami klasycznych zasad prawa cywilnego, jakoś muszę tę odpowiedzialność za szkodę wyrządzoną przez AI przypisać człowiekowi.
A mogę to zrobić tylko używając ogólnie przyjętych zasad. Przykro mi to mówić, ale jeśli jesteś programistą, to moim zdaniem, plasujesz się wysoko na liście kandydatów do wzięcia odpowiedzialności za błędy AI. Na logikę rzecz ujmując, AI będzie tak dobra jak Twój program.
Tylko teraz pytanie, na jakiej zasadzie odpowiesz za ewentualny błąd AI.
Zasada winy ma swoje ograniczenia, o czym już pisałam. Przypominam, że musi być związek przyczynowo – skutkowy między Twoim zawinionym działaniem albo zaniechaniem, a szkodą. Jakoś kiepsko to widzę w kontekście ewentualnego buga w kodzie AI mojego miksera.
Prawdopodobnie nawet najlepszy prawnik na świecie miałby potężny problem z udowodnieniem Ci winy. Czyli praktyczność takiego podejścia odpada. W grze jest za to wciąż odpowiedzialność na zasadzie słuszności i ryzyka. Słuszność raczej też skreślam z listy obecnych możliwości. Moim zdaniem jeszcze na to za wcześnie, ale gdyby sztuczna inteligencja podejmowała decyzje i rozumowała w sposób zbliżony do co najmniej psa (wiem, że to wysoko zawieszona poprzeczka, bo mój pies jest piekielnie inteligentny), to warto do zasady słuszności powrócić. Na dzień dzisiejszy, jeśli odmawiamy AI samodzielnego ponoszenia odpowiedzialności za wyrządzone szkody, to zostaje tylko ponoszenie odpowiedzialności przez ludzi na zasadzie ryzyka.
Wyżej wskazałam już listę „kandydatów” do ponoszenia tej odpowiedzialności. Nie wiadomo jak prawo sprawę ureguluje, ale twierdzę, że programista raczej na pewno jakoś odpowie za błąd AI. Element programu jest po prostu zbyt istotny, żeby całość odpowiedzialności za szkodę wyrządzoną przez AI ponosił na przykład jej producent czy właściciel. Oczywiście nie wykluczam jakieś formy współodpowiedzialności programista – producent lub innego wariantu, ale zawsze.
Bardzo ciekawe w którym kierunku prawo ostatecznie pójdzie, ale jak dla mnie w końcu będzie się jednak musiało zmierzyć z odpowiedzialnością samej AI.
Może nie dziś i nie jutro, a za 50-60 lat, ale jednak. Im doskonalsze formy sztucznej inteligencji stworzymy, tym większą odpowiedzialność za swoje czyny i wyrządzone w związku z tym szkody będzie mogła ponosić.
Na szczęście dla Ciebie i mnie, sztuczna inteligencja powinna popełniać błędy znacznie rzadziej niż ludzie. Czyli, przynajmniej teoretycznie, wyrządzać też mniejsze szkody. A to jak dla mnie kolejny argument za przyznaniem jej jakiejś formy samo-odpowiedzialności za własne działania.
A Ty co o tym sądzisz?
Pozdrawiam, Prawstoria