Prawo ITPrawo międzynarodowePrawo nowych technologii

Czy programista odpowie za błąd AI albo gdzie kucharek 6

Sprawa z odpowiedzialnością sztucznej inteligencji  (w skrócie, przypominam, „SI” albo z angielskiego „AI”)  jest skomplikowana.  Niestety. I prawodawcy i prawnicy  nie są  zachwyceni  samo-odpowiedzialnością AI. O  tym dlaczego, pisałam  już częściowo we wpisie o strachu przed Skynetem. Teraz pora przejść do konkretniejszych obaw ekspertów. I zastanowić się co dalej, bo jeśli nie sztuczna inteligencja,  to kto?  Właściciel, producent czy programista odpowie za błąd AI?

 

 

kto odpowie za błąd sztucznej inteligencji jeśli nie ona?

CYWILNE ZASADY ODPOWIEDZIALNOŚCI  NIE DLA AI

Koronnym argumentem przeciwników pomysłu aby  sztuczna inteligencja sama ponosiła odpowiedzialność za wyrządzone przez siebie szkody  są zasady ponoszenia odpowiedzialności  prawa cywilnego.

Te  zasady są  uniwersalne,  nie dotyczą  tylko polskiego prawa i omówiłam je już w jednym z poprzednich wpisów o sztucznej inteligencji.  Tutaj  tylko przypomnę, że są  to : zasada winy, ryzyka i słuszności.

Gdzie kucharek sześć, tam nie ma co jeść głosi staropolskie przysłowie

 

GDZIE KUCHAREK  SZEŚĆ, W TYM JEDNA SZTUCZNA

 

 

Koronnym argumentem przeciwników pomysłu aby  sztuczna inteligencja sama ponosiła odpowiedzialność za wyrządzone przez siebie szkody jest  „argument kucharek”. Sama wymyśliłam nazwę, więc bądź tolerancyjny i bez  uśmieszków proszę. No  dobrze, z tymi uśmieszkami, to żartowałam.

W każdym razie  „gdzie kucharek sześć, tam nie ma co jeść” głosi stare polskie przysłowie.

Bardzo wielu ekspertów uważa, że  w powstanie i używanie sztucznej inteligencji  jest „zamieszane” za wiele osób. Producent,  programista, tester oprogramowania, sprzedawca, właściciel, użytkownik  i tak dalej i tak dalej. A do tego  jeszcze  masz w tym  wszystkim udział mniej lub bardziej samo-uczącej się i samodzielnie podejmującej działania sztucznej inteligencji. Nie dość, że  kucharek sześć, to jeszcze jedna sztuczna. Jak  i komu  tu przypisać odpowiedzialność za szkodę? A pamiętaj, że  trzeba to robić zgodnie z zasadami  ponoszenia odpowiedzialności prawa cywilnego.

 

 

A POZA TYM Z KLASYKĄ SIĘ NIE DYSKUTUJE

 

 Co ciekawe  zwolennicy argumentu kucharek często w wypowiadają go jednym tchem  ze stwierdzeniem, że  samej  AI absolutnie odpowiedzialności się przypisać nie da, bo przykładowo:

Próby przypisania  odpowiedzialności samej AI nie wydają się  być prawnie racjonalne i efektywne”, a w ogóle to „należy przeciwstawić się działaniom nadającym osobowość prawną AI”.  A dlaczego? Ano dlatego, że  „(…) Koncepcja ta jest sprzeczna z klasycznymi zasadami prawa cywilnego i podmiotowości prawnej”.

Acha, no to wszystko jasne.   Klasyczne zasady, to klasyczne zasady i kropka. Duża.  Nie da się i koniec.   Oczywiście kompletnie się z tym nie zgadzam.  Rzeczywistości i postępu nie zatrzymamy. Żadne  klasyczne koncepcje nic tu nie pomogą. Prawo musi się dostosować i nadążać za rzeczywistością, a jak się da, to  przygotować się też  na przyszłość.  Czyli  albo damy sztucznej inteligencji jakąś formę osobowości prawnej (może  być ułomna) albo  stworzymy jakieś kompletnie nowe rozwiązanie.  Skrojone pod AI.

I jeszcze jedno. Żeby nie było, że zmyślam. Oba powyższe cytaty z gromkim  „nie” dla osobowości prawnej AI, wyszły spod klawiatur ekspertów współpracujących przy  opracowaniu  „Założenia do strategii AI w Polsce” przygotowanego przez Ministerstwo Cyfryzacji .

 

czy sztuczna inteligencja doczeka się osobowości prawnej ?

 

JEŚLI NIE SAMA AI TO KTO:  CZY PROGRAMISTA ODPOWIE ZA BŁĄD AI?

W porządku. Czyli jeśli nie sama sztuczna inteligencja, to kto  może potencjalnie odpowiadać prawnie za jej błędy?

Poniżej lista  kucharek,  czyli osób,  które  najczęściej wymienia się jako kandydatów  do poniesienia odpowiedzialności  za szkody wyrządzone przez sztuczną inteligencję

  • Programista – Kandydat najoczywistszy. Jak  napisałeś  program mojego inteligentnego miksera, a  tymczasem ten zamiast grzecznie miksować zupę,  zaatakował moje lewe oko  mieszadłem,  to   ma chyba prawo oczekiwać, że mi naprawisz poniesioną szkodę.  Poza tym,  mogę  też sobie wyobrazić, że  dostaję  oprogramowanie  sztucznej inteligencji na  licencji open source (darmowe, dostępne dla każdego oprogramowanie). Wtedy  drogi programisto  jesteś  już w zasadzie jedynym kandydatem do wypłacenia mi odszkodowania za błąd Twojej AI.

 

  • Użytkownik albo właściciel – oczywiście jeśli jesteś przytomnym umysłowo programistą, to powinieneś się zacząć  bronić, że przecież  Twój  program jest idealny.  To pewnie ja jako użytkownik coś schrzaniłam.  Poza  tym, gdybym pożyczyła mikser od sąsiadki, to  być może to ona, jako właściciel  AI powinna mi naprawić szkodę czyli pokryć koszty leczenia oka ?

 

 

  • Producent –  jeśli coś produkujesz, to obecnie  możesz ponosić odpowiedzialność za szkody wyrządzone przez Twój produkt.  Poza ogólnymi zasadami odpowiedzialności, unijne przepisy i nasz kodeks cywilny przewidują  jeszcze odpowiedzialność za szkody wyrządzone przez tzw. produkt 

 

  • Software Developer, tester albo dostawca danych (data provider) – gdyby sztuczna inteligencja popełniła błąd i wyrządziła jakąś szkodę  jeszcze  wtedy  kiedy  AI się  uczyła, to   ich odpowiedzialność  jak najbardziej wchodzi w grę.

 

szturmowiec Imperium na polu maków
Nie, to nie programista, tylko szturmowiec Imperium na łące pełnej kwiecia. Taki „twist” akcji na koniec.

 

 

PROGRAMISTA ODPOWIE ZA BŁĄD AI NA ZASADZIE RYZYKA?

 

 

Jak widzisz kandydatów  do poniesienia odpowiedzialności za błędy AI jest multum.  I teraz zaczynają się schody.

Skoro póki co musimy podążać  ścieżkami klasycznych zasad prawa cywilnego, jakoś  muszę tę odpowiedzialność za szkodę wyrządzoną przez AI przypisać człowiekowi.

 A mogę to zrobić  tylko  używając  ogólnie przyjętych zasad.    Przykro mi to mówić, ale jeśli jesteś programistą, to moim zdaniem, plasujesz się wysoko na liście kandydatów  do wzięcia odpowiedzialności  za błędy AI. Na logikę rzecz ujmując, AI będzie tak dobra jak Twój program. 

 Tylko teraz pytanie, na jakiej zasadzie odpowiesz za ewentualny błąd AI.

Zasada winy ma swoje ograniczenia, o czym już pisałam. Przypominam, że musi  być związek przyczynowo – skutkowy między Twoim zawinionym działaniem albo zaniechaniem, a szkodą.  Jakoś kiepsko to widzę w kontekście  ewentualnego  buga w kodzie  AI mojego  miksera.

Prawdopodobnie nawet najlepszy prawnik  na świecie miałby potężny problem z udowodnieniem Ci winy.  Czyli praktyczność takiego podejścia odpada. W grze jest za to wciąż  odpowiedzialność na zasadzie słuszności i ryzyka.  Słuszność raczej też skreślam z listy obecnych możliwości.  Moim zdaniem jeszcze na to za wcześnie, ale gdyby sztuczna inteligencja  podejmowała decyzje i rozumowała w sposób zbliżony do co najmniej  psa (wiem, że to wysoko zawieszona poprzeczka, bo mój pies jest piekielnie inteligentny), to warto do zasady słuszności powrócić.  Na dzień dzisiejszy, jeśli odmawiamy AI  samodzielnego ponoszenia odpowiedzialności za wyrządzone szkody, to zostaje tylko ponoszenie odpowiedzialności przez ludzi na zasadzie ryzyka.   

Wyżej wskazałam już  listę „kandydatów” do ponoszenia tej odpowiedzialności. Nie wiadomo jak  prawo sprawę ureguluje, ale  twierdzę, że  programista raczej na pewno jakoś odpowie za błąd AI. Element programu jest po prostu zbyt istotny, żeby całość odpowiedzialności  za szkodę wyrządzoną przez AI ponosił na przykład jej producent czy właściciel. Oczywiście nie wykluczam jakieś formy współodpowiedzialności programista – producent lub innego wariantu, ale zawsze.  

Bardzo ciekawe w którym kierunku prawo ostatecznie pójdzie, ale  jak dla mnie w końcu będzie się jednak musiało zmierzyć z odpowiedzialnością samej AI.  

Może nie dziś i nie  jutro, a za 50-60 lat, ale jednak. Im doskonalsze formy sztucznej inteligencji stworzymy, tym  większą odpowiedzialność za swoje czyny i  wyrządzone w związku z tym szkody  będzie mogła ponosić.

Na szczęście dla Ciebie i mnie, sztuczna inteligencja powinna popełniać błędy znacznie rzadziej niż ludzie.  Czyli, przynajmniej teoretycznie, wyrządzać też mniejsze szkody.  A to jak dla mnie kolejny argument za  przyznaniem jej  jakiejś formy  samo-odpowiedzialności za własne działania.

A Ty co o tym sądzisz?

Pozdrawiam, Prawstoria

Powiązane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Back to top button