Wdrażanie sztucznej inteligencji według UE
Z jednej strony sztuczna inteligencja wzbudza lęk, z drugiej powinna dać nam nowe możliwości zawodowe i nie tylko. Ciekawe, że poza dyskusjami technicznymi i prawnymi bardzo często zwraca się uwagę na etyczną stronę stosowania sztucznej inteligencji. Uważam, że to bardzo interesujące, bo ludzkość jakoś wcześniej nie przejmowała się takimi detalami. Kiedy powstawały pierwsze fabryki, nikogo nie obchodziło czy codzienna, kilkunastogodzinna praca robotników (w tym dzieci) jest etyczna czy nie. Natomiast o etycznej stronie sztucznej inteligencji mówi się coraz poważniej i coraz częściej. Tematu nie unika Unia Europejska. Wdrażanie sztucznej inteligencji godnej zaufania, a także ocena takiego wdrożenia zostały ujęte w specjalnych wytycznych z kwietnia 2019 r. Jeśli projektujesz, wdrażasz albo zamierzasz pracować ze sztuczną inteligencją – powinieneś je znać. Warto wiedzieć, na co się przygotować i czego można się spodziewać po prawnych i organizacyjno- technicznych ramach jakie da SI Unia Europejska.
WDRAŻANIE SZTUCZNEJ INTELIGENCJI: CIEKAWE WYTYCZNE
Zacznijmy od tego, że w 2018 r. Komisja Europejska (KE) przedstawiła swoją wizję polityki UE w zakresie sztucznej inteligencji. Na chwilę obecną to bardzo, bardzo ogólne ramy i konkretów brak. Aczkolwiek KE powołała grupę „ekspertów wysokiego szczebla ds. sztucznej inteligencji”. Grupa miała opracować 2 dokumenty: zalecenia dotyczące polityki i inwestycji oraz wytyczne dotyczące etyki sztucznej inteligencji. Wytyczne faktycznie zostały opracowane jeszcze w grudniu 2018r , a potem zmienione z początkiem kwietnia 2019r. Dlaczego są ciekawe?
Jak dla mnie z dwóch powodów. Po pierwsze już na samym wstępie eksperci stwierdzają, że „popierają ogólne ramy wytycznych”, ale „niekoniecznie zgadzają się z każdym zawartym w nich twierdzeniem”.
Po drugie, Komisja Europejska stwierdziła wprost, że wytyczne w żadnym wypadku nie są jej oficjalnym stanowiskiem. Wyłączną odpowiedzialność za treści w nich zawarte ponosi grupa ekspertów.
Wytyczne są dość obszernym dokumentem i, co tu kryć, jak dla mnie w wielu miejscach mocno przegadanym. Link do pełnej wersji po polsku podałam powyżej. Jeśli chcesz, możesz śmiało poczytać.
Są podzielone na 2 części: ramy dotyczące godnej zaufania sztucznej inteligencji oraz przykłady szans i istotnych obaw związanych z korzystaniem z SI.
WDRAŻANIE SZTUCZNEJ INTELIGENCJI PUNKT PO PUNKCIE
W wytycznych znajdziesz między innymi 7 głównych zasad-wymogów dotyczących wdrożenia sztucznej inteligencji. I są to:
- Przewodnia i nadzorcza rola człowieka
- Techniczna solidność i bezpieczeństwo,
- Ochrona prywatności i zarządzenie danymi,
- Przejrzystość,
- Różnorodność, niedyskryminacja i sprawiedliwość,
- Dobrostan społeczny i środowiskowy,
- Odpowiedzialność
Już na pierwszy rzut oka musisz przyznać, że te wymogi brzmią trochę jak lista życzeń. No bo co my tutaj o takich wymaganiach etycznych wobec SI, skoro ludzie wciąż mają w tym względzie sporo do nadrobienia, prawda?
Z drugiej strony, czemu nie spróbować i nie mierzyć wysoko? Wdrożenie sztucznej inteligencji godnej zaufania zgodnie z tymi wymaganiami może też pomóc samym wdrażającym. Rozwinąć się również etycznie, że tak powiem. Pomyślałeś kiedyś o TAKIM skutku ubocznym szerokiego stosowania sztucznej inteligencji?
„LUDZKIE” ZASADY WDRAŻANIA SI: RODO I NADZÓR CZŁOWIEKA
Większość wymogów jakie według unijnych ekspertów musi spełniać wdrażanie sztucznej inteligencji to zasady skoncentrowane na ludziach.
Przede wszystkim każdy system SI musi zapewniać i wspierać autonomię człowieka w procesie podejmowania decyzji. Czyli Ty jako użytkownik końcowy musisz mieć możliwość podjęcia samodzielnej decyzji czy chcesz skorzystać ze sztucznej inteligencji czy też nie. Żeby taka świadomą decyzję podjąć, taki użytkownik końcowy musi zrozumieć, czym jest i jak działa dana SI.
Tutaj bardzo duże pole do popisu będą mieli wszelkiej maści specjaliści nie tyle od wdrażania, co raczej od stosunków człowiek – sztuczna inteligencja.
I teraz uwaga, ludzie nie mogą podlegać decyzji opartej wyłącznie na automatycznym przetwarzaniu, kiedy taka decyzja wywołuje wobec nich skutki prawne lub w podobny sposób znacząco na nich wypływa. Identyczny zakaz zawiera przepis RODO, a dokładniej art. 22 rozporządzenia o przetwarzaniu danych osobowych.
Zasada jest ta sama: sztuczna inteligencja nie może sama podejmować decyzji, która wywoła u Ciebie skutki prawne albo podobny sposób znacząco na Ciebie wpłynie. To zawsze musi zrobić człowiek.
Według wytycznych, SI nie może się też sama kontrolować czy nadzorować. Podobnie jedna sztuczna inteligencja nie może kontrolować innych SI. Albo inaczej, może, o ile efekty jej kontroli i nadzoru akceptuje człowiek. Co więcej wdrożenie sztucznej inteligencji godnej zaufania oznacza, że człowiek ma techniczną możliwość skontrolowania i odwołania każdej decyzji SI.
Czyli Skynet z „Terminatora” nam nie grozi. Przynajmniej w założeniu.
Do tego każda sztuczna inteligencja musi zapewniać ochronę prywatności i ochronę (w tym też przetwarzanie) danych osobowych zgodnie z obowiązującym w Unii prawem. Czyli w tej chwili zgodnie z RODO.
Na razie wychodzi na to, że przepisami najmocniej regulującymi i ograniczającymi rozwój sztucznej inteligencji będą w Unii przepisy dotyczące ochrony danych osobowych i prywatności. Naprawdę widać to już teraz w orzeczeniach Trybunału Sprawiedliwości UE o czym pisałam już we wpisie o „ciasteczkach” czyli efekcie RODO bez danych osobowych .
Kiedyś najcenniejszym dobrem chronionym przez prawo była ziemia i nieruchomości, teraz żyjemy w czasach gdzie skarbem staje się Twoja tożsamość. A ściślej mówiąc dane osobowe. To bardzo ciekawe, prawda?
Żeby zakończyć wątek „ludzkich” wymogów wdrażania sztucznej inteligencji, dodam, że daniem ekspertów żadna SI nie może naruszać podstawowych praw człowieka. Do tego Ty jako użytkownik końcowy musisz mieć możliwość zgłaszania błędów działania SI czy też negatywnych skutków jakie system wywiera czy to na Ciebie, czy wręcz na całą społeczność, a nawet na środowisko naturalne.
TECHNICZNE ZASADY WDRAŻANIA SI: PRZEJRZYSTOŚĆ I BEZPIECZEŃSTWO DANYCH
Żeby zachować „ludzkie” wymogi wdrożenia SI, trzeba spełnić pewne techniczne założenia. I tutaj wdrożenie godnej zaufania sztucznej inteligencji zakłada, że wszystkie zbiory danych oraz procesy na podstawie których SI podejmuje działanie są identyfikowalne. Czyli da się je wskazać. Ale to nie wystarczy, bo sztuczna inteligencja musi być jeszcze tak skonstruowana i wdrożona, żeby dało się odtworzyć każdą podjętą przez nią decyzję. Czyli musi się dać krok po kroku odtworzyć jakich operacji dokonał system, na jakich danych i dlaczego takich a nie innych operacji żeby konkretną decyzję podjąć.
Kolejny wymóg techniczny, to taka konstrukcja SI, żeby nie dało się jej wziąć za człowieka. Godna zaufania sztuczna inteligencja nie może się podszywać pod Ciebie czy mnie. Musimy mieć pełną świadomość, że nie komunikujemy się z człowiekiem.
Do tego od technicznej strony SI musi spełniać wymogi bezpieczeństwa czyli przede wszystkim nie dać się w żaden sposób zhakować. To zakłada zaprojektowanie i wdrożenie całej masy zaawansowanych technicznie zabezpieczeń. Oczywiście zabezpieczenia powinny być tym większe im cenniejsze dane przetwarza SI.
WDRAŻANIE SZTUCZNEJ INTELIGENCJI CZYLI STUDIUJ RODO
Chyba zdążyłeś się zorientować jak trudnym przedsięwzięciem byłoby wdrożenie godnej zaufania sztucznej inteligencji zgodnie z unijnymi wytycznymi. Oczywiście papier, podobnie jak excel, przyjmie wszystko.
Zobaczymy co będzie w praktyce, ale wytyczne dają wyobrażenie czego możemy się po unijnym ustawodawcy spodziewać jeśli chodzi o regulacje prawne dotyczące SI.
Co więcej, jeśli jesteś albo zamierzasz zostać specem od SI, to już teraz stawaj się też ekspertem od praktycznej ochrony danych osobowych i ćwicz umiejętności komunikacyjne. Jak przyjdzie co do czego, to prawnik pomoże Ci tylko w ograniczonym zakresie: na tyle, na ile zrozumie techniczną stronę zasad przetwarzania danych osobowych przez Twoją sztuczną inteligencję.
Pozdrawiam, Prawstoria