Wywiad o robotach w Rzeczpospolitej




Robotów nie da się opisać w paragrafach.

O tym, jakie wyzwania przed prawodawcą stawia rozwój robotyzacji i jak sobie z nimi radzić, a także dlaczego nie warto wszystkiego regulować w przepisach i kto miałby ponosić odpowiedzialność za działania sztucznej inteligencji – rozmowa z Szymonem Cydzikiem.

Rz: Unia Europejska pracuje nad regulacjami dotyczącymi prawa robotów. Efektem ponadrocznych prac, prowadzonych głównie przez Komisję Prawną Parlamentu Europejskiego, jest raport „Zasady prawa cywilnego w robotyce” (Civil Law Rules on Robotics). Czy znalazły się w nim jakieś ciekawe spostrzeżenia?

Michał Boni: Raport zawiera wiele analiz i sugestii, jak oswajać się ze światem robotów. Nie mówimy tu o maszynach, które wykonują prace automatyczne i zastępują proste czynności, ale o robotach uczących się, sztucznych inteligencjach mogących przetwarzać bardzo szybko duże ilości różnego rodzaju danych, które albo mają wgrane, albo zdobywają je przez sensory. Jesteśmy bardzo ostrożni, jeśli chodzi o stanowienie prawa, bo jest jeszcze wcześnie, a cały obszar się szybko rozwija. Gdybyśmy chcieli teraz stworzyć twarde prawo, to zajęłoby to co najmniej dwa lata, a do tego czasu roboty będą już zupełnie inne, jeszcze bardziej sprawne w działaniach.

Dlaczego więc prace trwają już teraz, skoro nawet w raporcie stwierdzono, że tak zaawansowane roboty powstaną najwcześniej za dziesięć lat?

Pracujemy nad opisaniem i skatalogowaniem problemów, żeby się przygotować na przyszłość. Im więcej wiemy i rozumiemy, tym łatwiej będzie się dostosować do zachodzących zmian. Nie uważam, że zaraz są potrzebne twarde regulacje. Chodzi bardziej o stworzenie warunków, w których właściciele, producenci, użytkownicy, operatorzy i konsumenci wspólnie przygotują kodeksy postępowań i norm określających standardy, zarówno w sensie technicznym, jak i etycznym.

Są już jakieś przykłady takich działań?

Tak zrobiliśmy np. w przypadku aplikacji dotyczących m-zdrowia. Chodzi o to, żeby branża mogła się rozwijać, klienci mogli korzystać, ale aby pewne wymogi techniczne albo dotyczące danych osobowych były odpowiednio przestrzegane. Przykładowo: wprowadzona przez rozporządzenie o ochronie danych osobowych zasada „prywatności domyślnej, czyli z założenia” powinna być przestrzegana już na etapie projektowania robotów. One muszą w swoje funkcjonowanie, w algorytmy mieć wpisane zasady ochrony bezpieczeństwa i prywatności. Troska o bezpieczeństwo i przestrzeganie reguł etycznych także musi być w kodeksach postępowania, w standardach i – co podkreślam – w samych urządzeniach.

Nie lepiej pomyśleć w przypadku robotów o twardych przepisach?

W sprawach ochrony prywatności jest już twarde prawo przewidujące wysokie kary za łamanie zasad. Czy chcemy, żeby roboty dostarczające paczki zatrzymywały dla siebie nasze dane, albo brały ze swoich kamer dane adresowe osób, których domy maszyna mija w czasie dostarczania nam paczek? To musi być uregulowane. Natomiast te „miękkie” rozwiązania nie będą hamowały rozwoju dziedziny i nie będą chciały na siłę uregulować czegoś, czego jeszcze nie wiemy.

Ale czy będą one realnie przestrzegane i egzekwowane?

Nie można zakładać, że większość biznesu nie gra czysto. Istnienie standardów pozwala wyłowić tych, którzy przestrzegają reguł, i tych, którzy ich nie respektują. Ich trzeba wskazywać, mówić o tym głośno – ostrzegać konsumentów. Nie mówię też, że nie będzie twardego prawa w ogóle, wiele procedur w poszczególnych dziedzinach, np. w przemyśle samochodowym już jest uregulowanych. Trzeba tylko sprawdzić, czy te przepisy pasują do rzeczywistości online, i ewentualnie je aktualizować. Na przykład samochody autonomiczne nie wejdą do użytkowania, jeśli nie ujednolici się kodeksów drogowych w różnych krajach. Pewnie za dwa–trzy lata będziemy wiedzieć, jakich twardych regulacji jeszcze nam potrzeba.

I opracowaniem tych jednolitych standardów miałaby się zająć nowo powołana agencja?

Dla zasad funkcjonowania robotów i dla nas, użytkowników, lepiej i bezpieczniej jest mieć zharmonizowane standardy. A żeby były one spójne, powinna się nimi zająć jedna agencja. Dlatego sprawa jej stworzenia jest do rozważenia. Ale może to być któraś z istniejących agencji. Mamy już przecież ENISA (Agencja UE ws. Bezpieczeństwa Sieci i Informacji), której mandat trwa do 2020 r. Stworzenie nowej agencji wymaga budżetu i czasu, myślę, że co najmniej dwóch lat. Dlatego zamiast zacząć od tworzenia instytucji, lepiej po prostu monitorować sytuację. Natomiast raport wzywa Komisję Europejską, by przygotowała zasady tworzenia rejestru zaawansowanych robotów (AI – sztucznej inteligencji) i oceniła, czy dla tworzenia tego rejestru agencja byłaby potrzebna. Taki rejestr da nam wiedzę, jaka jest skala uczestnictwa wysoko rozwiniętych robotów w procesach produkcji i w różnych aktywnościach.

A jak duża będzie skala używania robotów? Czy naprawdę zastąpią one ludzi?

Jedni mówią, że roboty grożą naszej wolności i zabiorą nam całą pracę. To nieprawda i mit. Oczywiście, zmienią niektóre miejsca pracy, ale w wielu będą uzupełnieniem. Na każde 800 miejsc zrobotyzowanych przypada 700 nowych. Netto tracimy, ale też zmienią się całe obszary gospodarki i usług. Co nie oznacza, że roboty w systemie zdrowia wyprą lekarzy – czynnik ludzki pozostanie ważny.

W raporcie pojawiły się propozycje opodatkowania producentów robotów, aby z tych pieniędzy wypłacać dochód gwarantowany dla tych, którzy stracą pracę.

Miałoby to dotyczyć obszarów, w których roboty się pojawiają na większą skalę, jak produkcja, opieka nad starszymi czy tzw. medycyna 4.0. To może stworzyć poważne niebezpieczeństwa, bo firmy z tych branż i tak płacą podatki. Poza tym moim zdaniem w niektórych krajach i kulturach może to zniszczyć chęć do pracy. Lepiej zamiast pieniądze, dać ludziom nowe umiejętności. Popieram przygotowanie specjalnych narzędzi dla „okresu przejściowego”, by pomóc przedsiębiorstwom i pracownikom w dostosowaniu się do nowych wymogów w stosunkach pracy, zarówno psychologicznie, jak i pod względem kwalifikacji. To zadanie na najbliższe dziesięć lat, także dla polityki rynku pracy, edukacji i polityk społecznych. Dziś nie potrzeba ani nowych podatków, ani gwarantowanej płacy bazowej. Ale trzeba wspomagać proces zmiany: przejścia od stanu obecnego do robotów, które będą nam pomagały rozwiązywać problemy (szybka analiza danych) i w pracy, w opiece nad niepełnosprawnymi. Razem (ludzie i roboty) będziemy bardziej efektywni.

Czy są już znane jakieś szczegóły dotyczące tzw. osoby elektronicznej? Czy za jej działania będą odpowiadali ludzie, tak jak członkowie organów osoby prawnej, czy też robot ma odpowiadać samodzielnie? A jeśli tak, to na jakich zasadach?

Nie ma pełnej zgody i jednolitego rozumienia tej sprawy. Odpowiedzialność samodzielna robota nie wchodzi w grę w sensie prawnym, bo to nie jest byt prawny. Odpowiedzialność pośrednia ludzi też jest trudna do zdefiniowania. Bo kto miałby odpowiadać? Nie konstruktor, bo on traci wpływ na robota po zakończeniu konstrukcji. Nie zawsze też właściciel czy użytkownik, bo jeśli to autonomiczna, samodzielnie podejmująca decyzje maszyna ucząca się, to decyzja nie jest podejmowana przez właściciela czy umownego operatora.

Ale też musi być jasno określane, jaka jest odpowiedzialność za błąd techniczny wynikający z błędnej konstrukcji czy nieprawidłowego algorytmu. Większym problemem są w pełni samodzielne decyzje robotów mogących spowodować incydenty. A to oznacza, że może w przyszłości trzeba będzie pobierać składki od produkcji, od sprzedaży, od używania robotów na fundusz rekompensacyjny i z niego wypłacać odszkodowania, bez kary dla osób fizycznych czy „elektronicznych”. Trzeba to zrobić tak, by nie obciążać nadmiernie rodzącego się biznesu. Raport rekomenduje rozważenie takich możliwości.

Czy podczas prac w Komisji pojawiły się jakieś głosy przeciw przyjmowaniu tego prawa, np. że regulacja może ograniczyć postęp techniczny w tej dziedzinie?

Dominowały głosy, że trzeba być ostrożnym z narzucaniem twardego prawa dziedzinie, która się dopiero rodzi. Ale od początku pewne zasady i normy muszą być jasne, np. że emocjonalne podporządkowywanie sobie przez roboty np. dzieci czy osób chorych byłoby łamaniem zasad etycznych. Czynnik ludzki musi być silniejszy i zapewniać kontrolę nad nowym światem współistnienia robotów i ludzi.

Raport to chyba tylko sugestie i rekomendacje?

Tak. To jeszcze żadne prawo, to początek dyskusji, jakie prawo może być w rozwoju robotyki potrzebne. Ponieważ zaczęliśmy prace wcześniej, z wkładem merytorycznym różnych komisji, nie ma obaw, że zbyt wczesnymi twardymi regulacjami zabijemy rozwój dziedziny. Tym bardziej że wyniki głosowania w Komisji poddane zostały weryfikacji w głosowaniu na posiedzeniu plenarnym. Najwięcej obaw budziła sprawa bazowej płacy dla pracujących w zmieniających się technologicznie obszarach oraz opodatkowanie rodzących się rozwiązań.

Jak będą wyglądać dalsze prace legislacyjne w tej dziedzinie? Jak rozumiem, piłka jest teraz po stronie Komisji Europejskiej?

Komisja ma kilka miesięcy na ustosunkowanie się do rekomendacji z raportu. Sam raport to pierwszy krok. Ale można już patrzeć, jak przygotować pewne dziedziny do obecności robotów. Jak poszerzyć procedury o świat robotów w usługach opieki nad niepełnosprawnymi. Jak wpisać w konstruowanie robotów i ich algorytmy zasady ochrony prywatności, bezpieczeństwa i niedyskryminacji. Jak partnerzy powinni tworzyć kodeksy postępowania i jakie standardy techniczne są potrzebne. Czekamy na głos Komisji Europejskiej.