Naturalnie o sztucznej inteligencji




Nie chodzi tu to, aby się bać SI, bo lęki są olbrzymie, dystopijne – pozwolimy czarnej sile wyeliminować human factor z planety. Raczej o to, czy i jak powinniśmy mieć kontrolę na rozwojem SI. Czy powinniśmy budować narzędzia, które pozwolą nam na przejrzystość i policzalność działań w tej dziedzinie? Pozwolą na wytłumaczalność i opisywalność wszystkich procesów związanych z tworzeniem i działaniem SI – i co ważne – w połączeniu z wymiarem etycznym? To znaczy, że konstruując tego typu urządzenia powinniśmy z zasady wpisywać w nie rozwiązania etyczne.

Jeśli mamy rozmawiać o sztucznej inteligencji, to wypada ją zaprosić do stolika, czyli przynajmniej określić, czym ona jest. Funkcjonalne podejście byłoby następujące – sztuczna inteligencja, SI, zastąpi wszystko to, co należy do powtarzalnych prac człowieka.

Jednak wtedy powiemy tylko o zastępowaniu pracy ludzkiej, czyli de facto o robotyzacji. A jeśli zaczniemy zastanawiać się nie tylko nad zastępowaniem pracy rutynowej robotami, to znaczy poruszymy temat kreatywności sztucznej inteligencji, kognitywności, rozmowa stanie się bardziej ekscytująca. Czyli, zamiast o rękach i mięśniach, pomówmy o neuronach, nerwach i  mózgu. Bo w moim przekonaniu jeśli dyskutujemy o sztucznej inteligencji, to powinniśmy mówić o neuronach. Owszem, nie należy zapominać o trzech obszarach SI. Pierwszy – algorytmy i szybkie przetwarzanie danych, co np. daje biznesowi przewagi konkurencyjne na rynku. Drugi – deep learning, czyli samouczące się maszyny. Chodzi o mechanizm zasilany wiedzą, danymi i tu istotna jest ilość przetworzonych danych w procesie treningowym – im więcej tzw. feeding data, tym jakość SI będzie lepsza. I wreszcie trzeci – to jest sztuczna inteligencja na najwyższym poziomie kreatywności, wykorzystująca superkomputery.

Porozmawiajmy więc o neuronach.

No właśnie, to bardzo ważny wątek, bo musimy wiedzieć, w których momentach kreatywnego procesu zachodzącego w SI istotna i potrzebna jest emocjonalność.  Udoskonalamy teraz sztuczną inteligencję wirtualnych asystentów, sieciowych botów, czy tzw.”chatbotów”. One są uczone żartowania z człowiekiem, a aby to robić muszą choć trochę wczuć się w nasze emocje, czyli rozpoznawać je, świetnie już rozpoznają akcent (co zabrało 6 lat treningu języka angielskiego), reagują na zachowania ludzi, a badania MIT (m.in. polskiej uczonej Aleksandry Przegalińskiej) pokazują, że wpływają na zachowania ludzi, i ludzie powielają później ich zwroty i powiedzonka.  Te rozwiązania nie są jeszcze doskonałe i na pewno inżynierowie SI będą tu mieli jeszcze sporo pracy. W tym miejscu należy zadać pytanie – czy neurony jakich my używamy są przekaźnikiem procesów empatii? Jeśli tak, to czy neurony cyfrowego mózgu, sztucznej inteligencji mogą stymulować empatię? I jak na razie nie potrafię na to odpowiedzieć.

Wydaje mi się, że po naszej stronie obcowanie ze sztuczną inteligencją jest przyjemnością. Myślę tu o wspomnianych przez pana asystentach tj. Siri czy Alexa, o nawigacji samochodowej, która nas prowadzi po Europie, czy nawet o telewizorze smart, z którym porozumiewamy się głosowo. Na horyzoncie pojawiają się inteligentne domy obsługiwane za pomocą komend głosowych. I wydaje mi się, że statystyczny X czy pani Y nie będą mieli większych obaw co do rozwoju i zadań stawianych przed taką sztuczną inteligencją, a nawet będziemy oczekiwać, aby rozwijała się coraz szybciej. Kto powinien być odpowiedzialny za ten rozwój?

Za rozwój SI musimy być wszyscy odpowiedzialni.

Wszyscy?

Niektórzy twierdzą, że rozwój sztucznej inteligencji wpłynie na rynek pracy, na procesy biznesowe lub na określone dziedziny, itd. Ja uważam że rozwój sztucznej inteligencji wpłynie na wszystko.  W książce „Life 3.0: Being Human in the Age of Artificial Intelligence” Max Tegmark snuje opowieść o rozwoju ludzkości, zaczynając od miliardów lat wstecz. Tyle czasu zajęło życiu wyjście z drobin wodnych na ląd. My jako gatunek homo potrzebowaliśmy dziesiątków tysięcy lat, aby wyprostować się, stworzyć proste narzędzia i zacząć zabawę z zaawansowaną technologią. Teza autora książki jest następująca – wszystko co dokona się przez istnienie, działanie i oddziaływanie sztucznej inteligencji zdarzy się nie w milionach, nie w setkach czy dziesiątkach tysięcy lat, tylko w najbliższym stuleciu, do końca XXI wieku. Oczywiście, nie wiem czy tak rzeczywiście będzie, chociaż to bardzo inspirujące uzmysłowić sobie, że SI będzie wpływać na wszystko – pomyślmy o skali tego przyśpieszenia. W związku z tym, skoro zasugerował pan, że przyjemnie jest obcować z SI na poziomie asystentów codzienności, czy uświadamiamy sobie inną, już groźną możliwość? Co, jeśli ktoś profiluje nasze dane w różnych dziedzinach po to, żeby osiągnąć oczekiwane efekty? Jeśli jesteśmy algorytmizowani i w związku z tym procesy decyzyjne, które nas dotyczą będą nas dyskryminowały dlatego, że mamy np. ciemny kolor skóry, albo weszliśmy w wiek 45+, albo sam fakt, że jesteś kobietą spowoduje brak dostępu do jakiejś usługi, czy stworzy komuś innemu przywilej? I tu pojawiają się zasadnicze pytania – jak uniknąć tego typu zjawisk? Nie chodzi tu to, aby się bać SI, bo lęki są olbrzymie, dystopijne – pozwolimy czarnej sile wyeliminować human factor z planety. Raczej o to, czy i jak powinniśmy mieć kontrolę na rozwojem SI. Czy powinniśmy budować narzędzia, które pozwolą nam na przejrzystość i policzalność działań w tej dziedzinie? Pozwolą na wytłumaczalność i opisywalność wszystkich procesów związanych z tworzeniem i działaniem SI – i co ważne – w połączeniu z wymiarem etycznym? To znaczy, że konstruując tego typu urządzenia powinniśmy z zasady wpisywać w nie rozwiązania etyczne.

Na czym te zasady etyczne powinny polegać?

Że pewnych rzeczy nie wolno, jak na przykład wspomnianej negatywnej algorytmizacji. A zacząć trzeba od prostej zasady, gdy wchodzimy w relacje z „chatbotami”: czy wiemy, że to maszyny? Czy one nam to mówią? Powinny, choć jest taki przypadek w Stanach, że maszyna-asystent działająca w celach komercyjnych pytana o to, czy jest maszyną – odpowiada, ze skądże, że nie . To jest kłamstwo, i jeśli ma obowiązywać przejrzystość – to nie wolno tak robić. Chodzi też o ustalenie nadrzędnej zasady, że ostateczna decyzja w kwestii rozwoju i zastosowania SI zawsze powinna należeć do człowieka. Gdyby udało nam się to utrwalić, dochodzi jeszcze kolejna bardzo ważna sprawa. Można cieszyć się tym, że sztuczna inteligencja w różnych postaciach będzie nam pomagać, że nas uzupełni lub zastąpi, ale kto nauczy nas relacji i współpracy z nią? Uważam że human artificial intelligence relations relacje człowiek – sztuczna inteligencja są wielkim wyzwaniem kulturowym, etycznym, technologicznym, cywilizacyjnym i edukacyjnym. Dlatego przed nami jedno z najważniejszych wyzwań cywilizacyjnych – wieki proces i wielki program adaptacyjności ludzi do tego zupełnie nowego środowiska. Adaptacyjność oznacza, że powinniśmy posiadać nie tylko wiedzę o tym co nacisnąć i poruszyć na interfejsie, aby maszyna zadziałała, ale powinniśmy przyjąć postawę, która będzie postawą interaktywną – interakcji z inteligentnymi urządzeniami, może nawet z czasem z tzw. osobliwością, jeśli się wykluje – to maszyna, Sztuczna Inteligencja z osobowością według pewnych autorów i hipotez. Do tego musimy mieć kompetencje, aby rozumieć procesy, jakie w niej zachodzą, pojąć całe otoczenie, cały ten cyfrowy świat. To jest moim zdaniem jedno z ważniejszych wyzwań przyszłości.

Jak więc mamy kształtować ten proces przejrzystego budowania SI, jak przystosowywać się do naszych interakcji z nią, skoro teraz zauważamy że najprawdopodobniej przyczyną rewolucji konserwatywnej w obszarze polityki i obyczajów jest reakcja na technologię właśnie?

Konserwatyzm w obecnej postaci stanowi reakcję na nadmiar zmian wzorców kulturowych. Czyli, to jest bardziej reakcja na globalizację. Świat dla statystycznego człowieka zrobił się za wielki, a lokalność nie wystarcza. Gdyby opisać wyborcę Trumpa, białego mężczyznę ze słabym wykształceniem, leniwego i z resentymentem – do czarnoskórych, do umiejętnie i swobodnie korzystających z konstytucyjnych wolności i w gruncie rzeczy zadowolonych z siebie ludzi, a gdy do tego jeszcze dojdzie luka w wiedzy technologicznej – oto mamy powody konserwatywnego kroku wstecz. To są ogólnie zarysowane czynniki warunkujące określone postawy wsteczne w polityce, w społeczeństwie. Tym bardziej musimy znów nauczyć ludzi lokalnego życia na nowo. Musimy im też pomóc w procesie adaptacji do nowych technologii i to jest wielkie zamierzenie, które powinno zaczynać się od przedszkola i od przygotowania rodziców. Tu wspomnę jeszcze, że są konsekwencje SI i wirtualnego świata, jakich nie znamy. Na przykład w książce „The Cyber Effect” Mary Aiken, która jest też doradczynią Europolu i dostarczycielką tej agencji bardzo interesujących raportów w tym temacie, autorka pisała o możliwości pojawienia się w najbliższych latach zupełnie nowych przestępstw, popełnianych przez pokolenie, które wychowało się już całkowicie  w środowisku cyfrowym. Ci ludzie nie będą rozumieli, że coś jest przestępstwem. Może im się wydawać, że przestępstwo, którego dokonają będzie czymś w rodzaju gry komputerowej, w której uczestniczą i nie będą przyjmować do siebie możliwości poniesienia konsekwencji za swe czyny. Dlatego to tak istotne, by od dziecka edukować odpowiednie podejście do rzeczywistości cyfrowej. Czy rodzice dzisiaj potrafią rozmawiać z dziećmi, co to jest cyfrowy świat? Owszem, mogą głośno powiedzieć – nie używaj, włączyć programy filtrujące treści. Ale czy potrafią omówić po co to wszystko jest? Czy potrafią pracować z dziećmi w rzeczywistości cyfrowej, żeby nie stały się tylko fanami gier? Aby nie dać przyzwolenia na bierne uczestnictwo w technologii, tylko uczyć kreatywnego podejścia do technologii?

Biznes rozwija programy mające przybliżyć społeczeństwo nowym technologiom. W Stanach Zjednoczonych, w Chinach i w Europie przeznacza się miliardy dolarów i euro na programy dostosowawcze. Co pan na to? Czy to jest dobra droga?

Niestety, dzieje się to zbyt wolno jak na dostosowawcze działania edukacyjne. I nie spełni oczekiwań i nie odpowie na potrzeby,  jakie już teraz mogę sobie wyobrazić. Aby jednak nie popadać w czarnowidztwo podam przykład z Parlamentu Europejskiego. Funkcjonuje w Unii, a Parlament decyduje o przyznawaniu środków –  Fundusz Globalizacji, który został stworzony po to, by pomagać europejskim regionom w wyrównaniu szans na globalnych rynkach. U źródeł chodziło o konfrontację z przenoszeniem produkcji do Azji i inne globalne zjawiska, także o tzw. europejską delokalizację. Obecnie jako europosłowie chcielibyśmy, aby ten fundusz wykorzystać w tym obszarze, o którym rozmawiamy, aby przynajmniej część środków wykorzystywać do działań adaptacyjnych: na zajęcia w szkołach i poza nią, na programy dla rodziców. W dzieci i rodziców trzeba zainwestować, tak jak pracodawcy powinni inwestować w edukację pracowników, przygotowując ich do kontaktów i współpracy ze  sztuczną inteligencją. Abyśmy nauczyli się relacji z SI, robotami.

Podpytam pana o jeszcze jedną rzecz – o deep fake tworzony przez sztuczną inteligencję. Ruch w internecie już teraz w większej części tworzony przez boty, a nie ludzi. Przegrywamy stosunkiem 52% do 48%. Co się stanie jeśli okaże się, że ta SI w złych rękach popchnie do katastrofy, co później doprowadzi do buntu mas? Wyjdzie na jaw manipulacja na poziomie dużych grup społecznych. Co wtedy ze sztuczną inteligencją, z jej miejscem w społeczeństwie?

Nie będzie można za to winić sztucznej inteligencji, tylko tego, kto ją zaprogramował, albo inaczej – tych, co jej używają. Nie jestem przekonany, że ona sama z siebie tak by zrobiła, chociaż tego do końca nie wiemy. Na to pytanie nie ma jednoznacznej odpowiedzi. Natomiast przejrzystość, audyty postępowania z SI są kluczowe w tym kontekście. W dyskusji, która toczy się w tej chwili w Polsce, a którą zapoczątkował casus kampanii prezydenta A. Dudy stawia się obecnie pytanie – czy treści wykorzystywane w elektronicznych mediach w kampaniach wyborczych nie powinny być sygnowane? Przecież jest to więcej niż tylko publiczna wymiana opinii politycznych, więc działania komitetów powinny być sygnowane. A skoro tak, to każdy komitet wyborczy powinien ponosić odpowiedzialność za słowa i dbać o to, co jest prawdą a co nieprawdą. Kolejna sprawa to kwestia reklamy politycznej i przejrzystości źródeł finansowania kampanii w internecie, łącznie z opłacaniem firm zajmujących się botami. Tu cała rzecz nie polega tylko na tym, aby znać nazwę firmy, tylko wiedzieć jaka jest jej struktura i czy siedziba znajduje się w Petersburgu, czy gdzieś dalej na wschód; zdaję sobie sprawę, że to uproszczenie, ale dość obrazowe. Mnie marzy się, aby w różnych krajach zaczęły powstawać cyfrowe wyborcze kodeksy etyczne i aby wszyscy uczestnicy gry wyborczej przestrzegali reguł zapisanych w tych kodeksach. Legislacja i możliwe kary za nielegalne praktyki to zbyt mało. Potrzebne są samoregulacje, czyli znów – współdziałanie, co wobec sztucznej inteligencji i z nią jest najważniejsze.