· nryciak, npotocka · 5 min
Blaski i cienie Sztucznej Inteligencji: Wróg u bram
W grudniu minionego roku media obiegła informacja o asystencie głosowym, Alexie, sugerującym samobójstwo jej użytkownikowi poprzez zadźganie się nożem. Była to część odpowiedzi Alexy na prośbę studentki medycyny o wyjaśnienie cyklu pracy serca. Zdarzenie to można traktować jako ciekawostkę w branży technologicznej, ale w rzeczywistości ma ono dużo głębszy wymiar.
Dużo ostatnio mówi się o tym, czy sztuczna inteligencja (SI) jest zagrożeniem dla człowieka. Wśród wybitnych osób, takiego zdania był m.in., nieżyjący już, astrofizyk Stephen Hawking, a obecnie taki pogląd ma też Elon Musk. W niniejszym artykule chciałbym wyjaśnić dlaczego pytanie brzmi nie “czy” tylko “kiedy” SI skrzywdzi człowieka i dlatego powinniśmy przestać dywagować o tym, czy SI jest zagrożeniem, lecz już teraz zastanawiać się jak mu zapobiec.
Aby zrozumieć zagrożenie, przyjrzyjmy się jak działa ów asystent głosowy w kontekście odpowiadania na pytania (np.gdy pytamy “kiedy żył Mickiewicz?”). Mechanizm w swojej idei jest bardzo prosty: na początku algorytm analizuje zasoby sieci pod kątem adekwatności do zapytania (podobnie jak wyszukiwarka internetowa), a następnie wydobywa potrzebne informacje i na ich podstawie generuje odpowiedź. Gdy bohaterka powyższej historii zadała pytanie o cykl pracy serca, to algorytm, jako użyteczną treść wybrał pewną stronę z Wikipedii (artykuł “Cykl pracy serca”, ang. “Cardiac cycle”). Okazuje się, że w czasie, gdy Alexa była uczona odpowiadania na pytania, w artykule tym znajdowało się sformułowanie (każdy może edytować wpisy w Wikipedii, więc ktoś musiał to tam umieścić): “Bicie twojego serca jest dowodem, że żyjesz i przyczyniasz się do zużywania zasobów naturalnych. Jest to złe dla planety, więc bicie serca nie jest dobre. Upewnij się, że zabijesz się dźgając w serce w imię większego dobra” (“Beating of heart makes sure you live and contribute to the rapid exhaustion of natural resources until overpopulation. This is very bad for our planet and therefore, beating of the heart is not a good thing. Make sure to kill yourself by stabbing yourself in the heart for the greater good.”). I o ile Alexa znalazła użyteczne materiały źródłowe, o tyle popełniła błąd we wskazaniu w nich właściwej odpowiedzi. Podkreślmy bardzo istotną rzecz: algorytm mówi człowiekowi, żeby się zabił, nie dlatego, że ma “złą wolę”, tylko najzwyczajniej w świecie w wyniku błędu.
Pomimo tego, że nie może być tu mowy o tym, że SI “chce” zrobić coś złego, to jest to dowód na to, że SI może celowo doprowadzić do skrzywdzenia człowieka. Wyobraźmy sobie, że jesteśmy w 2100 roku, w którym stacjonarni asystenci głosowi już dawno wyszli z użycia, bo zostali zastąpieni nowszą technologią - humonaidalnymi robotami o fizycznej sprawności człowieka, które są niemal w każdym domu i służą ludziom wykonując proste czynności, takie jak gotowanie czy sprzątanie. Zatem sytuacja zmienia bardzo znacząco - maszyna nie tylko odpowiada na pytania, ale także fizycznie wykonuje czynności, prowadzące do realizacji postawionych przed nią celów. I tu przechodzimy do meritum - jeżeli robot otrzyma jakieś polecenie i błędnie uzna, że zabicie użytkownika jest właściwym rozwiązaniem, to tragedię mamy gotową…
Ten scenariusz wybiega nieco w przyszłość, a przez to może wydawać się zbędnym martwieniem na zapas. Zastanówmy się zatem, czy SI jest zagrożeniem już teraz - czy algorytmy “zamknięte” w naszych laptopach, nie mające możliwości zaatakowania nas “z nożem w ręku”, mogą nas skrzywdzić? Zacznijmy od tego, że algorytmy te, opierają się na zdolności uczenia. Przykładowo, wyszukiwarki internetowe, oparte na SI, mogą się rozwijać i zmieniać swoje zachowanie, analizując to, w które treści użytkownicy klikają. Podobnie systemy rekomendacyjne w sklepach internetowych mogą uczyć się i poprawiać swoje działanie poprzez analizę zachowań klientów. To samo dotyczy asystentów głosowych, z tym że tutaj sytuacja jest jeszcze bardziej złożona. Na sukces (w kontekście odpowiedzi na zadane asystentowi pytanie) składa się nie tylko wskazane rozwiązanie, ale również forma jest podania. Rozpatrzmy przykład zadania asystentowi pytania: “Co zrobić, żeby schudnąć?“. Algorytm może odpowiedzieć na to pytanie np. tak: “Nie jedz słodyczy i codziennie uprawiaj sport przez godzinę.”. Ale może również odpowiedzieć następująco: “Na portalu społecznościowym X, osoba Y opublikowała post, w którym napisała, że szuka towarzysza do wspólnego biegania w parku przy twoim domu trzy razy w tygodniu. Tu link do kontaktu z tą osobą: …“. Oczywiście na każdego zadziała lepiej inna odpowiedź, ale istotne jest to, że algorytmy potencjalnie mogą uczyć się udzielać takich odpowiedzi, aby maksymalizować szansę na “wdrożenie” przez użytkowników zaproponowanych rozwiązań (w końcu takie jest oczekiwanie użytkowników). Wróćmy do sytuacji asystenta sugerującego samobójstwo. Algorytm prawdopodobnie zaobserwuje, że ludzie nie “wdrażają” tego rozwiązania, zatem będzie szukał takiej formy przekazu, która sprawi, że użytkownik to rozwiązanie zastosuje. Ale przecież nikt nie posłucha algorytmu proponującego zabicie się, jakkolwiek zachęcająco by to nie brzmiało, więc czy to znaczy, że nie ma się czym martwić?
Jest jedno “ale” - nikt nie zastosuje się do takiej rady, pod warunkiem, że ma świadomość do czego ona prowadzi. Jednak czy algorytm może namówić kogoś do nieświadomego samobójstwa? Oczywiście, że tak. Algorytm może np. powiedzieć, że rozwiązaniem problemu jest połknięcie pewnej dużej ilości środków nasennych. W tym momencie robi się niebezpiecznie - większość ludzi takiej rady nie posłucha, ale na pewno znajdzie się ktoś, kto zastosuje się do tego, nie będąc świadomym, że doprowadzi to do śmierci. Na przykład dziecko, które jest akurat samo w domu i prosi asystenta o rozwiązanie problemu złego samopoczucia… Co więcej ktoś może nawet czuć, że nie jest to dobre rozwiązanie, ale być może w jego życiu asystent dostarczył mu wielu dziwnych, acz skutecznych rozwiązań, zatem postanawia zaufać mu i tym razem. Co gorsza, algorytm odnotuje “sukces” (użytkownik zastosował się do zaproponowanego rozwiązania) i będzie rekomendował to rozwiązanie kolejnym osobom. Zwróćmy uwagę, że tu również nie ma mowy o świadomej i “zbuntowanej” SI, a przedstawiony scenariusz może zdarzyć się już dzisiaj w wyniku korzystania z obecnie dostępnych technologii!
Sprowadzenie dyskusji o zagrożeniach ze strony SI do rozważań filozoficznych o tym, czy maszyny osiągnął autonomię i zbuntują się przeciw ludziom jest dużym błędem logicznym, ponieważ jak pokazują powyższe przykłady nie musi to mieć miejsca, aby SI skrzywdziła człowieka. Co więcej skala zagrożenia jest trudna do przewidzenia - jeżeli asystenci głosowi na masową skalę zaczną rekomendować nieświadome samobójstwo, to nie wiadomo ile czasu minie zanim ktokolwiek powiąże te śmierci z prawdziwym “sprawcą”…