Dr Paweł Rzeszuciński: Algorytm zna cię lepiej niż wieloletni partner

Wyposażony w sztuczną inteligencję robot Sophie potrafi w "naturalny" sposób porozmawiać z człowiekiem /Getty Images
Reklama

​Wystarczy 70 lajków, jakie zostawimy na Facebooku, aby algorytm był w stanie nas opisać lepiej niż zrobiliby to nasi przyjaciele. Przy 150 lajkach algorytm jest lepszy w opisie naszych postaw od rodziców, a 300 lajków pozostawia w tyle za programem naszych wieloletnich partnerów.

Mądrze zaprojektowane algorytmy sztucznej inteligencji mogą pozytywnie wpłynąć na niemal każdy obszar aktywności człowieka. Z drugiej strony, kiedy znajdą się w niepowołanych rękach lub zostaną błędnie przygotowane, mogą zamienić nasze życie w koszmar.

O tym, kiedy sztuka AI staje się dramatem rozmawiamy z doktorem Pawłem Rzeszucińskim, członkiem Europejskiego Sojuszu na rzecz Sztucznej Inteligencji powołanego przez Komisję Europejską. Na co dzień nasz rozmówca pracuje na stanowisku Chief Data Scientist w krakowskiej firmie technologicznej Codewise.

Reklama

Dariusz Jaroń: Bot, czyli kto?

Dr Paweł Rzeszuciński: - W różnych krajach są inaczej definiowane. W tych mocno zaawansowanych są to po prostu programy komputerowe, które żyją w mediach społecznościowych, zachowują się tak samo jak ty czy ja.

Na pierwszy rzut oka nie da się odróżnić fejkowego konta od prawdziwego?

- Te konta dla laika wyglądają tak samo jak profil kolegi czy rodzica. Ale kiedy zajrzymy pod podszewkę, okazuje się, że są sterowane komputerowo. Boty potrafią same komunikować się między sobą. Potrafią wchodzić w interakcję z ludźmi. Dochodzi do sytuacji, gdzie grupa 2-3 botów rozpoczyna dyskusję między sobą na tyle ciekawą, że prawdziwi ludzie dołączają do niej, nie będąc świadomymi tego, że wszystko jest z góry zmanipulowane, a przekaz generowany przez boty został im narzucony.

Przez kogo?

- Przez kogoś, kto siedzi pewnie kilkaset kilometrów dalej, i steruje naszymi myślami. Wszystko co robimy w internecie zostawia ślady, to jest oczywiste, natomiast coraz częściej jest wykorzystywane do tego, aby opisywać nas jako ludzi pod bardzo wieloma kątami. Możemy się domyślać, komu zależy na podgrzewaniu konfliktu społecznego czy politycznego.

Czy możemy takiego podżegacza wyśledzić?

- Nie. Osoby, które faktycznie inicjują taki projekt stoją za wieloma warstwami pośredników. Firmy zajmujące się tworzeniem kampanii trollowych czy myleniem opinii publicznej na temat danej kwestii, bardzo dobrze się maskują.

O jakiej skali sztucznych kont w internecie rozmawiamy?

- Są pewne szacunki na temat udziału nieprawdziwych użytkowników w mediach społecznościowych. Sam Twitter przed miesiącem miał około 350 milionów aktywnych użytkowników, niektóre badania podają, że nawet 15 proc. z nich to boty. Mówimy o liczbie porównywalnej z populacją Hiszpanii.

Czego te boty chcą się o nas dowiedzieć?

- Firmy zbierają trzy rodzaje informacji na nasz temat. Pierwszy dotyczy tego, skąd przychodzimy i kim jesteśmy w społeczeństwie. To dane dotyczące chociażby płci, wieku czy wysokości dochodów. Drugi zestaw danych dotyczy naszych zachowań jako konsumentów - co kupujemy w sklepach internetowych, jakim jeździmy samochodem, jakie prenumerujemy magazyny. Trzeci, najciekawszy pod kątem mediów społecznościowych rodzaj informacji, dotyczy danych psychologicznych na nasz temat.

Co to znaczy?

- To są informacje o tym, co nas napędza do działania w życiu, ale też - jakie mamy słabości.

W jaki sposób podajemy te dane botom na tacy?

- Boty śledzą naszą aktywność w mediach społecznościowych. Prawie zawsze informacje te są wyciągane na podstawie naszych lajków. Jaką markę samochodów polubimy, jakiego producenta odzieży, jaki zespół muzyczny, czyje wypowiedzi lubimy, a czyich nie? To bardzo dużo mówi na nasz temat. Firmy dostają te dane na bieżąco.

Na ile te zabiegi są skuteczne?

- Wystarczy 70 lajków, jakie zostawimy na Facebooku, aby algorytm był w stanie nas opisać lepiej niż zrobiliby to nasi przyjaciele. Przy 150 lajkach - algorytm jest lepszy w opisie naszych postaw od rodziców. Z kolei 300 lajków pozostawia w tyle za programem naszych wieloletnich partnerów. Dla przeciętnego użytkownika Facebooka 300 lajków to tydzień, może pół miesiąca aktywności, nie wspominając o osobach wręcz uzależnionych od mediów społecznościowych, a ich jest coraz więcej.

Boty różnią się od siebie?

- Tak, w cyberprzestrzeni grasują trzy rodzaje botów. Pierwszy z nich służy do przekonywania użytkowników do podejmowania określonych czynności: klikania w linki, zakupów, zwiększania ruchu na stronie. Drugi typ botów, szczególnie aktywnych na Twitterze, jest wykorzystywany do sztucznego podnoszenia poziomu followersów znanych osób.

Czyli kolejny skok na kasę...

- Często wnioskujemy na temat tego, czy ktoś jest rozpoznawalny czy ważny w internecie na podstawie tego, jak dużo osób go obserwuje czy komentuje jego wypowiedzi. A popularność, większe zasięgi, szczególnie w przypadku osób znanych, rzeczywiście przekłada się na ich finanse.

Rozumiem, że to tylko początek ingerencji botów w nasze życie?

- Boty będą w stanie coraz częściej komunikować się w taki sposób, jak my to robimy, bo postęp w dziedzinie przetwarzania języka naturalnego jest bardzo duży, coraz trudniej wskazać, z kim tak naprawdę mamy do czynienia po drugiej stronie ekranu czy słuchawki telefonu.

Nie powiedzieliśmy jeszcze o ostatnim rodzaju botów.

- To są boty polityczne.

Czym się charakteryzują?

- Ich główną rolą jest to, aby rozsiewać dezinformację. Są strony i podmioty, którym zależy, aby pewne informacje były przekłamane.

Masz na myśli rozsyłanie fake newsów?

- Nie tylko. Załóżmy, że jestem twoim rywalem w wyborach. Napiszę sobie bota albo armię liczącą dwa tysiące botów, które polubią twój profil, będą się pozytywnie na tym koncie wypowiadały na twój temat, ale rozchodząc się po internecie będą mówiły bardzo politycznie niepoprawne rzeczy - tworząc negatywny obraz twoich wyborców, co bardzo ci zaszkodzi.

Znam mniej wyrafinowane rozwiązanie: moje boty rzucą się na ciebie z krytyką, podważając na każdym kroku twoje kompetencje.

- To jedna z dróg. Bardzo często są to nie tyle boty, co żywe osoby, popularne trolle, które wchodzą na twoje konto i krytykują twoje wypowiedzi, starając się przedstawić cię w złym świetle. To jest bezpośrednia interakcja. Powszechnie znane są farmy trolli, kierowanych ręcznie przez ludzi. Takie osoby tworzą bardzo wiele profili w mediach społecznościowych i na portalach i komentują. Nie są to jednak programy komputerowe.

Troll jest zawsze człowiekiem czy może być botem?

- Myślę, że jak najbardziej troll może być botem, pewnie musielibyśmy wejść w bardziej słownikowe definicje. Troll to jest bardziej próba opisania zachowania niż to, kto się za nim kryje.

Wróćmy do botów. Jak te polityczne są jeszcze wykorzystywane?

- Wiele z botów politycznych nie jest aktywnych na co dzień, one przez większość czasu siedzą cicho. Aktywują się z pełną mocą w krytycznych momentach, na przykład przed wyborami, ważnymi zmianami w prawie czy przy okazji protestów społecznych. Wkraczają do gry, by siać dezinformację czy zacząć wpływać na naszą percepcję rzeczywistości. To problem znany również w Polsce.

Jak przeciwdziałać? Zawsze reakcja prawna jest w tyle za postępem technologii.

- Pytanie jest trudne o tyle, że nikt nie ma na nie jednoznacznej odpowiedzi. Jakiś czas temu debatowaliśmy na ten temat w Parlamencie Europejskim. Tam też większość wypowiedzi sprowadzała się do roli uświadamiania użytkowników na temat istnienia tych szkodliwych zabiegów. Źli aktorzy, którzy działają w sieci mają sporo technik w swoim arsenale, aby namieszać nam w głowach.

Co najgroźniejszego mają do dyspozycji?

- Jednym z najbardziej szokujących i trudnych do odróżnienia od rzeczywistości jest zabieg o nazwie deep fake. Są to sfabrykowane nagrania wideo. Dobrze posłużyć się tutaj przykładem rzekomej wypowiedzi Baracka Obamy, głoszącego słowa dalekie od poprawności politycznej. Niezwykle trudno oprzeć się wrażeniu, że ten filmik jest prawdziwy. Twarz, mimika, ton głosu byłego prezydenta USA - wszystko jest łudząco podobne do oryginału.

Ten filmik powstał po to, żeby uczulić amerykańskie społeczeństwo na występowanie zjawiska o nazwie deep fake. Wyobrażam sobie, że ktoś może go wykorzystać w innym celu.

- Otóż to. Można dziś przedstawiać każdego z nas w bardzo niekorzystnych dla nas sytuacjach. To jedna strona medalu. Druga jest taka, że niedługo każdy będzie mógł się wyprzeć swoich słów. Jeśli dla polityka jakaś wypowiedź okaże się niefortunna, szkodliwa, będzie mógł powiedzieć, że to deep fake, a materiał został sfabrykowany.

Do niedawna nagranie było dowodem...

- Tak, dało się napisać nieprawdę w gazecie, na portalu internetowym, natomiast wideo zdawało się barierą nie do przejścia. Zazwyczaj bezgranicznie ufamy temu, co widzimy. Deep fake sprawia, że musimy bardzo mocno zastanawiać się nad tym, co obserwujemy. Szczególnie w sytuacjach, które jawią się jako zbyt sensacyjne, aby były prawdziwe. Słuchajmy, gdy głos rozsądku mówi nam: "coś tu nie gra". Jedną z wytycznych dla przeciętnego użytkownika internetu jest to, aby nie wyciągać pochopnych wniosków. To nie jest łatwe, szybkie sądy leżą w naszej naturze, ale musimy zacząć to robić, bo coraz więcej technik ułatwia oszukiwanie naszej percepcji. Sprawdzajmy inne źródła, czy też podają tę informację, sprawdzajmy, czy nie ma dementi.

Nie zawsze jest na to czas. Wyobraźmy sobie, że coś podobnego pojawia się w Polsce w sieci w trakcie ciszy wyborczej, która w dobie internetu jest fikcją. Jest niedziela rano, idziemy do urn, o siódmej wychodzi fake news szkalujący jednego z kandydatów na prezydenta. Zanim wyjdzie dementi, które i tak nie do każdego dotrze, sfabrykowana wiadomość wpłynie na głos wielu wyborców. No i co wtedy?

- Nawet jeśli taka informacja zostanie odkręcona, bardzo trudno będzie wymazać pierwsze wrażenie. Jakaś cząstka tamtej wiadomości w naszych głowach zostaje - to jest potwierdzone naukowo. Trzeba mieć na uwadze to, że złym aktorom zależy, żeby jak najszybciej dotrzeć ze swoim dalekim od faktów przekazem do największej liczby osób, bo nawet dementi nie będzie miało takiego efektu.

Ani zasięgu. Odkręcenie fałszu nigdy nie jest równie chwytliwe.

- Dlatego w chwili obecnej trzeba koncentrować się na tym, aby użytkownicy internetu wymuszali na sobie większą higienę przyjmowania tej wiedzy. Nie brali wszystkiego za pewnik. To też nie jest tak, że te złe działania uchodzą bez jakiejkolwiek próby przeciwdziałania. Największe firmy i platformy typu Facebook czy Twitter robią bardzo dużo, aby wyłowić nieprawdziwe informacje zanim zostaną opublikowane.

Czyli istnieją też dobre boty?

- Tak. Te platformy działają na tak wielką skalę, że ludzie nie są w stanie przegrzebać się przez ogrom publikowanych w każdej sekundzie informacji. Algorytmy uczenia maszynowego są w stanie do pewnego stopnia nauczyć się tego, jakimi cechami charakteryzuje się fake news i oflagować taką informację, do późniejszej weryfikacji przez człowieka.

- O ile dobrze pamiętam, tylko Facebook ma blisko 30 tys. pracowników monitorujących bezpieczeństwo informacji, co oznacza m.in. walkę z fake newsami i mową nienawiści. Na świecie jest ponad 200 organizacji, które zajmują się sprawdzaniem faktów w mediach, jedną z najbardziej znanych jest FactCheck.org. Pracują pełną parą, ale wciąż jest ich za mało.

Można mówić o sztucznej inteligencji w kontekście dobra i zła?

- Sztuczna inteligencja sama w sobie to jest tylko zimna matematyka. To są wzory i techniki, które nie mają absolutnie żadnej wiedzy na temat świata w momencie tworzenia koncepcyjnego. Algorytmy poznają naszą rzeczywistość na podstawie przekazywanych przez człowieka danych, opisanych w sposób umożliwiający ich interpretację.

Podasz przykład?

- Jeśli wyślemy do algorytmu dużo zdjęć opisanych tak, że przedstawiają one psa, i odpowiednio dużo zdjęć opisanych jako przedstawiające kota, to po niedługim czasie algorytm będzie sam w stanie rozpoznawać, czy nowe, nieznane mu zdjęcie, przedstawia kota czy psa. Na pewnym etapie algorytmy zaczynają same się uczyć, ale jest to nauka na bazie nowych, kolejnych danych przygotowanych i wysłanych do algorytmu przez człowieka.

Człowiek może być omylny...

- I dlatego znamy szereg sytuacji, gdzie sztuczna inteligencja zawiodła nas jako ludzkość, bo zaczęła wnioskować na temat naszego świata w sposób uprzedzony. Jednym ze sztandarowych przykładów jest system o nazwie COMPAS, używany w amerykańskim sądownictwie do tego, by ocenić prawdopodobieństwo recydywy. Po jakimś czasie organizacja pożytku publicznego ProPublica przyjrzała się sposobowi działania tego algorytmu. Wyszło na jaw, że system dużo częściej krzywdził osoby czarnoskóre i był bardziej łagodny w swoich prognozach dla białych. Okazało się, że stereotypy rasowe zostały niemal w stu procentach przekazane algorytmowi. Dopiero zaczynamy sobie zdawać sprawę z tego, jak poważne mogą być konsekwencje niedbałego przygotowania takich systemów.

Przed tymi konsekwencjami przestrzega funkcjonujący przy Komisji Europejskiej Europejski Sojusz na rzecz Sztucznej Inteligencji, do którego należysz. Czym ta inicjatywa się zajmuje?

- Między innymi opracowaniem wytycznych związanych z etyką sztucznej inteligencji. Co można robić? Na co trzeba zwracać uwagę? Do czego absolutnie nie można dopuścić?

Do czego?

- Chociażby do tego, żeby algorytmy nie mogły używać pewnych cech do opisu ludzi. To na przykład płeć, kolor skóry czy wyznanie religijne. To absolutnie nic nie mówi o tym, kim jesteśmy jako ludzie. Dla algorytmu będzie to tylko jeden z parametrów, ale może prowadzić do krzywdzących wyników jego wnioskowania.

Kto się tymi wytycznymi będzie kierował?

- W idealnym świecie powinna być to każda firma, która zajmuje się wytwarzaniem takich systemów, szczególnie tych, które mają interakcję z ludźmi, jak na przykład wspomniany COMPAS. Jeśli przekażemy swoje uprzedzenia sztucznej inteligencji, to one zostaną tylko wzmocnione. Z drugiej strony systemy tworzone w sposób odpowiedzialny i zrównoważony sprawią, że te stereotypy zaczną zanikać. Wina nigdy nie leży po stronie sztucznej inteligencji czy komputerów, wszystko zależy od tego, jaką wiedzę im przekażemy.

Skoro jest wina, powinna być też odpowiedzialność. Kogo w tej kwestii wskazać: twórcę systemu, użytkownika, rząd - jeśli system działa w instytucji państwowej?

- Powiedziałbym, że jesteśmy w wiośnie rozmów na ten temat. Po zimie fascynacji możliwościami sztucznej inteligencji dopiero zaczynamy otwierać oczy na to, co może złego się stać, jeśli prześpimy kwestie związane z etyką. Musimy wymagać, żeby ta odpowiedzialność została ustalona zanim taki system wejdzie do codziennego użytku. Taka odpowiedzialność też ma drugą bardzo ważną rolę - systemy, które zostaną wykryte, że działają w sposób nieprawidłowy, będą mogły być naprawione. Te algorytmy mogą być wytrenowane na nowo i bardzo dobrze służyć ludziom.

Skuteczniej dzisiaj prowadzić konflikt czołgiem czy komputerem?

- To jest dobre pytanie. Jednym z największych zagrożeń, o jakich się mówi w kontekście postępu w dziedzinie sztucznej inteligencji i automatyzacji świata, jest autonomiczna broń. To jest broń, która już za niedługo będzie w stanie bez udziału człowieka wchodzić na teren wroga i sama wykonywać zaprogramowane z góry działania. Z jednej strony można by powiedzieć, że to krok w dobrym kierunku, bo dziesiątki żołnierzy nie będą wysyłane na pole bitwy, ale w gruncie rzeczy to jest ogromne zagrożenie, bo nikt dobrowolnie nie ujawni motywu, który stoi za algorytmem. Żadna armia nie powie otwarcie, jaki ma cel.

Nikt nie zdradzi taktyki...

- A temat jest poważny. Jeśli przekroczymy rubikon, oddając maszynom inicjatywę w kierowaniu konfliktem zbrojnym, szybko może dojść do eskalacji o skali, której ludzkość nie przewidziała.

Rozmawiał Dariusz Jaroń


INTERIA.PL
Dowiedz się więcej na temat: Amnesty International | Sztuczna inteligencja | Bot
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy