📻 LUDZKOŚĆ: Stan na przełom 2018 i 19. Ważny tekst Jacka Kotarbińskiego

AUDIO REO. Posłuchaj tekstu na podcaście. Czyta Danuta Stachyra



  • Żyjemy w świecie, w którym analiza danych i naszych zachowań w sieci może decydować nieomalże o wszystkim, bez względu na status ich prywatności.
  • Musimy być świadomi, że im bardziej sztuczna inteligencja będzie nam pomagać w życiu, tym poważniejszym zagrożeniem stanie się w rękach ludzi pozbawionych etyki i wartości.
  • Człowiek, który chciałby tego uniknąć musiałby zaniechać korzystania z internetu, smartfonu, kart płatniczych oraz nie wychodzić z domu (monitoring miejski).


Witajcie w świecie Wielkiego Brata ery cyfrowej

Historia komputerowej analizy zachowań społecznych jest tak samo długa jak wykorzystywanie maszyn obliczeniowych do zbierania danych. W początkowej fazie rozwoju branży dane wykorzystywano głównie do celów naukowych i wojskowych. Komputery służyły przede wszystkim do obliczeń. Jednak upowszechnianie informatyzacji, a tym samym cyfryzacji informacji, sprzyjało pozyskiwaniu danych transakcyjnych i handlowych. Świat analogowy, poza zapisem papierowym, nie miał narzędzi by je analizować. Wiedza o kliencie istniała przede wszystkim w pamięci sprzedawcy i zapisach ksiąg handlowych.

Na początku XX wieku pojawiły się w USA pierwsze rozwiązania przypominające współczesne karty kredytowe. Ale dopiero w 1968 roku opracowano technologię EDI ( ang. Electronic Data Interchange), która stworzyła podstawę elektronicznej wymiany informacji i obecnego kształtu systemu kart płatniczych.

Pierwszy bankomat pojawił się dopiero w 1975 roku.

Rewolucja komputerowa w handlu na przełomie lat 60. i 70. XX wieku spowodowała rozwój skanowania cen kupowanych produktów i analizowania danych zakupowych, szczególnie po upowszechnieniu systemu kodów kreskowych w latach siedemdziesiątych. Dwa główne nurty, czyli rozwój transakcji elektronicznych w połączeniu z miejscami, w których mogliśmy dokonywać zakupów, stworzyły podstawy ekonomii behawioralnej, opierającej się o analizę naszych prawdziwych zachowań.

Przed erą cyfrową w sferze biznesu analizowano głównie dane deklaratywne wynikające z badań rynkowych i informacji pozyskanych w ramach wywiadów, ankiet czy badań fokusowych. Jednak badacze przekonywali się, że wartość deklaracji klientów, w porównaniu do informacji uzyskiwanych z obserwacji naszych zachowań jest o wiele niższa. Tak odkryto kopalnię BIG DATA: masowych, wielopłaszczyznowych informacji behawioralnych. To przede wszystkim nasze ślady pozostawiane w Internecie, które następnie wykorzystywane są do celów komercyjnych: wyświetlania nam reklam, personalizowania ofert sprzedaży czy wysyłania informacji drogą elektroniczną i wiele więcej.

Jednak samo zbieranie danych nie służy niczemu, jeżeli na ich podstawie nie będą tworzone algorytmy wpływające na nasze zachowania. Czyli modele matematyczne i ekonometryczne wskazujące, że jeżeli kupimy kilka kremów, niebieski koc i parę innych drobiazgów, to znaczy, że jesteśmy w ciąży. I to nie fantastyka naukowa.

W 2012 roku amerykańska sieć handlowa Target, wysłała mail do nastolatki w Atlancie z kuponami zniżkowymi na zakup odzieży ciążowej i akcesoria dziecięce. Zareagował na to oburzony ojciec, że córka jest w szkole średniej i nie w głowie jej zakładanie rodziny. Troskliwy tata się pomylił. Algorytmy Target miały rację. Wynikało z nich, że jeśli 23-latka z Atlanty kupuje mleczko do ciała, torbę na pieluchy, cynk i magnez jako suplementy oraz niebieski pled, to prawdopodobieństwo, że jest w ciąży wynosi 87%. Można w związku z tym zaryzykować i wysłać jej ofertę premiową na zakup drobiazgów związanych z tym stanem rzeczy. Konkluzja jest prosta: żyjemy już w czasach, w których więcej o naszych dzieciach wiedzą systemy informatyczne. Tyle tylko, że

dane sklepów, które budują algorytmy w oparciu wyłącznie o nasze zachowania handlowe, to naprawdę drobiazg w porównaniu z informacjami, które pozostawiamy o sobie w Internecie.

Współcześnie obserwujemy gwałtowny wzrost mocy i możliwości przetwarzania danych oraz możliwości budowania algorytmów. Dzisiejsze komputery przetwarzają informacje milion razy szybciej niż kilkadziesiąt lat temu. Sztuczna inteligencja (AI) gromadzi dane i uczy się na ich podstawie.

Jako użytkownicy sieci w ciągu 60 sekund oglądamy ponad 4 miliony filmów na YouTube, wysyłamy pół miliona twitów i zadajemy 3,5 mln pytań w Google.

Pływamy w morzu danych, jesteśmy aktywnymi uczestnikami całego procesu ich gromadzenia i analizowania. Sztuczna inteligencja potrafi sterować rakietami lepiej niż człowiek, potrafi też precyzyjniej diagnozować nowotwory. Komputer Deep Blue 10 lutego 1996 roku wygrał partię szachów z Garrim Kasparowem, ale jeszcze był zaprojektowany przez szachistów i opierał się jedynie na analizie zapisów olbrzymiej ilości rozegranych wcześniej partii. Dziś AI potrafi już uczyć się sama, a my poważnie zastanawiamy się, w jakich obszarach i na jakich stanowiskach pracy zastępować będzie człowieka.

Spotify na podstawie własnych algorytmów zaproponuje nam muzykę najbardziej zbliżoną naszym oczekiwaniom, podobnie uczyni Netflix, analizując oglądane przez nas filmy, czas na nie poświęcony i naszą ocenę. Czy to jest wygodne? Tak, to jest bardzo wygodne, ponieważ indywidualne dopasowanie oferty następuje w wyniku automatycznej analizy naszych historycznych zachowań. Czy ten proces jest niebezpieczny? Tak, jest niebezpieczny. To bowiem kwestia tych ludzi, którzy decydują o wykorzystaniu danych oraz zastosowaniu określonych algorytmów. To również niebezpieczeństwo utraty informacji w wyniku ataków hakerskich.

Nie zahamujemy rozwoju AI, ponieważ podstawą ludzkiej inteligencji jest nieustanne uczenie się. Postęp cywilizacji jest nieustannie oparty o wnioski z poprzednich i historycznych działań, ewolucję rozumienia i znajdowanie nowych rozwiązań. Naukowcy dążą do tego, by maszyny uczyły się jak ludzie. Tym bardziej kluczowe stają się intencje tych, którzy decydują o wykorzystaniu danych: polityków (poprzez prawo) czy przedsiębiorców (poprzez finansowanie). – Stałem się śmiercią, niszczycielem światów – powiedział Robert Oppenheimer, cytując słowa Bhagawadgity, jednej ze świętych ksiąg hinduizmu, gdy miał miejsce pierwszy wybuch jądrowy w historii świata. Ale to nie on podejmował decyzję o jej użyciu przeciwko innym ludziom.

W zakresie zbierania danych i informacji o naszych zachowaniach jesteśmy śledzeni w zasadzie non stop. Nasze działania są rejestrowane i przetwarzane. W praktyce

człowiek, który chciałby tego uniknąć musiałby zaniechać korzystania z internetu, smartfonu, kart płatniczych oraz nie wychodzić z domu (monitoring miejski).

Oczywiście takie zachowanie jest możliwe, niemniej człowiek ma naturę szybkiego przyzwyczajania się do wygody. Nie zrezygnujemy z tego masowo. Technologie ułatwiają nam życie i akceptujemy do pewnego stopnia zbieranie i przetwarzanie informacji na nasz temat.

Nie zmienia to faktu, że zarządzanie danymi osobowymi i big data to nadal młoda gałąź ekonomii cyfrowej. Jeżeli jakaś dziedzina jest nowa to często panuje w niej swoisty dziki zachód, przedsiębiorcy zmieniają zasady działania dopiero pod wpływem precyzyjnie sformułowanego prawa. Niemniej problem polega na tym, że prawo stanowione jest w zasadzie na obszarze jednego państwa lub systemowo, w ramach Unii Europejskiej. A zbieranie danych ma charakter globalny, ponieważ Internet nie zna granic. Firma działająca na terenie USA czy Chin, działa według tam obowiązujących przepisów, ale pozyskuje informacje o naszych zachowaniach z terenów innych państw, gdzie system ochrony informacji może mieć odmienny charakter. Duże korporacje cyfrowe w warunkach cyfrowego dzikiego zachodu zachowują się trochę jak neokolonialiści sprzed stu lat, dążąc do podporządkowania swoim interesom całych państw czy sektorów gospodarki.

Świat cyfrowy zdominowany jest przez swoistą korporację GAFA czyli Google, Amazon, Facebook i Apple.

A te bywają niczym jak krnąbrne dzieci kierujące się wyłącznie parametrem szybkiej zyskowności dla akcjonariuszy, bez względu na koszty społeczne z tym związane.

O elementach społecznych musi pamiętać wyedukowane społeczeństwo, które poprzez niezależne media, wywierać będzie wpływ na stanowiących prawo cyfrowe w tym zakresie. Przynajmniej w krajach demokratycznych. Tam, gdzie demokracji nie ma, dane behawioralne stają się najczęściej w rękach systemu politycznego narzędziem represji czy wykluczenia społecznego. Ochrona i bezpieczeństwo naszych danych to obecnie poważne wyzwanie. Musimy być świadomi, że im bardziej sztuczna inteligencja będzie nam pomagać w życiu, tym poważniejszym zagrożeniem stanie się w rękach ludzi pozbawionych etyki i wartości. Wydaje się, że jeszcze dziś nasza cywilizacja dałaby sobie radę, gdyby zabrać jej wszelkie zabawki technologiczne. Ale czy za sto lat będzie to jeszcze możliwe?