Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.
Marcin Możejko  29 kwietnia 2015

Algorytm sprawdzi, czy Twoja córka jest w ciąży

Marcin Możejko  29 kwietnia 2015
przeczytanie zajmie 4 min

Jakiś czas temu przeciwko jednemu z większych amerykańskich sklepów internetowych wytoczony został proces o zniesławienie. Ojciec jednej z użytkowniczek oburzył się na napływające nieustannie oferty produktów dla ciężarnych. Jakże wielkie było jego zdziwienie, gdy okazało się, że wysyłał je zaawansowany program, mający na celu wykrycie kobiet w ciąży i zakwalifikowanie je  jako potencjalne przyszłe klientki. W jeszcze większą konsternację wprawiło go jednak to, że po miesiącu okazało się, iż jego 16-letnia córka faktycznie jest w drugim miesiącu ciąży.

Truizmem byłoby dziś stwierdzenie, że komputery w dużym stopniu kreują otaczającą nas rzeczywistość. Jednak ogrom możliwości, jakie dają nowoczesne algorytmy uczenia maszynowego oraz sztucznej inteligencji to rzecz, z której na pewno warto zdawać sobie sprawę. Nie tak dawno na łamach naszego portalu mogliśmy przeczytać o wyborczym algorytmie Facebooka, który potrafił trafnie ocenić wyborcze preferencje.  Przykłady takie jak ten, czy ten przedstawiony powyżej, powinny uświadomić nam, że ogrom danych w połączeniu z możliwościami obliczeniowymi nowoczesnych komputerów daje możliwości, które często prześcigają wyobraźnie współczesnych użytkowników sieci.

Zaczęło się niewinnie. W mojej opowieści za początek rozwoju tego rodzaju algorytmów przyjmę rok 1957, gdy Frank Rosenblatt, w oparciu o uproszczony model działania neuronu w mózgu, przedstawił algorytm uczenia tzw. perceptronu.

Od tego momentu zainteresowanie tego typu metodami zaczęło na całym świecie wzrastać w niewyobrażalnym tempie. Wynalazek Rosenblatta próbowano zastosować do wielu problemów, począwszy od rozpoznawania znaków na kopertach, po wyszukiwanie czołgów na zdjęciach z pola walki. Początkowo algorytm spisywał się doskonale. Niestety, szybko odkryto, że pierwszy zachwyt był znacznie przesadzony. Słynnym przykładem jest historia, w której perceptron zastosowany do rozpoznawania tego, czy na danym obrazku znajduje się statek czy nie, nauczył się tylko rozpoznawania dużych czarnych plam pośrodku zdjęcia.

Ostateczny cios nadziei na stworzenie maszyny, która nauczy się wszystkiego, zadała praca dwóch świetnych informatyków Marvina Minsky’ego oraz Seymoura Paperta.

Ich wydany w 1967 roku artykuł pokazał, że „duże plamy pośrodku” to praktycznie górny pułap możliwości perceptronu. Ogromne rozczarowanie, jakie towarzyszyło temu odkryciu doprowadziło do czegoś, co nazwano później zimą sztucznej inteligencji. Nowe algorytmy rozwijano nadal, jednak zmieniająca się sinusoidalnie atmosfera dookoła technologii sztucznej inteligencji nigdy już nie zbliżyła się do tego samego poziomu entuzjazmu, co na przełomie lat ’50 i ’60.

Ostatni boom na algorytmy uczenia maszynowego wybuchł na przełomie wieków, gdy zebranie olbrzymich zbiorów danych, w połączeniu z bardzo szybko wzrastającymi możliwościami obliczeniowymi nowoczesnych komputerów, sprawiło, że możliwości które stoją za machine learningiem stały się widoczne nie tylko dla świata naukowego.

Nie ma bowiem już dziś szanującej się korporacji, która nie stosuje rozwiązań tego typu w zagadnieniach optymalizacyjnych lub marketingowych, a zawód eksperta od danych jawi się jako jeden z najbardziej poszukiwanych na współczesnym rynku pracy. Co chwila możemy przeczytać, że owocem współpracy naukowców oraz świata biznesu stał się algorytm rozpoznawania ludzkich twarzy bądź znaków drogowych, przewyższający w dokładności człowieka. Jednocześnie, dzięki zaawansowanym metodom diagnostycznym oraz systemom doradczym, lekarze zwiększają skuteczność w walce z różnymi chorobami, wliczając w to nowotwory.

Aby choć trochę uchylić rąbka tajemnicy stojącej za tym sukcesem, chciałbym przedstawić dwa skrajne sposoby, które dobrze obrazują istotę postępu, jaki współczesnej cywilizacji przyniosło uczenie maszynowe.

Pierwszym z nich jest paradygmat, który nazwę ogrom danych – proste uczenie. Dzisiejsze zbiory danych, które są gromadzone podczas typowych czynności firm, szpitali lub ośrodków naukowych, osiągają wielkości, które czynią sprawną analizę ich zawartości niemożliwą nawet dla ogromnych zespołów analityków.

Dlatego często do ich eksploracji stosuje się proste, aczkolwiek sprawdzone od wielu lat metody, które pozwalają dostrzec zniuansowane i niedostrzegalne dla człowieka zależności pomiędzy danymi, dzięki czemu zyskujemy głębszy wgląd w istotę zjawisk stojących za obserwacjami, których wyniki zbieramy.

Ofiarą takiego algorytmu stał się ojciec, którego historię przytoczyłem we wstępie. Posiadając ogrom informacji o zakupach klientów oraz mogąc przynajmniej o części tych transakcji stwierdzić, czy były one realizowane przez kobiety w ciąży czy nie, algorytm zdołał nauczyć się rozpoznawać i odróżniać schematy zamówień dokonywanych przez kobiety spodziewające się dziecka od tych realizowanych przez pozostałych klientów. Ten przykład pokazuje, że algorytm czynił to lepiej nie tylko od rodziców, lecz także od samej zainteresowanej.

Drugi, skrajny paradygmat stanowi schemat, który nazwę ogrom skomplikowanych danych – trudny do zdefiniowania sposób uczenia. Typowym problemem, który obrazuje esencję tego paradygmatu jest zadanie nauczenia się rozpoznawania twarzy na obrazkach pochodzących z Facebooka.

Trudność zagadnienia łatwo zrozumieć, jeśli spróbujemy napisać na kartce, co trzeba zrobić, aby sprawdzić, czy na dowolnym obrazku faktycznie znajduje się ludzka twarz. Dla ludzkiego umysłu problem ten stanowi banalne zagadnienie – rozpoznajemy przecież twarze każdego dnia – i dlatego właśnie ludzki mózg stał się ekspertem, do którego zwrócono się o pomoc w rozwiązaniu tego zagadnienia. Na podstawie obserwacji procesów zachodzących w ludzkim mózgu, naukowcy z Uniwersytetu w Bonn stworzyli algorytm który na podstawie obrazu z kamery rozpoznaje znaki drogowe lepiej niż człowiek, a system firmy Google potrafi stwierdzić, czy dowolny film umieszczony w serwisie YouTube ma kota jako głównego bohatera. Sukces tych programów opiera się na tym, że dzięki procesowi zbliżonemu do procesu ludzkiego poznania, pozwalamy komputerowi samemu wybrać, które kształty i fragmenty obrazka są kluczowe do np. rozpoznania małego Mruczka. Co ciekawe, analiza tych kształtów pokazuje, że są one zaskakująco podobne do tych przechowywanych w naszej korze mózgowej.

Oczywiście obydwa powyższe paradygmaty tylko rozpinają continuum możliwości, które dzisiejsi spece od danych stosują do rozwiązywania problemów zadanych im przez pracodawców.

To, co łączy je wszystkie, to ogromna pamięć, a także niesamowita zdolność komputerów do wykonywania prostych operacji, które summa summarum składają się na skuteczny proces wydobywania wiedzy. I tutaj dochodzimy do ciekawego paradoksu. Potoczne obawy ludzi przed nowymi technologiami ogniskują się raczej na wizjach znanych choćby z Terminatora, przez co nie dostrzegamy, że mrówcza praca ogromnych systemów komputerowych może wpłynąć na nasze życie dalece bardziej, niż nowoczesna robotyka. Warto o tym pamiętać, zwracając uwagę nie tylko na to co mówimy, ale także na to, co zostawiamy po sobie w sieci.