Uczenie maszynowe, czyli dosłowne tłumaczenie terminu „machine learning” od pewnego czasu pojawia się w rozmaitych artykułach, prezentacjach związanych z szeroko rozumianą sferą IT. Czy ta technika rzeczywiście jest zbyt trudna, aby zrozumieć możliwości jej zastosowania? A może ten termin jest związany z pewną osiemnastowieczną mistyfikacją, której autorem był niejaki Wolfgang von Kempelen? Sprawdźmy to.
Przytoczona mistyfikacja polegała na stworzeniu „genialnej” maszyny, która potrafiła rozgrywać po mistrzowsku partie szachów. Jak się jednak okazało, wewnątrz konstrukcji był system przegród, które odpowiednio przesuwane pozwalały na zamaskowanie obecności w niej człowieka. Oczywiście „Mechaniczny Turek” (bo tak nazwana została ta konstrukcja) nie miał nic wspólnego z uczeniem maszynowym i dzisiejszymi nowoczesnymi technikami, które ułatwiają interpretację danych i wyciąganie logicznych wniosków.
Innym przykładem, który także dość często jest wiązany z technologią machine learning, jest stworzony w 2015 roku program komputerowy do gry w „go”, stworzony przez firmę DeepMind. Zastosowany w aplikacji algorytm stanowił kombinację technik sieci neuronowych, uczenia maszynowego i wyszukiwania Monte Carlo. Program ten był w stanie pokonać nawet zawodowego gracza, a w 2016 roku otrzymał honorowy 9. dan od południowokoreańskiej federacji „go".
Termin „machine learning” został stworzony przez komputerowego gracza o imionach Arthur Samuel w 1959 roku. Zdefiniował go następująco: „dziedzina nauki, która daje komputerom zdolność do uczenia się i przewidywania zdarzeń bez konieczności jawnego programowania”. Uczenie maszynowe jest poddziedziną sztucznej inteligencji (AI), o której mówi się obecnie bardzo dużo w kontekście tworzonych czatów AI. Technika ta opiera się na idei, w której komputery mogą uczyć się na podstawie historycznych doświadczeń, podejmować kluczowe decyzje i przewidywać przyszłe zdarzenia bez ingerencji człowieka.
To uczenie maszynowe stoi za sugestiami zakupów, gdy przeglądamy Internet, propozycjami filmów na Netflixie i wieloma innymi sprawami. Komputer, a tak naprawdę zaszyte w nim algorytmy są w stanie dokonywać i dostarczać tych sugestii i przewidywań, ucząc się z wcześniej zebranych danych i z naszych przeszłych zachowań. W ostatnich latach „machine learning” zdobyło spory rozgłos na całym świecie, stało się jednym z najważniejszych sposobów wykorzystania sztucznej inteligencji przez ludzi.
Nawet najlepszy algorytm nie będzie działał bez odpowiednich danych wejściowych. Także w uczeniu maszynowym proces zaczyna się od zbierania danych. Mogą nimi być liczby, teksty, zdjęcia, komentarze, litery itp. Te dane często są nazywane treningowymi, gdyż w kolejnym kroku służą do szkolenia algorytmu. Trening ten w zasadzie „uczy” algorytm, jak intepretować dane, które w późniejszym etapie będą wykorzystywane do analizy. Po zakończeniu takiego treningu do algorytmu wprowadza się nowe dane wejściowe (może ich być ogromna ilość), a algorytm wykorzystuje wcześniej wypracowany model do analiz i prognoz. Oczywiście algorytm jest szkolony kilkukrotnie, aż osiągnie się pożądany wynik. Pozwala to algorytmom uczenia maszynowego na ciągłe samodzielne „douczanie się”. W rezultacie otrzymuje się optymalne odpowiedzi oraz zwiększa się dokładność i jakość otrzymywanych prognoz.
Wykorzystywanie uczenia maszynowego w naszych codziennych czynnościach uczyniło życie łatwiejszym i wygodniejszym. Wywołało także niemałe zamieszanie na całym świecie, ale i utorowało drogę postępowi w technologii.
Wspominałem wcześniej o sugestiach co do listy zakupów podczas surfowania po Internecie, a także o propozycjach tytułów filmów w platformach streamingowych. Rezultaty algorytmów uczenia maszynowego możemy zaobserwować także w platformach społecznościowych, jak Facebook, Instagram czy Twitter. Aplikacje te biorą pod uwagę komentarze oraz „lajki”, aby dopasować do użytkowników odpowiednie treści. Wirtualni asystenci, czyli urządzenia wykonujące nasze polecenia wydawane za pomocą głosu (jak Alexa czy Siri) także przetwarzają otrzymywane dane z wykorzystaniem algorytmów sztucznej inteligencji.
Kolejnym częstym zastosowaniem algorytmów jest rozpoznawanie obrazu. Dzięki temu jesteśmy w stanie zidentyfikować na podstawie zdjęcia ludzi, obiekty czy miejsca. W ostatnich latach nastąpił ogromny rozwój technologii medycznych. Na przykład opracowanie modeli 3D, które mogą precyzyjnie wykrywać pozycję zmian w mózgu człowieka, aby pomóc w diagnozie i planowaniu leczenia. Uczenie maszynowe pomaga również w identyfikacji czynników genetycznych różnych chorób poprzez poszukiwanie wzorców genetycznych u osób z podobnymi schorzeniami.
Oszustwa w ubezpieczeniach medycznych to znaczące wyzwanie dla firm ubezpieczeniowych i systemu opieki zdrowotnej. Prowadzą bowiem do strat finansowych i zmniejszają wydajność. W odpowiedzi na ten problem pojawiają się oparte na uczeniu maszynowym inteligentne podejścia do wykrywania oszustw w ubezpieczeniach medycznych. Zaawansowane algorytmy uczenia maszynowego są wykorzystywane do identyfikacji fałszywych roszczeń.
Dokładne prognozowanie roszczeń ubezpieczeniowych ma kluczowe znaczenie dla działalności ubezpieczeniowej, ponieważ ewolucja roszczeń determinuje przepływy pieniężne, a także ustalanie cen, a tym samym rentowność podstawowych zakresów ubezpieczenia. I w tym przypadku algorytmy „machine learning” są w stanie dostarczyć poprawną prognozę średniej roszczeń ubezpieczonych, np. dla pojazdów mechanicznych.
Wprowadzony parę lat temu przez ERGO Hestię system monitoringu ryzyka „Smart Control” także czerpie dane z wykorzystania algorytmów sztucznej inteligencji. Ocena prawidłowości działania monitorowanego obszaru (czy jest nią rozdzielnica elektryczna, serwerownia, czy silnik elektryczny) nie wynika wyłącznie z otrzymywanych bieżących danych pomiarowych. W tle tej aplikacji pracuje wiele algorytmów, które na podstawie otrzymywanych na bieżąco danych oraz danych historycznych, które „wytrenowały” modele, dostarczają bardziej precyzyjną informację o stanie urządzeń, obiektów lub miejsc. Niewspółmiernie zmniejszyło to liczbę nadmiarowych notyfikacji wysyłanych do klientów, a ciągły rozwój tej technologii, miejmy nadzieję, jeszcze bardziej poprawi wykrywanie sytuacji krytycznych i incydentów.
Wykorzystanie tej technologii stwarza wiele szans i korzyści, ale niesie również pewne zagrożenia. Szanse wynikające z wykorzystania uczenia maszynowego możemy dostrzec np. w usprawnieniu procesów – automatyzacja wielu zagadnień może pozwolić zaoszczędzić czas, pieniądze i zasoby. Analiza ogromnej ilości danych w krótkim czasie także nie byłaby możliwa, gdyby nie odpowiednie moce obliczeniowe i stosowanie coraz bardziej wydajnych algorytmów. Dzięki temu można odkrywać ukryte wzorce i zależności w danych, co może prowadzić do lepszych prognoz i wyników, a dla ludzi mogłoby się okazać niemożliwe. Natomiast zagrożeniami związanymi z przetwarzaniem danych mogą być problemy z prywatnością i bezpieczeństwem. Gromadzenie i analiza dużej ilości danych może doprowadzić do naruszenia prywatności użytkowników, a także do częstych dzisiaj wycieków danych. Wykorzystanie „machine learning” może też prowadzić do etycznych dylematów, szczególnie w przypadku profilowania i inwigilacji. Istnieje ryzyko dyskryminacji i naruszenia praw człowieka. Systemy oparte na uczeniu maszynowym mogą popełniać błędy, które mogą mieć poważne konsekwencje. W takich sytuacjach może być trudno ustalić odpowiedzialność za te błędy.
Ciągły rozwój technologii informatycznych oczywiście wiąże się z zagrożeniami, jednak wielość potencjalnych korzyści z efektywnego wykorzystania technik „machine learning” i innych pokrewnych z dziedziny sztucznej inteligencji powinna to zrekompensować.
Menedżer Projektu w Hestia Corporate Solutions, zajmuje się architekturą techniczną rozwiązań „Internet od Things” na rynku ubezpieczeń. Absolwent Wydziału Elektroniki i Telekomunikacji Akademii Morskiej w Gdyni. W Grupie ERGO Hestia od 2018 roku.