Uczenie maszynowe jest nauką interdyscyplinarną – czerpie z osiągnięć takich dziedzin wiedzy jak informatyka, robotyka, matematyka czy statystyka. Podstawowym jej celem jest stworzenie systemu, który będzie w stanie samodzielnie się uczyć, czyli gromadzić pewne doświadczenia i przekładać je na nową wiedzę. Uczenie maszynowe znaleźć ma zastosowanie przede wszystkim w nowoczesnych technologiach oraz przemyśle. Oprogramowanie, które będzie zdolne do tego, by samodzielnie się rozwijać, przełożyć się ma na efektywność, wydajność, zmniejszenie kosztów oraz awaryjności obsługiwanych przez siebie procesów.
Uczenie maszynowe – kurs ku przyszłości
Wbrew pozorom, zagadnienie uczenia maszynowego nie jest dla nauki niczym nowym. Jego początki sięgają lat 50. XX wieku. Za pierwszy przykład uczenia maszynowego uznaje się projekt, jaki Arthur Samuel wykonał dla firmy IBM. Był to program, którego zadaniem miało być szkolenie zawodników, startujących w turniejach szachowych. Momentem, który uznawany się za przełomowy dla uczenia maszynowego, był rok 1965. Na Uniwersytecie Stanforda powstał wówczas ekspercki program Dendral. Jego zadaniem była zautomatyzowanie procesów analizy oraz identyfikacji związków chemicznych, jakich nie znali naukowcy. System Dendral zdołał odkryć molekuły nieznanych dotąd związków organicznych. Było to pierwsze w historii nauki odkrycie dokonane przez maszynę. W 1977 roku Doug Lenat stworzył program AM, który poszukiwał nowych praw matematycznych. System wykorzystywał do tego celu algorytmy heurystyczne. W latach 90. badania nad uczeniem maszynowym zdecydowanie nabrały tempa. Zaczęły powstawać programy, które konkurowały w grach logicznych z mistrzami świata. Szerokim echem na świecie odbiła się historia o komputerze Deep Blue, który w 1997 roku pokonał w grze w szachy Garriego Kasparowa. Podobna sytuacja miała miejsce w 2006 roku, kiedy szachowy program Fritz 10 pokonał aktualnego mistrza świata – Władimira Kramnika.
Uczenie maszynowe – cele i zastosowanie
Warto wiedzieć, że uczenie się maszynowe nie jest tożsame z samym pojęciem uczenia się. Proces ten, w odniesieniu do sztucznej inteligencji, polega na gromadzeniu zewnętrzny danych empirycznych (które określa się mianem doświadczenia) i przetwarzaniu ich w celu udoskonalenia swojego działania w przyszłości. Co ważne, podstawy, które służą systemowi do aktualizacji swojej wiedzy, muszą być wyrażane w zrozumiałej postaci – jako algorytmy, modele, opisy symboliczne czy obrazy. Do najważniejszych celów uczenia maszynowego zalicza się:
- Analizę i przetwarzanie baz danych o ogromnej skali – w wielu dziedzinach wiedzy, ze względu na rozmiary, stopień skomplikowania i niemalże stale postępujący rozwój, niemożliwa jest niezautomatyzowana analiza danych. System zdolny do uczenia się mógłby analizować i przetwarzać dane z takich dziedzin jak chemia czy medycyna.
- Adaptowanie się systemu do środowiska – oprogramowanie uczące się jest w stanie poprawnie działać nawet w warunkach, które dynamicznie się zmieniają. Dzięki temu znajduje bardzo istotne zastosowanie w takich dziedzinach, jak robotyka, analiza danych czy systemy produkcyjne.
- Poszukiwanie i analizowanie relacji w bazach danych – odnajdywanie zależności w ogromnych bazach danych pozwala na szybki dostęp do określonych danych. Funkcja ta zastosowanie znajduje przede wszystkim w wyszukiwarkach internetowych.
- Opracowywanie rozwiązań dla wyjątkowo złożonych problemów – program uczący się może zajmować się zagadnieniami z dziedziny matematyki czy fizyki, w przypadku których niemożliwe jest stworzenie opisu lub modelu teoretycznego.
Maszynowe uczenie się – klasyfikacja metod uczenia
Maszynowe uczenie się klasyfikuje się na podstawie metod, wykorzystywanych przez oprogramowanie do zdobywania wiedzy. Najważniejsze z nich to:
- Metoda drzew decyzyjnych – algorytm ten pozwala na przedstawienie decyzji, jakie możliwe są do podjęcia w chwili zaistnienia problemu, a także ich konsekwencji. Stosuje się ją zwłaszcza w przypadku systemów, które mają mierzyć się z problemami decyzyjnymi o wielu wariantach.
- Metoda Bayesowska – bazuje na teorii stworzonej przez XIX-wiecznego matematyka, Thomasa Bayesa. Wykorzystuje się ją w przypadku wnioskowania probabilistycznego.
- Metoda przykładów – oprogramowanie wykorzystujące tę metodę nie korzysta z ogólnych opisów funkcji docelowej, a po prostu zapamiętuje gromadzone przykłady. Każdy z nowych przykładów jest porównywany z poprzednimi.
Obecnie, pomimo tego, że uczenie maszynowe stale i dynamicznie się rozwija, tworzone systemy są wciąż zależne od człowieka.
Zobacz także:
- Jak robić notatki, by mózg szybko przyswajał wiedzę? Z pomocą przychodzi sketchnoting
- Pisanie ręczne to świetna praca mózgu. "Zostawia w pamięci większy ślad"
- Dlaczego wierzymy w pseudonaukowe bzdury? "Nie chcemy się do tego przyznać"
Autor: Adrian Adamczyk
Źródło zdjęcia głównego: Jasmin Merdan/Getty Images