Sieci neuronowe, czyli machine learning, czyli deep learning, czyli... sztuczna inteligencja
Sieci neuronowe są jedną z najważniejszych i najbardziej praktycznych metod sztucznej inteligencji. To bardzo obszerna dziedzina nauki, łącząca wiele innych dyscyplin. W ostatnich latach zainteresowanie sieciami neuronowymi stale rośnie, a doniesienia prasowe mówią nam o coraz to nowszych zastosowaniach praktycznych – choć czasem nie wiemy, że właśnie o sieciach neuronowych mowa.
To tylko wstęp
W dalszej części tego artykułu opowiemy, jak uczy się sieć neuronowa, o jakich rodzajach sieci najczęściej się mówi i jakie są najczęściej używane. Sieci neuronowe i AI to tak obszerna dziedzina, że nie mamy szansy choćby wspomnieć o wielu ważnych zagadnieniach. Świadomie upraszczamy i omijamy wiele kwestii. Potraktujcie ten artykuł jako szybkie wyjaśnienie, czym i dlaczego ekscytują się producenci i użytkownicy superwydajnych maszyn obliczeniowych, oraz zachętę do lektury innych źródeł.
Trochę historii
Historia sztucznej inteligencji zaczyna się na poważnie od perceptronu, wynalazku z lat 50. ubiegłego wieku. Nazwa kojarzy się z jakimś urządzeniem, i słusznie, bo wynalazca, psycholog Frank Rosenblatt, początkowo myślał o maszynie zbudowanej na podobieństwo organizmów biologicznych i umiejącej się uczyć. Chodzi jednak o pewien algorytm, który realizowano programowo, początkowo na uniwersalnym komputerze, a potem na komputerze z wyspecjalizowanymi peryferiami. Perceptron to algorytm klasyfikujący: uczy się jakieś klasy i daje odpowiedź: czy wejściowy zestaw danych do niej należy czy nie. Pierwszy perceptron zbierał dane z 400-pikselowego sensora optycznego i stwierdzał, czy widoczna figura geometryczna odpowiada wyuczonemu wzorcowi. Perceptron jest jednym z kilku rodzajów sztucznego neuronu: urządzenia o wielu wejściach i jednym wyjściu, które daje tylko jedną odpowiedź (najczęściej tak lub nie).