Trenowanie sztucznej inteligencji, żeby widziała jak człowiek


Steven Novella 2019-05-21


Synergia między badaniami nad sztuczną inteligencją (AI) a neuronauką jest fascynująca i ta fascynacja rośnie. Wiedza o tym, jak funkcjonuje organiczny mózg, pomaga w badaniach nad sztuczną inteligencją, a badania AI rozszerzają zrozumienie w neuronauce. Sądzę, że ten proces doprowadzi z czasem do sztucznego ludzkiego mózgu, ale bardzo trudno przewidzieć, jak długo to zabierze.


Tymczasem zaczynamy widzieć owoce algorytmów AI, które stosują neuronalne sieci lub w jakiś sposób próbują zrekapitulować organiczne uczenie się. Zespół z University of Texas opublikował pracę, w której pokazują kolejny przykład – uczenie AI do szybkiego zbierania wizualnej informacji o swoim otoczeniu z kilku „migawek”.  


Ludzka percepcja wyewoluowała do tego, by była szybka i skuteczna, by wnioskowała o otoczeniu z tak niewielu informacji, jak to możliwe. Korzyścią tego jest szybkość – istnieje oczywista korzyść z tak szybkiego, jak to możliwe, dostrzeżenia, że coś leci w kierunku twojej głowy, lub że tropi cię drapieżnik. Nasze mózgi używają algorytmu, żeby wyciągać wnioski o wysokim prawdopodobieństwie do konstruowania naszej percepcji otoczenia z malutkich skrawków informacji. Ten proces działa bardzo dobrze i na ogół wystarczająco poprawnie postrzegamy nasze środowisko, by się w nim poruszać i działać.   


Ten system nie jest jednak doskonały. Czasami prowadzi do niepoprawnych wniosków lub założeń i błędnie rekonstruuje rzeczywistość. Doznajemy czasami takich sytuacji jako optycznych iluzji (jeśli przerywamy niepoprawną konstrukcję, bo w innym wypadku trwamy w błędnej percepcji). To zdarza się, na przykład, kiedy nasze mózgi otrzymują niewystarczającą lub dwuznaczną informację. Kiedy obserwujemy obiekty na niebie, może nam brakować odpowiednich odnośników, żeby ocenić rozmiary i odległość. Marne oświetlenie może zasłonić wiele z tego, co widzimy. Niezwykłe obiekty lub środowiska mogą stawiać wyzwanie algorytmicznym założeniom.  


Ewolucja zasadniczo postawiła nas w sytuacji kompromisu – używamy ograniczonego przetwarzania i percepcji naszych mózgów, żeby szybko skonstruować obraz rzeczywistości, akceptując, że będą w nim błędy. Prawdopodobnie wyewoluowaliśmy optymalną równowagę między szybkością a poprawnością w granicach mocy naszego mózgu. W tej mieszance jest jeszcze jeden element – uwaga. Możemy zmienić naszą uwagę, by skorygować równowagę między szybkością a dokładnością, skupiając się na czymś i poświęcając czas na staranną analizę. Albo możemy być wyczuleni na coś nieoczekiwanego lub możemy skupiać się wewnętrznie i nie zwracać większej uwagi na świat. Nasza uwaga przydziela nasze ograniczone zasoby według wymagań sytuacji.  


Komputery stoją przed wieloma podobnymi trudnościami. Mają ograniczoną moc przetwarzania lub szybkość i programiści zawsze szukają sposobów na zrobienie więcej. Pamiętam wczesne dni strumieniowania wideo. To było chropowate. Potem programiści zorientowali się, że nie muszą przesyłać każdej klatki w całości. Musieli tylko wysyłać informację, w których piksele zmieniły się w stosunku do poprzedniego obrazu. To radykalnie podniosło gładkość i szybkość strumieniowanego wideo, ale tworzyło również pewne artefakty (dziwacznie zmieniające się tło). W miarę jednak ulepszania techniki, te artefakty zniknęły. Przepływ także poprawił się i nowe strumieniowanie jest dużo lepsze.  


W podobny sposób, nowe badanie dotyczy algorytmu AI, którego celem jest pozwolenie komputerowi na robienie migawkowych zdjęć środowiska, by szybko zanalizować całe swoje otoczenie. Przetwarzanie każdego obrazu zabiera czas i zbieranie wizualnej informacji o otoczeniu w pełnym kręgu byłoby stosunkowo wolne. Mogą być sytuacje, takie jak poszukiwanie i ratunek, kiedy liczy się czas. Ta sztuczna inteligencja zaczyna więc od trenowania przez patrzenie na tysiące obrazów. Tym, co próbuje zrobić, jest zdecydowanie, jakie najlepsze kolejne migawkowe zdjęcie powinno być zrobione, by najszybciej i najtrafniej wnioskować o całym otoczeniu. Autorzy piszą: 

Proponujemy rozwiązanie w postaci uczenia ze wzmacnianiem, gdzie program  otrzymuje nagrodę za redukowanie niepewności o niezaobserwowanych częściach otoczenia. Konkretnie, program jest szkolony do wybierania krótkich sekwencji migawek, po których musi wywnioskować wygląd pełnego otoczenia.

To jest podobne do podejścia do strumieniowania wideo – ignoruj informację, która nie jest cenna lub nie jest potrzebna. W rzeczywistości jest pewna przewidywalność – jeśli widzisz dolną część kolumny, to prawdopodobnie idzie ona aż do sufitu. Ściany prawdopodobnie nie kończą się nagle bez przyczyny. Część drzewa jest prawdopodobnie połączona z całym drzewem.


Kiedy takie algorytmy „ewoluują” (w sensie technologicznym) prawdopodobnie zoptymalizują równowagę między szybkością a poprawnością. Mogę także wyobrazić sobie, że – podobnie jak ludzki mózg – algorytm może z czasem włączyć proces do korygowania samego algorytmu w oparciu o bieżącą sytuację. Na przykład, jeśli otoczenie jest bardziej chaotyczne, może zwolnić i poprawić dokładność. Zburzony budynek jest prawdopodobnie znacznie mniej przewidywalny niż nienaruszony. AI może także musieć przydzielać swoją „uwagę”. Jeśli widzi coś interesującego (jak na przykład ranną ofiarę), skupi się na niej, zwolni i zbierze informacje.  


Naprawdę wspaniałe jest to, że AI próbują robić te same rzeczy, jakie robią organiczne mózgi i stoją przed tymi samymi ograniczeniami i kompromisami. Rozwiązania, na jakie natknęła się ewolucja, są prawdopodobnie użyteczne również dla rozwoju AI.


Jedną zasadniczą różnicą jest jednak tempo technologicznego rozwoju, które jest dużo szybsze niż ewolucja. Nie mogliśmy po prostu szybko wyewoluować mózgu z 10 razy większą mocą przetwarzania (no cóż, zrobiliśmy to, ale zabrało to miliony lat). Ale nasze AI będą 10 razy szybsze w ciągu pokolenia. Zawsze jest lepiej być bardziej wydajnym niż mniej wydajnym, ale wzrost mocy może usunąć potrzebę kompromisów. Przyszłe AI mogą być w stanie przetwarzać całe 360 stopni otoczenia, szczegółowo i szybko, więc nie będziemy musieli poświęcać poprawności dla szybkości.   


Kiedy jednak rozwiązujemy kwestie z używaniem AI do nawigowania i kontaktów z realnym światem, z ich uczeniem się i rozwiązywaniem problemów, coraz częściej używamy i znajdujemy rozwiązania podobne do rozwiązań, jakie wyewoluowały naturalnie. Jest to fascynujący proces i sądzę, że doprowadzi nas do większego i głębszego zrozumienia natury samej inteligencji.  

 

Training an AI to See Like a Human

16 maja 2019

Tłumaczenie: Małgorzata Koraszewska



Steven Novella 

Neurolog, wykładowca na Yale University School of Medicine. Przewodniczący i współzałożyciel New England Skeptical Society. Twórca popularnych (cotygodniowych) podkastów o nauce The Skeptics’ Guide to the Universe. Jest również dyrektorem Science-Based Medicine będącej częścią James Randi Educational Foundation (JREF), członek Committee for Skeptical Inquiry (CSI) oraz członek założyciel Institute for Science in Medicine. Prowadzi blog Neurologica.