Każdy chce mieć swojego Wall-E (AI)

Unsplash.com By Eutah Mizushima
Od zarania dziejów ludzie marzą o budowaniu maszyn na swój kształt i podobieństwo. Za jedną z pierwszych wizji tworzenia istot pracujących dla ludzi można uznać podane o Golemie, zaś za bliższą współczesnym robotom - mechaniczną lalkę grającą na flecie zbudowaną w 1783 roku przez Jacquesa de Vaucanson, uznawanego za nowoczesnego inżyniera wieku Oświecenia. Historia hitów kinowych pełna jest futurystycznych i - głównie katastroficznych - opowieści o humanoidalnych robotach sterowanych sztuczną inteligencją (AI - Artificial intelligence).

Obrazy te dotykają zacierających się granic pomiędzy sztuczną, a naturalną dla człowieka inteligencją. Przypomnieć należy system HAL9000 z filmu 2001: Odyseja kosmiczna” (1968), Łowca Androidów (1982), Terminator (1984), Matrix (1999) czy opowieść o robocie marzącym o zostaniu prawdziwym człowiekiem - A.I. - Sztuczna Inteligencja (2001). Bunt robotów to synonim zagłady, być może dlatego już w 1942 roku w swojej książce pt.: "Zabawa w berka" Isaac Asimov przedstawił trzy prawa robotów, które stanowić mogą po dziś dzień „wentyl bezpieczeństwa” w pracach nad sztuczną inteligencją:

• Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
• Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z Pierwszym Prawem.
• Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Ze względu na to, że prace nad budową AI prowadzone są również przez sektor zbrojeniowy, wielu specjalistów od robotyki i sztucznej inteligencji uważa, że te ogólne prawa mają zastosowanie jedynie w obronie i w opowieściach fantastyczno-naukowych, a nijak się mają do rzeczywistości, a więc robotów, które mają wspierać nas w naszej codziennej pracy.

Czym jest więc ta sztuczna inteligencja i w jakim punkcie prac nad nią się znajdujemy? Odpowiedź niestety nie jest jednoznaczna, gdyż z jednej strony AI to hipotetyczna inteligencja realizowana w procesie inżynieryjnym, z drugiej zaś rozwiązania (maszyny i programy), mogące realizować funkcje naturalne dla umysłu człowieka takie jak analiza obrazów, mowy, zachowań, a przede wszystkim wnioskowania i uczenia. U podstaw leżą prace z zakresu algorytmów (w tym genetycznych), metody logiki rozmytej, modele sieci neuronowych i asocjacyjnych czy też uczenia maszynowego.

Warto zwrócić uwagę na fakt, iż komputery nie posiadają fizycznych i biologicznych ograniczeń, które limitują możliwości rozwoju człowieka. Przykładem mogą być tu chociażby neurony. W języku IT, neuron działa z częstotliwością około 200Hz (10^0) w momencie, gdy współczesne tranzystory mierzone są w częstotliwościach o dwa rzędy wielkości większych – GHz (10^9). Również prędkość, z którą podróżuje informacja przesyłana pomiędzy nimi jest relatywnie niska – 100m na sekundę, w porównaniu z prędkościami znanymi ze świata informatyki, gdzie przekaz rozchodzi się z prędkością światła na porównywalnym odcinku przebytej drogi. Nic nie stoi również a przeszkodzie, aby zbudowany przez człowieka system miał wielkość budynku, boiska czy stadionu, lub był rozproszony na kształt sieci Internet.

Sporo już umiemy
Musimy na początek zdać sobie sprawę, że komputery:
• potrafią już rozpoznawać obrazy, porównywać je, wyszukiwać i identyfikować na nich obiekty – dobrym przykładem zastosowania takich technologii jest Google Maps, gdzie przy użyciu właśnie tego typu technologii naniesiono wiele numerów domów na siatkę ulic na podstawie wykonanych zdjęć, czy też system IBM Watson w zastosowaniach medycznych - zwłaszcza w obszarze rozpoznawania określonego typu nowotworów
• potrafią słuchać – identyfikować dźwięk, zamieniać go w tekst
• potrafią mówić – syntetyzować mowę na podstawie zapisanej informacji
• uczyć się i wyciągać wnioski – a nie jedynie ograniczać się do analizy posiadanej informacji i udzielaniu odpowiedzi w zamkniętym obszarze wiedzy.

Rozwiązania te rozwijają się błyskawicznie - trzeba pamiętać, że od powstania pierwszego systemu eksperckiego Dendral na Uniwersytecie Stanforda (1965) upłynęło zaledwie 50 lat. Ten system jako pierwszy umożliwił identyfikację i analizę związków organicznych, które dotychczas nie były znane chemikom.

Z kolei rozwiązanie Artura Lee Samuela z IBM, które zapoczątkowało rozwój algorytmów samouczących i sztucznej inteligencji, w którym to komputer sam ze sobą grał w warcaby, aby przeprowadzić proces samouczący, a następnie w 1962 roku wygrywać z ludźmi), ma zaledwie 53 lata. W porównaniu z ewolucją i drogą, którą przeszła ludzkość, jest to mgnienie oka.

O SyNAPSE i układach poznawczych
W związku z tym, że na algorytmach z przeszłości nie można budować rozwiązań z przyszłości, uruchamiane są dedykowane projekty umożliwiające rozwiązanie w sposób optymalny bardzo konkretnych problemów. Dopiero ich integracja przybliża nas do budowy czegoś, co można nazwać „Superinteligencją”. Jednym z przykładów takiego projektu może być SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics). Jest to projekt uruchomiony w IBM przed wielu laty, tworzący podstawy technologiczne pozwalające na tworzenie - w łatwiejszy i efektywny kosztowo sposób - systemów wzorowanych na działaniu ludzkiego mózgu . Pierwsze osiągnięcia projektu zostały zaprezentowane już w 2009 roku. Wówczas, przy współpracy z różnymi ośrodkami naukowymi, udało się stworzyć symulację kory mózgowej kota.

Jak to działa
Dzięki zaawansowanym technikom rezonansu magnetycznego naukowcy wiedzą, które fragmenty mózgu są aktywne, gdy jemy, które - gdy rozmawiamy, a które - gdy pracujemy intelektualnie lub fizycznie. Potrafimy nawet precyzyjnie wskazać, jaka część ośrodka mózgu jest szczególnie zaangażowana w momencie, gdy ruszamy kciukiem, a jaka, gdy palcem środkowym. Możemy prześledzić, które neurony są aktywne i którymi synapsami płyną sygnały podczas analizowania danych, podczas myślenia i działania. Wiemy w końcu, jak szybko i z jaką siłą wędrują w mózgu impulsy elektryczne.

Obecnie nawet superkomputer przetwarza dane wielokrotnie wolniej niż kot, wyposażony w 1 mld komórek neuronowych połączonych 10 bilionami synaps. Kolejne wyzwania są nieporównywalnie trudniejsze, bo struktura kociej kory mózgowej to nie więcej niż 5 % tego, czym dysponuje ludzki mózg. Wynika to z faktu, że mikroprocesory zaledwie część czasu wykorzystują na efektywne liczenie - w dużej mierze to nadal oczekiwanie na odszukiwanie niezbędnych danych, które po wykorzystaniu trzeba ponownie „odłożyć na półkę”.

Stąd ruch w stronę komputerów poznawczych (Cognitive Computing – w tym IBM Watson) opartych o uczenie maszynowe, ze szczególnym uwzględnieniem podejścia zwanego deep learningiem, które znacznie ulepszyło uczenie maszyn hierarchicznych reprezentacji danych.

To, co upodabnia "cognitive chips" (CC) do ludzkiego mózgu, to architektura połączeń, zastosowana pomiędzy jednostką obliczeniową, a pamięcią. W większości przypadków, pamięć komputera (nie wliczając kilku poziomów pamięci podręcznej procesora) znajduje się poza głównym układem obliczeniowym (CPU).

W przypadku CC, pamięć powiązana jest bezpośrednio z jednostkami obliczeniowymi. Części obliczeniowe występują w roli neuronów a pamięć używana jest, jako synapsy. Jest to architektura inspirowana budową ludzkiego mózgu. Przewiduje się, że ta architektura będzie wysoce wydajna np.przy rozpoznawanie wzorców. Jest to kolejny krok na drodze rozwoju i budowy maszyn samouczących - sztucznej inteligencji.

Czip jest tak zwanym układem synaptycznym, w którym jednostka obliczeniowa połączona jest z pamięcią, podobnie jak w ludzkim mózgu neurony połączone są synapsami. Na razie elektronicznych neuronów i synaps jest w czipie o wiele mniej niż w ludzkim mózgu. Obecny układ można porównać do odpowiednika 16 milionów układów neuronów, a w naszym mózgu jest ok. 100 miliardów.

Docelowo marzeniem naukowców jest stworzenie komputera, który będzie mógł symulować i naśladować możliwości mózgu w zakresie uczuć, percepcji, działania, interakcji i świadomości. Celem nie jest budowa robota zachowującego się jak człowiek, lecz systemu gotowego do analizowania w czasie rzeczywistym strumieni ciągłych danych, który pomoże przedsiębiorstwom, lekarzom, chemikom, farmaceutom w podejmowaniu lepszych decyzji nie bazujących jedynie na danych wejściowych, ale również na procesie zautomatyzowanego wnioskowania.

Co czeka nas dalej
Większość, rozwiązań, koncepcji, dokoła których się poruszamy, nie jest nowa. Sieci samouczące, fizyka kwantowa, nanorobotyka istnieją od lat. Nie oznacza to jednak, że obecnie potrafimy je optymalnie zastosować i wykorzystać. Podejście do budowy systemów samouczących czy też samopoznawczych to przecięcie się trzech osi współrzędnych –nanotechnologii, wiedzy o funkcjonowaniu mózgu i układu nerwowego. Obecnie jest to jeden z głównych i pasjonujących nurtów w czymś, co znamy pod pojęciem „informatyka”, o ile taka nazwa ma nadal zastosowanie.

Mam jednak nadzieję, że nawet ta skromna imitacja mózgu będzie się sprawdzać w działaniach, z którymi dotychczas komputery miały problem, np. w rozpoznawaniu wzorców – przedmiotów, obrazów, itd. Postęp w tych dziedzinach jest ogromny – sztuką jednak jest zbudowanie rozwiązania zapewniającego zarówno małe rozmiary, wymaganą wydajność oraz niską konsumpcję energii.

Wyobraźmy sobie, że układy podobne do SyNAPSE wkrótce mogą umożliwić np. zbudowanie inteligentnych okularów dla niewidomych. Będą one analizować obraz w czasie rzeczywistym, identyfikować przeszkody i pomagać w nawigowaniu po mieście. Liczba zastosowań i możliwych rozwiązań, zarówno dla CC, jak i AI jest nieograniczona.

Obawa przed postępem
Nick Bostrom w swojej książce pt.: „Superinteligencji: Droga, Niebezpieczeństwa, Strategie” (ang. Superintelligence: Paths, Dangers, Strategies) zwraca słusznie uwagę na fakt, iż AI (w tym Superinteligencja) jest ostatnim odkryciem, które ludzkość musi wykonać dla dalszego rozwoju. AI potrzebuje również modelu zapewniającego bezpieczeństwo – jednak to drobiazg w porównaniu z drogą, która jest jeszcze przed nami. Przewiduje się, że sztuczna inteligencja, mogąca równać się z dorosłym człowiekiem i wykonywać przetwarzanie informacji, wnioskowanie i uczenie się bez ograniczeń kontekstu, może powstać do roku 2040-2050. Tak naprawdę jednak nie mamy wystarczających danych, by precyzyjnie określić tę datę, więcmoże powstać dużo wcześniej lub później, niż się spodziewamy.

Wiele osób, często niezwiązanych bezpośrednio z pracami nad AI, wskazuje na płynące z rozwoju technologii zagrożenia i niebezpieczeństwa. Dobrym przykładem są wypowiedzi między innymi Elona Muska – prezesa i założyciela Tesla Motors, PayPal czy SpaceX. Na swoim profilu na Twitterze (@elonmusk), Musk napisał: „…Musimy być bardzo ostrożni z AI. Potencjalnie bardziej niebezpieczne niż broń nuklearna…”.

Nie podzielam jednak jego zdania. Stoi ono w sprzeczności z poczynaniami przedsiębiorcy w kontekście działalności firm Tesla i SpaceX, gdzie to właśnie chęć odkrywania nowych obszarów, budowanie niesztampowych rozwiązań, tworzenie nowych technologii, jest siłą napędową i głównym akceleratorem sukcesu.

Uważam, że odkrywanie nowego, przekraczanie kolejnych barier i ograniczeń technologicznych, poszukiwanie optymalizacji i udogodnień życia codziennego, nie powinno być ograniczane przez strach przed nieznanym. Rozwoju technologii nie da się zatrzymać. Za chwilę ludzkość będzie stawała przed coraz to nowymi wyzwaniami, gdzie jedynie nowoczesne technologie, takie jak AI będą mogły skutecznie nam pomagać w ich rozwiązywaniu. Nie oznacza to, że zagrożenia nie istnieją, ale wierzę, że wraz z rozwojem technologii będziemy potrafili stawić im czoło.

Zainteresowanych tematem odsyłam na dobry początek do :

Superintelligence: Paths, Dangers, Strategies (Nick Bostrom),
http://www.amazon.com/gp/product/0199678111/

Machine Intelligence Research Institute
https://intelligence.org/

Tears in rain? Why Blade Runner is timeless, The Guardian
http://www.theguardian.com/film/2015/mar/14/why-blade-runner-is-timeless

Blade Runner: The Final Cut
https://www.youtube.com/embed/W_9rhPDLHWk

Stanley Kubrick’s 2001: A Space Odyssey
http://youtu.be/lfF0vxKZRhc

Putting Elon Musk and Steve Jobs on a Pedestal Misrepresents How Innovation Happens, MIT Technology Review
http://www.technologyreview.com/review/539861/techs-enduring-great-man-myth/
Trwa ładowanie komentarzy...