Jest to dość powszechny problem, iż roboty nie robią do końca tego, co zostanie im zadane. Niejednokrotnie bywa to powodem do śmiechu, zarówno z robotów, jak i osób je programujących. Jednak nawarstwiające się błędy prowadzą nieuchronnie do frustracji. Problem nie jest palący, gdy robot po prostu przerwie swoją pracę. Sytuacja się zmienia, gdy w wyniku błędu robot postanowi dokonać samounicestwienia, lub uszkodzić najnowszy model super-samochodu, który miał właśnie zjechać z linii produkcyjnej. Co prawda roboty zdolne do rozwiązywania pomniejszych problemów funkcjonują już z powodzeniem, lecz to kropla w morzu potrzeb. Czy jest możliwe opracowanie maszyny, która w obliczu problemu potrafiłaby kulturalnie zapytać się, co ma dalej zrobić?
Naukowcy z Uniwersytetu Maryland, pod przewodnictwem profesora S.K. Gupty, “uczą” robota dostarczonego przez Baxter, czym jest pewność siebie. Ta nowo przydana robotom cecha, ma służyć poprawnej identyfikacji stopnia skomplikowania problemu. Jeżeli w obliczu kłopotu robot dojdzie do wniosku, że problem jest ponad jego miarę, poprosi o pomoc. Przy użyciu prostego interfejsu, pracownik utrzymania ruchu będzie mógł poinstruować system, jak może poradzić sobie z napotkanym problemem. Testowane rozwiązanie jest jeszcze w powijakach i opiera się na prostych instrukcjach, ale obnaża duży potencjał, jaki leży w zastosowaniu tej technologii.
Statystyczne spojrzenie na sprawę pozwala ocenić, iż dla 90, 95 lub nawet 99 % robotów będzie dało się opracować procedury, które pozwolą na nieprzerwaną, autonomiczną pracę. Pozostawia to jednak kolejno 10, 5 lub 1 % sytuacji, z którymi roboty nie będą w stanie poradzić sobie samodzielnie. W szczególe chodzi tu o sytuacje, które podlegają ciągłym zmiennym, lub z początku zakładają określony poziom niepewności. I tu wkracza człowiek, który ze swoją specjalistyczną wiedzą, wskazuje robotowi właściwy kierunek działań, dzięki czemu ten może podjąć dalszą pracę. Wśród potencjalnych możliwości wymienia się wezwanie technika, odpowiedzialnego za utrzymanie robotów przy funkcjonowaniu, lub skontaktowanie się ze wsparciem technicznym, które zdalnie będzie mogło połączyć się z robotem i skorygować jego działanie.
Zastosowanie dla takich myślących robotów znalazłoby się również w domu, gdzie nasze robo-gosposie spytałyby się, czy aby na pewno ten czerwony sweter powinien iść do prania z twoimi ulubionymi, białymi koszulami. To oczywiście dość futurystyczne ujęcie sytuacji, ale jeżeli naukowcy postawią nie na rozwój w pełni autonomicznych robotów, ale na roboty, które mogłyby konsultować swoje działania, wizja ww. funkcji staje się bardziej rzeczywista. Co jednak będzie, jeżeli roboty zaczną zadawać pytania o bardziej zaangażowanej, egzystencjalnej naturze?
Źródło: robotics.umd.eu