Już wkrótce robot może Ci odmówić


Celem istnienia robotów jest pomoc ludziom przy ich codziennych czynnościach, usprawnienie procesów produkcji, czy poprawa bezpieczeństwa. Są one naszymi instrumentami, które bezkrytycznie przystępują do wykonywania funkcji, które im zadamy. Czyni to z robotów bezrefleksyjne elementy wykonawcze, co jest na rękę ich “przełożonym”. Jednak nieuchronny rozwój sztucznej inteligencji powoduje, że myślące roboty są już tylko kwestią czasu. A skoro już myślą, to dlaczego nie miałyby myśleć za człowieka i poprawiać go, kiedy ten ewidentnie się myli?

A teraz doza science-fiction. Przedstawiamy krótki wyciąg z Podręcznika robotyki, opublikowanego w 2058 roku. Znajdziemy tam trzy pryncypia, które brzmią następująco:

1. Robot nie może naruszyć nietykalności cielesnej człowieka lub poprzez interakcję, umożliwić aby krzywda stała się człowiekowi.

2. Robot zobowiązany jest do wykonywania rozkazów, zarządzonych przez człowieka, za wyjątkiem sytuacji, w których byłoby to w konflikcie z pierwszym prawem.

3. Robot zobowiązany jest chronić swoje istnienie do momentu, w którym nie stanęłoby to w konflikcie z pierwszym lub drugim prawem.

Te trzy prawa dość jasno określają podstawowe zasady, według których mają funkcjonować roboty obdarzone sztuczną inteligencją. Zapis o słuchaniu ludzi jest istotny, tylko rodzi pytanie, czy w przypadku jeżeli człowiek ewidentnie nie ma racji, czy robot powinien go słuchać? Gordon Briggs i Matthias Scheutz z Human-Robot Interaction Lab Uniwersytetu Tuft w Bostonie próbują wypracować mechanizmy, które pozwoliłyby robotom sprzeciwiać się rozkazom, dopóki robot będzie miał wystarczająco dobry argument, aby tak postępować.

Teoria lingwistyczna zakłada, że w przypadku gdy ktoś zada nam pytanie, rozumienie sensu wypowiedzi, a nie samego znaczenia słów, nazywa się warunkami trafności. Oddają one nasze pojmowanie problemu i zdolność zmierzenia się z nim, w przeciwieństwie do rozumienia wyłącznie bezpośredniego znaczenia zdań. Przykładowy schemat w przypadku rozumowania robotycznego wyglądałby następująco:

1. Wiedza: Czy wiem jak wykonać X?
2. Zdolność: Czy jestem fizycznie zdolny aby wykonać X teraz? Czy w normalnych warunkach jestem w stanie wykonać X?
3. Priorytety celów: Czy jestem w stanie zrobić X w danym momencie?
4. Rola społeczna i zobowiązania: Czy jestem zobowiązany, w oparciu o moją rolę społeczną, do wykonania X?
5. Warunki normatywne: Czy wykonując X naruszę jakieś normy?

Pierwsze z trzech warunków trafności są dość klarowne i łatwe do zinterpretowania. Inaczej jest z dwoma ostatnimi. “Rola społeczna i zobowiązania” odnosi się do tego, czy robot wierzy w to, że osoba rozkazująca, ma kompetencje aby tego dokonać. “Warunki normatywne” to złożony sposób wyrażenia faktu, że robot nie powinien robić rzeczy, które wie, iż są niebezpieczne lub mówiąc dokładniej, nie powinien robić rzeczy, co do których nie ma pewności, że są bezpieczne.

W praktyce, celem jest nie tylko nauczenie robotów kiedy powinny, a kiedy nie, wykonywać rozkazy, lecz także wyposażyć je w zdolność do obrazowego przedstawienia argumentów, potwierdzających słuszność niewykonania polecenia.

Przedstawiamy przykładową interakcję, w której robot sprzeciwia się komendzie “idź do przodu”, ponieważ narusza to piąty z warunków. Robot ma świadomość, że wykonując to polecenie spadnie ze stołu i stanie mu się w związku z tym krzywda. Dzięki jasnemu określeniu swoich powódek, człowiek może skorelować swoje polecenie tak, aby zadowalało zarówno jego, jak i robota.

Żywimy nadzieję, że w kodzie robota znalazło się również miejsce na nieufność w przypadku, jeżeli człowiek by go nie złapał. W kolejnym scenariuszu robot za polecenie ma wejść na mur, o którym wiadomo, że nie jest spójny.

W ostatnim przypadku robot znajduje się w podobnej sytuacji, jednak sprzeciwia się wykonaniu polecenia, ze względu na brak więzi między nim a człowiekiem. Wykazuje się on nieufnością.

To przykład na to, jak drugie i trzecie z praw robotyki zostało zastosowane, ponieważ robot nie wykonuje poleceń, które mogłyby doprowadzić do jego uszkodzenia.

Czy to precedensowe badanie może stać się zgubą dla ludzkości? Jest to możliwe, ale w stosunkowo niewielkim stopniu. Mało prawdopodobnym wydaje się, że znajdziemy się w otoczeniu pełnym filozofujących robotów, które jedynie podważają nasze osądy. Dopóki programowane są przez ludzi, którzy sami określają ich wolność, roboty powinny pozostać w ryzach. Co jednak, jeżeli zaczną programować się same?

Źródło: spectrum.ieee.org

Zobacz też:


Roboty coraz bliżej ludzi dzięki mięśniom inspirowanym naturą
ModuBot – elastyczna robotyka modułowa od MultiProjekt
Największe Targi Automatyki Przemysłowej i Robotyki w Polsce!
Czy roboty przewyższają koszty zatrudnienia?
Dlaczego pasta lutownicza często sprawia problemy techniczne?
Grupa RENEX na stoisku Yamaha podczas targów MOTEK 2024
Sztuczne oko zrewolucjonizuje widzenie robotów
Stwórz przedsiębiorstwo przyszłości z naszym audytem technologicznym – wywiad z MultiProjekt Automatyka