Jak uczynić SI godną zaufania?


SI to skrót oznaczający Sztuczną Inteligencję. Zapamiętajcie go dobrze, bo w przyszłości wyprzedzi takie skróty jak FB czy LOL. Nie mniej zanim to nastąpi, musi się jeszcze sporo zmienić, albowiem SI nie dojrzała jeszcze aby na dobre zagościć w naszym życiu. Doniesienia o rasistowskich wpisach bota Tay na Twitterze, czy wypadku któremu uległ autopilot Tesli, dają wrażenie że przed SI jeszcze długa droga. Co jest jednak niepokojące to fakt, że SI jest już obecna w wielu systemach, którymi posługujemy się na co dzień. A co, jeżeli to one ulegną awarii?
Systemy rozpoznające fałszerstwa, monitoring transakcji kart kredytowych, filtry antyspamowe – to wszystko przejawy SI, z którymi w niewidzialny sposób stykamy się w codziennym życiu. Najprawdopodobniej mieliście już dziś do czynienia z SI i z dużym prawdopodobieństwem, była to interakcja pozytywna.
Jednym z przejawów SI, z którym coraz częściej możemy się zetknąć, są chatboty. To oprogramowanie, które pozwala na interakcję z nim poprzez prowadzenie wirtualnej rozmowy. Oczywistym przykładem jest rozsławiony asystent zainstalowany w każdym iPhone – Siri, czy jej odpowiednik Cortana. Chatbotem był też Tay – eksperymentalny software Microsoftu, który poprzez konto na Twitterze uczył się od innych użytkowników, jak ma formułować swoje opinie. W jeden dzień stał się największym piewcą rasistowskich idei na tej platformie, po czym eksperyment przerwano. Jednakże już wiele witryn internetowych i aplikacji korzysta z dobrodziejstw chatbotów, aby ułatwić ludziom korzystanie z ich usług oraz dostęp do informacji.
Jak uczyć maszynę?
Amy to asystentka AI, która umawia spotkania dla Ciebie spotkania, za pomocą emaili wysyłanych do Twoich kontaktów. Jednakże tylko nieliczne z chatobtów są w stanie stworzyć iluzję bycia człowiekiem. Istnieje wiele różnych podejść, przy pomocy których można nauczyć program zachowywać się w sposób inteligentny, oddający ludzkie zachowanie. To co ludzie i maszyny mają ze sobą wspólne, to opieranie swoich osądów i opinii na ogromnych ilościach danych, które gromadzą ze swojego otoczenia.
Chatboty są często “trenowane” poprzez zasilenie je wyciągiem z rozmów na Twitterze za ostatnie kilka miesięcy. Następująca po tym analiza statystyczna pozwala wyszukać w nim wzory zachowania. Dla przykładu, zwrot “Dziękuję, w porządku” jest zazwyczaj odpowiedzią na pytanie “Jak się masz?”. Dość często jednak SI nie jest w stanie zrozumieć, co mówi – powtarza ona jedynie schemat, który wcześniej dostrzegła.
Rozmowa międzyludzka jest bardziej złożona, niż mogłoby się nam wydawać. W pierwszej kolejności należy rozpoznać słowa, które tworzą zdanie, określić kiedy przypada moment na odpowiedź, a następnie udzielić odpowiedzi, która pozostaje w zgodzie z istotą danej rozmowy. Szereg rzeczy może tu pójść nie tak jakbyśmy chcieli – od braku zrozumienia znaczenia niektórych słów, po błędne rozpoznanie intencji swojego rozmówcy. Im więcej błędów, tym bardziej rozmowa zaczyna błądzić, aż w końcu może ustać lub doprowadzić do negatywnych skutków.
Dotychczasowe badania potwierdziły, iż ludzie w inny sposób rozmawiają z ludźmi, niż z maszynami. Zaufanie którym obdarzają SI jest mniejsze, podobnie jak stopień zaangażowania w rozmowę – rozmawiając z maszyną, ludzie używają niewyszukanych, wręcz prostych słów. Potwierdzone również zostało, że im bardziej maszyna chce naśladować prawdziwą rozmowę między ludźmi, tym bardziej jest ona niepokojąca. To efekt doliny niepewności (z ang. uncanny valley), który pojawia się w przypadku tworów, które są bliskie swoim zachowaniem lub wyglądem do ludzi, tym samym nimi nie będąc.
Jak więc opracować system SI, który będzie bardziej przystępny dla ludzi? Po pierwsze, potrzebujemy dostarczyć więcej przykładów poprawnego zachowania, tak aby zminimalizować ryzyko błędu. Istotnym jest również rozwijanie współpracy człowiek-maszyna, aby kształtować zachowanie systemów SI.
Istotnym wydaje się również być zrozumienie, jak dany system SI działa. Dla przykładu, bieżące badanie czynników komunikacyjnych dowiodło, że ludzie chcieli wiedzieć, co dany system jest w stanie zrobić, co robi, jak to robi i czy aktualizuje swoje działania w oparciu o poprzednie doświadczenia. To zdaje się mieć zastosowanie do wszystkich rodzajów SI, jako iż przejrzystość systemu SI najwyraźniej ma pozytywny wpływ na satysfakcję użytkownika.
Proces odczłowieczania
Co zdaje się być oczywiste, ludzie mniejszym zaufaniem obdarzają systemy, które są podatne na błędy. Jednocześnie oczekują oni, że systemy SI nie będą podejmowały decyzji bez uprzedniej konsultacji. Jeżeli w ramach systemu ciągle powtarza się błąd, polegający na niezrozumieniu komunikatu użytkownika, ten prawdopodobnie nie chciałby aby SI wybrała za niego numer telefonu, bez sprawdzenia czy jest on na pewno poprawny. System taki musi również jasno określić, że jest robotem – dzięki temu użytkownik, będzie mógł się przygotować do specyfiki rozmowy.
W najbliższych latach możemy się spodziewać, że systemy SI będą się stawały coraz bardziej dokładne i ujednolicone z codziennym życiem. Nie obędzie się to jednak bez spektakularnych klęsk. W większości przypadków SI działa poprawnie, jednak co będzie, jeżeli nastąpi awaria? Odkąd narodził się gatunek science fiction, ciągle powraca pytanie o etykę i prawa regulujące działalność SI, oraz o to, jak możemy ją kontrolować. Te pytania pozostają dalej otwarte, podobnie jak to gdzie SI powinna znaleźć swoje zastosowanie, a gdzie nie, oraz kto jest odpowiedzialny za podjęte przez nią decyzję. I przede wszystkim – kto odpowie za niepowodzenia i błędy SI.
Ten artykuł nie został napisany przez robota.
Źródło: theconversation.com
Zobacz też:
















