Mój opiekun robot

dłoń robota

Zastosowanie robotów asystujących w medycynie czy psychologii wywołuje potrzebę nowego spojrzenia na kwestie etyczne od dawna pojawiające się w relacji lekarz – pacjent: zabezpieczenie poufnych informacji, zapewnienie poszanowania autonomii czy zachowanie zasady sprawiedliwości w sytuacji publicznego finansowania dystrybucji robotów asystujących pacjentom.

„Zrób tak, proszę cię!” – mówi mały chłopiec. Zwraca się do siedzącej przed nim istoty wyglądającej jak futrzana niebieska zabawka z wielkimi oczami. „Futrzak” jednak nie reaguje. „Chcę, żebyś tak zrobił!” – kolejny brak reakcji ze strony „futrzaka” wywołuje frustrację chłopca. „Teraz już wiem, jak czuje się mój nauczyciel, gdy nie robię tego co mi każe!” – mówi.

Towarzysz chłopca to Dragonbot, robot asystujący w terapii dzieci cierpiących na autyzm. Jego zadaniem jest wspomagać proces socjalizacji młodych pacjentów. Innym przykładem tego typu urządzeń jest Paro – robot w kształcie małej białej foki, który ma umilać czas głównie osobom starszym i chorym. Można go głaskać i przytulać, a on odwdzięcza się za pieszczoty wydając miłe dla ucha dźwięki. Potrafi również rozpoznać znaczne obniżenie nastroju swojego użytkownika i wezwać lekarza. Roboty asystujące można najszerzej zdefiniować jako roboty mające służyć pomocą ludziom jej potrzebującym. Definicja ta jest na tyle szeroka, że do tej klasy robotów zalicza się zarówno mechaniczne mięśnie przeznaczone dla osób niepełnosprawnych, jak również roboty humanoidalne towarzyszące osobom starszym. W przyszłości roboty takie jak Dragonbot czy Paro mogą być wykorzystywane na masową skalę służąc także ludziom cierpiącym na zaburzenia psychiczne typu depresja czy stany lękowe. Naukowcy nie obawiają się, że roboty asystujące zastąpią terapeutów, psychologów czy lekarzy, choć niektórzy sugerują, że w przyszłości rozwój technologii może pozwolić na stworzenie maszyn wysoko wyspecjalizowanych. Pojawiają się jednak pewne obawy etyczne związane z użytkowaniem robotów jako asystentów.

Badacze zwracają uwagę na możliwość zbytniego przywiązania się pacjenta do mechanicznego asystenta. Celem użytkowania robota jest m.in. wywołanie u pacjenta pozytywnych uczuć, jednak zdarzają się pacjenci, którzy zaczynają traktować maszynę jak żywą istotę. Przykład stanowić mogą użytkownicy, którzy są przekonani, że roboty za nimi tęsknią, gdy zostawia się je same. Może się również zdarzyć, że awaria robota wpłynie negatywnie na nastrój użytkownika. Wyniki badań pokazały, że przywiązanie człowieka do urządzenia pojawia się nawet w przypadku niehumanoidalnych robotów takich jak robot domowy Roomba. Istnieje również obawa, że użytkownicy mogą zacząć reagować bardziej emocjonalnie na kontakt z robotem niż z drugim człowiekiem. Roboty pracujące z dziećmi cierpiącymi na autyzm, zamiast zwiększać umiejętności społeczne dzieci, mogą stać się zastępnikiem relacji społecznych – mali pacjenci będą lepiej czuć się w kontaktach z robotami niż z ludźmi. Stąd przy wykorzystywaniu w terapii robotów przypominających człowieka niezwykle ważne jest upewnianie się, że pacjent jest świadomy iż ma do czynienia z robotem. Pozwoli to uniknąć przeżywania negatywnych emocji w sytuacji awarii robota czy zastąpienia go przez nowszy model.

Część badaczy zwraca uwagę, że wygląd robota (np. strój przypominający medyczny kitel) może wprowadzać użytkownika w błąd i dawać mu złudne przekonanie o posiadaniu przez robota określonych funkcji. Jednak robot, który nie jest traktowany wystarczająco poważnie przez właściciela, nie wzbudza autorytetu u pacjenta, może nie spełniać swoich funkcji, takich jak np. wskazywanie na konieczność zażycia określonego leku czy wykonania zabiegu leczniczego. Postrzeganie robota jako autorytetu skłania do refleksji nad przestrzeganiem etycznej zasady szacunku dla autonomii pacjenta. Użytkownik powinien mieć możliwość przerwania zadania, które wywołuje w nim negatywne emocje albo ból, czyli wyłączenia robota lub dokonania zmiany trybu jego funkcjonowania. Poczucie kontroli nad asystującym robotem jest bezdyskusyjnym przywilejem użytkownika, jednak może zaowocować brakiem wypełniania poleceń robota, co z kolei doprowadzi do negatywnych konsekwencji zdrowotnych u pacjenta. Powstaje więc pytanie co zrobić w sytuacji, w której respektowanie zasady szacunku dla autonomii pacjenta może działać na jego niekorzyść?

Inną niezwykle ważną cechą relacji lekarz – pacjent jest jej poufność. Roboty pracujące jako asystenci specjalistów od zdrowia psychicznego muszą umieć zachowywać poufne informacje wyłącznie do wglądu użytkowników. Robot staje się elementem zespołu terapeutycznego, który jest zobligowany do zachowania poufności – powinien więc być odpowiednio do takiego zadania zaprogramowany. Problematyczna staje się kwestia wielokrotnego użycia robota: lekarz musi mieć możliwość przechowywania informacji o pacjencie uzyskanych przez asystenta (np. na wypadek wznowienia psychoterapii), ale stanowczo należy unikać sytuacji, w której kolejny użytkownik mógłby uzyskać dostęp do informacji o poprzednim właścicielu robota. Co więcej, robot powinien umieć rozpoznawać osoby, którym udziela poufnych informacji oraz rozróżniać te informacje.

Oprócz wyspecjalizowania robota w kwestiach takich jak umiejętność wykonywania czynności terapeutycznych czy zachowywania poufności informacji, niezwykle istotną problematyką jest zindywidualizowanie maszyny na potrzeby użytkowników. Oczywiście stopień indywidualizacji zależeć powinien od zadań, jakie są stawiane robotowi: Paro nie wymaga dopasowywania do indywidualnego użytkownika, jednak roboty mające za zadanie np. prowadzenie konwersacji z pacjentem w celu ustalenia poziomu jego nastroju powinny być dopasowane do potrzeb konkretnego użytkownika – co więcej, powinny być zaprogramowane na stałe rozwijanie się w ramach relacji z konkretną osobą. Tak wyspecjalizowane funkcje prowadzą do refleksji na temat kosztów konstruowania i użytkowania robotów. Warto zastanowić się, na ile korzyści terapeutyczne z posługiwania się robotem są w stanie rekompensować wysokie koszty ich użytkowania. Zakup robota nie należy do najtańszych – wspomniany Paro kosztuje około 5 tysięcy dolarów amerykańskich. Przypuszczać można jednak, że koszt robotów asystujących nie będzie przekraczał kwot, jakie są inwestowane w stosowanie bardziej obecnie powszechnych rozwiązań technologicznych, takich jak mechaniczne ręce czy nogi.

Roboty pracujące z dziećmi cierpiącymi na autyzm, zamiast zwiększać umiejętności społeczne dzieci, mogą stać się zastępnikiem relacji społecznych – mali pacjenci będą lepiej czuć się w kontaktach z robotami niż z ludźmi. Stąd przy wykorzystywaniu w terapii robotów przypominających człowieka niezwykle ważne jest upewnianie się, że pacjent jest świadomy iż ma do czynienia z robotem.

Zastosowanie robotów asystujących w medycynie czy psychologii wywołuje potrzebę nowego spojrzenia na kwestie etyczne od dawna pojawiające się w relacji lekarz – pacjent: zabezpieczenie poufnych informacji, zapewnienie poszanowania autonomii czy zachowanie zasady sprawiedliwości w sytuacji publicznego finansowania dystrybucji robotów asystujących pacjentom. Być może na część z wymienionych wątpliwości odpowiedzą wyniki badań, które dla dobra pacjentów powinny być przeprowadzone w przyszłości – jako przykład wymienić można kwestię wpływu wyglądu robota, sposobu, w jaki się porusza czy mówi, na jego użytkownika. Problematyka interakcji człowiek-maszyna stawia wyzwanie przed interdyscyplinarnymi zespołami badawczymi składającymi się zarówno z informatyków, lekarzy i psychologów, jak i etyków.

 

Literatura:

Feil-Seifer D., Mataric M.J. (2009, marzec), Towards the Integration of Socially Assistive Robots into the Lives of Children with ASD, International Conference on Human-Robot Interaction, Workshop on Societal Impact: How Socially Accepted Robots Can be Integrated in our Society, San Diego.

Feil-Seifer D., Mataric M.J. (2011), Socially Assistive Robotics, „IEEE Robotics & Automation Magazine” 18 (1): 24–31.

Rabbitt S.M., Kazdin A.E., Scassellati B. (2015), Integrating Socially Assistive Robotics into Mental Healthcare Interventions: Applications and Recommendations for Expanded Use, „Clinical Psychology Review” 35: 35–46. doi:10.1016/j.cpr.2014.07.001

Sharkey A., Sharkey N. (2012), Granny and the Robots: Ethical Issues in Robot Care for the Elderly, „Ethics and Information Technology” 14 (1): 27–40. doi:10.1007/s10676-010-9234-6


Katarzyna Marchewka – asystentka naukowa w Zakładzie Badań nad Etyką Zawodową w Instytucie Filozofii Uniwersytetu Jagiellońskiego oraz doktorantka w Instytucie Psychologii Uniwersytetu Jagiellońskiego.


Tekst powstał dzięki finansowaniu z Fundacji na rzecz Nauki Polskiej na podstawie Umowy nr 139/UD/SKILLS/2015 o wykorzystanie Nagrody przyznanej w konkursie eNgage w ramach projektu SKILLS współfinansowanego z Europejskiego Funduszu Społecznego.


Czytaj powiązane artykuły

Czy ChatGPT odbierze prace scenarzystom?

W 2023 roku miał miejsce długi strajk amerykańskich scenarzystów, którego główną przyczyną było nieuczciwe wynagradzanie ich...

avatar Dawid Obcowski 14 Marca 2024

Czy powinniśmy przestać mówić o „fake newsach”?

W debacie publicznej powraca przekonanie, że fake newsy to istotny problem. A czym w ogóle są...

avatar Piotr Litwin 06 Lutego 2024

Bądźmy konsekwentni: niejasny status płodu w polskim systemie pra...

Prawo aborcyjne w Polsce, zwłaszcza od czasu słynnego już wyroku Trybunału Konstytucyjnego Julii Przyłębskiej z 2020...

avatar Zofia Piwowarska 25 Września 2023