"Teraz roboty mają umysł Puchatka, ale to się zmieni". Specjalista z politechniki o etyce robotów
Wywiad z profesorem Krzysztofem Tchoniem z Zakładu Podstaw Cybernetyki i Robotyki Politechniki Wrocławskiej.
Prawa robotów, o których Państwo rozmawiali, dla przeciętnego człowieka wydają się abstrakcją.
Ale to nie jest abstrakcja. Tu nie chodzi o prawa robotów, tylko o to, by działały dla dobra człowieka- należy je tak budować, by nie działały źle. To kwestia etyki inżyniera robotyka i właśnie do tego zmierza legislacja - ma opisać, jak musi zachowywać się doby projektant robotów.
A jak będzie niedobry, to co nam grozi?
To robot panią przejedzie albo zachowa w jakiś inny sposób, którego sobie nie życzymy. Załóżmy, że jest robot opiekuńczy, który spędza z Panią wieczory i on wysyła na cały świat listę pani leków. Na to nie możemy pozwolić. I o to musi zadbać projektant. Jest też drugi aspekt - może jeszcze wygląda na przyszłościowy, ale niebawem nastąpi - co będzie, gdy robot sam zacznie się uczyć. Wtedy projektant nie będzie w stanie do końca przewidzieć, co robot zrobi.
To fantazja rodem z filmów sci-fi czy rzeczywistość?
Staramy się, by roboty się uczyły. Na razie mają rozum Kubusia Puchatka, ale to się zmieni, bo do tego zmierza rozwój robotyki. I teraz - czy jesteśmy w stanie przewidzieć zachowanie pieska? Albo małego dziecka? Staramy się bardzo, a ono o tak może wyrosnąć na nie wiadomo kogo. I tu jest problem - jak spowodować, żeby roboty nie wyrastały na złych "ludzi".
Projekt rezolucji (KLIKNIJ I ZOBACZ) zawierającej zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki został przyjęty w lutym tego roku. Powołuje się on m.in. na Prawa Asimova. Pisarz stworzył je w roku 1942 (!) i opisał w fantastycznym opowiadaniu pt. "Zabawa w berka". 1) Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. 0) Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości. |
Chodzi o to, by nie tylko polegać na moralności konstruktorów, ale też by zapisać to w prawie?
To się nazywa etyka robotów. Trzeba wbudować robotowi jakiś system etyczny - nie wiem, jak to zrobić, ale są takie pomysły. Albo trzeba będzie zrobić to od razu, albo robot, w ciągu swojego robociego życia, sam się nauczy, co jest dobre, a co złe.
Jakich rozwiązań prawnych potrzebujemy?
To wciąż w fazie rozwoju. Najbardziej zaawansowani są w tej kwestii chyba Japończycy. Istnieją tam strefy, w których roboty współpracują z ludźmi i to jakoś działa. Wymagało to specjalnych ustaleń prawnych. W Europie słyszałem tylko o jednym takim miejscu - we Włoszech. Prawa, który by to regulowało, w zasadzie nie ma, trzeba jak najszybciej zacząć nad nim pracować. Boję się, że stara, dobra Europa jest zapóźniona w tym względzie.
Radio Wrocław nie odpowiada za treść komentarzy.