Roboty mogą zyskać osobowość prawną

opublikowano: 17-07-2018, 22:00

Im bardziej sztuczna inteligencja będzie udoskonalana, tym częściej może wymykać się spod kontroli obecnych przepisów

Nowe technologie z jednej strony ułatwiają człowiekowi życie, ale z drugiej — nie do końca sprawdzone lub niedopracowane rozwiązania mogą stanowić dla niego zagrożenie. Im bardziej są zaawansowane, tym więcej mamy głosów w dyskusji o granicach bezpieczeństwa i etyki. Trudno pozostać obojętnym np. wobec wiadomości o śmiertelnym wypadku z udziałem autonomicznego samochodu Ubera, do jakiego doszło w stanie Arizona w Stanach Zjednoczonych. Kontrowersje wzbudzać może również fakt nadania humanoidalnemu robotowi obywatelstwa — w Arabii Saudyjskiej otrzymała je Sophia, bazująca na sztucznej inteligencji maszyna stworzona przez Hanson Robotics. Za tak dalece rozwiniętymi technologiami nadążać musi również prawo, bo właśnie paragrafy w przyszłości będą musiały „rozstrzygać” dylematy dotyczące tego, kto ponosi odpowiedzialność za wypadki z udziałem samouczących się systemów — producent, programista czy użytkownik — i jakie przywileje może mieć sztuczna inteligencja, otrzymując obywatelstwo. Już teraz łatwo sobie wyobrazić sytuację, w której maszyna sama zaczyna „podejmować decyzje” np. o działaniu linii produkcyjnej, realizacji usług czy nawet inwestycjach kapitałowych.

KONTROWERSJE:  Nadanie osobowości prawnej samouczącym się maszynom ułatwiłoby np. ustalanie odpowiedzialności za szkodę wyrządzoną z ich udziałem w najbardziej wątpliwych przypadkach — zauważa Marek Oleksyn, radca prawny z zespołu prawa własności intelektualnej i nowych technologii w kancelarii CMS.
Zobacz więcej

KONTROWERSJE: Nadanie osobowości prawnej samouczącym się maszynom ułatwiłoby np. ustalanie odpowiedzialności za szkodę wyrządzoną z ich udziałem w najbardziej wątpliwych przypadkach — zauważa Marek Oleksyn, radca prawny z zespołu prawa własności intelektualnej i nowych technologii w kancelarii CMS. Fot. ARC

Automat w paragrafach

Nowych robotów na rynku pojawia się coraz więcej, przybywa też maszyn, które samoczynnie się uczą i podejmują quasi- -autonomiczne decyzje. W grę wchodzą tu także tzw. osobiści asystencji i roboty, np. do opieki nad seniorami, od których może zależeć bezpieczeństwo i zdrowie podopiecznych.

— Z jednej strony obecne regulacje w tym zakresie są ujęte dość szeroko i elastycznie, z drugiej — postęp informatyczny i technologiczny przebiega w tak szybkim tempie, że dotychczasowe przepisy przestają za nim nadążać — mówi Marek Oleksyn, radca prawny z zespołu prawa własności intelektualnej i nowych technologii w kancelarii CMS.

— Obecny system prawny reguluje kwestie związane z odpowiedzialnością za produkty niebezpieczne, przypisując ją producentom. Tradycyjne jej rozumienie wydaje się być niewystarczające, gdy mówimy o szkodach wyrządzonych przez roboty, zwłaszcza te samouczące się, podejmujące w mniejszym lub większym zakresie autonomiczne decyzje. Wyzwanie może stanowić np. prześledzenie łańcucha odpowiedzialności kolejnych podmiotów, które tradycyjnie odpowiadałyby za szkodę. Łatwo możemy wyobrazić sobie próby „przerzucania” odpowiedzialności na innych uczestników w łańcuchu produkcji i wprowadzenia robota do obrotu — od twórców oprogramowania poprzez producentów podzespołów po samych użytkowników — dodaje Adriana Zdanowicz-Leśniak, adwokat pracująca w tym samym zespole w CMS.

Już teraz zaczynają się więc pojawiać koncepty „modyfikacji” przepisów prawnych, zarówno na poziomie jurysdykcji krajowych, jak i unijnych. Parlament Europejski wystosował np. rezolucję do Komisji Europejskiej w sprawie przepisów dotyczących robotyki, rekomendując zmiany w tym zakresie. Wśród rozważanych pomysłów jest m.in. nadanie specjalnego statusu prawnego robotom, w szczególności tym bazującym na zaawansowanych systemach sztucznej inteligencji, dzięki czemu miałyby one stać się w pewnym zakresie uczestnikami obrotu prawnego. W takim ujęciu mielibyśmy, obok osoby fizycznej, prawnej i tzw. ułomnej osoby prawnej również „elektroniczną osobę prawną”.

Zdaniem prawników z CMS, wprowadzenie nowej formuły mogłoby ułatwić kwestie dowodowe w procesach o naprawienie szkody, bo stroną odpowiedzialną za jej wyrządzenie byłby wówczas robot.

— W debatach podniesiono również kwestię wyposażania autonomicznych maszyn w tzw. „czarne skrzynki”, umożliwiające odtworzenie procesu analitycznego, dokonanego przez system przed danym zdarzeniem — przypomina Marek Oleksyn.

W tym kontekście rodzi się także pytanie o wynikające z tego „obowiązki” maszyn, np. płacenie podatków od robotów. Ta kwestia nieraz już była podnoszona przez przedstawicieli międzynarodowego biznesu. Dodatkowo już w 2017 r. pojawiła się propozycja utworzenia na unijnym poziomie funduszu gwarancyjno-odszkodowawczego. Ubezpieczenia mogłyby być obowiązkowe dla producentów i właścicieli autonomicznych maszyn i systemów samouczących. Zdaniem prawników z CMS, producentom, programistom i właścicielom np. robotów, w tym autonomicznych samochodów, umożliwiłoby to korzystanie z ograniczeń odpowiedzialności, a ponadto otworzyłoby furtkę do tworzenia dla nich wspólnych ubezpieczeń gwarancyjnych. Na razie jednak koncept nie został uszczegółowiony, nie wskazano też wysokości składek wpłacanych do funduszu.

Ponad granicami

Do rozstrzygnięcia pozostaje także kwestia terytorialności — czy istnieje zasadność tworzenia przepisów w reżimie krajowym, a nawet unijnym, gdy systemy informatyczne skonfigurowane z internetem działają w skali globalnej, przekraczając granice.

— Z punktu widzenia użytkownika końcowego wprowadzenie jednolitego standardu ochrony na wszystkich rynkach byłoby najbardziej wskazane. Możemy jednak spodziewać się, że wiele gospodarek nie będzie nim zainteresowanych, czego potwierdzeniem może być choćby rozbieżność w podejściu do zagadnień ochrony środowiska. Każda forma nowej regulacji prawnej stanowi mniejszą lub większą ingerencję w konkurencyjność lokalnych firm i gospodarek. Niezależnie, poszczególne państwa czy regiony poruszają się w ramach własnej tradycji, dorobku i zasad odpowiedzialności odszkodowawczej. W praktyce więc wprowadzenie takich samych czy choćby zbliżonych kryteriów odpowiedzialności za szkodę wyrządzoną przez robota np. w Stanach Zjednoczonych, Unii Europejskiej czy Chinach jest mało prawdopodobne — podkreśla Marek Oleksyn.

— W Wielkiej Brytanii już mamy pierwsze pomysły przypisania reżimu odpowiedzialności robotom, który przypomina naszą odpowiedzialność „na zasadzie ryzyka” z istotnymi modyfikacjami, uwzględniającymi pomysły w tym zakresie na szczeblu UE. W Polsce natomiast powstała specjalna Grupa Robocza ds. Przemysłu 4.0 w ramach działań Zespołu ds. Transformacji Rozwojowej przy Ministerstwie Inwestycji i Rozwoju. Na tym etapie dostępne są jedynie wstępne informacje na temat omawianych zagadnień — przypomina Adriana Zdanowicz-Leśniak.

Na razie jeszcze większość autonomicznych rozwiązań, w tym samojeżdżące samochody, drony osobowe czy narzędzia do przeprowadzania zabiegów operacyjnych na odległość, pozostają w fazie testów. Można się jednak spodziewać, że w ciągu najbliższych lat producenci zaczną je już wprowadzać na rynek, a z czasem te zyskają na popularności. Wówczas zmiany obecnie obowiązujących przepisów prawnych mogą okazać się koniecznością.

Zdaniem Agnieszki Kraińskiej, radcy prawnego z kancelarii Wardyński i Wspólnicy, rzeczywiście trudno obecnie nadążyć za rozwojem technologii informatycznych, które z natury przekraczają wszelkie ramy terytorialności. Regulacje prawne ze swojej natury mają zastosowanie terytorialne, tymczasem internet i problemy prawne rodzące się w cyberprzestrzeni mają charakter ponadgraniczny. Problemy prawne związane z rozwojem technologii informatycznych wymagają nowego podejścia. Ale z jej punktu widzenia pomysły związane np. z nadaniem maszynom „elektronicznej osobowości prawnej” są działaniem na wyrost. Zarówno w przypadku odpowiedzialności za wypadki z udziałem autonomicznych samochodów, jak i błędów popełnianych w ramach zabiegów medycznych przeprowadzanych przez roboty stosować można obecnie dostępne rozwiązania. W odniesieniu do osobowości prawnej, odrębnym i bardzo ciekawym zagadnieniem w jej opinii jest natomiast kwestia praw i obowiązków zdecentralizowanych podmiotów działających w przestrzeni blockchain.

 

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Anna Bełcik

Być może zainteresuje Cię też:

Polecane

Inspiracje Pulsu Biznesu

Tematy

Puls Biznesu

Puls Innowacji / Roboty mogą zyskać osobowość prawną