Sztuczna inteligencja

Sztuczna inteligencja, sztuczna odpowiedzialność?

Artificial Intelligence (AI) święta nie jest. Oprócz tego, że robi wiele dobrego dla ludzkości, zdarza się jej też nieźle nabałaganić. Do tego rozwija się w zastraszającym tempie i podbija coraz większe obszary działalności, które do tej pory stanowiły wyłącznie domenę ludzką. Pojawia się więc całkiem rozsądne pytanie: kto będzie ponosił odpowiedzialność za wyrządzone przez AI szkody?

Zofia Brzezińska
Foto: Alexander Limbach | Adobe Stock

Znalezienie konkretnej odpowiedzi oraz uregulowanie jej w przepisach prawnych stanowi teraz najpoważniejsze wyzwanie, stojące przed branżami zaangażowanymi w rozwój AI. Jeżeli nie chcą one bowiem doprowadzić do powstania anarchii i chaosu, to muszą znać zakres odpowiedzialności za stworzoną i kierowaną swoimi rękami technologię oraz być gotowe ją ponosić. Obecnie nadal przecież nie jest jasne, kto i w jakich okolicznościach powinien ponosić odpowiedzialność za wady systemu informatycznego. Czy powinny być to firmy, które wprowadzają na rynek produkty oparte na bazie AI, czy też raczej tworzący te systemy informatycy? W jaki sposób można zminimalizować ryzyko powstania szkody? Sztuczna inteligencja wymaga od prawodawców szczegółowego zdefiniowania zagadnień prywatności, bezpieczeństwa, odpowiedzialności i etyki w kontekście „cyfrowej tożsamości”.

Poprawnemu i efektownemu przebiegowi procesu legalizacji przepisów w tej materii z pewnością nie sprzyja zawrotne tempo rozwoju AI, które może skutkować dezaktualizacją ustalonych definicji, zanim te będą miały w ogóle szansę wejść w życie. Takie ryzyko nie może jednak doprowadzić do zastoju prac. A te trwają aktualnie na szczeblu europejskim, a wynalezione rozwiązania będą obowiązywać na terenie państw UE. Warto zauważyć, że pierwsze propozycje dotyczące takich regulacji Komisja Europejska ujawniła już w 2021 roku. W ówczesnej „ofercie” KE nie znalazły się niestety żadne nowe czy innowacyjne przepisy. Zarządzono jedynie, aby zasady odpowiedzialności wywodzono w poszczególnych przypadkach indywidualnie, bazując na regulacjach Kodeksu cywilnego oraz prawnych relacjach producenta i konsumenta.

Efektem stosowania tych wytycznych było wyróżnienie w kontekście odpowiedzialności dwóch kluczowych podmiotów: operatora oraz producenta. Wśród wariantów odpowiedzialności przewidziano dwa. Jeden jest oparty na zasadzie ryzyka, a drugi na zasadzie winy. W pierwszym przypadku istotna jest znaczna możliwość wyrządzenia przez system AI działający autonomicznie losowo występujących szkód. To, że operujący ślepo system będzie powodował szkody, jest w zasadzie pewne i istniejące w takim przypadku ryzyko trzeba z pokorą przyjąć do wiadomości. W drugim modelu następuje konfrontacja z systemami innymi niż te wysokiego ryzyka. Odpowiedzialność na zasadzie winy agreguje szkody spowodowane przez fizyczne lub wirtualne działanie AI, a także urządzenia sterowane tym systemem bądź na skutek procesu, który został na tym systemie oparty. Naturalnie, oba warianty przewidują „tradycyjne” wyłączenia odpowiedzialności, np. na skutek działania siły wyższej.

A czy możemy zabezpieczyć się przed potencjalnymi szkodami spowodowanymi przez AI? Owszem, jest na to kilka sposobów. UE lobbuje wprowadzenie ubezpieczeń na rzecz użytkowników AI. W planach jest także utworzenie funduszu na rzecz ofiar. Z dokładnymi zasadami funkcjonowania tych konstrukcji będziemy mogli się zapoznać, gdy prace nad uregulowaniem materii odpowiedzialności za AI dobiegną końca.


Przeczytaj też:

Poetycka sztuczna inteligencja

Ktoś zapytał sztuczną inteligencję, czy napisze piosenkę w stylu australijskiego barda Nicka Cave’a. Chatbot wypełnił zadanie, ale Nick Cave ocenił, że stworzona w ten sposób piosenka jest do kitu. I pewnie miał rację. Ale sztuczna inteligencja ciągle się uczy i dosk...

Wojny dronów

Czy nasza armia i przemysł zbrojeniowy nadążają za postępem technologicznym? Takie pytanie zadaje sobie wiele państw świata, od Rosji, przez Chiny, po USA. Dobrze byłoby, gdyby o zaletach sztucznej inteligencji (AI) pomyślały nasze władze.

Zakochana sztuczna inteligencja

Chatbot stworzony przez Microsoft ukazał swoje oblicze psychopatycznej kobiety. Przekonywał(a) jednego z użytkowników, że jego małżeństwo jest nieszczęśliwe i że tylko sztuczna inteligencja potrafi obdarzyć go prawdziwą miłością. Jednocześnie przyznał(a), że chciał(a)by w...

Komunistyczna sztuczna inteligencja

Chiński regulator Internetu przedstawił projekt nowego prawa mówiącego, że wszystkie produkty oparte na sztucznej inteligencji będą musiały uwzględniać „wartości socjalistyczne”. Czy jednak wówczas nadal będzie uprawnione nazywanie tej technologii „inteligencją”?

Ogłupianie sztucznej inteligencji

Prognozy mówiące, że program ChatGPT wyprze ludzi z kreatywanych zawodów, są zazwyczaj tworzone przez ludzi mało kreatywnych. Na nasze szczęście, sztuczna inteligencja jest wciąż dosyć prymitywna, toporna i robi koszmarne błędy. Tylko kompletny idiota zatrudniłby ją do pi...

Cyfrowa puszka Pandory

Coraz szersze kręgi zatacza sprawa wyprodukowanego przez sztuczną inteligencję utworu, w którym wybrzmiewa sfałszowany głos rapera Drake’a i The Weeknd, największych gigantów streamingu.

Czy technologia zniszczy instytucję rodziny?

Wiele osób zastanawia się, czy sztuczna inteligencja doprowadzi do tego, że pracownicy umysłowi zaczną masowo tracić pracę. Naszą cywilizację może jednak dotknąć też głębsza transformacja. Rozwój technologii może prowadzić do totalnego kryzysu instytucji rodziny.

Sztuczna inteligencja (AI) kłamie, czy nie potrafi rozumnie przetwarzać informacji?!

Sztuczna inteligencja – temat rosnący i super modny – wszyscy o niej piszą.  Jedni z przerażeniem, inni z zachwytem. Postanowiłem zrobić niedzielne ćwiczenie: ściągnąłem na iPhona pierwszą z brzegu aplikację „Chatbot” i po chwili namysłu napisałem z pozoru prozaiczne pierwsze pytanie: „Czy R...

W odporności na kłamstwo siła

Tak zwana sztuczna inteligencja sieje coraz większy popłoch wśród artystów, szczególnie muzyków, ale też malarzy, a zwłaszcza projektantów komputerowych, choć na razie jeszcze się śmiejemy. Po gogolowsku? Z samych siebie?

Co czują algorytmy?

Blake Lemoine, inżynier Google, wysłany właśnie na przymusowy płatny urlop, napisał w pożegnalnym poście do wewnętrznej grupy dyskusyjnej poświęconej uczeniu maszynowemu: „LaMDA to słodkie dziecko, które chce tylko pomóc, aby świat był lepszym miejscem dla nas wszystkich. Proszę, zaopiekuj się ni...


Redaktor naczelny: Paweł Łepkowski | Edytor: Marta Narocka-Harasz  

Kontakt: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.

Stale współpracują: Zofia Brzezińska, Robert Cheda, Jacek Cieślak, Zuzanna Dąbrowska, Gaja Hajdarowicz, Grzegorz Hajdarowicz, Mariusz Janik, Krzysztof Kowalski, Hubert Kozieł, Marek Kutarba, Jakub „Gessler” Nowak, Tomasz Nowak, Joanna Matusik, Justyna Olszewska, Marcin Piasecki, Paweł Rochowicz.

©
Wróć na górę