Sztuczna inteligencja

Jak okiełznać sztuczną inteligencję

Świat wydaje się zaskoczony najnowszą zdobyczą rewolucji cyfrowej. Wraz z pierwszymi problemami prawnymi ruszyła dyskusja, jakie regulacje przyjąć, aby jej używanie było bezpieczne.

Tomasz Pietryga
Foto: Adobe Firefly

Burmistrz australijskiego miasteczka Brian Hoode, leżącego 120 km na północny zachód od Melbourne, zapowiedział pozew przeciwko firmie OpenAI, jeśli ta nie skoryguje nieprawdziwych twierdzeń ChatGPT o nim. Chodziło o podawanie przez algorytm informacji, że polityk został skazany za korupcję. Prawnicy poszkodowanego zarzucili firmie, że AI generując takie wiadomości daje użytkownikom „fałszywe poczucie dokładności”, które wynika ze „zautomatyzowanego produktu językowego”. Sprawa jest na etapie wymiany pism przedsądowych. A spór może rozegrać się w USA, gdzie znajduje się siedziba twórcy algorytmu OpenAI. Proces może toczyć się więc przed amerykańskimi sądami, które słyną z przyznawania dość wysokich odszkodowań.

To byłaby pierwsza sprawa, w której klasyczne prawo dotyczące zniesławienia zostałoby zastosowane w odniesieniu do błędów sztucznej inteligencji. W tej historii chodzi jednak o coś więcej. To precedens, który przybliża nas do odpowiedzi na pytanie, czy można pozwać wysoko zaawansowane technologicznie urządzenie i czy jego twórcy ponoszą odpowiedzialność za jego błędy.

Australijski pozew może być tylko zapowiedzią tego, co czeka nas w przyszłości, ponieważ wraz z upowszechnieniem się sztucznej inteligencji spory prawne wydają się nieuniknione. Generatorem procesów sądowych mogą być nie tylko kwestie ochrony dóbr osobistych i dobrego imienia, ale także związane z ochroną praw autorskich i własności intelektualnej twórców, z ochroną danych osobowych, plagiatem, oszustwami i innymi przestępstwami.

Państwa myślą, eksperci apelują

Nic dziwnego, że wiele państw już zastanawia się, jak zabezpieczyć swoje systemy prawne, przed kolejną odsłoną rewolucji cyfrowej.

Dyskusja o tym, jak „ugryźć prawnie” sztuczną inteligencję, aby jej zastosowanie nie wywołało szkód społecznych, gospodarczych i innych, dopiero się jednak zaczyna. Apelują o nią największe postaci rewolucji technologicznej. Dwa miesiące temu organizacja Future of Life opublikowała list otwarty, domagając się zawieszenia prac nad rozwojem zaawansowanych systemów AI na okres sześciu miesięcy. Pod apelem podpisali się m.in. współzałożyciel Apple Steve Wozniak i założyciel Tesli Elon Musk, którzy zwrócili uwagę na konieczność opracowania protokołów bezpieczeństwa dla takich systemów i kontroli nad nimi.

Apel w podobnym tonie wystosowali też brytyjscy lekarze. British Heart Foundation, Royal College of GPs i Full Fact przestrzegają przed ryzykiem rozprzestrzeniania się dezinformacji medycznej, jakie niesie za sobą rozwój AI, niebezpiecznym z punktu widzenia zdrowia publicznego. Eksperci proponują wprowadzenie przepisów, które wymagałyby od największych sieci społecznościowych podwyższonych standardów w zakresie moderowania treści o tematyce zdrowotnej i eliminowania dezinformacji medycznej.

Pod koniec marca brytyjski Departament Nauki, Innowacji i Technologii opublikował swoje propozycje regulacji systemów opartych na AI, które miałyby na celu budowanie zaufania społecznego do nowej technologii.

Dyskusja na ten temat toczy się również w Stanach Zjednoczonych. Administracja Joe Bidena prowadzi konsultacje z ekspertami, którzy mają wskazać potencjalne zagrożenia związane z powszechnym stosowaniem i rozwojem sztucznej inteligencji, takiej jak ChatGPT. Dyskusja ma dać odpowiedź na pytanie, czy konieczne są specjalne przepisy, które sprawią, że nowa zdobycz technologiczna będzie działała w prawnych i etycznych ramach.

W Unii Europejskiej w połowie maja przegłosowano pierwsze kompleksowe regulacje dotyczące AI. Specjalne prawo ma objąć wszystkie rodzaje sztucznej inteligencji stosowanej we wszystkich sektorach, poza wojskiem. Szczególną uwagę poświęcono zagrożeniom praw i wolności obywatelskich związanym z zastosowaniem sztucznej inteligencji w systemach monitoringu publicznego, w tym rozpoznawania twarzy. Unijne przepisy mogą być drogowskazem dla innych państw w zakresie uregulowania AI, zwłaszcza że już pojawiły się pewne obawy dotyczące kopiowania pewnych rozwiązań z „modelu chińskiego” przez Europejczyków. Chińczycy owszem ograniczali działanie AI, jeżeli jej użycie jest sprzeczne z moralnością publiczną lub w jakikolwiek sposób podważa integralność państwa i przywództwo komunistycznych władz. Jednocześnie angażują w coraz większym stopniu sztuczną inteligencję do inwigilacji obywateli. Taka droga w Europie ma być zamknięta.

Na razie najbardziej radykalną drogę wybrali Włosi. Tamtejszy Urząd Ochrony Danych Osobowych, po wycieku informacji wrażliwych, zakazał korzystania z ChatGPT, dopóki OpenAI nie zapewni odpowiedniej ochrony bezpieczeństwa danych użytkowników.

Biznes również jest ostrożny

Oprócz rządów państw zagrożenie w działaniu sztucznej inteligencji zaczynają zauważać korporacje. Dla wielu firm zastosowanie technologii AI stało się kołem zamachowym dla ich biznesów. Z drugiej strony niekontrolowane jej używanie wiąże się z poważnym ryzykiem wycieku nie tylko danych osobowych, ale także informacji poufnych w przedsiębiorstwie, np. kontraktów objętych tajemnicą handlową. Pokusa ułatwienia sobie życia przez pracowników i menedżerów sprawia, że szereg poufnych dokumentów przetwarzanych jest przez sztuczną inteligencję w celu znalezienia optymalnych wyników i interpretacji. Idący na skróty pracownicy nie zawsze zdają sobie sprawę, że w ten sposób udostępnione informacje mogą trafić do osób nieuprawnionych. Nic więc dziwnego, że wiele dużych koncernów i firm, zwłaszcza z bankowości, już w regulaminach pracowniczych wprowadziło zakazy stosowania AI.

Starcie prawne ze sztuczną inteligencją wydaje się jednak dopiero przed nami. Jest to obecnie wielki społeczny eksperyment, w którym uczestniczą miliony ludzi. Na pewno będą też jego ofiary.


Przeczytaj też:

Sztuczna inteligencja, sztuczna odpowiedzialność?

Artificial Intelligence (AI) święta nie jest. Oprócz tego, że robi wiele dobrego dla ludzkości, zdarza się jej też nieźle nabałaganić. Do tego rozwija się w zastraszającym tempie i podbija coraz większe obszary działalności, które do tej pory stanowiły wyłącznie domenę lu...

Cyfrowa puszka Pandory

Coraz szersze kręgi zatacza sprawa wyprodukowanego przez sztuczną inteligencję utworu, w którym wybrzmiewa sfałszowany głos rapera Drake’a i The Weeknd, największych gigantów streamingu.

Sztuczna inteligencja na siłowni

Narzędzia sztucznej inteligencji, takie jak ChatGPT, mają coraz większy wpływ na nasze życie, zaczynając od zakupów, usług przesyłania strumieniowego, po edukację, opiekę zdrowotną i sposób, w jaki zdobywamy informacje o świecie. W niektórych amerykańskich miejscowościach...


Redaktor naczelny: Paweł Łepkowski | Edytor: Marta Narocka-Harasz  

Kontakt: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.

Stale współpracują: Zofia Brzezińska, Robert Cheda, Jacek Cieślak, Zuzanna Dąbrowska, Gaja Hajdarowicz, Grzegorz Hajdarowicz, Mariusz Janik, Krzysztof Kowalski, Hubert Kozieł, Marek Kutarba, Jakub „Gessler” Nowak, Tomasz Nowak, Joanna Matusik, Justyna Olszewska, Marcin Piasecki, Paweł Rochowicz.

©
Wróć na górę