Sztuczna inteligencja

Wolne wybory? Nie z AI!

Amerykanie próbują zakazać korzystania ze sztucznej inteligencji (Artificial Intelligence – AI) w kampaniach wyborczych. Czy inne państwa, w tym Polska, podążą tym tropem?

Zofia Brzezińska
Foto: Elnur | Dreamstime.com

Na razie sytuacja pod tym względem wygląda stabilnie, gdyż aktualnie całościowych regulacji dotyczących użycia sztucznej inteligencji w kampaniach wyborczych nie ma ani w Polsce, ani w USA, ani w żadnym innym demokratycznym kraju. To sprawia, że w trakcie obserwowania przedwyborczej, zajadłej walki o elektorat możemy nieraz zauważyć zjawisko tzw. „deepfake"ów”, przybierających najczęściej formę nieczystych i średnio eleganckich zagrań mających na celu zdyskredytowanie rywala. Również ChatGPT okazał się narzędziem, które sprzyja pozyskiwaniu wyborców. Bardzo łatwo przy jego użyciu kierować przekaz do ściśle określonych grup. To, co kiedyś wymagało długotrwałych przygotowań, teraz można zrobić w kilka chwil. Co ciekawe, takie zagrania są wbrew regulaminowi ChatGPT. Jednak OpenAI nie ma odpowiednich zasobów kontrolnych, aby temu zapobiegać.

Założenia były chwalebne. Kiedy w zeszłym roku OpenAI uruchomiło ChatGPT, to zarazem autorzy oprogramowania zakazali sztabom politycznym korzystania z chatbota opartego na sztucznej inteligencji. Firma uznała tym samym wagę ryzyka manipulacji wyborami, jakie stwarza to narzędzie. Po kilku miesiącach firma z nieznanych przyczyn skorygowała jednak swoje stanowisko i zabroniła jedynie wykorzystywania ChatGPT do tworzenia materiałów skierowanych do określonych grup demograficznych. Zdaniem autorów, narzędzie mogłoby zostać wykorzystane do „rozpowszechniania dostosowanej do indywidualnych potrzeb dezinformacji na bezprecedensową skalę”. Natomiast jeśli polityk chciałby wykorzystać narzędzie do napisania przemówienia lub chatbota namawiającego do wzięcia udziału w wyborach, to OpenAI...służy pomocą.

Jednak analiza przeprowadzona przez The Washington Post pokazuje, że OpenAI od miesięcy nie egzekwuje swojego zakazu. Sztaby w USA (a możemy spokojnie założyć, że nie tylko w tym kraju) bez trudu generują w kilka sekund treści dostosowane do wyborców. To, co kiedyś zajmowało kampanijnym specjalistom całe miesiące, ChatGPT zrobi teraz od ręki.

Przedstawiciele OpenAI deklarowali w czerwcu, że zdają sobie sprawę z tego, iż generowanie treści kampanijnych narusza regulamin. Dodawali przy tym, że pracują nad narzędziami do wykrywania, kiedy ludzie korzystają z ChatGPT do tworzenia materiałów politycznych. Jednak ponad 3 miesiące później problem wciąż istnieje, a nawet uległ zaognieniu. A tymczasem sprawa jest szczególnie pilna w państwach, gdzie trwają wybory, jak w USA (prawybory prezydenckie) czy chociażby właśnie np. w Polsce.

Dlaczego zatem Amerykanie zmobilizowali się i postanowili ukrócić to zjawisko? Być może dlatego, że mają dość coraz częstszych przypadków używania AI w złej wierze. A przykładów na takie działania za oceanem jest mnóstwo. Jak choćby ten, gdy sztab kampanii prezydenckiej gubernatora Florydy Rona DeSantisa zamieścił reklamę przedstawiającą Donalda Trumpa przytulającego i całującego byłego doradcę medycznego Białego Domu Anthony"ego Fauciego. Tak naprawdę panowie darzyli się dość umiarkowanym sentymentem i mieli inne spojrzenia na wiele kwestii, np. na walkę z pandemią COVID-19. Natomiast Komitet Narodowy Republikanów opublikował fałszywą reklamę polityczną, w której przedstawiano apokaliptyczną wizję Ameryki podczas drugiej kadencji prezydenta Joe Bidena. W tych i wielu innych materiałach zastosowano elementy „deepfake”, czyli użyto sztucznej inteligencji w taki sposób, że ludzkim okiem nie da się określić tego, iż np. przedstawione postacie są stworzone przez AI.

Na razie większość działań opiera się na samokontroli wśród tworzących oprogramowanie. Jak widać – wychodzi to średnio skutecznie. Sam Altman, dyrektor generalny OpenAI, opublikował nawet w mediach społecznościowych post, w którym oświadczył, że jest „zdenerwowany” wpływem sztucznej inteligencji na przyszłe wybory. Dodał, że „firma jest ciekawa pomysłów na rozwiązanie tego problemu i że należy podnosić świadomość użytkowników.” Natomiast Google już od listopada wprowadza aktualizację zasad dotyczących treści politycznych. Wszyscy zweryfikowani reklamodawcy polityczni będą mogli używać AI w swoich przekazach, ale zostaną zobowiązani, by wyraźnie to zakomunikować w reklamach wyborczych na platformach Google'a, np. tak: „Ten dźwięk został wygenerowany komputerowo” lub: „Ten obraz nie przedstawia prawdziwych wydarzeń”.

Nie tylko Google wprowadza swoje obostrzenia (na razie nie wiemy, czy będą one dotyczyły również Polski). Kilka stanów, w tym Kalifornia, Teksas i Minnesota, przyjęło własne regulacje dotyczące sztucznej inteligencji, a inne stany podążają ich śladem. Co ciekawe, kongresmanka Yvette Clarke (ze stanu Nowy Jork) przedstawiła projekt ustawy, który wymagałby ujawniania informacji na temat wykorzystywania sztucznej inteligencji w reklamach politycznych. Jednak prawo najprawdopodobniej nie przybierze ogólnokrajowego zasięgu, gdyż prognozuje się, że ustawa ta nie zdobędzie poparcia Republikanów w kontrolowanej przez nich Izbie Reprezentantów.

Czy jednak istnieją na tyle „niewinne” sposoby działania AI, że nie należałoby wytaczać przeciwko nim armat? Wydaje się, że tak. Spójrzmy chociażby na drobne zmiany, np. przy tworzeniu kampanijnych materiałów graficznych, takich jak poprawa ich jakości. Dzięki temu na billboardach i na innych nośnikach politycy będą wyglądali znacznie korzystniej niż w rzeczywistości. Ponieważ tego typu ingerencje nie wprowadzają nikogo w poważny błąd odnośnie do programu wyborczego czy rzeczywistych poglądów danej osoby, to można potraktować je z przymrużeniem oka. A że uśmiech delikwenta jest trochę bielszy niż w rzeczywistości, a zmarszczki nieco mniejsze? Cóż, takiego kalibru „manipulacje” chyba wszyscy przeżyjemy w miarę bezboleśnie.


Przeczytaj też:

Czy Chat GPT może zastąpić dziennikarzy prasowych?

Gwałtowny rozwój sztucznej inteligencji wywołał publiczną debatę na temat jej wpływu na różne aspekty naszego życia. Jedną z najpoważniejszych obaw jest wpływ technologii AI na redukcję liczby miejsc pracy poprzez automatyzację rutynowych zadań i procesów. Wielu twórców o...

AI ciągle na rozdrożu

Tylko od nas ludzi zależy, jak wykorzystamy AI. Czy będzie służyć powszechnemu dobru, czy może obróci się przeciwko niemu?

Sztuczna inteligencja, sztuczna odpowiedzialność?

Artificial Intelligence (AI) święta nie jest. Oprócz tego, że robi wiele dobrego dla ludzkości, zdarza się jej też nieźle nabałaganić. Do tego rozwija się w zastraszającym tempie i podbija coraz większe obszary działalności, które do tej pory stanowiły wyłącznie domenę lu...

Cyfrowa puszka Pandory

Coraz szersze kręgi zatacza sprawa wyprodukowanego przez sztuczną inteligencję utworu, w którym wybrzmiewa sfałszowany głos rapera Drake’a i The Weeknd, największych gigantów streamingu.

Jak okiełznać sztuczną inteligencję

Świat wydaje się zaskoczony najnowszą zdobyczą rewolucji cyfrowej. Wraz z pierwszymi problemami prawnymi ruszyła dyskusja, jakie regulacje przyjąć, aby jej używanie było bezpieczne.


Redaktor naczelny: Paweł Łepkowski | Edytor: Marta Narocka-Harasz  

Kontakt: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.

Stale współpracują: Zofia Brzezińska, Robert Cheda, Jacek Cieślak, Zuzanna Dąbrowska, Gaja Hajdarowicz, Grzegorz Hajdarowicz, Mariusz Janik, Krzysztof Kowalski, Hubert Kozieł, Marek Kutarba, Jakub „Gessler” Nowak, Tomasz Nowak, Joanna Matusik, Justyna Olszewska, Marcin Piasecki, Paweł Rochowicz.

©
Wróć na górę