Kwestie etyczne dotyczące Gen-AI

Czas czytania: 5 min.

Termin „sztuczna inteligencja” jest ostatnio przedmiotem bardzo dużego szumu. Wiele firm i produktów chwali, że już teraz wykorzystuje sztuczną inteligencję, co ma rzekomo zrewolucjonizować ich branże, zwiększyć produktywność i przesunąć granicę tego co możliwe przy wykorzystaniu technologii.  Twierdzą tak nawet jeśli w rzeczywistości wykorzystują jedynie podstawowe algorytmy lub automatyzację. Z drugiej strony, w debacie publicznej silnie obecna jest katastroficzna wizja końca ludzkości spowodowanego przejęciem władzy nad światem przez sztuczną inteligencję.

Co rozumiemy przez pojęcie sztucznej inteligencji?

Po pierwsze, warto wyjaśnić, co obecnie oznacza termin „sztuczna inteligencja” w tym kontekście. Zwykle odnosi się ono do systemów takich jak „ChatGPT”, „Copilot” czy „Gemini”, a więc generatywnej sztucznej inteligencji.

 Według Wikipedii generatywna sztuczna inteligencja (Gen-AI) to rodzaj sztucznej inteligencji zdolnej do generowania nowych danych, takich jak tekst, obrazy lub filmy przy użyciu modeli generatywnych. Modele te uczą się wzorców i struktury swoich wejściowych danych treningowych, a następnie generują nowe dane o podobnych cechach, często przy użyciu głębokich sieci neuronowych. Oczywiście jest to bardzo dalekie od naszej intuicji na temat tego, czym jest ludzka inteligencja. 

Sztuczna inteligencja, która może wykonać dowolne zadanie intelektualne na poziomie podobnym do człowieka, nazywana jest ogołną sztuczną inteligencją (AGI) bądź silną inteligencją. AGI to hipotetyczny przyszły system sztucznej inteligencji, który mógłby dorównać lub przewyższyć ludzką inteligencję w szerokim zakresie zadań poznawczych. 

Z kolei termin Superinteligencja odnosi się do hipotetycznej sztucznej inteligencji, która znacznie przewyższałaby ludzkie zdolności poznawcze w praktycznie wszystkich dziedzinach. To własnie ten rodzaj sztucznej inteligencji jest obecny w debacie publicznej jako potencjalne egzystencjalne zagrożenie dla ludzkości, jeśli jej cele nie zostaną starannie dostosowane do ludzkich wartości. Na razie są to jedynie rozważania z pogranicza futurologii i science fiction (co nie znaczy, że już teraz nie są ważne!).

Na ten moment, kiedy wszędzie słyszymy o wykorzystaniu “AI”, to tak naprawdę mamy do czynienia z  narzędziami Gen-AI zaprojektowanymi do konkretnych zadań, które w swoim wąskim zakresie sprawdzają się całkiem dobrze, jednak brakuje im pełnego zrozumienia kontekstu i zdolności do adaptacji. Niemniej jednak, podczas gdy technologia ta szybko się rozwija i staje się coraz szerzej stosowana, kluczowe jest zbadanie kluczowych kwestii etycznych związanych z jej rozwojem i wykorzystaniem.

Prywatność i bezpieczeństwo danych

Jedną z głównych kwestii etycznych związanych z generatywną sztuczną inteligencją jest możliwość naruszenia prywatności i bezpieczeństwa danych. Modele sztucznej inteligencji są szkolone na ogromnych ilościach danych, które mogą obejmować również dane osobowe. Jeśli nie zostaną wprowadzone odpowiednie zabezpieczenia, te wrażliwe dane mogą zostać ujawnione lub niewłaściwie wykorzystane. Firmy opracowujące i wykorzystujące generatywną sztuczną inteligencję muszą priorytetowo traktować prywatność danych, wdrażać odpowiednie polityki bezpieczeństwa i przestrzegać odpowiednich regulacji i standardów.

Niedawno CTO OpenAI, Mira Murati, wywołała kontrowersje podczas wywiadu z The Wall Street Journal na temat Sory – nowego modelu sztucznej inteligencji generującej wideo. Zapytana o pochodzenie danych wykorzystywanych do uczenia Sory, np. o to czy zostały wykorzystane dane pochodzące z YouTube, zmieszana Murati stwierdziła wymijająco, że nie jest do końca pewna, czy wykorzystano filmy z platform takich jak YouTube, Instagram czy Facebook. Odniosła się jedynie do „publicznie dostępnych danych” i starała się uniknąć dalszych pytań na ten temat. Ten brak transparentności odbił się szerokim echem w całym środowisku AI.

Uprzedzenia i dyskryminacja

Generatywne modele sztucznej inteligencji mogą utrwalać, a nawet wzmacniać uprzedzenia obecne w danych, na których są szkolone. Jeśli dane szkoleniowe zawierają uprzedzenia społeczne, treści generowane przez sztuczną inteligencję mogą odzwierciedlać i wzmacniać te uprzedzenia, prowadząc do dyskryminujących wyników. Twórcy sztucznej inteligencji muszą korzystać z różnorodnych i bezstronnych zbiorów danych, regularnie kontrolować swoje modele pod kątem uprzedzeń i podejmować kroki w celu złagodzenia wszelkich zidentyfikowanych problemów.

Jednym z przykładów stronniczości i dyskryminacji w generatywnej sztucznej inteligencji jest tendencja modeli generowania obrazów do nadreprezentacji i wzmacniania szkodliwych stereotypów podczas przedstawiania osób określonej płci, rasy lub pochodzenia etnicznego.

Na przykład badanie przeprowadzone przez naukowców z UNESCO wykazało wszechobecne uprzedzenia dotyczące płci w systemach generatywnej sztucznej inteligencji. Gdy poproszono o wygenerowanie obrazów osób wykonujących różne zawody, modele AI miały tendencję do częstszego przedstawiania mężczyzn w zawodach o wysokim prestiżu, takich jak lekarze i inżynierowie, podczas gdy kobiety były częściej pokazywane w rolach o niższym statusie, takich jak nauczycielki i pielęgniarki

Dezinformacja i deepfake

Realistyczne treści generowane przez sztuczną inteligencję mogą być wykorzystywane do rozpowszechniania dezinformacji i tworzenia przekonujących deepfake’ów. Te fałszywe obrazy, filmy lub teksty mogą być wykorzystywane do manipulowania opinią publiczną, zniesławiania osób, a nawet wpływania na procesy polityczne. Zwalczanie niewłaściwego wykorzystania generatywnej sztucznej inteligencji do dezinformacji wymaga połączenia rozwiązań technologicznych, takich jak narzędzia do znakowania wodnego i wykrywania, a także inicjatyw w zakresie świadomości społecznej i umiejętności korzystania z mediów.

Jednym z godnych uwagi przykładów deepfake’u stworzonego przy użyciu sztucznej inteligencji generatywnej, który zyskał na dużej popularności w Internecie, był fałszywy obraz eksplozji w pobliżu Pentagonu w Waszyngtonie w maju 2023 roku. Realistycznie wyglądający obraz, który pokazywał ogień i dym unoszący nad siedzibą Departamentu Obrony USA, szybko stał się viralem na platformach społecznościowych, takich jak Twitter. Niektóre kanały informacyjne indyjskiej telewizji głównego nurtu wyemitowały nawet ten obraz wraz z doniesieniami o rzekomym ataku i wybuchu.

Własność intelektualna i prawa autorskie

Generatywna sztuczna inteligencja budzi obawy dotyczące praw własności intelektualnej i naruszeń praw autorskich. Ponieważ modele te są szkolone na istniejących treściach, pojawiają się pytania dotyczące własności dzieł generowanych przez sztuczną inteligencję i możliwości plagiatu. Należy opracować jasne ramy prawne i standardy branżowe, aby rozwiązać te kwestie i chronić prawa twórców treści.

Jednym z głośnych przykładów jest pozew złożony przez Getty Images przeciwko Stability AI, firmie stojącej za popularnym generatorem obrazów AI Stable Diffusion.

W pozwie Getty Images twierdzi, że Stability AI wykorzystała miliony chronionych prawem autorskim obrazów ze swojej bazy danych do szkolenia Stable Diffusion bez odpowiedniej licencji lub pozwolenia. Getty twierdzi, że stanowi to naruszenie praw autorskich, ponieważ model AI może generować obrazy, które są dziełami pochodnymi opartymi na chronionych prawem autorskim danych szkoleniowych.

Transparentność i odpowiedzialność

Brak przejrzystości w sposobie, w jaki generatywne modele sztucznej inteligencji uzyskują swoje wyniki, jest kolejnym istotnym problemem etycznym. Bez jasnego wyjaśnienia procesu decyzyjnego trudno jest pociągnąć systemy AI do odpowiedzialności za ich działania. Deweloperzy muszą nadać priorytet przejrzystości, zapewnić wyjaśnienia dotyczące treści generowanych przez sztuczną inteligencję i ustanowić mechanizmy dochodzenia roszczeń w przypadku pojawienia się problemów.

Jednym z przykładów braku przejrzystości i odpowiedzialności w generatywnym wykorzystaniu sztucznej inteligencji jest przypadek CNET, który po cichu publikował artykuły napisane przez sztuczną inteligencję, przez wiele miesięcy, bez odpowiedniego ich ujawniania. Na początku 2023 r. odkryto, że portal CNET z wiadomościami technologicznymi używał narzędzia AI do pisania artykułów na temat finansów osobistych i innych tematów od listopada 2022 roku. Publikacje zawierały błędy i nie były wyraźnie oznaczone jako wygenerowane przez sztuczną inteligencję, co prowadziło do obaw o transparentność i dokładność.

Zwolnienia z pracy

W miarę jak generatywna sztuczna inteligencja staje się coraz bardziej zaawansowana, pojawiają się obawy, że może ona doprowadzić do zwolnień z pracy, szczególnie w dziedzinach kreatywnych. Podczas gdy sztuczna inteligencja może zautomatyzować pewne zadania, ważne jest, aby zdać sobie sprawę, że ma ona również potencjał do tworzenia nowych miejsc pracy i zwiększania ludzkiej kreatywności.  Na przykład niektóre narzędzia oparte na sztucznej inteligencji, takie jak Jasper.ai i Copy.ai, są sprzedawane jako asystenci copywritingu wykorzystujący sztuczną inteligencję, którzy mogą generować posty na blogach, treści w mediach społecznościowych i teksty reklamowe. W miarę jak narzędzia te stają się coraz bardziej wyspecjalizowane, istnieje ryzyko, że firmy mogą w większym stopniu polegać na treściach generowanych przez sztuczną inteligencję, potencjalnie zmniejszając zapotrzebowanie na ludzkich copywriterów.

Rozwiązanie tej kwestii wymaga proaktywnego podejścia do podnoszenia kwalifikacji pracowników, a także wspierania współpracy między ludźmi a sztuczną inteligencją.

Podsumowanie

Podsumowując, generatywna sztuczna inteligencja wiąże się z szeregiem wyzwań etycznych, którym należy sprostać, aby zapewnić jej odpowiedzialny rozwój i wdrożenie. Nadając priorytet prywatności, łagodząc uprzedzenia, zwalczając dezinformację, chroniąc prawa własności intelektualnej, promując przejrzystość i ustanawiając skuteczne ramy zarządzania, możemy wykorzystać potencjał generatywnej sztucznej inteligencji, jednocześnie minimalizując związane z nią ryzyko. Ponieważ technologia ta nadal ewoluuje, ciągły dialog i współpraca między wszystkimi zainteresowanymi stronami będą miały zasadnicze znaczenie dla rozwoju generatywnej sztucznej inteligencji w sposób etyczny i z korzyścią dla ludzkości.

Obraz wygenerowany przy użyciu Microsoft Designer. Prompt „Szczeniak przyciągający uwagę użytkowników Linkedin”

Facebook
Twitter
LinkedIn

Kontakt

Sprzedaż

Michał Bugowski

+48 571 947 256

sprzedaz@polarysgroup.com

Biuro

Angelika Dziula

+48 789 189 061

office@polarysgroup.com

Polarys Polska Sp. z o.o.
ul. Rakowicka 1/20-21
31-511 Kraków

Kontakt

Ola Wojdyła

Kontakt

Wspieramy firmy o każdej wielkości
i z każdej branży.

Pomożemy ci w doborze odpowiedniej technologii i rozwiązań, aby zwiększyć przejrzystość procesów twojej organizacji i opracować nowe cyfrowe modele biznesowe. 

Zespół naszych ekspertów czeka na twoje pytania.

Po wysłaniu formularza skontaktujemy się z tobą w ciągu dwóch dni, aby porozmawiać o twoich potrzebach.

Zaufali nam: