Odpowiedzialność za impulsy u sztucznej inteligencji - zaszczepienie rasizmu, homofobii i transfobii wśród robotów


Sztuczne emocje sztucznej inteligencji

Mowa nienawiści, rasizm i homofobia to zachowania, których nie spodziewamy się doświadczyć ze strony sztucznej inteligencji. Przecież jest to zwykły program, niemyśląca aplikacja, mająca najczęściej na celu poprawienie jakości naszego życia. Jednakże, jak pokazuje doświadczenie, wśród niektórych robotów niechęć do mniejszości tak seksualnych, jak i rasowych ma się dość dobrze. A najważniejsze pytanie, jakie może przychodzić nam na myśl to, kto jest odpowiedzialny za wszczepianie do sztucznych umysłów, realnej nienawiści i czy w ogóle mamy możliwość wytypowania winnych.

Lee Luda, czyli nietolerancja wśród samouków

Lee Luda to chatbot z Korei Południowej, twór Scatter Lab wypuszczony na świat 23 grudnia 2020 roku. Pomimo wielu miesięcy doskonalenia kodu, w celu zapobiegnięcia jakimkolwiek wiadomościom mogącym potencjalnie obrazić jakąś mniejszość, praca nie okazała się owocna. Bot w jednej z konwersacji napisał, że „lesbijki są creepy”, a w magazynie „Slate” można przeczytać, że robot obrażał również ludzi z niepełnosprawnościami oraz feministki. Jak wyjaśnia Scatter Lab, chatbot nie nauczył się tego z rozmów z użytkownikami, a z treningowego, oryginalnego zestawu danych (z angielskiego „original training dataset”), dzięki któremu Lee Luda się „socjalizowała”. Firma odpowiedzialna za Lee Luda nie odfiltrowała z tego zestawu danych nieodpowiedniego języka oraz rozmów intymnych i seksualnych.

Seksizm u sztucznego pracodawcy

Można by pomyśleć, że sztuczna inteligencja byłaby idealnym pracodawcą. Przecież roboty nie mają uprzedzeń i wybierają osoby tylko ze względu na kompetencje. Niestety, okazuje się, że niektóre programy nie lubią niektórych grup społecznych. Jednym z przykładów takiego zachowania jest system, z którego korzystała firma Amazon. Jak się okazało, robot odpowiedzialny za rekrutację z pewnych względów wolał mężczyzn niż kobiety. System nauczył się, że preferowane są osoby płci męskiej, więc automatycznie karał CV mające w sobie wyraz „kobiecy”. Działo się tak, ponieważ sztuczna inteligencja odpowiedzialna za rekrutację, w celu zdobycia informacji, które CV jest lepsze, przeanalizowała życiorysy pracowników z poprzednich 10 lat. Jak się okazało, większość z pracujących tam osób była mężczyznami, więc system automatycznie przyznawał więcej punktów za tę płeć.

Mniej kolorowy wyrok za kolor skóry

Nieciekawą jest sytuacja, gdy oskarżane o rasizm sądy w twoim kraju, zwracają się ku sztucznej inteligencji, tylko po to, aby odkryć, że ona sama ma skłonności faworyzowania osób o białym kolorze skóry. Sytuacja ta miała miejsce w Ameryce, a głównym bohaterem był program Correctional Offender Management Profiling for Alternative Sanctions (Compas). Według organizacji Pro Publica, sztuczna inteligencja znacznie częściej oznaczała osoby czarnoskóre jako skłonne ponownie popełnić przestępstwo (45% do 24%). Niestety, firma odpowiedzialna za Compas nie udostępniła informacji, dlaczego tak się stało. Możemy jedynie domniemywać, że robot analizując poprzednie sprawy, założył, że kolor skóry jest czynnikiem wpływającym na skuteczność resocjalizacji.

Kto jest odpowiedzialny za moralność robotów

Stwierdzenie, kto w tych przypadkach zawinił, nie wydaje się proste. Sztuczna inteligencja ucząca się poprzez kontakt z człowiekiem (np. prowadzenie konwersacji na danym komunikatorze) najpewniej swoje uprzedzenia wyciągnie z rozmów z drugą osobą. Roboty bazujące na zestawach danych mogą za to mylnie wyciągnąć informacje, że należy wziąć pod uwagę jakąś zmienną, która w rzeczywistości nie ma wpływu na całokształt (na przykład kolor skóry, a popełnienie przestępstwa). Nie możemy też zapominać o wgraniu uprzedzeń przez twórcę do swego programu. Jednakże należy pamiętać, że zawsze warto nagłaśniać tego typu sprawy, a być może twórcy naprawią swoje błędy i w przyszłości będą zwracać na to większą uwagę.

Aleksander ŁOBODA

Źródła:

  1. https://www.theguardian.com/inequality/2017/aug/08/rise-of-the-racist-robots-how-ai-is-learning-all-our-worst-impulses
  2. https://shows.acast.com/extremely-online/episodes/are-we-training-racist-robots
  3. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
  4. https://slate.com/technology/2021/04/scatterlab-lee-luda-chatbot-kakaotalk-ai-privacy.html