Algorytmiczna Liga Sprawiedliwości

Algorytmiczna Liga Sprawiedliwości
Skrót AJL
Tworzenie 2016
Założyciel Joy Buolamwini
Zamiar Aktywizm AI
Lokalizacja
Strona internetowa www.ajl.org _ _

Algorithmic Justice League ( AJL ) to organizacja non-profit zajmująca się rzecznictwem cyfrowym z siedzibą w Cambridge w stanie Massachusetts . Założona w 2016 roku przez informatyka Joya Buolamwini, AJL wykorzystuje badania, dzieła sztuki i rzecznictwo polityczne w celu zwiększenia świadomości społecznej na temat wykorzystania sztucznej inteligencji (AI) w społeczeństwie oraz szkód i uprzedzeń, jakie sztuczna inteligencja może wyrządzić społeczeństwu. AJL zaangażowała się w szereg otwartych seminariów internetowych, wystąpień w mediach i inicjatyw rzecznictwa technologicznego w celu przekazywania informacji na temat stronniczości w systemach sztucznej inteligencji oraz promowania działań przemysłu i rządu mających na celu ograniczenie tworzenia i wdrażania stronniczych systemów sztucznej inteligencji. W 2021 roku firma Fast Company uznała AJL za jedną z 10 najbardziej innowacyjnych firm AI na świecie.

Historia

Buolamwini założył Algorithmic Justice League w 2016 roku jako absolwent MIT Media Lab . Eksperymentując z oprogramowaniem do wykrywania twarzy w swoich badaniach, odkryła, że ​​oprogramowanie nie było w stanie wykryć jej „wysoce melanizowanej” twarzy, dopóki nie założyła białej maski. Po tym incydencie Buolamwini zainspirował się do założenia AJL, aby zwrócić uwagę opinii publicznej na istnienie uprzedzeń w sztucznej inteligencji i zagrożenie, jakie może stanowić dla praw obywatelskich. Wczesne kampanie AJL koncentrowały się głównie na uprzedzeniach w oprogramowaniu do rozpoznawania twarzy ; ostatnie kampanie dotyczyły szerzej kwestii równości i odpowiedzialności w sztucznej inteligencji, w tym stronniczości algorytmicznej , algorytmicznego podejmowania decyzji , zarządzania algorytmicznego i audytu algorytmicznego .

Ponadto istnieje społeczność innych organizacji działających na rzecz podobnych celów, w tym Data and Society, Data for Black Lives , Distributed Artificial Intelligence Research Institute (DAIR) i Fight for the Future .

Godna uwagi praca

Rozpoznawanie twarzy

Założyciel AJL, Buolamwini, współpracował z etykiem AI, Timnitem Gebru, w celu opublikowania w 2018 roku badania na temat uprzedzeń rasowych i płciowych w algorytmach rozpoznawania twarzy używanych przez systemy komercyjne firm Microsoft , IBM i Face ++ . Ich badania, zatytułowane „Gender Shades”, wykazały, że modele uczenia maszynowego opublikowane przez IBM i Microsoft były mniej dokładne podczas analizowania ciemnoskórych i kobiecych twarzy w porównaniu z wynikami na twarzach o jasnej karnacji i męskich. Artykułowi „Gender Shades” towarzyszyło uruchomienie inicjatywy Safe Face Pledge, inicjatywy opracowanej we współpracy z Centrum Prywatności i Technologii w Georgetown, która wezwała organizacje technologiczne i rządy do zakazania śmiercionośnego użycia technologii rozpoznawania twarzy. Projekt Gender Shades i późniejsza działalność rzecznicza podjęta przez AJL i podobne grupy skłoniły wiele firm technologicznych, w tym Amazon i IBM, do zajęcia się uprzedzeniami w opracowywaniu ich algorytmów, a nawet do tymczasowego zakazania używania ich produktów przez policję w 2020 roku.

Buolamwini i AJL pojawili się w filmie dokumentalnym Netflix Coded Bias z 2020 roku , którego premiera odbyła się na festiwalu filmowym w Sundance . Ten dokument skupiał się na badaniach i działaniach rzeczniczych AJL mających na celu szerzenie świadomości na temat stronniczości algorytmicznej w systemach rozpoznawania twarzy.

Współpraca badawcza z udziałem AJL opublikowała w maju 2020 r. Białą księgę wzywającą do utworzenia nowego biura rządu federalnego Stanów Zjednoczonych w celu regulowania rozwoju i wdrażania technologii rozpoznawania twarzy. W białej księdze zaproponowano, że utworzenie nowego biura rządu federalnego dla tego obszaru pomogłoby zmniejszyć ryzyko masowej inwigilacji i uprzedzeń, jakie technologie rozpoznawania twarzy stwarzają wobec wrażliwych populacji.

Błąd w rozpoznawaniu mowy

AJL prowadzi inicjatywy mające na celu zwiększenie świadomości społecznej na temat uprzedzeń algorytmicznych i nierówności w działaniu systemów sztucznej inteligencji do modelowania mowy i języka w populacjach płciowych i rasowych. Prace AJL w tej przestrzeni koncentrują się na podkreślaniu różnic płciowych i rasowych w wydajności komercyjnych rozpoznawania mowy i przetwarzania języka naturalnego , które okazały się słabsze w przypadku mniejszości rasowych i wzmocnionych stereotypów dotyczących płci.

W marcu 2020 roku AJL wydała dzieło artystyczne ze słowem mówionym, zatytułowane Voicing Erasure , które zwiększyło świadomość społeczną na temat uprzedzeń rasowych w systemach automatycznego rozpoznawania mowy (ASR). Utwór został wykonany przez liczne kobiety i niebinarne badaczki w tej dziedzinie, w tym Ruha Benjamin , Sasha Costanza-Chock , Safiya Noble i Kimberlé Crenshaw . AJL oparł swój rozwój „Voicing Erasure” na artykule PNAS z 2020 r., zatytułowanym „Różnice rasowe w automatycznym rozpoznawaniu mowy”, w którym zidentyfikowano różnice rasowe w działaniu pięciu komercyjnych systemów ASR.

Zarządzanie algorytmiczne

W 2019 roku Buolamwini reprezentował AJL na przesłuchaniu w Kongresie Komisji ds. Nauki, Przestrzeni Kosmicznej i Technologii Izby Reprezentantów Stanów Zjednoczonych w celu omówienia zastosowań technologii rozpoznawania twarzy w celach komercyjnych i rządowych. Buolamwini była świadkiem na rozprawie i przemawiała na temat słabych wyników technologii rozpoznawania twarzy w identyfikowaniu osób o ciemniejszej skórze i kobiecych rysach oraz poparła swoje stanowisko badaniami z projektu AJL „Gender Shades”.

W styczniu 2022 r. AJL współpracował z Fight for the Future i Electronic Privacy Information Center w celu opublikowania internetowej petycji o nazwie DumpID.me, wzywającej IRS do zaprzestania korzystania z ID.me , technologii rozpoznawania twarzy, której używali na użytkownikach kiedy się logują. AJL i inne organizacje wysłały listy do ustawodawców i poprosiły ich o zachęcenie IRS do zatrzymania programu. W lutym 2022 roku IRS zgodził się wstrzymać program i zaprzestać korzystania z technologii rozpoznawania twarzy. AJL przeniósł teraz wysiłki, aby przekonać inne agencje rządowe do zaprzestania korzystania z technologii rozpoznawania twarzy; od marca 2022 r. petycja DumpID.me obróciła się, aby zaprzestać używania ID.me we wszystkich agencjach rządowych.

Olay Rozszyfruj kampanię Bias

We wrześniu 2021 roku Olay współpracował z AJL i O'Neil Risk Consulting & Algorithmic Auditing (ORCAA) w celu przeprowadzenia kampanii Decode the Bias, która obejmowała audyt mający na celu zbadanie, czy system Olay Skin Advisor (OSA) obejmuje uprzedzenia wobec kobiet kolorowych. AJL zdecydowało się na współpracę z Olay ze względu na zobowiązanie Olay do uzyskania zgody klientów na wykorzystanie ich autoportretów i danych skóry w tym audycie. Audyt AJL i ORCAA ujawnił, że system OSA zawierał stronniczość w działaniu w zależności od koloru skóry i wieku uczestników. System OSA wykazał większą dokładność w przypadku uczestników o jaśniejszych odcieniach skóry, zgodnie z Fitzpatricka i indywidualnymi skalami klasyfikacji kąta typologii skóry. System OSA wykazał również wyższą dokładność dla uczestników w wieku 30–39 lat. Od tego czasu Olay podjął kroki w celu przeprowadzenia audytu wewnętrznego i złagodzenia stronniczości systemu OSA. Olay ufundował również 1000 dziewcząt na Black Girls Code , aby zachęcić afroamerykańskie dziewczyny do kontynuowania kariery STEM.

projekt CRASH

W lipcu 2020 r. AJL uruchomił projekt Community Reporting of Algorithmic System Harms (CRASH). Projekt ten rozpoczął się w 2019 roku, kiedy Buolamwini i badaczka bezpieczeństwa cyfrowego Camille François spotkali się w programie Bellagio Center Residency, którego gospodarzem jest Fundacja Rockefellera . Od tego czasu projekt był również współprowadzony przez profesora MIT i dyrektora badawczego AJL Sasha Costanza-Chock . Projekt CRASH koncentrował się na stworzeniu ram dla rozwoju bug-bounty (BBP), które zachęcałyby osoby do odkrywania i zgłaszania przypadków stronniczości algorytmicznej w technologiach sztucznej inteligencji. Po przeprowadzeniu wywiadów z uczestnikami BBP i studium przypadku programu BBP na Twitterze, badacze z AJL opracowali i zaproponowali ramy koncepcyjne do projektowania programów BBP, które kompensują i zachęcają osoby do lokalizowania i ujawniania istnienia stronniczości w systemach AI. AJL zamierza, aby ramy CRASH dały jednostkom możliwość zgłaszania szkód algorytmicznych i stymulowania zmian w technologiach sztucznej inteligencji wdrażanych przez firmy, zwłaszcza osobom, które tradycyjnie były wykluczane z projektowania tych technologii sztucznej inteligencji [20, raport DataSociety].

Wsparcie i wystąpienia w mediach

Inicjatywy AJL były finansowane przez Fundację Forda , Fundację MacArthura , Fundację Alfreda P. Sloana , Fundację Rockefellera , Fundację Mozilla oraz prywatnych darczyńców. Firma Fast Company uznała AJL za jedną z 10 najbardziej innowacyjnych firm zajmujących się sztuczną inteligencją w 2021 r. Ponadto miejsca takie jak magazyn Time , The New York Times , NPR i CNN przedstawiały pracę Buolamwiniego z AJL w kilku wywiadach i artykułach.

Zobacz też

Linki zewnętrzne