Zarządzanie stronniczością AI zamiast próby jej wyeliminowania

Aby zaradzić stronniczości wbudowanej w dane AI, firmy mogą przyjąć trzyetapowe podejście.

Sian Townson

MIT Sloan Management Review, 2023 r.

Firmy coraz częściej sięgają po systemy sztucznej inteligencji, aby zautomatyzować swoje procesy, analizę danych i interakcje z pracownikami i klientami. W rezultacie sprawiedliwość stała się trudnym problemem. Systemy AI z natury odzwierciedlają i utrwalają wszechobecną stronniczość w zbiorach danych – wadę, która nie ma matematycznego rozwiązania. W zwięzły i możliwy do wdrożenia sposób, ekspert ds. zarządzania ryzykiem AI, Sian Townson, zaleca trójfazowe podejście do zarządzania trudnymi do opanowania uprzedzeniami systemów AI.

Streszczenie tłumaczone z angielskiego maszynowo (przepraszamy za niedoskonałości) jako materiał na nasze przemówienia inspiracyjne.

Wnioski

  • Systemy AI nieuchronnie utrwalają uprzedzenia.
  • Ponieważ nie można wyeliminować stronniczości AI, należy zrekompensować jej niesprawiedliwość na trzy sposoby.
  • Stronniczość jest trudna do zidentyfikowania, ponieważ pozostaje tak wszechobecna.

Podsumowanie

  • Systemy sztucznej inteligencji nieuchronnie utrwalają uprzedzenia.
  • Systemy sztucznej inteligencji (AI) generalizują na podstawie istniejących danych, a ponieważ tendencyjność przenika dane historyczne, AI będzie odbijać się echem i utrwalać tę tendencyjność. Stronniczość AI występuje częściowo dlatego, że zazwyczaj istnieje mniej danych wejściowych dla grup mniejszościowych. W rezultacie wyniki sztucznej inteligencji będą miały niższą dokładność dla członków grup mniejszościowych – problem ten wpływa na algorytmy leczenia, decyzje kredytowe, wykrywanie oszustw, marketing i czytanie tekstu.
  • „Sztuczna inteligencja jest beznadziejnie i z natury stronnicza”.
  • Nie istnieje żadna metoda zapobiegająca utrwalaniu przez sztuczną inteligencję uprzedzeń istniejących w danych historycznych. Matematycznie nie da się tego zrobić. Sztuczna inteligencja doskonale radzi sobie z odkrywaniem wzorców, a uprzedzenia przenikają zbiory danych zbyt głęboko, aby można je było wyeliminować. Kiedy grupa naukowców próbowała – starannie zanonimizowali dane obrazowania medycznego, a następnie przekazali je systemowi sztucznej inteligencji – algorytm nadal był w stanie zidentyfikować rasę pacjenta w 93% przypadków.
  • Ponieważ nie można wyeliminować stronniczości AI, należy zrekompensować jej niesprawiedliwość na trzy sposoby.
  • Ponieważ próby usunięcia stronniczości ze sztucznej inteligencji nieuchronnie zakończą się niepowodzeniem, zamiast tego należy zidentyfikować stronniczość, gdy się pojawi, i pracować nad jej naprawieniem. Pierwszym krokiem jest określenie standardów uczciwości, do których będziesz dążyć, wybranie grup do ochrony i zdefiniowanie parametrów sprawiedliwego wyniku. Na przykład, ustaw progi dla liczb selekcji lub wskaźników dokładności.
  • „Jeśli firmy naprawdę chcą, aby ich algorytmy działały sprawiedliwie z różnorodną populacją, muszą celowo kompensować niesprawiedliwość”.
  • Następnie należy sprawdzić wyniki systemu sztucznej inteligencji i wpływ jego decyzji na standardy sprawiedliwości. Podejście zwane generatywnymi sieciami przeciwstawnymi wykorzystuje dwa modele, z których jeden działa jako audytor wyników drugiego modelu. W trzecim i ostatnim kroku należy monitorować system sztucznej inteligencji pod kątem problemów i korygować pojawiające się błędy.
  • Bias jest trudny do zidentyfikowania, ponieważ pozostaje tak wszechobecny.
  • Każdy etap procesu naprawczego może okazać się trudny. Podejmując decyzję o sposobie pomiaru stronniczości, należy na przykład wybrać, czy oprzeć standardy na równej liczbie lub równych proporcjach wybranych z grup chronionych, czy też zastosować określony próg do wszystkich grup. Każda metoda daje inny wynik w zależności od składu populacji, która dostarczyła dane wejściowe.
  • „Model, który przejdzie wszystkie testy, może nadal dawać niepożądane wyniki, gdy zostanie wdrożony z rzeczywistymi danymi wejściowymi”.
  • Wysiłki naprawcze mogą również zejść na manowce, ponieważ systemy sztucznej inteligencji interpretują polecenia dosłownie i nie są wrażliwe na intersekcjonalność. Na przykład polecenie systemowi AI, aby udostępnił produkt kredytowy na równych zasadach zarówno mężczyznom, jak i kobietom, niezależnie od ich statusu niepełnosprawności, może spowodować, że system wybierze tylko niepełnosprawnych mężczyzn i kobiety bez niepełnosprawności z powodu silnego uprzedzenia ze względu na płeć. Osoby, których zadaniem jest identyfikacja uprzedzeń w sztucznej inteligencji, często nie dostrzegają własnych martwych punktów. Rzeczywiście, powszechność uprzedzeń w społeczeństwie utrudnia ich wykrycie, a ludzkie mózgi nie są przystosowane do wykrywania prawdziwej losowości.

O autorze

  • Sian Townson jest ekspertem w dziedzinie ryzyka związanego ze sztuczną inteligencją i ram zarządzania oraz posiada doktorat z modelowania matematycznego na Uniwersytecie Oksfordzkim. Obecnie pracuje jako partner w globalnej firmie konsultingowej Oliver Wyman.
Rate this post