Loading
Sowa i PartnerzySowa i PartnerzySowa i Partnerzy

Co ma AI do zapobiegania ciąży? [Krótka seria o AI]

[Krótka seria o AI dla każdego] Co ma sztuczna inteligencja do zapobiegania ciąży?

Sam nie wierzę, że to piszę. Otóż może mieć bardzo wiele.  

Władze prowincji Salta w Argentynie wraz z Microsoft zbudowały w 2018 r. system do przewidywania ciąży u nastolatek. System – nie bez kontrowersji – zawitał również do innych prowincji w Argentynie, ale także do Kolumbii i Brazylii.

Algorytm, nazwany “Technology Platform for Social Intervention” (“Plataforma Tecnológica de Intervención Social”), ma na podstawie danych demograficznych przewidzieć, które dziewczynki są “predysponowane” do zastania młodymi matkami i do porzucenia nauki.

System bazuje m.in. na takich danych jak wiek, pochodzenie etniczne, niepełnosprawność, a nawet informacje o warunkach mieszkaniowych, takich jak dostęp do ciepłej wody.

Jaki był oficjalny cel systemu?

Zmniejszenie liczby ciąż wśród nastolatek z rodzin o niskich dochodach.

Czy jest to właściwa metoda do osiągnięcia celu?

To już zostawiam Waszej ocenie.

Czy zbudowanie takiego systemu byłoby możliwe pod AI Act? Mówiąc inaczej, czy akt o sztucznej inteligencji zakazuje wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby przewidywania ciąży u nastolatek?

To jest właśnie interesujące.  Sprawa wcale nie jest oczywista.    

Moim zdaniem taki system może być klasyfikowany jako system „scoringu społecznego”. Taki system ocenia, lub klasyfikuje osoby fizyczne (tj. dziewczynki) na podstawie znanych, wnioskowanych lub przewidywanych cech osobistych („personal characteristics”), takich jak m.in. wiek, etniczość, niepełnosprawność, miejsce urodzenia, edukacja itp. w pewnym czasie i przypisuje temu jakąś wartość. Pytanie natomiast jest, czy to działanie prowadzi do jednego z dwóch skutków określonych w AI Act tj. czy prowadzi do:

  • krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
  • krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.

Tutaj trzeba pamiętać, że zakaz dotyczący scoringu społecznego w AI Act nie jest absolutny. Aby nie zakazywać stosowania systemów sztucznej inteligencji wspomagających legalną realizację polityk rządowych (społecznych) praktyki związane ze scoringiem społecznym są zakazane tylko wtedy, gdy zachodzi co najmniej jeden z wymienionych wyżej skutków.

Załóżmy, że system wskazuje na duże ryzyko młodocianej ciąży u dziewczynki X. Czy poddanie obowiązkowej edukacji seksualnej dziewczynki X będzie dla niej krzywdzące lub uznane za niekorzystne traktowanie? Zdania w przedmiocie obowiązkowej edukacji seksualnej dzieci są przecież podzielone…

Jak Wam się zatem wydaje, czy prawnicy przyjęliby jednolitą wykładnię przepisów w kontekście tego systemu? A problemów wokół omawianego przepisu jest znacznie, znacznie więcej, które z racji na ograniczony charakter wpisu muszą zostać pominięte.

Przykład ma pokazać jak delikatnej materii dotyka akt o sztucznej inteligencji i jak skomplikowana może być wykładnia jego przepisów, ale też że nic nie jest oczywiste i wszystko wymaga analizy bardzo szerokiego kontekstu danego przypadku.

#AI #MachineLearning #DataProtection #BigData #ResponsibleAI #DataEthics

Możesz ocenić naszą stronę.
[Wszystkich ocen: 0 Średnia ocena: 0]