Loading
Sowa i PartnerzySowa i PartnerzySowa i Partnerzy

Czy będziesz kiedyś sądzony przez sztuczną inteligencję? [Seria wpisów o AI]

Potrzebujesz doradcy?

Skontaktuj się z naszym ekspertem.

[Krótka seria o AI dla każdego] Czy będziesz kiedyś sądzony przez sztuczną inteligencję?

To niewykluczone.

AI Act zakazuje m.in. wykorzystywania systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych.

Czy ocena, lub przewidzenie ryzyka popełnienia przestępstwa, o którym tu mowa, to coś co znamy z filmu Raport Mniejszości? Mówiąc inaczej, czy chodzi tu o przewidzenie, że ktoś popełni przestępstwo i schwytanie sprawcy, zanim zrealizuje swój zamiar?

Jeszcze nie. Ten przepis mówi tylko o tym, że nie wolno wykorzystywać systemu AI do dokonania samej oceny, lub przewidzenia ryzyka, czyli mówiąc inaczej – do „oflagowania” człowieka, jako stwarzającego określone ryzyko. To co się później wydarzy z tą analizą ryzyka jest już domeną innych przepisów. Przykładowo – schwytanie człowieka zanim popełni przestępstwo na podstawie predykcji ryzyka z pewnością uznalibyśmy za sprzeczne z podstawowymi prawami i zasadami konstytucyjnymi, jak m.in. prawem do sądu czy zasadą domniemania niewinności.

Inaczej mówiąc – zgodnie z AI Act nie wolno wykorzystywać AI do oflagowywania ludzi jako niebezpiecznych, chyba że… taka analiza nie odbywa się wyłącznie na podstawie profilowania osoby fizycznej, lub jej cech osobowości i cech charakterystycznych. Czyli wynika stąd, że flagować z użyciem AI jednak wolno (na zasadzie – Jan Kowalski; ryzyko popełnienia przestępstwa 6/10), z zastrzeżeniem dwóch sytuacji, o których mowa wyżej.

Co więcej, zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą.

No dobrze, czyli AI uznało, że Jan Kowalski stwarza ryzyko na poziomie 6 w skali do 10.  Jak taka ocena może być wykorzystana w praktyce?

Powiedzieliśmy, że nie można kogoś zamknąć zanim popełni przestępstwo, ale co, jeżeli przestępstwo zostało popełnione, ale teraz ważą się losy np. warunkowego zawieszenia kary, czyli tego, czy ktoś faktycznie pójdzie do więzienia? Tutaj sprawa będzie na ogół otwarta.

Analiza ryzyka dokonana przez AI – zgodnie z AI Act – będzie mogła zostać wykorzystana do podjęcia decyzji, czy kogoś zamykamy, czy nie zamykamy, bo może – co do zasady – leżeć u podstawy decyzji o warunkowym zawieszeniu wykonania kary lub innych środkach związanych z poddaniem sprawcy próbie (Zob. też Annex III pkt. 6 lit. d. AI Act).

Więcej na podobny temat znajdziecie TUTAJ