Spis treści
- Krótkie podsumowanie wpisu
- Co to jest licencja otwartego oprogramowania (open source)?
- Co to jest model AI zgodnie z AI Act i czy zawsze jest to system AI?
- Chcemy udostępnić system AI, lub model AI ogólnego przeznaczenia na licencji open source – o czym musimy pamiętać w ramach organizacji na etapie pracy nad projektem?
- W jaki sposób AI Act stosuje się do systemów AI i modeli AI ogólnego przeznaczenia udostępnianych na zasadach open source?
- Doradztwo prawne – jak możemy pomóc?
Krótkie podsumowanie wpisu
Niezależnie czy reprezentujesz startup, czy duża firmę Twoje obowiązki na gruncie AI Act są prawie takie same.
Jeżeli jednak decydujesz się na udostępnienie systemu AI, lub modelu AI ogólnego przeznaczenia na podstawie licencji otwartego oprogramowania to z wyjątkami określonymi w AI Act będziesz albo całkowicie zwolniony z obowiązku stosowania Rozporządzenia, albo będziesz musiał je stosować jedynie w ograniczonym zakresie. Wszystko zależy od tego, czy licencja ma rzeczywiście otwarty i nieodpłatny charakter, a także jakiego rodzaju system AI, lub model budujesz. Przykładowo, jeżeli zamierzasz wprowadzić do obrotu system AI tzw. wysokiego ryzyka (m.in. do rekrutacji pracowników lub rozpoznawania emocji) wówczas niezależnie od rodzaju licencji będziesz musiał stosować AI Act w pełnym zakresie. Z drugiej strony, jeżeli budujesz system AI do czynności związanych z automatyzacją np. produkcji lub do analizy danych i nie jest to system wysokiego ryzyka to możesz (ale nie musisz – o tym we wpisie) podlegać pod zwolnienia ze stosowania AI Act. W każdym jednak wypadku, jeżeli zastanawiasz się nad udostępnieniem modelu AI lub modelu ogólnego przeznaczenia na podstawie licencji otwartego oprogramowania to wówczas warto dowiedzieć się jakich obowiązków potencjalnie nie musisz wykonać.
Z tego wpisu dowiesz się w dużym skrócie czym są licencje open source (licencje otwartego oprogramowania), w tym także jak rozumie to pojęcie AI Act, czym jest model AI na gruncie AI Act, o czym należy pamiętać w trakcie pracy nad projektem dotyczącym systemów AI, a także jakie są różnice w przypadku udostępnienia rozwiązań na otwartych i zamkniętych licencjach.
Co to jest licencja otwartego oprogramowania (Open Source)?
Umowy licencyjne jako szczególnego rodzaju upoważnienia określają jak można korzystać z utworów (m.in. programów komputerowych).
Na podstawie umowy licencji nie dochodzi do przeniesienia autorskich praw majątkowych na inną osobę (przeniesienie takich praw jest możliwe na podstawie innej umowy niż licencja). Istota umowy licencji polega jedynie na upoważnieniu innej osoby do wykonywania określonych działań, które mogą być podejmowane zasadniczo przez podmiot, któremu przysługują prawa wyłączne (taka osoba to np. twórca, softwarehouse, czy wydawca). Licencja określa na jakich polach eksploatacji można korzystać z programu komputerowego, tj. w jakie sfery praw wyłącznych można legalnie wkroczyć nie narażając się na roszczenia związane z naruszeniem praw autorskich.
Istotne tutaj jest, że nie musisz „podpisywać” żadnego dokumentu, żeby doszło do zawarcia umowy licencji o charakterze niewyłącznym. Najczęściej w obrocie licencjodawca określa warunki na jakich udostępnia oprogramowanie a licencjobiorca te warunki akceptuje poprzez np. rozpoczęcie korzystania z oprogramowania. Jest to wystarczające do przyjęcia, że doszło do zawarcia umowy licencji na zasadach określonych przez osobę, która udostępnia oprogramowanie.
Licencja otwartego oprogramowania (Open Source) jest natomiast umową, która umożliwia użytkownikom zasadniczo:
- swobodny dostęp do kodu źródłowego, a także swobodne
- korzystanie z kodu źródłowego do dowolnego celu;
- wykonywanie adaptacji;
- rozpowszechnianie kodu źródłowego i adaptacji;
Używamy tutaj słowa „zasadniczo”, gdyż warunki korzystania z programu komputerowego będą określone w konkretnej licencji.
Modele AI (np. językowe) mają kod źródłowy, podobnie jak każde inne oprogramowanie. Z tego względu należy do nich stosować przepisy o programach komputerowych.
Warto też zauważyć jak AI Act rozumie licencje otwartego oprogramowania. Motyw 102 AI Act stanowi, że:
(102) Oprogramowanie i dane, w tym modele, udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania, która umożliwia ich ogólne upowszechnianie i zezwala użytkownikom na swobodny dostęp do nich, ich wykorzystywanie, zmianę i ich redystrybucję lub ich zmienionych wersji, mogą przyczynić się do badań naukowych i innowacji na rynku oraz zapewnić gospodarce Unii znaczne możliwości wzrostu. Należy uznać, że modele AI ogólnego przeznaczenia udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania zapewniają wysoki poziom przejrzystości i otwartości, jeżeli ich parametry, w tym wagi, informacje na temat architektury modelu oraz informacje na temat wykorzystania modelu, są publicznie dostępne. Licencję należy uznać za bezpłatną licencję otwartego oprogramowania również wtedy, gdy umożliwia użytkownikom obsługę, kopiowanie, dystrybucję, badanie, zmianę i ulepszanie oprogramowania i danych, w tym modeli, pod warunkiem że umieszcza się wzmiankę o pierwotnym dostawcy modelu i że przestrzega się identycznych lub porównywalnych warunków dystrybucji.
Innymi słowy, to że licencja ma charakter licencji copyleft nie wyklucza możliwości jej uznania za licencję otwartego oprogramowania zgodnie z AI Act.
Więcej o licencjach Open Source (w tym o licencjach typu Copyleft) dowiesz się z naszego kolejnego wpisu.
Co to jest model AI zgodnie z AI Act i czy zawsze jest to system AI?
Przychodząc tutaj zapewne wiesz czym jest model AI. My wyjaśniamy jednak co należy rozumieć przez model z punktu widzenia prawa.
Po pierwsze, model to nie zawsze system AI.
Zgodnie z motywem 97 AI Act
Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część.
Jest to bardzo istotne rozróżnienie. Jeżeli model nie jest systemem AI to nie będą do niego stosować się przepisy o systemach, w tym systemach wysokiego ryzyka.
System AI został zdefiniowany w sposób następujący:
“system AI” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne;
Pamiętaj jednak, że jeżeli Twój model może stać się kiedyś częścią systemu AI (a tak pewnie będzie w większości przypadków) to warto zadbać o prawne aspekty już na etapie tworzenia modelu. Może się bowiem okazać, że zaniedbania na tym etapie uniemożliwią lub znacznie utrudnią późniejszą komercjalizację Twoich rozwiązań, lub systemów innych osób, które będą chciały bazować na Twoim modelu, szczególnie jeżeli budujesz tzw. system AI wysokiego ryzyka (np. system AI, który może być kwalifikowany jako wyrób medyczny).
Po drugie, AI Act wprowadza szczególne obowiązki dla dwóch konkretnych modeli.
AI Act ustanawia przepisy szczególne dotyczące modeli AI ogólnego przeznaczenia oraz modeli AI ogólnego przeznaczenia, które stwarzają ryzyko systemowe, a przepisy te powinny być stosowane również wtedy, gdy modele te są zintegrowane z systemem AI lub stanowią jego część.
Modele AI ogólnego przeznaczenia, które stwarzają ryzyko systemowe na razie zostawmy. Z powyższego wynika, że możemy wyróżnić:
- modele AI, które nie są systemami AI;
- modele AI, które są częścią systemu AI;
- modele AI zintegrowane z systemem AI;
- modele AI ogólnego przeznaczenia, które nie są systemami AI;
- modele AI ogólnego przeznaczenia, które są częścią systemu AI;
- modele AI ogólnego przeznaczenia, które są zintegrowane z systemem AI*
*taksonomia własna
Widzimy już tutaj, że musi istnieć różnica na tle regulacji pomiędzy modelami AI a modelami AI ogólnego przeznaczenia. I tak jest w istocie, gdyż model AI ogólnego przeznaczenia ma swoją definicję w Art. 3 pkt 63 AI Act:
“model AI ogólnego przeznaczenia” oznacza model AI, w tym model AI trenowany dużą ilością danych z wykorzystaniem nadzoru własnego na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model ten jest wprowadzany do obrotu, i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla – z wyłączeniem modeli AI, które są wykorzystywane na potrzeby działań w zakresie badań, rozwoju i tworzenia prototypów przed wprowadzeniem ich do obrotu;
No dobrze, a można jaśniej?
Motyw 98 AI Act stanowi:
Mając na uwadze, że ogólny charakter modelu można określić między innymi na podstawie liczby parametrów, należy uznać, że modele o co najmniej miliardzie parametrów i trenowane w oparciu o dużą ilość danych z wykorzystaniem nadzoru własnego na dużą skalę są bardzo ogólne i kompetentnie wykonują szeroki zakres różnych zadań.
Mamy tutaj więc pewną wskazówkę, że po przekroczeniu miliarda parametrów raczej będziemy już mówić o modelu AI ogólnego przeznaczenia. Jeżeli parametrów jest mniej to wtedy raczej nie, ale to z naciskiem na „raczej”.
W każdym razie, dopiero spełnienie przesłanek z definicji dla „modelu AI ogólnego przeznaczenia” będzie skutkować powstaniem obowiązków na tle regulacji odnoszących się właśnie do tych konkretnie modeli. Jeżeli model nie spełnia warunków do tego, aby uznać go za model ogólnego przeznaczenia to wówczas będziemy stosować inne przepisy, w tym przepisy dotyczące systemów, jeżeli model jest zintegrowany lub jest częścią systemu AI. Jeżeli natomiast model nie spełnia kryteriów dla uznania go za model AI ogólnego przeznaczenia, ani nie jest systemem AI (tj. czysty mały model AI pozbawiony interfejsu) to moim zdaniem AI Act w ogóle nie znajdzie zastosowania do takiego rozwiązania. Czasami trzeba będzie jednak stosować przepisy odnoszące się i do systemów AI i do modeli.
Chcemy udostępnić system AI, lub model AI ogólnego przeznaczenia na licencji Open Source – o czym musimy pamiętać w ramach organizacji na etapie pracy nad projektem?
To jest bardzo złożony temat. Przede wszystkim zabezpiecz prawa własności intelektualnej.
Musisz pamiętać, że ochrona przysługuje twórcy programu komputerowego niezależnie od spełnienia jakichkolwiek formalności. Inaczej mówiąc, żeby korzystać z ochrony twórca nie musi składać żadnych wniosków, czy rejestrować swoich praw w jakimkolwiek urzędzie. Nie trzeba też „zastrzegać” praw autorskich przez umieszczenie na utworze, czy w kontekście utworu jakiegokolwiek sloganu, typu „copyright”, lub „wszystkie prawa zastrzeżone”. Ochrona przysługuje od chwili „ustalenia” utworu, chociażby miał postać nieukończoną.
Jeżeli zatem stworzysz model AI to będziesz jego twórcą i co do zasady będą przysługiwać Ci prawa autorskie z mocy samej ustawy (chyba, że tworzysz model w ramach obowiązków pracowniczych, lub na podstawie innej umowy). Będziesz zatem osobą, która będzie mogła podjąć decyzję, czy udostępniać model innym osobom, a jeżeli tak to na jakich zasadach.
Tutaj istotne zastrzeżenie – w praktyce najczęściej nad stworzeniem modelu AI pracuje więcej osób niż jedna. Tymczasem, bardziej skomplikowane układy podmiotowe mają swoje konsekwencje na tle prawa autorskiego. Należy mieć na względzie to, że o ile projekt może mieć charakter otwarty i zmierzać docelowo do udostępnienia modelu AI na zasadzie otwartej licencji nie oznacza to, że można pominąć uregulowanie kwestii autorskich praw majątkowych przed udostępnieniem modelu.
Innymi słowy, jeżeli chcesz udostępnić model na zasadach open source, to musisz być podmiotem rzeczywiście uprawnionym do tego aby to zrobić, co może wcale nie być oczywiste w sytuacji, gdy nie zadbasz o uregulowanie tej kwestii na odpowiednio wczesnym etapie projektu.
Zgodnie bowiem z art. 17 Ustawy:
Jeżeli ustawa nie stanowi inaczej, twórcy przysługuje wyłączne prawo do korzystania z utworu i rozporządzania nim na wszystkich polach eksploatacji oraz do wynagrodzenia za korzystanie z utworu.
Inaczej mówiąc, jeżeli nic innego nie wynika z Ustawy, korzystać z programu komputerowego może wyłącznie twórca. Może on oczywiście przenieść to prawo na inne osoby, lub je do tego upoważnić.
Ten przepis dotyczy zarówno Ciebie, jako osoby która myśli o udostępnieniu modelu na zasadach open source, jak i osób które tworzą dla Ciebie / z Tobą model (zob. jednak też art. 9 Ustawy). Jeżeli nie zadbasz o przeniesienie praw autorskich do modelu na Ciebie, lub na Twoją organizację przed jego udostępnieniem na zasadach open source to narazisz się na roszczenia związane z naruszeniem autorskich praw majątkowych.
Ponadto, w zależności od tego jaki system AI tworzysz (np. integracja z modelem AI ogólnego przeznaczenia, system AI wysokiego ryzyka) zastosowanie mogą znaleźć obowiązki w zakresie ochrony danych osobowych, sporządzania odpowiednich polityk dotyczących przestrzegania praw autorskich na etapie trenowania modelu, wytycznych w zakresie etyki, czy stworzenia systemu zarządzania ryzykiem. Będzie o tym mowa w dalszej części wpisu.
W jaki sposób AI Act stosuje się do systemów AI i modeli AI ogólnego przeznaczenia udostępnianych na zasadach open source?
AI Act wprowadza bardzo istotne różnice w zależności od tego, czy system AI lub model AI ogólnego przeznaczenia jest udostępniany na podstawie licencji otwartego oprogramowania (open source), czy zamkniętego oprogramowania.
Zgodnie z art. 2 ust. 12 AI Act
Niniejszego rozporządzenia nie stosuje się do systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że systemy te są wprowadzane do obrotu lub oddawane do użytku jako systemy AI wysokiego ryzyka lub jako system AI objęty art. 5 lub 50.
Zatrzymajmy się tutaj na chwilę. Przepis ten stanowi, że co do zasady AI Act nie będzie miał zastosowania, jeżeli system AI będzie udostępniony na podstawie bezpłatnej licencji open source. Jest to bardzo ważna i czytelna zasada, która doznaje w zasadzie trzech wyjątków, a mianowicie:
- system AI jest wprowadzany do obrotu lub oddawany do użytku jako system AI wysokiego ryzyka (np. systemy do rozpoznawania emocji, systemy wykorzystywane w rekrutacji, systemy zdalnej identyfikacji biometrycznej);
- system AI objęty tzw. zakazanymi praktykami, o których mowa w art. 5;
- system AI podpada pod art. 50 AI Act (tj. np. wchodzi w interakcję z ludźmi).
Jeżeli zatem nie zajdzie żaden z trzech wymienionych wyżej przypadków wówczas AI Act (i wszelkie określone w nim obowiązki) nie znajdą zastosowania do Twojego systemu AI.
Dlaczego? Zgodnie z motywami AI Act:
(102) Oprogramowanie i dane, w tym modele, udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania, która umożliwia ich ogólne upowszechnianie i zezwala użytkownikom na swobodny dostęp do nich, ich wykorzystywanie, zmianę i ich redystrybucję lub ich zmienionych wersji, mogą przyczynić się do badań naukowych i innowacji na rynku oraz zapewnić gospodarce Unii znaczne możliwości wzrostu (…)
Z drugiej strony, jeżeli zajdzie chociaż jeden z tych przypadków to wówczas będziesz musiał stosować wszystkie właściwe przepisy AI Act.
Musisz mieć jednak na uwadze, że system AI musi być rzeczywiście darmowy (bezpłatny), aby korzystać ze zwolnienia. Jeżeli sam system AI zostanie udostępniony nieodpłatnie, ale np. konieczne będzie korzystanie z wsparcia technicznego, które będzie świadczone odpłatnie, to wówczas nie będziesz mógł korzystać ze zwolnień ze stosowania AI Act. Stanowi o tym motyw 103 AI Act, który będzie wskazówką interpretacyjną dla art. 2 ust. 12 AI Act.
(103) Elementy AI na bezpłatnej licencji otwartego oprogramowania obejmują oprogramowanie i dane, w tym modele i modele AI ogólnego przeznaczenia, narzędzia, usługi lub procesy systemu AI. (…) Do celów niniejszego rozporządzenia elementy AI, które są dostarczane odpłatnie lub w inny sposób monetyzowane, w tym poprzez zapewnianie wsparcia technicznego lub innych usług związanych z elementem AI, w tym poprzez platformy oprogramowania, lub wykorzystywanie danych osobowych z powodów innych niż wyłącznie poprawa bezpieczeństwa, kompatybilności lub interoperacyjności oprogramowania, z wyjątkiem transakcji między mikroprzedsiębiorstwami, nie powinny korzystać ze zwolnień przewidzianych w odniesieniu do bezpłatnych i otwartych elementów AI. Fakt udostępniania elementów AI w otwartych repozytoriach nie powinien sam w sobie stanowić monetyzacji.
W porządku, mamy zatem omówione kwestie związane z systemami AI. A co jeżeli mamy czysty model AI ogólnego przeznaczenia, który nie jest systemem AI (np. z uwagi na brak interfejsu)? Art. 2 ust. 12 AI Act stanowi o tym, że przepisów rozporządzenia nie stosuje się do „systemów AI”, a więc zakresem tego wyłączenia nie jest objęta sytuacja, w której mamy do czynienia z czystym modelem. W takiej sytuacji przepisy AI Act stosuje się o tyle, o ile jego przepisy odnoszą się do modeli AI ogólnego przeznaczenia.
AI Act wprowadza jednak istotną różnicę w odniesieniu do modeli udostępnianych na podstawie otwartych licencji.
Zasada (dla modeli na licencjach zamkniętych) jest taka (Art. 53 AI Act), że:
Dostawcy modeli AI ogólnego przeznaczenia:
- a) sporządzają i aktualizują dokumentację techniczną modelu, w tym proces jego trenowania i testowania oraz wyniki jego oceny, zawierającą co najmniej informacje określone w załączniku XI do celów przekazania ich, na wniosek, Urzędowi ds. AI i właściwym organom krajowym;
- b) sporządzają, aktualizują i udostępniają informacje i dokumentację dostawcom systemów AI, którzy zamierzają zintegrować model AI ogólnego przeznaczenia ze swoimi systemami AI. Bez uszczerbku dla potrzeby przestrzegania i ochrony praw własności intelektualnej i poufnych informacji handlowych lub tajemnic przedsiębiorstwa zgodnie prawem Unii i prawem krajowym te informacje i dokumentacja:
(i) umożliwiają dostawcom systemów AI dobre zrozumienie możliwości i ograniczeń danego modelu AI ogólnego przeznaczenia oraz spełnienie ich obowiązków zgodnie z niniejszym rozporządzeniem; oraz
(ii) zawierają co najmniej elementy określone w załączniku XII;
- c) wprowadzają politykę służącą zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych, w szczególności z myślą o identyfikacji i zastosowaniu się, w tym poprzez najnowocześniejsze technologie, do zastrzeżenia praw wyrażonego zgodnie z 4 ust. 3 dyrektywy (UE) 2019/790;
- d) sporządzają i podają do wiadomości publicznej wystarczająco szczegółowe streszczenie na temat treści wykorzystanych do trenowania danego modelu AI ogólnego przeznaczenia, zgodnie ze wzorem dostarczonym przez Urząd ds. AI.
Jak widać, obowiązków tutaj jest sporo. Jeżeli jednak udostępniasz model AI ogólnego przeznaczenia na podstawie licencji otwartej to wówczas – co do zasady – zostaniesz zwolniony z realizacji obowiązków, o których mowa w lit. a i b. powyżej. Stanowi o tym art. 53 ust. 2 AI Act, który brzmi tak.
Obowiązków określonych w ust. 1 lit. a) i b) nie stosuje się do dostawców modeli AI, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania umożliwiającej dostęp, wykorzystanie, zmianę i dystrybucję modelu i których parametry, w tym wagi, informacje o architekturze modelu oraz informacje o wykorzystaniu modelu są podawane do wiadomości publicznej. Wyjątku tego nie stosuje się do modeli AI ogólnego przeznaczenia z ryzykiem systemowym.
Zostaje zatem sporządzenie polityki służącej zapewnieniu zgodności z prawem Unii dotyczących prawa autorskiego i praw pokrewnych a także obowiązki w zakresie upublicznienia streszczenia treści wykorzystanych do treningu.
W tym kontekście warto zwrócić uwagę na motyw 104 AI Act:
(104) (…) biorąc pod uwagę, że udostępnianie modeli AI ogólnego przeznaczenia na podstawie bezpłatnej licencji otwartego oprogramowania niekoniecznie prowadzi do ujawnienia istotnych informacji na temat zbioru danych wykorzystywanego do trenowania lub dostrajania modelu oraz na temat sposobu zapewnienia tym samym zgodności z prawem autorskim, przewidziane w odniesieniu do modeli AI ogólnego przeznaczenia zwolnienie z obowiązku spełnienia wymogów związanych z przejrzystością nie powinno dotyczyć obowiązku sporządzenia streszczenia dotyczącego treści wykorzystywanych do trenowania modeli oraz obowiązku wprowadzenia polityki w celu zapewnienie zgodności z unijnym prawem autorskim, w szczególności w celu zidentyfikowania i zastosowania się do zastrzeżenia praw zgodnie z art. 4 ust. 3 dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790 40 .
W jednym z kolejnych wpisów opiszemy jak zapewnić zgodność z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych na etapie trenowania modelu. W tym momencie najważniejsze jest jednak, aby mieć świadomość, że trenowanie modelu musi uwzględniać regulacje w zakresie prawa autorskiego, które odnoszą się do treści wykorzystywanych na etapie treningu. Aby zapewnić zgodność z tymi regulacjami w czasie pracy nad projektem (tj. wykorzystywać wyłącznie te utwory, które można wykorzystywać na potrzeby treningu) wprowadza się politykę, którą muszą stosować osoby zaangażowane w projekt. Niezadbanie o ten element w czasie pracy będzie skutkować problemami z komercjalizacją produktu, gdyż zasadniczo nikt nie będzie chciał korzystać z rozwiązań, które mogą naruszać prawa autorskie.
Co więcej, jeżeli nawet budujesz czysty model AI ogólnego przeznaczenia, ale docelowo ma on stanowić element systemu AI (szczególnie w przypadku, gdy system będzie podpadał pod kategorię systemów AI wysokiego ryzyka), to warto podejść do pracy nad całym projektem tak, jakby ten model już był częścią takiego systemu. Zaniedbanie obowiązków związanych z systemem AI wysokiego ryzyka na etapie zarządzania projektem będzie skutkować problemami z komercjalizacją rozwiązania. Zgodnie z art. 25 ust. 4 AI ACT będziesz miał bowiem obowiązek umożliwienia dostawcy systemu AI wysokiego ryzyka pełne spełnienie obowiązków określonych w AI Act. Jeżeli obowiązki dla systemów AI wysokiego ryzyka pod AI Act zostaną zaniedbane na etapie pracy nad projektem to wówczas bardzo ciężko będzie do nich wrócić po jego ukończeniu.
Doradztwo prawne – jak możemy pomóc?
Nasi eksperci doradzają w sprawie prawnych aspektów systemów opartych o sztuczną inteligencję od 2018 r. z uwzględnieniem m.in. prawa ochrony danych osobowych, prawa autorskiego i regulacji w zakresie ochrony konsumentów. AI Act stwarza nowe otoczenie prawne, które trzeba uwzględnić na etapie pracy nad projektem, tj. wymaga zaangażowania prawników jeszcze przed udostępnieniem rozwiązań opartych na AI, aby nie narazić się na możliwe kary finansowe i fiasko komercjalizacji systemu. Nasza Kancelaria świadczy doradztwo prawne na każdym etapie projektu.
Pamiętaj, że AI Act to nie jest jedyna regulacja, która znajdzie zastosowanie do Twojego projektu, a ten wpis ma wyłącznie charakter poglądowy i nie stanowi porady prawnej.