Regulacje prawne dotyczące stosowania AI w prawie
- Informowanie klienta: Kwestia transparentności stosowania AI staje się przedmiotem dyskusji. Sugeruje się, że prawnik powinien rozważyć, czy musi poinformować klienta o wykorzystaniu narzędzi AI przy świadczeniu usług. Chodzi o sytuacje, gdy ma to wpływ na zgodę klienta (np. korzystanie z zewnętrznego dostawcy AI mogącego przetwarzać dane klienta). Na razie nie ma powszechnego obowiązku ujawniania tego, ale trend zmierza ku większej przejrzystości.
- Regulacje w UE: Unia Europejska przygotowuje Akt o Sztucznej Inteligencji (AI Act) – pierwszy kompleksowy akt prawny regulujący AI. Wprowadza on podejście oparte na analizie ryzyka i klasyfikuje systemy AI o zastosowaniach prawnych jako potencjalnie wysokiego ryzyka, jeśli mogą wpływać na prawa lub bezpieczeństwo ludzi. Np. AI używana przy ocenie dowodów lub w organach ścigania będzie traktowana jako system wysokiego ryzyka podlegający rygorystycznym wymogom (transparentność, dokumentacja, nadzór człowieka). Natomiast typowe narzędzia wspomagające pracę prawników (np. analiza umów) raczej znajdą się w kategorii niskiego ryzyka, choć będą musiały spełniać ogólne wymogi bezpieczeństwa i zgodności z prawem.
- Ochrona danych i prywatność: Istniejące przepisy, jak rozporządzenie RODO, mają zastosowanie przy korzystaniu z AI w prawie. Dane osobowe klientów nie mogą być swobodnie przekazywane do zewnętrznych usług AI bez podstawy prawnej i zabezpieczeń. Zaleca się, by nie wprowadzać poufnych informacji do rozwiązań AI, które nie gwarantują pełnej poufności i bezpieczeństwa.
Ryzyka i ograniczenia AI – błędy, odpowiedzialność, prywatność
- „Halucynacje” AI i błędy merytoryczne: Systemy generatywne mogą tworzyć pozornie przekonujące, lecz fałszywe treści. Głośnym przykładem była sytuacja, gdy ChatGPT wymyślił sześć orzeczeń sądowych, które adwokat omyłkowo przytoczył w złożonym pozwie. Takie przypadki pokazują, że AI może zwracać nieistniejące precedensy czy błędne interpretacje prawa, jeśli opiera się na wadliwych danych. Ryzyko popełnienia gafy obciąża prawnika – nawet niezamierzony błąd (np. fikcyjna sprawa w cytowanej argumentacji) narusza standardy rzetelności. Dlatego konieczna jest stała kontrola jakości – AI powinna być tylko asystentem, a nie samodzielnym „autorem” finalnego dokumentu.
- Odpowiedzialność prawna i brak osobowości AI: W razie szkody spowodowanej błędną rekomendacją AI pojawia się pytanie: kto odpowiada? Aktualnie to człowiek (prawnik lub firma) ponosi odpowiedzialność za wykorzystanie narzędzia AI. AI nie ma osobowości prawnej – traktuje się ją jak narzędzie, więc ewentualne roszczenia klientów czy sankcje dyscyplinarne dotkną użytkownika lub twórcę systemu, a nie „algorytm”. Prawnicy muszą zatem zachować należytą staranność przy korzystaniu z AI, tak jak przy nadzorowaniu pracy młodszych prawników czy asystentów. Brak jasności co do zasad odpowiedzialności producentów AI – trwają prace nad regulacjami dotyczącymi odpowiedzialności za produkt oparty na AI, ale na chwilę obecną w praktyce to użytkownik odpowiada za błędne zastosowanie technologii.
- Stronniczość i bias: Modele AI uczą się na podstawie danych, które mogą zawierać uprzedzenia. W efekcie AI może odziedziczyć i powielać bias – np. w systemach wspomagających decyzje prawne może inaczej traktować określone grupy, jeśli dane historyczne były obciążone dyskryminacją. W kontekście dokumentów prawnych bias może się przejawiać choćby faworyzowaniem jednej strony umowy (jeśli model wytrenowano na danych sprzyjających mocniejszej stronie) lub niezamierzonym pomijaniem pewnych perspektyw. Problem polega też na braku przejrzystości: często nie wiadomo, dlaczego AI udzieliła takiej, a nie innej odpowiedzi, co utrudnia wykrycie i skorygowanie uprzedzeń. Konsekwencją może być spadek zaufania do wyników AI i ryzyko niezamierzonych naruszeń zasad równego traktowania.
- Zagrożenia dla prywatności i tajemnicy zawodowej: Wprowadzanie danych klienta do zewnętrznych systemów AI niesie ryzyko ujawnienia informacji poufnych. Głośno było o przypadkach, gdy pracownicy firm wklejali do narzędzi AI (np. ChatGPT) fragmenty poufnego kodu czy dokumentów, co skutkowało wyciekiem informacji do publicznej bazy treningowej. Dlatego prawnicy muszą ściśle przestrzegać obowiązku zachowania poufności (tajemnicy adwokackiej/radcowskiej) – zgodnie z zasadami, nie wolno przekazywać wrażliwych danych klienta narzędziu AI bez zapewnienia odpowiednich zabezpieczeń. Należy zanonimizować dane (usuwać nazwiska, szczegóły).
- Ograniczenia zakresu i aktualności wiedzy: Obecne modele AI (np. GPT) mają ograniczoną wiedzę do daty zakończenia treningu i mogą nie znać najnowszych przepisów czy orzeczeń. W rezultacie wygenerowany dokument może być nieaktualny lub pomijać najnowsze zmiany w prawie. AI nie rozumie też kontekstu faktycznego poza danymi wejściowymi – nie ma „zdrowego rozsądku” ani świadomości realiów sprawy. To ogranicza jego przydatność tam, gdzie trzeba zastosować prawo do nietypowego stanu faktycznego lub uwzględnić czysto ludzkie względy (np. w negocjacjach ugodowych).
CHCESZ DOWIEDZIEĆ SIĘ WIĘCEJ O UŻYCIU AI W KANCELARII: Sztuczna inteligencja w kancelariach – analiza dziejących się zmian – LEXPERTS Kancelaria prawna
CHCESZ WIEDZIEĆ JAK PRAKTYCZNIE WDROŻYĆ AI DO KANCELARII: Jak praktycznie zastosować AI w kancelarii prawnej? – LEXPERTS Kancelaria prawna