Temat chatGPT, oparty na sztucznej inteligencji, już od kilku miesięcy pozostaje jednym z najważniejszych, o którym możemy przeczytać w codziennej prasie. Tysiące ludzi na świecie testuje jego możliwości, począwszy od darmowej wersji 3.5 oraz płatnej 4.0 (stan istniejący w dacie publikacji tego materiału). Nowsza wersja 4.0., pomimo swojej odpłatności, jest bardziej rozbudowanym modelem od 3.5. GPT-4 może generować bardziej precyzyjne i złożone odpowiedzi na pytania użytkowników, posiada większą liczbę parametrów i lepszego uczenia się na podstawie dostępnych danych, ma obszerniejszy zasób wiedzy, gdyż został wytrenowany na większej ilości danych, jest bardziej wydajny oraz obsługuje większą liczbę języków.  O zaletach GPT-4 można przeczytać na oficjalnej stronie OpenAI [https://openai.com/product/gpt-4].

Dla niektórych chatGPT to narzędzie usprawniające pracę i źródło wiedzy, dla innych – powód do obaw o przyszłość. Sztuczna inteligencja coraz bardziej wkracza w otaczającą rzeczywistość, w której będzie musiało odnaleźć się wiele osób, w tym przedsiębiorcy i uczelnie. Tempo zmian może powodować zakłopotanie, ale i mobilizować do poznania tajników tego rewolucyjnego rozwiązania. O AI i chatGPT napisano już wiele, ja również dołożę przysłowiowe „3 grosze” w temacie.

Czy treści generowane przez chatGPT są poprawne?

Użycie nowego narzędzia w obrocie opartego na sztucznej inteligencji wzbudza także wątpliwości prawne. Szybkość działania chatGPT pozwala na podniesienie produktywności, ale też niesie za sobą pewne ryzyka.

Z Warunków Korzystania (Terms of Use) [https://openai.com/policies/terms-of-use] opublikowanych przez OpenAI, które dostarcza chatGPT, wynika, że sztuczna inteligencja i uczenie maszynowe nadal rozwija się, OpenAI pracuje nad ulepszaniem usług, aby m.in. były dokładniejsze. Z moich obserwacji wynika, że w przypadku zagadnień prawnych GPT-4 nie radzi sobie jeszcze dobrze. Okres szkolenia GPT-4 zakończył się we wrześniu 2021 r. Chociażby więc z tego względu nie wszystkie dane mogą pozostawać aktualne, jak i nadążać za wydarzeniami, które miały miejsce w 2022 r., czy w chwili obecnej. Trzeba nauczyć się także prawidłowego zadawania pytań, aby uzyskać najbardziej trafne odpowiedzi, na których nam zależy. Co prawda GPT-4 „zdał” amerykański Bar Exam [https://www.forbes.com/sites/johnkoetsier/2023/03/14/gpt-4-beats-90-of-lawyers-trying-to-pass-the-bar/] jednakże niekoniecznie w zbiorze jego danych treningowych uwzględniano polskie przepisy prawne czy orzeczenia – w związku z czym w naszych warunkach jego odpowiedzi mogą być obarczone większą niepewnością.

W Warunkach Korzystania jasno wskazano, że chatGPT może generować nieprawidłowe dane wyjściowe, a to użytkownik powinien ocenić dokładność i poprawność tych danych. Oznacza to tyle, że korzystanie z danych wyjściowych otrzymanych za pomocą chatGPT, bez ich sprawdzenia, może być ryzykowne w przypadku użycia ich w pracy, na uczelni, czy innym miejscu. Dla przykładu można podać sprawę burmistrza australijskiego miasteczka, który zagroził OpenAI pozwem o naruszenie dobrego imienia [https://www.rp.pl/sady-i-prokuratura/art38299381-tomasz-pietryga-prawne-zderzenie-ze-sztuczna-inteligencja].

Przykładowe różnice w pozyskanych danych wyjściowych

Poniżej wskazuję przykładowe różnice w pozyskanych danych wyjściowych z GPT-3.5 i GPT-4, w których specjalnie użyłam zapytania niekoniecznie właściwego językowo i gramatycznie.  

Zadałam proste pytanie „Jakie sądy w Polsce zajmują się orzekaniem rozwodów?

Odpowiedź GPT-3.5 była następująca:

chatGPT 3.5, sample query result

Wydawałoby się, że pytanie było jasne, ale wystarczyło zmienić to zapytanie na „Podaj które sądy zajmują się rozwodami w Polsce” i wynik jest zgoła inny:

chatGPT 3.5, sample query result

Widać znaczącą różnicę 😊 warto więc pamiętać, że treść pytania może generować błędne odpowiedzi.

Z kolei odpowiedź GPT-4 na pytanie „Jakie sądy w Polsce zajmują się orzekaniem rozwodów?” brzmiała tak:

chatGPT 4.0, sample query result

Przy użyciu zapytania „Podaj które sądy zajmują się rozwodami w Polsce” odpowiedź GPT-4 była następująca:

chatGPT 4.0, sample query result

Dla prawników powyższe nieścisłości i błędy mogą być oczywiste, jednak dla użytkownika, który poszukuje w chacieGPT odpowiedzi na nurtujące go pytania prawne takie informacje nie przyniosą zakładanego skutku. Jak widać na powyższych przykładach treść zapytania, odpowiedni szyk zdania oraz kontekst mogą mieć zasadnicze znaczenie dla otrzymywanych wyników. Związana jest z tym dynamicznie rozwijająca się koncepcja prompt engineeringu  [https://pl.wikipedia.org/wiki/In%C5%BCynieria_podpowiedzi].

Odpowiednie wpisanie zapytania może doprowadzić wręcz do otrzymania informacji z chatGPT, których teoretycznie być może nie powinien udzielać zgodnie z założeniami działania [zob. https://www.linkedin.com/posts/gptai_activity-7054401412054581248-6y0Q/?utm_source=share&utm_medium=member_ios]

Duży plus dla chatGPT, że sugeruje użytkownikom, że warto skonsultować się z prawnikiem 😊

Prawo własności intelektualnej a chatGPT

Do kogo należą prawa autorskie?

Kolejnym problemem jaki wiąże się z użyciem danych wyjściowych otrzymanych w chacie GPT jest to kto stworzył te treści oraz do kogo należą prawa autorskie do tych treści. Obecne ustawodawstwo polskie i unijne nie nadąża w pełni za uregulowaniem charakteru prawnego treści generowanych przez chatGPT. Wciąż pozostaje wiele wątpliwości w tym zakresie. Polska ustawa przewiduje, że utwór w rozumieniu prawa autorskiego może być stworzony wyłącznie przez człowieka, a chatGPT to przecież nie człowiek. W przypadku chatGPT treści wyjściowe generowane są na podstawie zadań, czy zapytań wprowadzanych przez człowieka.

Warunki Korzystania opracowane przez OpenAI przewidują, że użytkownik jest właścicielem wszystkich danych wejściowych (czyli tych wprowadzanych przez użytkownika do chatGPT), z kolei OpenAI przenosi na użytkownika wszystkie prawa do danych wyjściowych (czyli tych otrzymanych za pomocą chatGPT). Takie zastrzeżenie w Warunkach Korzystania trzeba traktować z przymrużeniem oka, nie ma na razie wypracowanych żadnych wiążących rozwiązań prawnych w tym zakresie, a każdy przypadek należałoby interpretować indywidualnie. Do tego to ostatecznie użytkownik ponosić będzie odpowiedzialność za treści, które pozyskał z chatGPT, zwłaszcza jeśli chodzi o to, czy naruszają one prawa osób trzecich, w tym prawa własności intelektualnej.

Z ciekawostek można podać, że US Copyright Office opublikował wskazówki dotyczące rejestracji praw autorskich do prac zawierających wygenerowane materiały przez sztuczną inteligencję [https://www.copyright.gov/ai/ai_policy_guidance.pdf]. Kwestia regulacji praw autorskich oraz innych aspektów związanych z korzystaniem ze sztucznej inteligencji to już temat na osobny wpis, który powstanie wkrótce. Obecnie prezentowanych jest już wiele stanowisk, jednak nie ma jednolitego głosu w tym zakresie. Własność intelektualna a sztuczna inteligencja to nadal temat do wnikliwego zgłębienia dla prawników.

Czy może dojść do plagiatu w przypadku wykorzystania danych wyjściowych z chatGPT?

Moim zdaniem należy też wziąć pod uwagę, że treści pozyskane z chatGPT mogą powodować ryzyko popełnienia plagiatu. Co więcej, kilka osób zadając dokładnie to samo pytanie może otrzymać takie same lub zbliżone do siebie odpowiedzi. Wiedza chatGPT oparta jest  m.in. na zasobach internetu i książek, jednak na chwilę obecną w wersji 4.0 chatGPT w konkretnej odpowiedzi nie podaje źródła, na podstawie którego opracował odpowiedź (inaczej jest w przypadku korzystania z wyszukiwarki Bing dostarczanej przez Microsoft w przeglądarce Edge). OpenAI w Warunkach Korzystania zastrzega możliwość zgłoszenia naruszenia praw własności intelektualnej poprzez wysłanie powiadomienia, treści naruszające prawa mogą być usuwane, a konta użytkowników, którzy wielokrotnie naruszają prawa mogą być zamykane. Wyzwaniem dla uczelni będzie także korzystanie z systemów antyplagiatowych, tak aby radziły sobie z wykrywaniem treści generowanych przez sztuczną inteligencję.

A co ze znakami towarowymi?

Poruszając się w temacie własności intelektualnej można wskazać na kolejne rozwiązanie oparte na sztucznej inteligencji – obok GPT-3.5 i GPT-4. Jest to narzędzie Midjourney, które pozwala na tworzenie obrazów z krótkich opisów tekstowych wpisanych przez użytkownika. Efekty niektórych obrazów potrafią być imponujące. Zapewne to jedno z narzędzi, które może usprawnić pracę grafików m.in. tych, którzy dostarczają logo na zamówienie danej firmy. Kto nie chciałby w swojej działalności loga, które przykuwa wzrok i które można szybko stworzyć? Nierzadko logo może stanowić znak towarowy podlegający ochronie. W przypadku Midjourney również zastanawiające pozostaje komu przysługiwać będą prawa autorskie do stworzonego za jego pomocą logo. To akurat jest istotna kwestia, gdyż uprawiony z wcześniejszego prawa osobistego lub majątkowego może wnieść sprzeciw wobec zgłoszenia znaku towarowego lub złożyć wniosek o unieważnienie udzielonego już prawa ochronnego na znak towarowy.

Wracając do chatGPT nie jest wykluczone, że za jego pomocą stworzony zostanie slogan lub oznaczenie słowne, które następnie zostanie zgłoszone w urzędzie patentowym jako znak towarowy. Użycie odpowiednich pluginów do chatGPT pozwoli również na stworzenie w nim obrazków, które mogą stanowić oznaczenie odróżniające. W tym wypadku mogą powstać problemy związane z ewentualnym użyciem utworu, do którego ktoś inny posiada prawa osobiste lub majątkowe.

Tajemnica przedsiębiorstwa, know-how i poufne dane oraz dane osobowe a chatGPT

Łatwość dostępu do chatGPT daje też pokusę sprawdzenia jego możliwości w codziennej pracy. Wielu pracowników czy współpracowników, dysponuje informacjami, które mogą stanowić tajemnice przedsiębiorstwa, know-how czy informacje poufne w rozumieniu przyjętym w umowie o zachowaniu poufności.

Zgodnie z ustawą o zwalczaniu nieuczciwej konkurencji przez tajemnicę przedsiębiorstwa rozumie się informacje techniczne, technologiczne, organizacyjne przedsiębiorstwa lub inne informacje posiadające wartość gospodarczą, które jako całość lub w szczególnym zestawieniu i zbiorze ich elementów nie są powszechnie znane osobom zwykle zajmującym się tym rodzajem informacji albo nie są łatwo dostępne dla takich osób, o ile uprawniony do korzystania z informacji lub rozporządzania nimi podjął, przy zachowaniu należytej staranności, działania w celu utrzymania ich w poufności.

Należy zwrócić uwagę, że jak ujęto w Warunkach Korzystania Open AI może wykorzystywać treści do świadczenia i utrzymywania usług. ChatGPT wciąż uczy się przy udzielaniu odpowiedzi, przetwarza więc dane wprowadzane przez użytkowników. W przypadku korzystania z chatGPT w celu usprawnienia codziennej pracy trzeba więc uważać na ryzyko ujawnienia informacji poufnych lub stanowiących tajemnicę przedsiębiorstwa. To samo dotyczy tajemnicy zawodowej, przykładowo tajemnicy radcy prawnego, adwokackiej, czy detektywa. Może się to wiązać z odpowiedzialnością zawodową oraz naruszeniami etyki zawodowej.

Jakie mogą być konsekwencje ujawnienia tajemnicy przedsiębiorstwa lub informacji poufnych?

Warto pamiętać, że ujawnienie tajemnicy przedsiębiorstwa, czy informacji poufnych może wiązać się z rozwiązaniem umowy o pracę lub umowy o współpracy [więcej: https://www.prawo.pl/biznes/zwolnienie-z-pracy-za-rozmowe-z-chat-gpt-odpowiedzialnosc,520711.html]. Korzystanie z niedokładnych lub nieaktualnych danych wygenerowanych za pomocą chatGPT również może spowodować problemy być może skutkujące rozwiązaniem współpracy lub naruszeniem zasad zawodowych. To użytkownik odpowiedzialny jest za użycie danych pozyskanych w ramach zapytania kierowanego do chatGPT. Wreszcie użycie błędnych danych może spowodować odpowiedzialność odszkodowawczą.

Dane osobowe

Co więcej, niektóre zapytania, treści wpisywane w chacie GPT mogą zawierać dane osobowe, dane o charakterze prywatnym lub dane wrażliwe. Trzeba pamiętać, że chatGPT to rozwiązanie dostarczane przez kalifornijską spółkę z siedzibą w USA, czyli poza obszarem GDPR (RODO). Oznacza to także, że dane osobowe wprowadzane do chatGPT będą przetwarzane poza granicami Unii Europejskiej. Nie można więc tracić z pola widzenia również tego aspektu. Do tego przecież użytkownicy sami podają swoje dane osobowe, aby móc korzystać z chatGPT. Zgadzają się więc na gromadzenie i przetwarzanie ich danych osobowych przez podmiot spoza Unii Europejskiej.

Podsumowanie

W niedalekiej przyszłości korzystanie z rozwiązań sztucznej inteligencji w codziennej pracy przedsiębiorstw i uczelni wymagać będzie stworzenia odpowiednich regulaminów, czy polityk korzystania z tego rodzaju technologii. Dobrym rozwiązaniem będzie także przeszkolenie pracowników i współpracowników w zakresie korzystania z chatGPT w codziennej pracy oraz związanej z tym odpowiedzialności. Przepisy prawa unijnego i polskiego niewątpliwie będą musiały zostać dostosowane do rzeczywistości, w której oprócz tradycyjnych utworów pojawiają się także treści generowane za pomocą sztucznej inteligencji.

Reasumując można wymienić następujące ryzyka prawne związane z korzystaniem z chatGPT:

  • możliwe naruszenie praw własności intelektualnej oraz istoty rozwiązań własności przemysłowej
  • możliwe ujawnienie tajemnicy przedsiębiorstwa, know-how, informacji poufnych oraz danych osobowych
  • ujawnienie tajemnic prawnie chronionych
  • przekazywanie danych osobowych poza granice Unii Europejskiej
  • naruszenie zasad etyki zawodowej, zachowania niezgodne z zasadami współżycia społecznego
  • odpowiedzialność odszkodowawcza związana z naruszeniami bądź wynikająca z wykorzystania danych wyjściowych bez sprawdzenia ich poprawności.

Jakie są jeszcze ryzyka korzystania z chatGPT? Opisz swoje doświadczenia i pozostaw swoją odpowiedź w komentarzu.

Zapraszam do kontaktu z kancelarią.

The main photo at the beginning by Markus Winkler on Unsplash

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *