Strona główna Bezpieczeństwo biznesu O Białej Księdze Unii Europejskiej w sprawie sztucznej inteligencji

O Białej Księdze Unii Europejskiej w sprawie sztucznej inteligencji

Marek Ryszkowski


Do wielu pracowników ochrony fizycznej i pracowników zabezpieczenia technicznego dotarła już zapewne informacja o tym, że 19 lutego 2020 r. Komisja Europejska udostępniła państwom członkowskim – do konsultacji – Białą Księgę dot. sztucznej inteligencji. Konsultacje mają trwać trzy miesiące, do 19 maja br. Potem rozpoczną się prace nad dyrektywą europejską, która określi podstawy i ramy prawne rozwoju technologii sztucznej inteligencji (AI, Artificial Intelligence) w krajach członkowskich Unii Europejskiej. Należy oczekiwać, że będą się one toczyć w trybie pilnym (urgent), gdyż drażliwy moralnie dla wielu europejskich pięknoduchów problem bezpiecznego dla ludzi wdrażania i stosowania AI w technice z pewnością nie ominie Europy.

Zanim przystąpię do przybliżenia myśli zawartych w Białej Księdze Unii Europejskiej w sprawie AI (dalej „BKUEws.AI”), chciałbym przywołać definicję AI, a właściwie kilka spośród wielu definicji, które zostały sformułowane w różnych szkołach informatycznych, od lat zajmujących się tym skomplikowanym zagadnieniem. Pierwsza z przywołanych poniżej pochodzi z Wielkiej Encyklopedii PWN, z jej tomu 26, wydanego w 2005 r. Zatem definicja ta odzwierciedla stan wiedzy o „sztucznej inteligencji”, jaki badacze problemu ówcześnie, przed piętnastu laty, posiadali. Oto fragmenty obszernego hasła „sztuczna inteligencja”, znajdującego się na stronach 478-479 podanego tomu encyklopedii.

Sztuczna inteligencja (SI), ang. Artificial Intelligence (AI), dziedzina nauki zajmująca się badaniem mechanizmów ludzkiej inteligencji oraz modelowaniem i konstruowaniem systemów, które są w stanie wspomagać lub zastępować inteligentne działanie człowieka. Nazwa dziedziny została zaproponowana w 1956 r. przez J. McCarthy’ego (USA). W nurcie teoretycznym SI łączy zagadnienia z: informatyki, psychologii, antropologii, matematyki, neurofizjologii, elektroniki [i] filozofii; w nurcie doświadczalnym (SI stosowana) jest traktowana jako gałąź informatyki; […] W ujęciu hist. można wyodrębnić 4 niekoniecznie rozdzielne etapy rozwoju SI: dojrzewania koncepcji (1943 56), wczesnego entuzjazmu (1952-69), dozy realizmu i systemów opartych na wiedzy (1966-79) oraz etap zastosowań SI w przemyśle […] (od 1980). […] Od połowy lat 80. XX w. […] [w] wielu dziedzinach, takich jak gry, wnioskowanie log. i dowodzenie, planowanie oraz diagnozy med., […] systemy [SI] działają równie dobrze, a nawet lepiej niż człowiek ekspert.

Do chwili obecnej [rok 2005] […] większość sformułowanych definicji SI można podzielić na 4 kategorie, w których system komputerowy może: 1) myśleć jak człowiek, 2) działać jak człowiek, 3) myśleć racjonalnie (wg schematów logiki klas.) oraz 4) działać racjonalnie (co wymaga, chociaż nie we wszystkich sytuacjach, ustalenia celów i wnioskowania log. prowadzącego do ich osiągnięcia) […].

Tekst zacytowanego hasła opracował Andrzej Wiśniewski. Różne wstawki ujęte w nawiasy kwadratowe są dziełem autora niniejszego artykułu.

Dla ilustracji różnic w sposobie definiowania terminu „sztuczna inteligencja” przytoczę kilka wersji definicji tego terminu, które znajdują się w tekście polskojęzycznym BKUEws.AI. Mam nadzieję, że jest to tłumaczenie profesjonalne, wiernie oddające literę i ducha tekstu angielskiego cytowanej definicji. Oto definicja, która znajduje się na str. 2 Białej Księgi, dokumentu Komisji Europejskiej oznaczonego symbolem unijnym COM(2020) 65 final. Wszystkie cytaty z tego dokumentu, który liczy łącznie 30 stron znormalizowanego wydruku komputerowego formatu A4, zapisanych czcionką Calibri 11, opatrzono cudzysłowem.
„Sztuczna inteligencja to zbiór technologii łączących dane, algorytmy i moc obliczeniową. […]. Ekosystem sztucznej inteligencji może zapewnić korzyści płynące z tej technologii dla całego społeczeństwa i gospodarki:

  • dla obywateli – np. lepsza opieka zdrowotna, rzadziej psujący się sprzęt AGD, bezpieczniejsze i czystsze systemy transportu, lepsze usługi publiczne;
  • dla rozwoju przedsiębiorstw – np. nowa generacja produktów i usług w obszarach, w których Europa jest szczególnie silna (sektor maszyn, transportu, cyberbezpieczeństwa [podkr. M.R.], rolnictwa, zielona gospodarka o obiegu zamkniętym, sektor opieki zdrowotnej i sektory o wysokiej wartości dodanej, takie jak moda i turystyka); oraz
  • dla usług interesu publicznego – np. zmniejszenie kosztów świadczenia usług (transport, edukacja, energia i gospodarowanie odpadami), poprawa zrównoważonego charakteru produktów oraz wyposażenie organów egzekwowania prawa w adekwatne narzędzia zapewniające bezpieczeństwo obywateli [podkr. M.R.], przy zachowaniu odpowiednich zabezpieczeń w odniesieniu do ich praw i swobód”.

Inne brzmienie definicji AI ze str. 19 Białej Księgi:
„Termin sztuczna inteligencja odnosi się do systemów, które wykazują inteligentne zachowanie dzięki analizie otoczenia i podejmowaniu działań – do pewnego stopnia autonomicznie – w celu osiągnięcia konkretnych celów. Systemy AI mogą być oparte na oprogramowaniu, działając w świecie wirtualnym (np. asystenci głosowi, oprogramowanie do analizy obrazu, wyszukiwarki, systemy rozpoznawania mowy i twarzy [podkr. M.R.]), lub mogą być wbudowane w urządzenia (np. zaawansowane roboty, samochody autonomiczne, drony lub aplikacje Internetu Rzeczy)”.

Na 19 stronie BKUEws.AI znajduje się także poniższy tekst uzupełniający przytoczoną wyżej definicję terminu AI:
„Systemy sztucznej inteligencji (AI) to oprogramowanie (i ewentualnie również sprzęt komputerowy – ang. hardware) zaprojektowane przez człowieka, które – aby osiągnąć złożony cel – działają w wymiarze fizycznym lub cyfrowym, postrzegając swoje środowisko poprzez pozyskiwanie danych, interpretując zgromadzone dane (ustrukturyzowane lub nie), wyciągając wnioski na podstawie tych danych lub przetwarzając informacje, których źródłem są te dane, oraz podejmując decyzje w sprawie najlepszych działań, jakie należy podjąć, aby zrealizować dany cel. Systemy sztucznej inteligencji mogą wykorzystywać zasady symboliczne albo uczyć się na podstawie modelu numerycznego i mogą również dostosować swoje zachowanie poprzez analizę wpływu ich wcześniejszych działań na środowisko”.
Uważny czytelnik zauważy niewątpliwie w tekście ww. Białej Księgi jeszcze inne definicje terminu AI i teksty je uzupełniające.

W BKUEws.AI zaproponowano warianty strategiczne, umożliwiające bezpieczny rozwój godnej zaufania sztucznej inteligencji w Europie, przy pełnym poszanowaniu wartości i praw obywateli państw zrzeszonych w UE. Głównymi elementami Białej Księgi są:

  • „Ramy polityczne określające środki służące połączeniu wysiłków na szczeblu europejskim, krajowym i regionalnym. Dzięki partnerstwu sektora publicznego i prywatnego ramy te powinny zmobilizować zasoby w celu osiągnięcia ekosystemu doskonałości wzdłuż całego łańcucha wartości, począwszy od badań naukowych i innowacji, a także stworzyć odpowiednie zachęty do przyspieszenia przyjmowania rozwiązań opartych na sztucznej inteligencji, w tym przez małe i średnie przedsiębiorstwa (MŚP).
  • Kluczowe elementy przyszłych ram regulacyjnych dotyczących sztucznej inteligencji w Europie, które stworzą wyjątkowy ekosystem zaufania. W tym celu muszą one zapewniać poszanowanie przepisów UE, w tym przepisów służących ochronie praw podstawowych i praw konsumentów, w szczególności w odniesieniu do wykorzystywanych w UE systemów AI, charakteryzujących się wysokim ryzykiem. Budowanie ekosystemu zaufania jest celem politycznym samym w sobie i powinno zachęcać obywateli do stosowania sztucznej inteligencji oraz oferować przedsiębiorstwom i organizacjom publicznym pewność prawa umożliwiającą innowacyjność z wykorzystaniem AI. Komisja zdecydowanie popiera podejście, w którego centrum jest człowiek i które będzie opierać się na komunikacie w sprawie budowania zaufania do sztucznej inteligencji ukierunkowanej na człowieka. Komisja uwzględni również wkład uzyskany w fazie pilotażowej prac nad wytycznymi dotyczącymi etyki, przygotowanymi przez grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji”.

Europejska strategia w zakresie danych proponowana w Białej Księdze ma na celu umożliwić Europie szybkie osiągnięcie statusu najbardziej atrakcyjnej, bezpiecznej i dynamicznej gospodarki, która sprawnie wykorzystuje dane, wyposażając Europę w wiedzę umożliwiającą podejmowanie lepszych decyzji, co niewątpliwie poprawi życie obywateli państw członkowskich UE. W strategii tej określono szereg środków z zakresu polityki, m.in. mobilizację inwestycji prywatnych i publicznych niezbędnych do osiągnięcia tego celu. Wpływ sztucznej inteligencji, Internetu Rzeczy i innych technologii cyfrowych na przepisy dotyczące bezpieczeństwa i odpowiedzialności został przeanalizowany w Sprawozdaniu Komisji towarzyszącym Białej Księdze (ramka na s. 18 księgi).

Pracowników branży bezpieczeństwa i ochrony (ang. safety & security) zainteresuje niewątpliwie to, co w BKUEws.AI napisano w sprawie stosowania biometrycznych urządzeń i systemów identyfikowania osób, szeroko wykorzystywanych już od lat przez przedsiębiorstwa tej branży. Oto niektóre z tych zapisów:

  • „Dane biometryczne definiuje się jako dane osobowe, które wynikają ze specjalnego przetwarzania technicznego, dotyczą cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej oraz umożliwiają lub potwierdzają jednoznaczne uwierzytelnienie lub identyfikację tej osoby, takie jak wizerunek twarzy lub dane daktyloskopijne.

  • W odniesieniu do rozpoznawania twarzy identyfikacja oznacza, że wzór obrazu twarzy danej osoby jest porównywany z wieloma innymi wzorami przechowywanymi w bazie danych w celu stwierdzenia, czy obraz twarzy tej osoby jest przechowywany w tej bazie danych. Uwierzytelnienie (lub weryfikacja) natomiast często odnosi się do porównania „jeden do jednego”. Umożliwia ono porównanie dwóch wzorców biometrycznych, co do których zasadniczo zakłada się, że należą do tej samej osoby. Dwa wzorce biometryczne są porównywane w celu określenia, czy osoba wskazana na dwóch obrazach jest tą samą osobą. Taka procedura jest np. stosowana w bramkach zautomatyzowanej kontroli granicznej wykorzystywanych do odprawy granicznej w portach lotniczych.

  • Na przykład w odniesieniu do godności ludzkiej, jeśli chodzi o korzystanie z technologii rozpoznawania twarzy, prawo do poszanowania życia prywatnego i ochrony danych osobowych jest ważnym elementem kwestii związanych z prawami podstawowymi. Występuje również potencjalny wpływ związany z brakiem dyskryminacji i prawami grup specjalnych, takich jak dzieci, osoby starsze i osoby z niepełnosprawnościami. Ponadto stosowanie tej technologii nie może ograniczać wolności słowa, zrzeszania się i zgromadzeń”. [Zob.: Facial recognition technology: fundamental rights considerations in the context of law enforcement (Technologia rozpoznawania twarzy: kwestie związane z prawami podstawowymi w kontekście egzekwowania prawa, https://fra.europa.eu/en/publication/2019/facial-recognition)]

Regulacje europejskie w sprawie ochrony danych biometrycznych znajdują się także w art. 9 RODO, art. 10 dyrektywy w sprawie egzekwowania prawa, a także w art. 10 rozporządzenia (UE) 2018/1725 (mającego zastosowanie do instytucji i organów UE), które znajdują się także w Polsce.

W BKUEws.AI zaznaczono obawy związane głównie z gwałtownym i niekontrolowanym prawnie rozpowszechnianiem się AI w krajach unijnych. (cyt.):
„Sztuczna inteligencja może przynieść wiele korzyści, w tym poprzez zwiększenie bezpieczeństwa produktów i procesów, może ona również wyrządzić szkody. Szkody te mogą być zarówno materialne (dla bezpieczeństwa i zdrowia osób, w tym utrata życia, szkody rzeczowe), jak i niematerialne (utrata prywatności, ograniczenie prawa do wolności słowa, naruszenie godności ludzkiej, dyskryminacja związana np. z dostępem do zatrudnienia) i mogą wiązać się z wieloma różnymi rodzajami ryzyka. Ramy regulacyjne powinny koncentrować się na tym, jak zminimalizować różne rodzaje ryzyka związane z potencjalnymi szkodami, zwłaszcza najpoważniejszymi.

Główne zagrożenia związane z AI dotyczą stosowania przepisów mających na celu ochronę praw podstawowych (w tym przepisów dotyczących ochrony danych osobowych i prywatności oraz niedyskryminacji), a także kwestii związanych z bezpieczeństwem i odpowiedzialnością. […] Zagrożenia te mogą być wynikiem wadliwego opracowania systemów sztucznej inteligencji (w tym w odniesieniu do nadzoru przez człowieka) lub wykorzystywania danych bez korygowania możliwych uprzedzeń (np. system jest szkolony z wykorzystaniem wyłącznie lub głównie danych pochodzących od mężczyzn, co może prowadzić do nieoptymalnych wyników w odniesieniu do kobiet)”.

Temat zagrożeń jest kontynuowany w BKUEws.AI następująco:
„Sztuczna inteligencja może pełnić wiele funkcji, które wcześniej mogły być wykonywane wyłącznie przez człowieka [podkr. M.R.]. W związku z tym obywatele i osoby prawne będą w coraz większym stopniu podlegać działaniom i decyzjom podejmowanym przez systemy sztucznej inteligencji lub z ich pomocą, które czasami mogą być trudne do zrozumienia i od których może być się trudno odwołać w razie potrzeby. Ponadto sztuczna inteligencja zwiększa możliwość śledzenia i analizowania codziennych poczynań ludzi [podkr. M.R.]. Na przykład istnieje potencjalne ryzyko, że sztuczna inteligencja może być wykorzystywana – z naruszeniem unijnych przepisów dotyczących ochrony danych i innych – przez organy państwowe lub inne podmioty prowadzące masowy nadzór oraz przez pracodawców obserwujących zachowanie pracowników.

Poprzez dokonywanie analizy dużych ilości danych i identyfikację powiązań między nimi sztuczna inteligencja może być również wykorzystywana do znajdowania źródeł pochodzenia danych i deanonimizacji danych dotyczących osób, co stwarza nowe zagrożenie dla ochrony danych osobowych, nawet w odniesieniu do zbiorów danych, które same w sobie nie obejmują danych osobowych. Sztuczna inteligencja jest również wykorzystywana przez pośredników internetowych do priorytetowego traktowania informacji dla swoich użytkowników i moderacji treści. Przetwarzane dane, projekt aplikacji i możliwość interwencji człowieka mogą mieć wpływ na prawo do wolności słowa, ochrony danych osobowych, prywatności i swobód politycznych”.

Dalej o zagrożeniach powodowanych przez AI w omawianej księdze napisano:
„Szczególne cechy technologii sztucznej inteligencji, w tym nieprzejrzystość (efekt czarnej skrzynki), złożoność, nieprzewidywalność i częściowo samodzielne działanie mogą utrudniać weryfikację zgodności oraz egzekwowanie istniejących przepisów UE służących ochronie praw podstawowych. Organy egzekwowania prawa i zainteresowane osoby mogą nie mieć możliwości sprawdzenia, w jaki sposób dana decyzja, w którą zaangażowana była AI, została podjęta, a zatem czy obowiązujące przepisy były przestrzegane. Osoby fizyczne i prawne mogą mieć trudności z faktycznym dostępem do wymiaru sprawiedliwości w sytuacjach, w których takie decyzje mogą mieć na nie negatywny wpływ”.

BKUEws.AI i trzymiesięczne konsultacje w sprawie europejskich problemów z AI są, a przyszła dyrektywa europejska w sprawie AI (przede wszystkim) będzie próbą wprowadzenia do zasobu przepisów prawnych UE regulacji, które ograniczą, a być może usuną wspomniane wyżej obawy przed AI, albo może chociaż ograniczą je do minimum. Komisja Europejska jest zdania, że można ulepszyć europejskie ramy legislacyjne, aby uwzględnić następujące zagrożenia i sytuacje:

  • Skuteczne stosowanie i egzekwowanie obowiązujących przepisów unijnych i krajowych: najważniejsze cechy sztucznej inteligencji stanowią wyzwanie dla zapewnienia właściwego stosowania i egzekwowania przepisów unijnych i krajowych. Brak przejrzystości AI sprawia, że trudno jest określić i udowodnić ewentualne naruszenia prawa, w tym przepisów, które chronią prawa podstawowe, przypisują odpowiedzialność i określają warunki konieczne do dochodzenia odszkodowania. W związku z tym, aby zapewnić skuteczne stosowanie i egzekwowanie przepisów, konieczne może być dostosowanie lub doprecyzowanie obowiązujących przepisów w niektórych obszarach, np. w odniesieniu do odpowiedzialności, jak szczegółowo opisano w sprawozdaniu towarzyszącym niniejszej Białej Księdze.
  • Zmieniająca się funkcjonalność systemów sztucznej inteligencji: włączenie oprogramowania, w tym sztucznej inteligencji, do produktów może zmienić funkcjonowanie takich produktów i systemów w trakcie ich cyklu życia. Dotyczy to w szczególności systemów, które wymagają częstych aktualizacji oprogramowania lub opierają się na uczeniu maszynowym. Cechy te mogą wiązać się z nowymi zagrożeniami, które nie występowały w momencie wprowadzenia systemu na rynek. Zagrożenia te nie są odpowiednio uwzględnione w obowiązującym prawodawstwie, które koncentruje się głównie na ryzyku związanym z bezpieczeństwem produktów w momencie wprowadzania ich do obrotu.
  • Zmiany pojęcia bezpieczeństwa: wykorzystywanie sztucznej inteligencji w produktach i usługach może stwarzać zagrożenia, które obecnie nie są przedmiotem przepisów UE. Zagrożenia te mogą dotyczyć cyberbezpieczeństwa, bezpieczeństwa osobistego (np. w związku z nowymi zastosowaniami sztucznej inteligencji, takimi jak w urządzeniach gospodarstwa domowego), utraty łączności itd. Zagrożenia te mogą występować w momencie wprowadzania produktów do obrotu lub powstawać w wyniku aktualizacji oprogramowania lub uczenia się maszyn w trakcie stosowania produktu. UE powinna w pełni wykorzystać dostępne jej narzędzia, aby zwiększyć bazę dowodową na temat potencjalnych zagrożeń związanych z zastosowaniami AI, w tym wykorzystać doświadczenia Agencji UE ds. Cyberbezpieczeństwa (ENISA) do oceny krajobrazu zagrożeń związanych ze sztuczną inteligencją.

W Białej Księdze poinformowano: „Kilka tylko państw członkowskich UE analizuje już możliwości związane z prawodawstwem krajowym, w celu sprostania wyzwaniom stwarzanym przez AI. Zwiększa to ryzyko rozdrobnienia jednolitego rynku europejskiego.”

Rozbieżne przepisy krajowe mogą stwarzać przeszkody dla przedsiębiorstw, które chcą sprzedawać i eksploatować systemy AI na europejskim jednolitym rynku. Zapewnienie wspólnego podejścia na szczeblu UE przyniosłoby europejskim przedsiębiorstwom korzyści wynikające ze sprawnego dostępu do tego jednolitego rynku i zwiększyłoby ich konkurencyjność na rynkach światowych. Zamieszczając tę uwagę w BKUEws.AI, Komisja Europejska zachęca wszystkie kraje członkowskie, zwłaszcza te, które dotychczas mało interesował problem AI, do udziału w analizowaniu i dostosowywaniu prawa krajowego do wymagań przyszłego prawa unijnego.

Marek Ryszkowski
dr inż., ekspert KSOIN, autor licznych artykułów i kilku książek z zakresu prawa ochrony informacji niejawnych, były pełnomocnik ochrony informacji niejawnych w kilku podmiotach prawa handlowego.