Wdrożenie AI Act w przemyśle farmaceutycznym – jak skutecznie przygotować organizację na nowe regulacje?

Kategoria: Prawo
8 min. czytania
Wdrożenie-AI-Act-w-przemyśle-farmaceutycznym

Sztuczna inteligencja (AI) odgrywa coraz większą rolę w przemyśle farmaceutycznym, wpływając na sposób prowadzenia badań klinicznych, procesy diagnostyczne czy personalizację terapii. Automatyzacja analizy i przetwarzania dużych zbiorów danych (big data) pozwala na znaczne skrócenie czasu potrzebnego do opracowania nowych leków, co może prowadzić do szybszego wprowadzania ich na rynek. Wykorzystanie sztucznej inteligencji umożliwia także precyzyjniejszą ocenę skuteczności terapii oraz prognozowanie reakcji organizmu na określone substancje aktywne.

Dynamiczny rozwój tej technologii niesie jednak nie tylko korzyści, ale również wyzwania związane z przejrzystością działania algorytmów, ochroną danych osobowych pacjentów i uczestników badań klinicznych oraz odpowiedzialnością za decyzje podejmowane przez systemy AI. W odpowiedzi na te wyzwania Unia Europejska opracowała AI Act, czyli pierwsze kompleksowe rozporządzenie regulujące stosowanie sztucznej inteligencji. Nowe przepisy wprowadzają jednolite standardy dla państw członkowskich i obejmują m.in. obowiązek oceny ryzyka systemów AI, konieczność wdrożenia procedur zapewniających ich transparentność oraz wymóg spełniania określonych norm w zakresie bezpieczeństwa i etyki.

AI Act jest rozporządzeniem, a więc stosuje się go bezpośrednio we wszystkich krajach Unii Europejskiej, bez konieczności implementacji do prawa krajowego. To oznacza, że przedsiębiorcy, instytucje badawcze i placówki medyczne muszą dostosować swoje systemy AI dokładnie do tego, co nakazuje rozporządzenie​. W celu ułatwienia dostosowania się do nowych regulacji sama Komisja Europejska wprost w AI ACT zachęca do tworzenia wytycznych i kodeksów etycznych dotyczących AI przez poszczególne kraje członkowskie, a także sama zobowiązuje się do wydawania takich wytycznych (podobnie jak to ma miejsce w przypadku regulacji dotyczących wyrobów medycznych), dlatego należy się spodziewać takich wytycznych w przyszłości, co może ułatwić poruszanie się w tej nowej materii przez przedsiębiorstwa z sektora farmaceutycznego.

Skutkiem całego zamieszania jest to, że firmy farmaceutyczne wykorzystujące systemy AI w swoich procesach będą musiały dostosować się do nowych wymogów prawnych, co oznacza konieczność przeprowadzenia audytów, wdrożenia nowych procedur nadzoru nad AI oraz zapewnienia zgodności technologii z regulacjami unijnymi. Dostosowanie się do AI Act nie tylko pozwoli uniknąć sankcji, ale również może przyczynić się do zwiększenia zaufania pacjentów i regulatorów do innowacyjnych rozwiązań wykorzystywanych w medycynie i farmacji.

AI Act a sektor farmaceutyczny – główne założenia

Głównym celem AI Act jest zapewnienie bezpiecznego, etycznego i przejrzystego stosowania systemów sztucznej inteligencji w Unii Europejskiej. AI Act klasyfikuje systemy AI według czterech poziomów ryzyka i wprowadza odpowiednie wymogi dla każdej z kategorii:

  1. Ryzyko minimalne lub brak ryzyka – Większość systemów sztucznej inteligencji nie stanowi zagrożenia dla użytkowników. Obejmuje to technologie, które ulepszają codzienne procesy bez ingerencji w prawa użytkowników i ich bezpieczeństwo. AI Act nie ma wpływu na działanie tych systemów.
  2. Ryzyko ograniczone – Systemy AI powodujące ograniczone ryzyko wymagają przestrzegania zasad przejrzystości, aby użytkownicy mieli świadomość, że mają do czynienia ze sztuczną inteligencją. Przykładem systemów AI o ograniczonym ryzyku są chatboty i wirtualni asystenci – które muszą poinformować użytkownika, że komunikacja odbywa się z AI, a nie z człowiekiem.
  3. Ryzyko wysokie – chodzi tutaj osystemy AI, które mogą wpływać na życie i bezpieczeństwo ludzi. Podlegają one szczegółowym wymogom dotyczącym testowania, przejrzystości i nadzoru człowieka. Przykładem systemów AI o wysokim ryzyku w branży farmaceutycznej jest algorytm AI analizujący wyniki badań klinicznych i prognozujący skuteczność nowych leków. Systemy te muszą spełniać rygorystyczne wymagania dotyczące przejrzystości i nadzoru oraz przejść procedurę certyfikacyjną przed dopuszczeniem na rynek UE.
  4. Ryzyko nieakceptowalne – Niektóre systemy sztucznej inteligencji są uznane za niebezpieczne i ich stosowanie w UE jest zakazane. AI Act zakazuje wykorzystania systemów, które mogą naruszać prawa człowieka, prowadzić do manipulacji behawioralnej lub stanowić zagrożenie dla bezpieczeństwa.

Bez wątpienia największe znaczenie dla sektora farmaceutycznego mają przepisy dotyczące systemów wysokiego ryzyka. W tej kategorii znajdują się technologie wykorzystywane w diagnostyce medycznej, analizie wyników badań klinicznych oraz ocenie skuteczności nowych leków. Systemy te będą podlegać szczególnie restrykcyjnym regulacjom, obejmującym m.in. obowiązek zapewnienia nadzoru ludzkiego nad działaniem algorytmów, konieczność przeprowadzania audytów ich zgodności oraz wymóg prowadzenia szczegółowej dokumentacji dotyczącej procesów decyzyjnych sztucznej inteligencji.

Wprowadzenie tych przepisów ma na celu zwiększenie transparentności i bezpieczeństwa stosowania AI w farmacji. Dotychczas wiele algorytmów wykorzystywanych w analizie danych klinicznych działało na zasadzie tzw. „czarnej skrzynki”, co oznaczało, że decyzje podejmowane przez system były trudne do zweryfikowania przez człowieka. AI Act nakłada na producentów i użytkowników takich systemów obowiązek zapewnienia ich przejrzystości, co oznacza konieczność wyjaśnienia mechanizmów, na podstawie których algorytm dochodzi do określonych wniosków.

Nowe regulacje obejmują również kwestie związane z ochroną danych osobowych pacjentów. Wiele systemów AI stosowanych w medycynie przetwarza wrażliwe informacje dotyczące stanu zdrowia pacjentów, co wiąże się z ryzykiem naruszenia ich prywatności. AI Act nakłada obowiązek stosowania odpowiednich zabezpieczeń technologicznych i organizacyjnych, które mają na celu minimalizację tego ryzyka. Firmy farmaceutyczne będą musiały m.in. wdrożyć systemy anonimizacji danych, a także zapewnić, że przetwarzanie informacji odbywa się zgodnie z obowiązującymi przepisami o ochronie prywatności, w tym z RODO.

Jakie wyzwania niesie rozporządzenie AI Act dla firm farmaceutycznych?

AI Act nakłada na firmy farmaceutyczne szereg obowiązków związanych z dostosowaniem ich systemów AI do nowych regulacji. Wdrożenie tych przepisów oznacza konieczność przeprowadzenia audytów wewnętrznych, które pozwolą na ocenę stopnia zgodności stosowanych technologii AI z nowymi wymogami prawnymi. Firmy będą zobowiązane do wdrożenia procedur pozwalających na bieżące monitorowanie działania systemów sztucznej inteligencji oraz zapewnienie ich transparentności.

Ważnym elementem regulacji jest również konieczność przeprowadzania certyfikacji systemów AI wysokiego ryzyka. Proces ten może być czasochłonny i kosztowny, jednak jego spełnienie będzie warunkiem koniecznym do dalszego stosowania tych technologii w Unii Europejskiej.

Dostosowanie się do AI Act wymagać będzie również współpracy z European AI Office oraz odpowiednimi organami regulacyjnymi krajów członkowskich, które będą odpowiedzialne za nadzorowanie zgodności stosowanych systemów z nowymi przepisami.

Ochrona danych pacjentów

Systemy AI wykorzystywane w branży farmaceutycznej często przetwarzają ogromne ilości danych wrażliwych dotyczących pacjentów, takich jak informacje o przebytych chorobach, wynikach badań laboratoryjnych czy stosowanych terapiach. W związku z tym jednym z kluczowych wyzwań wynikających z wdrożenia AI Act jest zapewnienie odpowiedniego poziomu ochrony tych danych.

Nowe regulacje wymagają wdrożenia mechanizmów pozwalających na minimalizację ryzyka nieuprawnionego dostępu do danych pacjentów. Firmy farmaceutyczne będą musiały stosować zaawansowane metody anonimizacji i pseudonimizacji, które pozwolą na przetwarzanie informacji bez naruszania prywatności pacjentów.

Kolejnym istotnym aspektem jest zapewnienie pełnej transparentności w zakresie sposobu wykorzystywania danych przez systemy AI. Firmy będą zobowiązane do opracowania szczegółowej dokumentacji określającej, jakie informacje są przetwarzane, w jakim celu oraz jakie zabezpieczenia zostały wdrożone w celu ochrony prywatności pacjentów.

Wpływ na badania i rozwój (R&D)

Wykorzystanie AI w badaniach i rozwoju nowych leków stało się jednym z kluczowych narzędzi przyspieszających proces opracowywania innowacyjnych terapii. Dzięki zastosowaniu AI możliwe jest analizowanie dużych zbiorów danych w krótkim czasie, co pozwala na szybsze identyfikowanie potencjalnych substancji leczniczych oraz przewidywanie ich skuteczności.

Negatywną konsekwencją nowych regulacji może być jednak wydłużenie czasu wdrażania innowacji, ponieważ firmy farmaceutyczne będą zobowiązane do spełnienia dodatkowych wymagań prawnych. Konieczność przeprowadzania certyfikacji oraz wdrażania mechanizmów zapewniających zgodność z AI Act może opóźnić procesy badawcze i zwiększyć koszty związane z rozwojem nowych technologii.

Jednym z głównych wyzwań będzie również konieczność zapewnienia pełnej transparentności modeli AI wykorzystywanych w badaniach klinicznych. Firmy będą musiały opracować mechanizmy umożliwiające interpretację decyzji podejmowanych przez sztuczną inteligencję, co może wymagać dodatkowych zasobów finansowych oraz wdrożenia nowych standardów analizy danych. Dodatkowo konieczne będzie zapewnienie, że systemy AI są nadzorowane przez ludzi, którzy będą mogli interweniować, jeśli zauważą błąd lub ryzyko związane z działaniem systemu. Może to wymagać nowych procedur, aby użytkownicy mieli pełną świadomość, kiedy i jak należy zatrzymać lub poprawić działanie systemu.

Jak przygotować organizację na wdrożenie AI Act?

Przystosowanie do wymogów AI Act będzie wymagało kompleksowego podejścia, obejmującego zarówno analizę obecnych procesów, jak i wdrożenie nowych standardów zapewniających zgodność z regulacjami. Wdrożenie nowych zasad wymaga zaangażowania zarówno działów prawnych, jak i technologicznych, ponieważ konieczne będzie dostosowanie zarówno systemów AI, jak i praktyk zarządzania danymi oraz kontroli ryzyka.

Audyt obecnych systemów AI

Pierwszym krokiem w procesie dostosowania się do AI Act powinno być dokładne przeanalizowanie aktualnie stosowanych systemów sztucznej inteligencji i ocena ich zgodności z nowymi regulacjami. Firmy powinny w szczególności sprawdzić, czy ich obecne systemy należą do kategorii wysokiego ryzyka, co oznacza konieczność spełnienia dodatkowych wymogów regulacyjnych.

Przeprowadzenie audytu powinno obejmować analizę wykorzystywanych algorytmów, sposobu przetwarzania danych oraz mechanizmów podejmowania decyzji przez AI. W szczególności należy ocenić, czy algorytmy działają w sposób transparentny i czy możliwe jest wyjaśnienie ich decyzji w sposób zrozumiały dla użytkownika. W przypadku wykrycia braków organizacje powinny podjąć działania mające na celu dostosowanie systemów do nowych wymogów, np. poprzez wdrożenie dodatkowych mechanizmów weryfikacyjnych.

Opracowanie strategii zgodności

Aby skutecznie wdrożyć AI Act, firmy farmaceutyczne powinny opracować spójną strategię dostosowania się do nowych regulacji. Pomocne może być powołanie zespołu ds. zgodności z AI Act, który będzie odpowiedzialny za monitorowanie zmian legislacyjnych i technologicznych oraz wdrażanie odpowiednich procedur.

Koniecznym elementem przygotowań jest również wprowadzenie wymogu okresowych szkoleń dla pracowników, które pozwolą na zrozumienie nowych regulacji oraz skuteczne wdrożenie zasad zgodności w codziennej pracy. Szczególnie istotne jest przeszkolenie zespołów IT i badawczo-rozwojowych, które zajmują się wdrażaniem i zarządzaniem systemami AI.

Aby dostosować się do wymogów AI Act, firmy farmaceutyczne muszą też wdrożyć skuteczne procedury zarządzania ryzykiem związanym ze sztuczną inteligencją. Oznacza to konieczność stałego monitorowania działania systemów AI, identyfikowania potencjalnych zagrożeń oraz szybkiego reagowania na wszelkie pojawiające się nieprawidłowości. W tym kontekście warto zapoznać się z globalną normą ISO 42001, która zawiera ogólne wytyczne dotyczące zarządzania sztuczną inteligencją. Może ona stanowić bazę w budowie systemów nadzoru nad AI, jednak należy pamiętać, że jej zapisy mogą być niewystarczające dla specyficznych wymagań branży farmaceutycznej, zwłaszcza w przypadku systemów AI klasyfikowanych jako te wysokiego ryzyka.

Transparentność i nadzór ludzki w AI

AI Act kładzie duży nacisk na przejrzystość i etyczne stosowanie sztucznej inteligencji. Firmy farmaceutyczne będą musiały wdrożyć mechanizmy pomagające zrozumieć zachowania algorytmów AI oraz minimalizujące ryzyko błędów.

Jednym z głównych wyzwań będzie zapewnienie, że systemy AI działają w sposób przewidywalny i zgodny z etycznymi standardami. Organizacje będą musiały wdrożyć procesy pozwalające na analizę i interpretację decyzji podejmowanych przez AI oraz stworzyć mechanizmy umożliwiające interwencję w przypadku wykrycia nieprawidłowości.

Kolejnym istotnym aspektem jest odpowiedzialność za decyzje podejmowane przez AI. Firmy będą musiały opracować procedury pozwalające na monitorowanie działania algorytmów oraz wdrożyć mechanizmy umożliwiające interwencję człowieka w przypadku wykrycia błędnych decyzji.

Inwestycja w cyberbezpieczeństwo

AI Act wprowadza również obowiązek zapewnienia wysokiego poziomu bezpieczeństwa systemów AI, co oznacza konieczność wdrożenia zaawansowanych mechanizmów ochrony danych pacjentów. Firmy farmaceutyczne wykorzystujące systemy AI będą musiały uwzględnić rozwiązania umożliwiające skuteczne zabezpieczenie systemów AI przed atakami cybernetycznymi.

Firmy powinny opracować strategie zarządzania bezpieczeństwem danych, które obejmują m.in. wdrożenie technologii szyfrowania, systemów wykrywania zagrożeń oraz mechanizmów zapewniających integralność przetwarzanych danych. Zapewnienie zgodności z nowymi regulacjami w zakresie cyberbezpieczeństwa pozwoli na minimalizację ryzyka naruszeń danych oraz ochronę prywatności pacjentów.

Podsumowanie

Sztuczna inteligencja w przemyśle farmaceutycznym otwiera drzwi do nowej ery medycyny, w której badania kliniczne są szybsze, diagnostyka bardziej precyzyjna, a leczenie spersonalizowane. Możliwości, jakie daje AI są ogromne, jednak ich wdrożenie musi odbywać się w sposób bezpieczny, przejrzysty i zgodny z obowiązującymi regulacjami.

Dostosowanie się przedsiębiorstwa do nowych regulacji nie jest jedynie obowiązkiem prawnym, ale także szansą na zwiększenie zaufania pacjentów, organów regulacyjnych i partnerów biznesowych. Przejrzystość działania algorytmów, odpowiednia ochrona danych pacjentów oraz wdrożenie skutecznych mechanizmów nadzoru nad AI pozwolą firmom farmaceutycznym nie tylko uniknąć sankcji, ale także zbudować przewagę konkurencyjną.

Najbliższe miesiące będą kluczowe dla sektora farmaceutycznego. Z tego powodu organizacje powinny jak najszybciej rozpocząć audyt swoich systemów AI, dostosować procedury zarządzania ryzykiem i zainwestować w cyberbezpieczeństwo. Warto zacząć wdrażać zmiany już teraz, aby płynnie przejść przez okres adaptacji do nowych standardów prawnych, co pozwoli uniknąć nieprzewidzianych problemów i kosztownych zmian w przyszłości.

Bibliografia

  1. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie sztucznej inteligencji (AI Act) – dostępne online: https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32024R1689.

  2. Strategia cyfrowa Unii Europejskiej – Europejskie podejście do sztucznej inteligencji, Komisja Europejska – dostępne online: https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence.

Autorzy

  • Błażej-Wągiel-IPSo-legal

    Błażej Wągiel

    radca prawny, ekspert prawa medycznego i farmaceutycznego