Przejdź do treści
Zaktualizowano: 12 min czytania

AI w medycynie i farmacji: jak wdrażać systemy zgodnie z wymogami regulacyjnymi

Definitywny przewodnik dla liderów MedTech i Pharma. Zrozum wymogi AI Act i MDR, poznaj proces certyfikacji CE dla oprogramowania i dowiedz się, jak...

Adrian Kwiatkowski Autor: Adrian Kwiatkowski

Wyobraź sobie startup z branży MedTech. Zespół genialnych data scientistów i inżynierów, napędzany wizją ratowania życia, tworzy przełomowy algorytm sztucznej inteligencji. Model ten, trenowany na tysiącach zdjęć medycznych, potrafi wykrywać wczesne stadia rzadkiego nowotworu z niespotykaną dotąd precyzją, znacznie przewyższającą ludzkie oko. Zespół jest przekonany, że ich innowacja na zawsze zmieni oblicze diagnostyki. Inwestorzy są zachwyceni, a firma z ogromnym impetem przygotowuje się do wejścia na rynek. Jednak w dniu planowanego wdrożenia w pierwszym szpitalu, projekt zostaje gwałtownie zatrzymany. Prawnicy placówki zadają serię pytań, na które nikt nie jest gotów odpowiedzieć: “Gdzie jest certyfikat CE dla tego oprogramowania?”, “Jak przeprowadziliście walidację kliniczną?”, “Jakie macie dowody, że wasz algorytm nie jest stronniczy wobec określonych grup pacjentów?”, “Kto bierze odpowiedzialność za błędną diagnozę?”. 

Ten scenariusz to zimny prysznic dla wielu innowatorów w sektorze medycznym. W branży, w której stawką jest ludzkie zdrowie i życie, sama doskonałość technologiczna jest absolutnie niewystarczająca. Każda innowacja musi przejść przez niezwykle rygorystyczną ścieżkę regulacyjną, która gwarantuje jej bezpieczeństwo, skuteczność i wiarygodność. W 2025 roku, w dobie unijnego rozporządzenia o wyrobach medycznych (MDR) i przełomowego AI Act, krajobraz ten stał się jeszcze bardziej złożony. 

Jako lider w firmie z sektora MedTech lub Pharma, twoim największym wyzwaniem nie jest zbudowanie inteligentnego algorytmu. Jest nim przeprowadzenie tego algorytmu przez labirynt wymogów prawnych i regulacyjnych. 

Ten przewodnik to kompletna i dogłębna mapa drogowa po tym skomplikowanym świecie. Został napisany nie dla prawników, ale dla liderów technologicznych i biznesowych, którzy muszą zrozumieć strategiczny kontekst i zaplanować proces wdrożenia AI w sposób, który jest nie tylko innowacyjny, ale przede wszystkim bezpieczny i zgodny z prawem. 

Na skróty

Jakie kluczowe regulacje (MDR, AI Act, RODO) obowiązują przy wdrażaniu AI w medycynie w 2025 roku?

Krajobraz regulacyjny dla AI w medycynie jest wielowarstwowy. Aby go zrozumieć, musimy spojrzeć na trzy kluczowe akty prawne, które tworzą ramy dla działalności w Unii Europejskiej. 

Pierwszym i najważniejszym jest Rozporządzenie w sprawie wyrobów medycznych (MDR - Medical Device Regulation). To fundamentalna regulacja, która definiuje, czym jest wyrób medyczny i jakie wymogi musi spełniać, aby mógł być wprowadzony na rynek UE. Co kluczowe, definicja ta obejmuje również oprogramowanie, w tym systemy AI, jeśli ich przeznaczenie jest stricte medyczne. 

Drugim filarem jest AI Act, czyli unijne rozporządzenie w sprawie sztucznej inteligencji. To przełomowe, horyzontalne prawo, które klasyfikuje systemy AI według poziomu ryzyka. Niemal wszystkie systemy AI stosowane w diagnostyce i terapii medycznej są w nim klasyfikowane jako systemy wysokiego ryzyka, co nakłada na ich twórców szereg dodatkowych, rygorystycznych obowiązków związanych z jakością danych, dokumentacją, transparentnością i nadzorem ludzkim. 

Trzecim, wszechobecnym elementem jest RODO (GDPR). Ponieważ systemy AI w medycynie niemal zawsze przetwarzają dane o zdrowiu, które są danymi wrażliwymi, muszą one spełniać najsurowsze wymogi dotyczące ochrony danych osobowych, w tym te dotyczące podstawy prawnej przetwarzania, anonimizacji i praw pacjentów. 

Czy model AI używany w celach medycznych musi posiadać certyfikat CE jak wyrób medyczny?

To jest kluczowe pytanie, a odpowiedź w większości przypadków brzmi: tak. Zgodnie z rozporządzeniem MDR, oprogramowanie jest traktowane jak wyrób medyczny, jeśli jego producent przewidział dla niego zastosowanie medyczne. Dotyczy to oprogramowania przeznaczonego do celów takich jak diagnozowanie, zapobieganie, monitorowanie, leczenie lub łagodzenie przebiegu choroby. 

Jeśli twój algorytm AI analizuje obrazy rezonansu magnetycznego w celu wykrycia guza, wspomaga lekarza w doborze dawki leku lub prognozuje ryzyko zawału serca na podstawie danych pacjenta, jest on klasyfikowany jako oprogramowanie jako wyrób medyczny (SaMD - Software as a Medical Device)

Jako wyrób medyczny, takie oprogramowanie, w zależności od klasy ryzyka, musi przejść ocenę zgodności i uzyskać oznakowanie CE, zanim będzie mogło być legalnie wprowadzone na rynek Unii Europejskiej. Oznakowanie CE jest deklaracją producenta, że jego produkt spełnia wszystkie zasadnicze wymogi bezpieczeństwa i skuteczności określone w prawie. 

Jakie dane medyczne i na jakich zasadach mogą być legalnie użyte do trenowania algorytmów AI?

Dane są paliwem dla sztucznej inteligencji, ale w medycynie jest to paliwo wysoce radioaktywne, z którym należy obchodzić się z najwyższą ostrożnością. Dane o zdrowiu są w świetle RODO danymi szczególnej kategorii, a ich przetwarzanie jest co do zasady zakazane, chyba że spełniony jest jeden z rygorystycznych warunków. 

Najbezpieczniejszą i najbardziej etyczną podstawą do trenowania modeli AI jest świadoma i dobrowolna zgoda pacjenta. Zgoda ta musi być szczegółowa, informując pacjenta o tym, jakie dane będą używane, w jakim celu i przez kogo. 

Inną możliwością jest wykorzystanie danych w celach naukowo-badawczych, co również jest dopuszczone przez RODO, ale wymaga spełnienia szeregu warunków, w tym wdrożenia odpowiednich zabezpieczeń. 

Kluczową techniką, która umożliwia bezpieczne wykorzystanie danych medycznych, jest anonimizacja lub pseudonimizacja. Pełna anonimizacja, czyli nieodwracalne usunięcie wszelkich informacji pozwalających na identyfikację pacjenta, sprawia, że dane te przestają podlegać pod RODO. Jest to jednak proces trudny do osiągnięcia w praktyce, zwłaszcza w przypadku danych obrazowych. Pseudonimizacja, czyli zastąpienie danych identyfikacyjnych sztucznym identyfikatorem, jest często stosowanym kompromisem, który podnosi bezpieczeństwo, ale dane te wciąż pozostają danymi osobowymi. 

Jakie są kluczowe etapy walidacji klinicznej, którą musi przejść algorytm AI przed wejściem na rynek?

Zanim algorytm AI będzie mógł być użyty w praktyce klinicznej, musi przejść rygorystyczny proces walidacji, który udowodni, że jest on nie tylko precyzyjny technicznie, ale także skuteczny i bezpieczny w realnym środowisku medycznym. 

Proces ten składa się z kilku etapów. Pierwszym jest walidacja analityczna, która odpowiada na pytanie: “Czy algorytm działa poprawnie z technicznego punktu widzenia?”. Na tym etapie weryfikuje się jego dokładność, precyzję i czułość na danych testowych, które nie były używane w procesie trenowania. 

Drugim, znacznie trudniejszym etapem, jest walidacja kliniczna. Odpowiada ona na pytanie: “Czy algorytm przynosi realną korzyść w praktyce klinicznej i czy jest bezpieczny dla pacjenta?”. Wymaga to przeprowadzenia badań klinicznych, w trakcie których porównuje się wyniki działania algorytmu z obecnym “złotym standardem” diagnostycznym lub terapeutycznym. 

Ostatnim elementem jest ciągła ocena kliniczna (Post-Market Clinical Follow-up), która odbywa się już po wprowadzeniu produktu na rynek i polega na ciągłym zbieraniu danych, które potwierdzają, że wyrób utrzymuje swój profil bezpieczeństwa i skuteczności w długim okresie. 

Jakie jest realne ryzyko kliniczne i prawne, które niesie błąd AI w procesie diagnostycznym?

Konsekwencje błędu popełnionego przez algorytm AI w medycynie są znacznie poważniejsze niż w jakiejkolwiek innej dziedzinie. 

Ryzyko kliniczne jest oczywiste i najpoważniejsze. Błąd typu “fałszywie negatywny” (false negative), gdzie algorytm nie wykryje istniejącej choroby, może prowadzić do opóźnienia leczenia i w konsekwencji do śmierci pacjenta. Z kolei błąd typu “fałszywie pozytywny” (false positive), gdzie algorytm zdiagnozuje chorobę, której nie ma, może prowadzić do niepotrzebnego stresu, dalszych, często inwazyjnych badań i niepotrzebnego leczenia. Ryzyko prawne jest równie wysokie. W przypadku szkody poniesionej przez pacjenta, pojawia się skomplikowane pytanie o odpowiedzialność. Czy winny jest producent oprogramowania, który stworzył wadliwy algorytm? Czy lekarz, który oparł swoją decyzję na jego wskazaniu? Czy szpital, który wdrożył niesprawdzony system? Nowe regulacje, takie jak AI Liability Directive, mają na celu ułatwienie dochodzenia roszczeń w takich sytuacjach. 

Jakich unikalnych, interdyscyplinarnych kompetencji wymaga zespół tworzący AI w sektorze healthcare?

Budowa zgodnego z prawem i skutecznego produktu AI w medycynie jest niemożliwa bez stworzenia zespołu, który łączy w sobie kompetencje z wielu, często odległych od siebie dziedzin. 

Oczywiście, fundamentem są kompetencje techniczne– potrzebujesz światowej klasy data scientistów, inżynierów machine learning i programistów. To jednak dopiero początek. Absolutnie kluczowa jest obecność w zespole ekspertów klinicznych – lekarzy i naukowców, którzy rozumieją kontekst medyczny, potrafią ocenić jakość danych i pomóc w projektowaniu badań walidacyjnych. 

Niezbędny jest również specjalista ds. regulacji (Regulatory Affairs Specialist), który dogłębnie zna wymogi MDR i AI Act i potrafi przeprowadzić firmę przez cały proces certyfikacji. Równie ważna jest rola menedżera jakości (Quality Assurance Manager), który jest odpowiedzialny za wdrożenie i utrzymanie Systemu Zarządzania Jakością (QMS), wymaganego dla producentów wyrobów medycznych. Wreszcie, niezbędne jest wsparcie prawników i inspektorów ochrony danych, którzy zapewnią zgodność z RODO. 

Strategiczne podsumowanie: jak wygląda mapa drogowa wdrożenia zgodnego z prawem produktu AI w medycynie?

Poniższa tabela przedstawia uproszczoną mapę drogową, która ilustruje kluczowe etapy i wyzwania w procesie tworzenia medycznego AI. 

Faza projektu Kluczowe pytanie regulacyjne? Wymagane działania i dokumenty Największe ryzyko 
1. Koncepcja i definicja Czy nasz produkt jest wyrobem medycznym? Jaka jest jego klasa ryzyka? Zdefiniowanie przewidzianego zastosowania (intended use). Klasyfikacja produktu zgodnie z MDR. Błędna klasyfikacja, która prowadzi do wyboru niewłaściwej ścieżki certyfikacji. 
2. Zbieranie i przygotowanie danych Czy mamy podstawę prawną do przetwarzania tych danych? Czy dane są reprezentatywne i wysokiej jakości? Uzyskanie zgód od pacjentów lub spełnienie innych warunków RODO. Anonimizacja/pseudonimizacja. Dokumentacja “Datasheet for Datasets”. Trenowanie modelu na stronniczych lub niereprezentatywnych danych, co prowadzi do dyskryminującego algorytmu. 
3. Rozwój i walidacja analityczna Jak udowodnimy, że nasz algorytm działa poprawnie z technicznego punktu widzenia? Wdrożenie Systemu Zarządzania Jakością (QMS). Przeprowadzenie i udokumentowanie testów weryfikacji i walidacji oprogramowania. Brak solidnej dokumentacji, która jest wymagana przez jednostkę notyfikowaną. 
4. Walidacja kliniczna i certyfikacja Jak udowodnimy, że nasz algorytm jest bezpieczny i skuteczny w warunkach klinicznych? Zaprojektowanie i przeprowadzenie badania klinicznego. Przygotowanie Raportu z Oceny Klinicznej (CER). Złożenie dokumentacji do jednostki notyfikowanej. Niepowodzenie badania klinicznego, które blokuje wejście na rynek. 
5. Wdrożenie i monitoring Jak będziemy monitorować działanie i bezpieczeństwo naszego algorytmu po wprowadzeniu go na rynek? Wdrożenie systemu nadzoru po wprowadzeniu do obrotu (Post-Market Surveillance - PMS). Zbieranie danych z realnego użytkowania. Brak skutecznego monitoringu, który może prowadzić do przeoczenia degradacji modelu lub nowych ryzyk. 

Jak EITT może pomóc twojej firmie zbudować kompetencje na styku AI i regulacji medycznych?

Sukces w branży MedTech wymaga unikalnego połączenia głębokiej wiedzy technologicznej z równie głębokim zrozumieniem skomplikowanego świata regulacji. W EITT rozumiemy, że budowanie tych interdyscyplinarnych kompetencji jest największym wyzwaniem dla firm z tego sektora. 

Nasze programy szkoleniowe są projektowane we współpracy z ekspertami ds. regulacji wyrobów medycznych oraz praktykami AI. Oferujemy specjalistyczne warsztaty dla liderów i menedżerów produktu, na których w przystępny sposób tłumaczymy wymogi MDR i AI Act i pokazujemy, jak zaplanować cykl życia produktu AI w sposób zgodny z prawem. 

Dla zespołów technicznych prowadzimy szkolenia z zakresu dobrych praktyk inżynierii oprogramowania (GSP) dla wyrobów medycznych, ucząc, jak tworzyć oprogramowanie i dokumentację, która spełnia rygorystyczne wymogi audytorów. Naszym celem jest zbudowanie w twojej organizacji mostu między światem technologii a światem compliance, co jest kluczem do bezpiecznego i skutecznego wprowadzania innowacji na rynek medyczny. Podsumowanie 

Sztuczna inteligencja ma bezprecedensowy potencjał, aby zrewolucjonizować opiekę zdrowotną, uczynić diagnostykę bardziej precyzyjną, a terapie bardziej spersonalizowane. Jednak w tej branży, innowacja musi iść w parze z najwyższą odpowiedzialnością. Droga od genialnego algorytmu do certyfikowanego wyrobu medycznego, który realnie pomaga pacjentom, jest długa, skomplikowana i pełna wyzwań regulacyjnych. Jej świadome zaplanowanie, zbudowanie interdyscyplinarnego zespołu i inwestycja w kompetencje na styku AI i prawa to jedyny sposób na osiągnięcie sukcesu w tej niezwykle wymagającej, ale i niezwykle satysfakcjonującej dziedzinie. 

Jeśli stoisz przed wyzwaniem wdrożenia AI w sektorze medycznym lub farmaceutycznym i chcesz mieć pewność, że twój zespół i procesy są w pełni przygotowane na wymogi regulacyjne, skontaktuj się z nami. Porozmawiajmy o tym, jak możemy wesprzeć cię w tej strategicznej i odpowiedzialnej misji.

Przeczytaj również

Rozwiń kompetencje

Temat tego artykułu jest powiązany ze szkoleniem Blockchain w medycynie. Sprawdź program i zapisz się, aby rozwinąć kompetencje pod okiem ekspertów EITT.

Najczęściej zadawane pytania

Czy każdy algorytm AI używany w medycynie wymaga certyfikacji CE?

Tak, jeśli producent przewidział dla oprogramowania zastosowanie medyczne, takie jak diagnozowanie, monitorowanie czy wspieranie leczenia. Takie oprogramowanie jest klasyfikowane jako wyrób medyczny (SaMD) i musi przejść ocenę zgodności oraz uzyskać oznakowanie CE przed wprowadzeniem na rynek UE.

Jakie regulacje musi spełniać system AI w medycynie oprócz MDR?

Oprócz rozporządzenia MDR, system AI w medycynie musi spełniać wymogi AI Act, który klasyfikuje większość medycznych systemów AI jako systemy wysokiego ryzyka, nakładając dodatkowe obowiązki dotyczące jakości danych, transparentności i nadzoru ludzkiego. Konieczna jest również pełna zgodność z RODO w zakresie przetwarzania wrażliwych danych zdrowotnych.

Kto ponosi odpowiedzialność prawną za błąd diagnostyczny popełniony przez AI?

To złożone pytanie prawne, ponieważ odpowiedzialność może spoczywać na producencie oprogramowania, lekarzu podejmującym decyzję na podstawie wskazań AI lub na placówce medycznej wdrażającej system. Nowe regulacje, takie jak AI Liability Directive, mają na celu ułatwienie dochodzenia roszczeń w takich sytuacjach.

Jakie dane medyczne można legalnie wykorzystać do trenowania modeli AI?

Najbezpieczniejszą podstawą jest świadoma i dobrowolna zgoda pacjenta, precyzyjnie informująca o celu i zakresie przetwarzania danych. Alternatywnie, dane mogą być wykorzystane w celach naukowo-badawczych po spełnieniu warunków RODO. Kluczowe znaczenie ma anonimizacja lub pseudonimizacja danych, choć pełna anonimizacja danych obrazowych jest w praktyce trudna do osiągnięcia.

Adrian Kwiatkowski
Adrian Kwiatkowski Opiekun szkolenia

Poproś o ofertę

Rozwiń swoje kompetencje

Sprawdź naszą ofertę szkoleń i warsztatów.

Zapytaj o szkolenie
Zadzwoń do nas +48 22 487 84 90