Mimo ogromnego potencjału, błyskawiczny rozwój i wdrażanie generatywnej sztucznej inteligencji (GenAI) wyprzedziły ewolucję ram prawnych i etycznych. Modele GenAI potrafią tworzyć treści do złudzenia przypominające ludzkie dzieła – od tekstów i obrazów po kody programistyczne. W miarę jak narzędzia te stają się nieodłącznym elementem naszego życia zawodowego i prywatnego, kluczowego znaczenia nabiera zobowiązanie do odpowiedzialnego wykorzystania z tych narzędzi.


W CRIF dążymy do stworzenia ram odpowiedzialnego korzystania z AI, które odpowiadają na wyzwania prawne i etyczne. Nasze podejście opieramy na integralności, przejrzystości, sprawiedliwości oraz ekosystemie innowacji skoncentrowanym na człowieku.

Propozycja Komisji Europejskiej: Harmonizacja przepisów krajowych
Jednym z najbardziej złożonych pytań prawnych, przed którymi stoją dziś decydenci, jest kwestia odpowiedzialności za szkody wyrządzone przez systemy GenAI. Zarówno Unia Europejska, jak i Stany Zjednoczone, zaproponowały ramy regulujące tę kwestię, jednak wciąż istnieją luki w precyzyjnym przypisywaniu odpowiedzialności.


Tradycyjne modele odpowiedzialności cywilnej, oparte na winie człowieka, nie przystają do treści generowanych autonomicznie przez maszyny. Jeśli chatbot udzieli szkodliwej porady medycznej, a system AI wygeneruje treści zniesławiające lub dyskryminujące, nie jest jasne, czy odpowiedzialność ponosi twórca narzędzia (deweloper), podmiot wdrażający, czy użytkownik końcowy, dystrybuujący treści.


Akt o sztucznej inteligencji (EU AI Act) próbuje rozwiązać ten problem poprzez nałożenie obowiązków w zakresie:
* oceny ryzyka,
* nadzoru ludzkiego,
* rejestrowania zdarzeń,
* monitorowania systemów po wprowadzeniu na rynek.


Choć środki te zwiększają przejrzystość, nie definiują one w pełni jasnego reżimu odpowiedzialności, szczególnie w przypadku modeli ogólnego przeznaczenia wykorzystywanych w nieprzewidywalny sposób.
Równolegle do AI Act, Komisja Europejska zaproponowała pracę nad Dyrektywą w sprawie odpowiedzialności za AI. Miała ona zharmonizować krajowe przepisy dotyczące pozaumownej odpowiedzialności cywilnej za szkody wyrządzone przez systemy AI.

Dyrektywa zakładała m.in. ułatwienia dowodowe dla poszkodowanych (domniemanie związku przyczynowego), gdy dostawcy systemów wysokiego ryzyka nie dopełnią swoich obowiązków. Niemniej jednak, propozycja ta napotkała opór i na początku 2025 roku została ostatecznie wycofana z procesu legislacyjnego.


Brak wiążących, okołounijnych przepisów dotyczących odpowiedzialności za AI tworzy krytyczną lukę prawną. W przypadku systemów autonomicznych i nieprzejrzystych (tzw. "black box"), tradycyjne modele oparte na winie zawodzą, co sprawia, że osoby poszkodowane przez AI mogą nadal napotykać ogromne bariery proceduralne i dowodowe w dochodzeniu swoich roszczeń.


AI a Stanowisko Stanów Zjednoczonych
W Stanach Zjednoczonych nie istnieje federalna dyrektywa dotycząca odpowiedzialności za AI. Zamiast tego ustawodawstwo promuje podejście sektorowe, skoncentrowane na wspieraniu rozwoju technologii. W kwestiach bezpieczeństwa decydenci często polegają na dobrowolnych zobowiązaniach branżowych.


Kluczową rolę odgrywa tu Sekcja 230 ustawy Communications Decency Act, która zwalnia platformy internetowe z odpowiedzialności za treści osób trzecich. To, czy ta ochrona rozciąga się na treści generowane przez AI, pozostaje niejasne, co budzi obawy, że szkodliwe działania algorytmów mogą pozostać bezkarne. Część ekspertów postuluje wprowadzenie odpowiedzialności obiektywnej dla zastosowań wysokiego ryzyka, co oznaczałoby odpowiedzialność dostawcy niezależnie od winy czy zaniedbania. Inni sugerują obowiązkowe ubezpieczenia AI lub publiczne rejestry modeli o wysokim wpływie społecznym.


 Wnioski dla biznesu
Państwa na całym świecie przyjmują różne strategie: UE stawia na kompleksowe ramy prawne, podczas gdy inne regiony wybierają modele zdecentralizowane i elastyczne. Ta rozbieżność podkreśla złożoność regulacji AI.
Aby wypełnić lukę w zakresie odpowiedzialności, firmy powinny wdrażać wewnętrzne systemy ładu AI (AI Governance), które obejmują:
1. Jasne polityki użytkowania.
2. Monitorowanie wyników działania systemów w czasie rzeczywistym.
3. Mechanizmy naprawcze na wypadek wystąpienia szkód.