Wraz z rozwojem technologii sztucznej inteligencji rośnie również potencjał analityczny systemów przetwarzających sygnały emocjonalne człowieka. Technologie rozpoznawania emocji – znane pod nazwą Emotion Recognition Technologies (ERT) – służą do identyfikowania stanów emocjonalnych na podstawie mikroekspresji twarzy, tonugłosu, gestykulacji, aktywności mózgu czy reakcji fizjologicznych. Początkowo wykorzystywane głównie w marketingu i badaniach UX, dziś znajdują zastosowanie w sektorze rekrutacyjnym, edukacyjnym, opiece zdrowotnej, a nawet w działaniach organów ścigania i monitoringu miejskiego. Skutkuje to powstaniem nowych, dotąd nieznanych wyzwań prawnych i etycznych, zwłaszcza w zakresie ochrony prywatności, autonomii decyzyjnej i integralności psychicznej człowieka.

ERT a dane biometryczne i RODO

Technologia ta funkcjonuje na granicy danych biometrycznych, które – zgodnie z definicją zawartą w art. 4 pkt 14 ogólnego rozporządzenia o ochronie danych osobowych (RODO) – oznaczają dane osobowe wynikające ze specjalnego przetwarzania technicznego, dotyczące cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej, pozwalające na jej jednoznaczną identyfikację. Choć systemy ERT nie zawsze prowadzą do identyfikacji osoby, bardzo często działają w kontekście umożliwiającym jej rozpoznanie (np. w połączeniu z obrazem z kamery, danymi lokalizacyjnymi lub kontem użytkownika). W takim przypadku przetwarzanie emocji może prowadzić do uznania, że mamy do czynienia z danymi biometrycznymi o charakterze szczególnym w rozumieniu art. 9 RODO, co z kolei oznacza, że ich legalne przetwarzanie jest dopuszczalne wyłącznie na podstawie wyraźnej zgody osoby, której dane dotyczą, lub w innych ściśle określonych przypadkach przewidzianych w rozporządzeniu.

ERT a zgoda – czy użytkownik wie, na co się zgadza?

W praktyce jednak zgoda użytkownika na przetwarzanie danych emocjonalnych jest najczęściej iluzoryczna – uzyskiwana w warunkach nierówności stron, bez realnego poinformowania o zakresie, sposobie działania i skutkach wykorzystania danych. Dotyczy to zwłaszcza sytuacji takich jak monitoring wizyjny z analizą mimiki twarzy w przestrzeni publicznej czy rekrutacje z wykorzystaniem algorytmów oceniających mikroekspresje kandydatów. Europejska Rada Ochrony Danych (EDPB) w swoich wytycznych z 2022 r. jednoznacznie wskazała, że technologie rozpoznawania emocji stosowane wobec pracowników, uczniów czy obywateli przez organy publiczne mogą prowadzić do naruszenia zasady proporcjonalności oraz godzić w podstawowe prawa i wolności jednostki.

ERT a manipulacja – czy da się ochronić wolną wolę?

Jednym z największych zagrożeń jest wykorzystywanie ERT do manipulacji emocjonalnej:

  1. algorytmy reklamowe dostosowujące komunikaty do stanu emocjonalnego,
  2. aplikacje mierzące nastrój i personalizujące „feedy” informacyjne,
  3. chatboty dopasowujące odpowiedzi do „emocjonalnej podatności” rozmówcy.

Tego rodzaju praktyki mogą prowadzić do zagrożenia autonomii jednostki, a nawet naruszać godność ludzką (art. 1 Karty Praw Podstawowych UE).

Wyrok Trybunału Sprawiedliwości UE

Trybunał Sprawiedliwości Unii Europejskiej wielokrotnie podkreślał znaczenie ochrony danych osobowych w kontekście nowoczesnych technologii, wskazując na konieczność zachowania równowagi pomiędzy interesami administratora danych, a prawami osób fizycznych. Choć bezpośrednie orzeczenia dotyczące ERT nie zapadły (stan na dzień opracowania artykułu), kierunkowe znaczenie mają sprawy takie jak Schrems II (C-311/18), gdzie Trybunał podkreślił konieczność zapewnienia realnej kontroli nad danymi i niedopuszczalność ich nieograniczonego transferu czy profilowania bez odpowiednich zabezpieczeń prawnych. Zasadę tę można przenieść również na systemy emocjonalnego profilowania, które – działając w czasie rzeczywistym – mogą wpływać na decyzje podejmowane przez algorytmy rekrutacyjne, scoringowe czy sprzedażowe.

Regulacje prawne

Wątpliwości natury prawnej idą w parze z pytaniami o charakterze etycznym. W istocie ERT nie tylko zbiera dane, ale także interpretuje wewnętrzne stany psychiczne osoby. Technologia ta – pozornie neutralna – może być wykorzystywana do subtelnej manipulacji emocjami jednostki, np. poprzez personalizowanie treści reklamowych w zależności od nastroju użytkownika lub dopasowanie tonu chatbotów do wykrytej emocjonalnej podatności. Choć może to poprawiać efektywność sprzedaży czy komunikacji, rodzi fundamentalne pytania o autonomię woli i granice dopuszczalnego wpływu na decyzje konsumenckie.

Projektowane unijne rozporządzenie o sztucznej inteligencji (AI Act), które zostało przyjęte przez Parlament Europejski w marcu 2024 r., przewiduje częściowy zakaz stosowania technologii rozpoznawania emocji w czasie rzeczywistym w przestrzeni publicznej. W artykule 5 AI Act zakazuje się wykorzystywania systemów sztucznej inteligencji do analizy emocji i identyfikacji osób na podstawie danych biometrycznych w czasie rzeczywistym w miejscach dostępnych publicznie, z wyjątkiem ściśle określonych sytuacji, takich jak zapobieganie zagrożeniom terrorystycznym. AI Act klasyfikuje również systemy rozpoznające emocje jako potencjalnie wysokiego ryzyka, co oznacza konieczność przeprowadzenia oceny zgodności, zapewnienia przejrzystości algorytmu, dokumentowania procesów decyzyjnych i stosowania mechanizmów nadzoru.

W tym kontekście technologia rozpoznawania emocji staje się symbolem nowego etapu w relacji człowieka z technologią – etapu, w którym przedmiotem analizy nie są już jedynie dane czy zachowania, ale psychiczna i emocjonalna sfera jednostki. Jeżeli uznamy, że prywatność to nie tylko prawo do bycia pozostawionym w spokoju, lecz także prawo do swobody emocjonalnej ekspresji bez obawy przed ciągłym osądem algorytmicznym, to technologie ERT wymagają szczególnej ostrożności legislacyjnej. Zasadą powinno być tu nie tylko stosowanie istniejących przepisów o ochronie danych osobowych, lecz również stworzenie nowych instrumentów chroniących integralność emocjonalną człowieka w erze neurotechnologii.

W zakresie wsparcia Państwa w obszarze wypełniania wymogów prawnych dla zgodnego z prawem przetwarzania danych, wdrożenia narzędzi AI, bądź w dochodzeniu roszczeń od podmiotów naruszających Państwa prawa, zachęcamy do kontaktu z naszą kancelarią.

 

opracowanie: Weronika Gocyk