STREFA WIEDZY

Czy sztuczna inteligencja może legalnie „mówić cudzym głosem”?

Klonowanie głosu przez sztuczną inteligencję do niedawna funkcjonowało w przestrzeni publicznej jako ciekawostka technologiczna lub narzędzie eksperymentalne. Sytuacja zmieniła się diametralnie wraz ze złożeniem w listopadzie 2025 roku pierwszego w Polsce pozwu dotyczącego wykorzystania sklonowanego głosu lektora bez jego zgody. Sprawa ta ma znaczenie wykraczające poza indywidualny spór, ponieważ po raz pierwszy wprost stawia przed sądem pytanie o granice dopuszczalnego użycia AI w kontekście tożsamości człowieka.

Pozew nie dotyczy samej technologii jako takiej. Dotyczy odpowiedzialności za jej użycie i ochrony osoby, której głos został wykorzystany w sposób nieautoryzowany (sprawa dotyczy lektora Jarosława Łukomskiego).

Na czym polegał spór i czego dotyczy pozew?

Złożony pozew dotyczy sytuacji, w której głos zawodowego lektora został odtworzony przy użyciu narzędzi opartych na sztucznej inteligencji i następnie wykorzystany w przekazach komercyjnych. Według twierdzeń zawartych w pozwie, lektor nie wyraził zgody ani na trenowanie modelu AI na próbkach swojego głosu, ani na późniejsze użycie syntetycznego nagrania.

Istotą sporu nie jest to, czy wykorzystano konkretne archiwalne nagranie, lecz to, że wygenerowany głos brzmiał w sposób umożliwiający jednoznaczną identyfikację konkretnej osoby. Odbiorcy przekazu mieli odnieść wrażenie, że mają do czynienia z autentycznym udziałem lektora, mimo że w rzeczywistości głos został wygenerowany przez algorytm.

Pozew opiera się na założeniu, że głos zawodowego lektora stanowi element jego tożsamości i rozpoznawalności, a tym samym podlega ochronie prawnej. W szczególności wskazano na naruszenie dóbr osobistych polegające na pozbawieniu lektora kontroli nad sposobem, w jaki jest identyfikowany w przestrzeni publicznej. Podniesiono również, że wykorzystanie sklonowanego głosu miało charakter komercyjny, co dodatkowo wzmacnia bezprawność działania. Głos nie został użyty w celach prywatnych czy eksperymentalnych, lecz jako element profesjonalnego przekazu, który generował określoną wartość ekonomiczną. Dobra osobiste to niemajątkowe wartości związane z osobą fizyczną, które chronią jej godność, autonomię i integralność psychiczną oraz społeczną. Ich katalog ma charakter otwarty, co oznacza, że prawo nie ogranicza się wyłącznie do dóbr wymienionych wprost w przepisach, lecz pozwala na ich rozwój wraz ze zmianami społecznymi i technologicznymi.

W praktyce dobra osobiste pełnią funkcję ochronną. Mają zabezpieczać jednostkę przed nieuprawnioną ingerencją w sferę jej tożsamości, prywatności oraz sposobu funkcjonowania w przestrzeni publicznej. Naruszenie dobra osobistego polega nie tylko na wyrządzeniu szkody, ale już na samym pozbawieniu osoby kontroli nad określonym aspektem jej osoby.

Choć głos nie jest literalnie wymieniony w katalogu dóbr osobistych, od lat przyjmuje się, że może on podlegać ochronie prawnej, jeżeli ma charakter rozpoznawalny i indywidualny. Wizerunek nie ogranicza się bowiem wyłącznie do obrazu twarzy. Jest całością cech pozwalających na identyfikację osoby, także poprzez zmysł słuchu.

W przypadku zawodowych lektorów głos pełni szczególną funkcję. Jest narzędziem pracy, elementem marki osobistej oraz podstawą relacji zawodowych. To właśnie dzięki niemu dana osoba jest rozpoznawana, zatrudniana i wynagradzana. Skopiowanie tego głosu i przypisanie go do treści, nad którymi lektor nie ma kontroli, ingeruje bezpośrednio w sferę jego tożsamości zawodowej i osobistej.

W pozwie pojawia się również wątek ochrony danych osobowych. Głos, który pozwala zidentyfikować konkretną osobę, stanowi dane osobowe w rozumieniu przepisów RODO. Jego wykorzystanie do trenowania modelu AI, a następnie generowania syntetycznych nagrań, stanowi formę przetwarzania danych.

Brak zgody osoby, której dane dotyczą, a także brak realizacji obowiązków informacyjnych, może prowadzić do niezależnej odpowiedzialności na gruncie prawa ochrony danych osobowych. W praktyce oznacza to, że jeden stan faktyczny może rodzić równoległe konsekwencje cywilne i administracyjne.

Znaczenie tej sprawy nie polega wyłącznie na tym, że dotyczy znanego lektora. Jej waga wynika z faktu, że po raz pierwszy wprost skonfrontowano sąd z pytaniem, czy syntetyczny głos wygenerowany przez AI może naruszać prawa człowieka w takim samym stopniu jak tradycyjne nagranie.

W przypadku stwierdzenia naruszenia dóbr osobistych osoba poszkodowana może żądać ochrony na kilku płaszczyznach. Przede wszystkim może domagać się zaprzestania dalszego naruszania, co w praktyce oznacza wycofanie materiałów zawierających sklonowany głos. Może również żądać usunięcia skutków naruszenia, na przykład poprzez złożenie odpowiednich oświadczeń.

Istotnym elementem są także roszczenia finansowe. Lektor może dochodzić zadośćuczynienia za naruszenie dóbr osobistych, niezależnie od wykazania szkody majątkowej. W grę wchodzi również dochodzenie odszkodowania lub wydania korzyści, jeżeli wykorzystanie głosu przyniosło podmiotom trzecim wymierne zyski. W tej sytuacji możliwe jest także równoległe dochodzenie roszczeń związanych z naruszeniem przepisów o ochronie danych osobowych przed PUODO.

Rozstrzygnięcie tego sporu może wyznaczyć standardy dla branży reklamowej, medialnej i technologicznej. Może również wpłynąć na sposób konstruowania umów, zgód oraz regulaminów korzystania z narzędzi AI.

Na obecnym etapie nie sposób przesądzać, w jaki sposób sąd oceni przedstawiony stan faktyczny ani jakie argumenty uzna za rozstrzygające. Sprawa ta będzie wymagała zważenia wartości, które nie zawsze pozostają ze sobą w prostym stosunku, takich jak swoboda innowacji technologicznej, ochrona dóbr osobistych, bezpieczeństwo obrotu oraz odpowiedzialność podmiotów korzystających z narzędzi AI.

Niezależnie od przyszłego rozstrzygnięcia, sam fakt wniesienia pozwu pokazuje, że obowiązujące regulacje prawa cywilnego i prawa ochrony danych osobowych są już dziś wykorzystywane do oceny skutków działania sztucznej inteligencji. Sąd stanie przed zadaniem odpowiedzi na pytania, które dotychczas funkcjonowały głównie w przestrzeni doktrynalnej i eksperckiej, dotyczące zakresu ochrony tożsamości człowieka oraz granic dopuszczalnego wykorzystania technologii symulujących cechy osoby fizycznej. Dla praktyki prawniczej, branży kreatywnej i podmiotów technologicznych sprawa ta stanowi ważny sygnał, że brak szczegółowych regulacji dedykowanych AI nie oznacza braku odpowiedzialności. Jednocześnie nie przesądza ona o tym, w jakim kierunku orzecznictwo będzie się rozwijać ani czy konieczne okażą się zmiany legislacyjne. Ostateczna ocena zależeć będzie od konkretnych okoliczności sprawy, sposobu wykorzystania syntetycznego głosu oraz tego, czy doszło do rzeczywistej ingerencji w sferę chronionych praw.