SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Sprawa Scarlett Johansson to nie pierwszy krok w stronę apokalipsy AI. Ale i tak jesteśmy w tyle za technologią

Scarlett Johansson raczej nie spodziewała się, że podłożenie głosu pod sztuczną inteligencję z filmu “Ona” po latach będzie ją tak bardzo prześladować. Dziś aktorka nie ukrywa swojej wściekłości i przerażenia na decyzję OpenAI, które uzbroiło jedną z wersji swojego nowego chatbota w tembr głosu dziwnie podobny do tego gwiazdy. Ale, czy faktycznie jest się czego obawiać?

Kadr z filmu "Ona" ze Scarlett JohanssonKadr z filmu

Sztuczna inteligencja to narzędzie, które budzi wśród ludzi zarówno ogromne nadzieje, jak i (prawdopodobnie) jeszcze większe obawy. Ostatnie konferencje zorganizowane przez firmy Big Tech, jak Google czy Open AI, jednoznacznie pokazują, że dla największych korporacji AI to przyszłość. Bez względu na to, czy się ta przyszłość maluczkim podoba, czy nie. Co jednak, jeśli nie podoba się jednej z największych gwiazd globu?

Afera wokół głosu Sky w nowej wersji ChatGPT zaskoczyła chyba największych nawet przeciwników pozbawionego regulacji wdrażania nowych technologii. Na pierwszy rzut oka sprawa wydaje się zresztą dosyć błaha. Otóż jeden z kobiecych głosów wybranych dla GPT-4o brzmiał części użytkowników dziwnie znajomo. Zupełnie jakby do użytkowników przemówiła Samantha, czyli sztuczna inteligencja z filmu “Ona”, w którą wcielała się Scarlett Johansson.

Scarlett Johansson podważyła wersję OpenAI

Podobieństwo do głosu gwiazdy nie wydawało się przypadkowe. Tym bardziej, gdy sam szef OpenAI Sam Altman skomentował premierę Sky za pomocą pojedynczego słowa: “her”. Właśnie tak brzmiał angielski tytuł hitowego filmu Spike'a Jonze'a. Ten, jak mogło się wydawać, marketingowy chwyt szybko obrócił się jednak przeciwko firmie. Już w poniedziałek 20 maja OpenAI opublikowało w mediach społecznościowych oświadczenie, w którym umniejszano związek między nowym chatbotem a Johansson.

- Wierzymy, że żaden głos AI nie powinien specjalnie naśladować charakterystycznego brzmienia celebryty. Głos Sky nie jest imitacją Scarlett Johansson, lecz należy do innej aktorki, która używała swojego naturalnego głosu. Z uwagi na ochronę ich prywatności, nie możemy ujawniać tożsamości naszych aktorów głosowych - zaznaczono w komunikacie.

Czytaj także: Twórcy "Furiosy" użyli sztucznej inteligencji. Prawda wyszła na jaw po premierze

OpenAI przy okazji przekazało też informację, że głos Sky zostanie czasowo wstrzymany. Nie podano daty, jego możliwego powrotu, ale dziś taka opcja wydaje się wręcz niemożliwa. Niedługo później swój komentarz do sprawy przekazała również Scarlett Johansson i dosyć wyraźnie podważyła wersję przedstawioną przez właściciela ChatGPT. Aktorka wyjaśniła, że była “zszokowana i wściekła” na decyzję o użyciu głosu niemal bliźniaczo podobnego do jej własnego, ponieważ Sam Altman dziewięć miesięcy wcześniej próbował ją namówić do nagrań pod nową wersję chatbota.

- Powiedział mi, że mój udział może stanowić pomost między firmami technologicznymi a twórcami, a także pomóc konsumentom w przyzwyczajeniu się do istnego trzęsienia ziemi, jakie następuje w relacjach między ludźmi a sztuczną inteligencją. Jego zdaniem jej głos byłby kojący dla ludzi. Po długich rozważaniach i ze względu na powody osobiste odmówiłam - przekazała Scarlett Johansson.

Sztuczna inteligencja a kradzież tożsamości

Sprawa Scarlett Johansson nie tylko w samej aktorce rozbudziła obawy przed możliwą kradzieżą tożsamości lub wizerunku przez sztuczną inteligencję. 39-latka przy okazji przypomniała o problemie deepfake'ów i wezwała do wprowadzenia regulacji, które będą chronić obywateli przed podobnym zagrożeniem. Co akurat w jej przypadku nie powinno dziwić, bo w 2023 roku firma Convert Software wykorzystała wizerunek i głos Johansson w reklamie swojej aplikacji. Problem w tym, że aktorka nigdy w niej nie wystąpiła - to AI wygenerowało słowa, których sama zainteresowana nigdy nie wypowiedziała. Sprawa trafiła do sądu, bo zdaniem prawników Johansson, niewielki napis informujący konsumentów o użyciu sztucznej inteligencji w spocie był niewystarczający.

 

Niepokój i gniew Scarlett Johansson łatwo zrozumieć, lecz można mieć wątpliwości, czy obie sytuacje są analogiczne. Nawet jeśli OpenAI faktycznie chciało obdarzyć Sky głosem zbliżonym do tego posiadanego przez gwiazdę (choć Sam Altman temu zaprzecza), to ostatecznie firma musiała wykorzystać do tego inną aktorkę głosową. Zdaniem dziennikarza portalu Antyweb Piotra Kurka wyraźnie świadczy to o niedoskonałości sztucznej inteligencji, co jednak nie podważa konieczności wprowadzenia odpowiedniej regulacji.

- Technologia nie nadąża jeszcze za ambicjami wielkich firm technologicznych. Mimo postępów w rozwoju AI, narzędzia te nadal mają ograniczenia w precyzyjnym odwzorowywaniu ludzkich głosów. Fakt, że teraz zatrudniono prawdziwych aktorów dla nowej wersji asystenta OpenAI, wskazuje na konieczność korzystania z tradycyjnych metod, aby osiągnąć zamierzone cele. Problemy związane z ochroną wizerunku i deepfake'ami podkreślają, że technologia AI wymaga odpowiedniego nadzoru i nie ma się co dziwić, że Unia proponuje Akt o AI, który ma regulować firmy oferujące tego typu rozwiązania.

Czytaj też: To może być koniec dubbingu, jaki znamy. Hollywoodzkie wytwórnie testują szokujące rozwiązanie

Z takim punktem widzenia zgadza się profesor Aleksandra Przegalińska-Skierkowska z Akademii Leona Koźmińskiego. Ostrzega przy tym, że w przypadku dalszego rozwoju np. wirtualnych awatarów potencjał do nadużyć jest jeszcze większy. A to z kolei sugeruje konieczność użycia nawet surowszej regulacji, niż ta, z którą obecnie mamy do czynienia. - Wizja kradzieży wizerunku przez AI, chociaż na razie jeszcze niepełna, jest realnym problemem, wymagającym uwagi i działań zapobiegawczych. Ja sama mam awatara i widzę doskonale jak duży jest potencjał manipulacji i kradzieży tożsamości. Obawy związane z możliwością kradzieży tożsamości są uzasadnione i wymagają dalszej, być może nawet surowej, "odstraszającej" regulacji i monitorowania - twierdzi prof. Przegalińska-Skierkowska.

- Wprowadzenie i egzekwowanie surowych przepisów będzie kluczowe, podobnie jak rozwój technologii zabezpieczających, takich jak znaki wodne i algorytmy wykrywające materiały typu deepfake. Edukacja społeczeństwa i promowanie etycznych wytycznych dla firm również odgrywają istotną rolę - podsumowuje Piotr Kurek.

Cyberpunk, Terminator, czy tępe roboty?

Nie ma sensu udawać, że w dyskusji o sztucznej inteligencji nie pojawiają się żadne przesadne reakcje, czy niemalże apokaliptyczne wizje. Niektórzy komentatorzy w nadmiernym zaufaniu Big Techa do AI widzą pierwszy krok w stronę przyszłości rodem z “Terminatora”, czy “Nie mam ust, a muszę krzyczeć”. Inni (nieświadomie) powtarzają kultowy tekst “Zabrali nam pracę!” z serialu “South Park” i straszą przed dominacją sztucznej inteligencji na niemal każdym polu globalnej gospodarki. Nie brak też głosów o ziszczeniu się wizji rodem z cyberpunka o hybrydach ludzi i maszyn oraz matriksie bardziej realnym niż nasza własna rzeczywistość.

Druga strona debaty traktuje z kolei sztuczną inteligencję jak gloryfikowanego półgłówka, który niczym wczesne wersje robotów potyka się na każdej, nawet najbardziej delikatnej przeszkodzie. Internet zalewają wyśmiewające AI memy, z których wynika, że absolutnie nie ma się czego obawiać.

Połączenie tych dwóch skrajnych punktów widzenia sprawia, że w mediach mamy przeważnie do czynienia z niezwykle przejaskrawioną dyskusją, z której przeciętny obywatel nie zdoła wyciągnąć niczego konkretnego. Zdaniem profesor Przegalińskiej chęć firm technologicznych, by upodobnić AI do człowieka jest jednak niepodważalnym faktem. I choć apokaliptyczne wizje nie są realne, to i tak należy zachować ostrożność. -  Oczywiście, medialna debata na temat sztucznej inteligencji często przerysowuje rzeczywistość, operując skrajnymi opiniami. Rzeczywistość znajduje się, pewnie jak zawsze, gdzieś pośrodku. AI wciąż boryka się z wieloma ograniczeniami, to ostatecznie przecież tylko modele statystyczne. Co nie zmienia faktu, że jej potencjał jest ogromny. Należy podejść do tematu realistycznie, doceniając postępy, ale również mając na uwadze obecne ograniczenia.

- Upodobnienie AI do człowieka, czy tez humanizowanie AI, jest istotne dla firm technologicznych, gdyż naturalne interakcje z maszynami mogą zwiększyć ich akceptację i użyteczność. Ale jest tez bardzo problematyczne, może powodować u ludzi chaos, dysonans. My badaliśmy jako zespól naukowy pojęcie "doliny niesamowitości" i ono nadal jest istotne. Przesadne podobieństwo do ludzi często budzi niepokój i odrzucenie, dlatego kluczowe jest znalezienie balansu między realizmem a komfortem użytkowników - dodaje naukowczyni.

Trzeba bać się chciwości człowieka, nie AI

W debacie o sztucznej inteligencji nader często umyka jeden aspekt, który wydaje się niezwykle istotny. To ludzie odpowiadają za AI, to oni odpowiadają za to, jakim głosem przemówi chatbot, czy jaki obraz spróbuje wygenerować Canva czy Pixlr. O wyborze głosu Sky i zwróceniu się do Scarlett Johansson zdecydował Sam Altman, nie ChatGPT. Wspominane wyżej regulacje prawne i zabezpieczenia technologiczne muszą nas chronić przed chciwością i złymi intencjami ludzi, którzy korzystają z AI - nie na odwrót. A każda taka wpadka będzie z oczywistych względów obniżać poziom naszego zaufania do szczerych i czystych intencji do Big Techa.

- Afera związana z głosem Scarlett Johansson może podważyć zaufanie do firm AI i nasilić obawy o etykę i przejrzystość ich działań. Społeczeństwo staje się bardziej świadome kwestii praw autorskich i praw do wizerunku, co może prowadzić do surowszych regulacji prawnych w celu ochrony prywatności. Firmy muszą działać bardziej odpowiedzialnie, aby utrzymać pozytywne relacje z użytkownikami. Przejrzystość i etyczne podejście są kluczowe dla zaufania i wsparcia społecznego - zaznacza dziennikarz Antyweba.

Naiwnością byłoby jednak sądzić, że proces rozwoju technologii, w tym również sztucznej inteligencji może zostać zahamowany. Nieważne, jak często Big Tech zaliczy wpadkę lub fanów oburzy “przywrócenie” zmarłego aktora, odmładzanie gwiazd w filmach, czy tworzenie hologramów nieżyjących muzyków - ten trend będzie postępować. Tylko od nas zależy, czy podejdziemy do niego z odpowiednią świadomością zagrożeń i gdzie postawimy nieprzekraczalne granice.

-  Granice między człowiekiem a maszyną będą się jeszcze bardziej zacierały – zwłaszcza w sytuacji nagłego przyspieszenia rozwoju technologicznego i coraz bardziej zaawansowanych funkcji AI. A ta rozwija się w naprawdę zaskakującym tempie. Stopniowe przyzwyczajanie się społeczeństwa do tych technologii może sprawić, że staną się one bardziej powszechne i akceptowalne. Podejrzewam jednak, że do daleko idących wizji z literatury sci-fi raczej nie dojdzie. A przynajmniej, nie w najbliższym czasie. Na przeszkodzie stoi sama technologia, aspekt etyczny oraz rosnąca świadomość krajów i międzynarodowych organizacji, które będą musiały nadzorować rozwój AI. Ostateczne kształtowanie granicy będzie zależało od postępu technologicznego, regulacji prawnych oraz od społecznych i etycznych ram, które zostaną przyjęte - podsumowuje Piotr Kurek.

Dołącz do dyskusji: Sprawa Scarlett Johansson to nie pierwszy krok w stronę apokalipsy AI. Ale i tak jesteśmy w tyle za technologią

13 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
kolis
Znaleźli podobną aktorkę i Scarlet teraz próbuje wyłudzić kasę. Podobnie było po jej filmie, gdy Disney w pandemii wypuścił od razu na platformę. Też jej się to nie podobało, bo miała dostać procent z biletów kinowych.
odpowiedź
User
Moherokomuch
Znaleźli podobną aktorkę i Scarlet teraz próbuje wyłudzić kasę. Podobnie było po jej filmie, gdy Disney w pandemii wypuścił od razu na platformę. Też jej się to nie podobało, bo miała dostać procent z biletów kinowych.

I co widzisz w tym niewłaściwego? Miała w umowie zapis, że dostanie pieniądze za dystrybucję w kinach, gdzie są realne pieniadze z biletów. Disney naruszył tę umowę, właściwie ją złamał wypuszczając film zaraz w streamingu co znacznie ograniczyło jej zarobki, które w normalnych warunkach byłyby większe. Jasne, nie trafiło na biedną osobę, jasne dostaje ona za te filmy absurdalne pieniądze, ale co do zasady miała rację. Ktoś narusza umowę i Twoim zdaniem powinno się na to przymknąć oko? Chodziło o zasadę i nie pozwalanie korporacji na to by robiła co chciała nawet jeśli wiąże tą korporację umowa.
odpowiedź
User
Holdmybeerandwatch
Jak nie wiadomo o co chodzi to chodzi o pieniądze. AI swoją drogą, ale czy wykorzystywanie głosu kogoś kto brzmi podobnie do znanej osoby to problem? Jeśli jest to głos prawdziwej osoby, to jakim prawem zakazuje się jej możliwości zarobienia? To nie jej problem. To co dalej, zakażemy konkursów na sobowtóry? Będziemy delegalizować muzyków którzy mają podobny wokal? A o co chodzi Scarlett, o to że latka lecą a dobrych ról jak kot napłakał. A tak to kilka baniek na konto może wpaść.
odpowiedź