Temat sztucznej inteligencji jest ostatnio jednym z najgorętszych. Co chwilę mówi się o jej nowych możliwościach i dokonaniach, które nie zawsze przynoszą pozytywny skutek. Znany już doskonale deepfake ma swoje nowe dziecko – ai voice. Nietypowy wymiar przekrętów czy narzędzie ułatwiające życie? Przeczytaj, jak bezpiecznie korzystać z kreatora fałszywego głosu.
AI voice, co to
Technologia deep fake pojawiła się w internecie kilka lat temu. O tym, czym jest deepfake, wspomnieliśmy już w jednym z artykułów. Natomiast sztuczna inteligencja posunęła się jeszcze dalej i oprócz tworzenia realistycznych materiałów video, pojawiła się możliwość klonowania czyjegoś głosu. Wystarczy tylko minuta próbki dźwiękowej, aby AI voice generator mógł na tej podstawie wykreować dowolną wypowiedź.
5 stycznia 2023 roku, Microsoft zaprezentował swój nowy algorytm Vall-E. Zastosowane w nim technologie TTS – text to speach model, EnCodec oraz zaawansowana sztuczna inteligencja, potrafią wygenerować każdą wypowiedź na podstawie zaledwie 3-sekundowej próbki głosu.
Do jego stworzenia posłużyła baza 60 000 rozmów w języku angielskim, które przeprowadziło aż 7 tysięcy osób.
Wykreowane przez algorytm nagrania zachowują intonację i styl mówcy, a nawet emocjonalny ton. To wszystko sprawia, że powstałe przez audio deepfake materiały są niemal nie do odróżnienia od prawdziwego głosu.
Narzędzie do oszustw podane na tacy
Deepfake voice nie jest jeszcze w piku popularności. Magazyn Forbes opisał wówczas sytuację, w której za pomocą sklonowanego głosu prezesa pewnej firmy, nieznany do dziś oszust wyłudził prawie milion złotych. Do przekrętu doszło w Wielkiej Brytanii. Podobny epizod miał miejsce w 2021 roku w Zjednoczonych Emiratach Arabskich.
Te przykłady pokazują, że najczęstszym zastosowaniem deepfake audio są oszustwa. Nasuwa się zatem pytanie, czy owa technologia ma jakiekolwiek zalety?
Narzędzie ma ogromny potencjał do działań niezgodnych z prawem. Poza wyłudzeniami pieniędzy przez telefon, jest środkiem, za pomocą którego można łamać zabezpieczenia głosowe. Microsoft świadom zagrożenia jakie niesie za sobą Vall-E, zablokował jego ogólnodostępność. Należy poczekać, aż nie zostanie on odpowiednio zabezpieczony. Ale podobnych programów do fałszowania nagrań głosowych jest wiele, a furtkę do nich może otworzyć każdy.
Pozytywna strona deepfake voice
Poza ciemną stroną, deepfake voice ma również pozytywne zastosowania. Narzędzie służy do pracy w telemarketingu. Pomocne okazuje się też w branży kreatywnej, aby np. odtworzyć głos aktora.
Być może ai voice generator zastąpi kiedyś lektorów lub zautomatyzuje mozolny proces nagrywania dubbingów. Obecnie urządzenia GPS posługują się ludzkim głosem. Każde z tych rozwiązań wiąże się jednak z pozbawieniem kogoś pracy.
Nie daj się oszukać
Badacze bezpieczeństwa z firmy NISOS ostrzegają przed telefonami od rzekomych znajomych, którzy chcą pożyczyć pieniądze. Audio deepfake pozwola na podrobienie głosu, bliskiej osoby, co tylko usypia naszą czujność. To wyższy poziom vishingu.
Ale ai voice generator niesie za sobą inne zagrożenia. Z perspektywy zwykłego użytkownika internetu, taka technologia może być zwykłą formą zabawy. Natomiast przed użyciem jakiejkolwiek aplikacji tego typu, należy dokładnie przeczytać regulamin. Powinno się sprawdzić, kto będzie miał prawa do stworzonego głosu oraz czy wgrana próbka głosowa nie zostanie ponownie wykorzystana. W rękach nieodpowiednich osób może posłużyć jako narzędzie do oszukania twoich bliskich!
Problem etyczny
Stosunek ilości zagrożeń jakie niesie za sobą technologia deepfake audio do pozytywnych jej aspektów nie napawa nadzieją. Oszustwa, działania manipulacyjne czy rozsiewanie dezinformacji może prowadzić do poważnych konsekwencji społecznych. Dzięki takim metodom można w prosty sposób zniszczyć reputację, a nawet zakłócić procesy demokratyczne.
Deepfake pozwala na nielegalne wykorzystanie czyjegoś wizerunku. Tworzenie fałszywych nagrań lub podszywanie się pod kogoś narusza prywatność. Te działania mogą prowadzić do szantażu i różnych innych form wykorzystywania. Ofiara takiego naruszenia może w rezultacie odczuć szkody psychiczne.
Wszystko ma swoje konsekwencje, które odbijają się na ludziach. Wykorzystanie technologii AI voice w negatywny sposób, w dużym stopniu obniża poziom zaufania społeczeństwie. Człowiek staje się coraz bardziej podejrzliwy słuchając różnych nagrań, mając z tyłu głowy, że może to być wytwór sztucznej inteligencji.
Czy Iwona to ai voice?
Znany przez wszystkich syntezator mowy Iwona to niejako matka cioteczna deepfake audio. Może to właśnie ona była inspiracją do wynalezienia ai voice generator. Nie należy jednak mylić tych dwóch narzędzi.
Lektor automatyczny służy jedynie do przełożenia tekstu pisanego na mowę. Głos Iwony nie zachowuje odpowiedniego akcentowania czy intonacji. Jego brzmienie jest mechanicznie i nie trudno odróżnić je od prawdziwej mowy ludzkiej. Poza tym w baza syntezatora ma ograniczoną ilość głosów.
Bądź ostrożny
Niezbadane są możliwości sztucznej inteligencji. Nie wiadomo, jaki kierunek obiorą sprawy dotyczące jej rozwoju. Pewne jest, że w rękach nieodpowiednich ludzi, narzędzia takie jak deepfake voice są bardzo niebezpieczne. Niosą również poważne zagrożenie dla ludzi pracujących np. w telemarketingu. Korzystając z nich należy pamiętać o własnym bezpieczeństwie, aby nasz głos nie został przypadkiem wykorzystany przeciwko najbliższym.
Zostaw odpowiedź