"Fake News" i lë vendin falsifikimit të Zërit*
Në vitin 2018, frika nga lajmet e rreme(fake news) do të zbehet në krahasim me teknologjinë e re që mund të falsfikojë zërin njerëzor. Kjo gjë mund të krijojë tmerr në fushën e sigurisë. Më keq akoma, mundet të na heqë të gjithëve një pjesë të unikalitetit tonë. Por kompanitë, universitetet dhe qeveritë po punojnë tashmë pa u ndalur për dekoduar zërin njerëzor për shumë aplikime. Kjo shtrihet që nga integrimi më i mirë i pajisjeve tona të internet of things te aftësimi për më shumë ndërveprime natyrale mes njerëzve dhe makinave. Shtetet e afta teknologjikisht(SHBA, Kina dhe Estonia)janë lëshuar në këtë hapësirë dhe gjigandë të teknoogjisë së Google, Amazon, Apple dhe Facebook kanë projekte special për zërin.
Nuk është dhe aq e vështirë që të zhvillosh një zë artificial, pastaj të modelosh dhe riprodhosh fjalët dhe frazat. Kujtoj sesa u befasova kur Apple Macintosh im më informoi me një zë të thatë dixhital për datën dhe orën. Të prodhosh një zë që tingëllon si natyral kërkon algoritme që janë shumë më komplekse se kaq dhe të shtrenjtë. Por kjo teknologji është e disponueshme tanimë.
Zëri njerëzor është shumë më tepër sesa vibracione të kordave vokale dhe këtë mund ta konfirmojë edhe një patolog fjalimesh. Këto vibracione shkaktohen nga ajri që del nga mushkëritë tona dhe dhe që detyron hapjen e kordave, një process që prodhon tone po aq unike sa edhe gjurmët e gishtërinjve për shkak të mijëra valëzave që shfaqen njëkohësisht. Por unikaliteti i një zëri është gjithashtu i lidhur me cilësi që ne rrallë i marrim në konsideratë si intonacioni, infleksioni dhe ritmi. Këto aspekte të të folurit tonë janë situacionale – rrethanore, shpesh të pandërgjegjshme dhe ato bëjnë diferencën për dëgjuesin.
Ato na thonë kur një frazë si “Ky po që është kostum!” duhet nënkuptuar si keqdashëse, sarakstike, dashamirëse apo indiferente. Kjo sfidë shpjegon përdorimin e hershëm të emotikoneve në tekstet e mesazheve. Kishte nevojë që të sqarohej synimi i një mesazhi të shkruar, sepse është skjahmërisht e vështirë të interpretosh kuptimin e vërtetë të së bisedës konvencionale që shkruhet sesa asaj që flitet.
Detaje të tilla si intonacioni, infleksioni dhe ritmi janë veçanrësiht të vështirë të modelohen por ne po mbërrijmë ede aty. Adobe Project Voco është duke zhvilluar çfarë është në thelb një fotoshop i valëve të zërit. Funksionon duke zëvendësuar formën e valëve me piksel për të prodhuar diçka që tingëllon natyrale. Kompania pretendon se nëse regjistrohen mjaftueshëm të dhëna nga e folura e një personi do të duhet vetëm një veprim cut – paste për të ndryshuar një regjistrim të zërit.
Rezultatet e para të Voco janë frikësuese sa edhe mahnitëse. Cilësitë e prototipit tregojnë se shumë shpejt qytetarët nuk do të jenë më në gjendje të dalllojnë mes zërave realë dhe atyre të rremë. Nëse keni mjaftueshëm të dhëna në regjistrat tuaj, atëherë mund të bëni që çdokush të mund të thotë thuajse çdo gjë.
Kompanitë e teknologjisë dhe investitorët po investojnë në idenë se këto sisteme do të kenë eventualisht vlerë tregëtare të jashtëzakonshme. Edhe përpara se të krijohet kjo situatë, ky lloj i veçantë teknologji do të përfaqësojë gjithsesi rreziqe të mëdha. Në vitin 2018 çdo akto qëllimkeq mundet me lehtësi të jetë i aftë të krijojë imitacion zanor mjaftueshëm të mirë për të mashtruar, ngatërruar, zemëruar apo edhe mobilizuar publikun. Shumë prej qytetarëve në botë thjesht nuk do të jenë në gjendje të dallojnë ndryshimin mes një copëze false të fjalës së Trump apo Putin dhe asaj që është thënë vërtet.
Kur merr parasysh mosbesimin e përhapur ndaj medias, institucioneve dhe ekspertëve, falsifikimi audio mund të rezultojë më shumë se shkatërrimtar. Mund të nisë luftëra. Imagjinoni pasoja e një pjese audio të montuar të një lideri botëror që bën deklarata lufte mbështetur me një video të manipuluar. A do të jenë në gjendje qytetarët – apo gjeneralët – që të dallojnë që kjo është false?
Përshtati shqip: ResPublica
*Titulli: ResPublica
Add new comment