Zapri oglas

Deepfake – tehnologija, ki omogoča zamenjavo obrazov ljudi na fotografijah in videoposnetkih z obrazi nekoga drugega, se je v zadnjih letih razvila v obliko, v kateri postaja razlika med resničnimi posnetki in lažnimi podatki vse bolj zapletena. Na spletnih mestih s pornografsko vsebino se na primer deepfake uporablja za ustvarjanje vznemirljivih videoposnetkov s podobami slavnih igralcev. Seveda se vse to dogaja brez privolitve napadenih osebnosti, zaradi vse bolj izpopolnjene tehnologije, ki uporablja strojno učenje, pa se širi strah pred drugimi možnimi oblikami njene zlorabe. Grožnja, da bi globoka ponaredek lahko popolnoma diskreditirala digitalne zapise kot dokaz v sodnih primerih, je resnična in visi nad pravosodnim sektorjem kot Damoklejev meč. Dobra novica zdaj prihaja iz podjetja Truepic, kjer so se domislili preprostega načina preverjanja pristnosti oglasov.

Njeni ustvarjalci so novo tehnologijo poimenovali Foresight, namesto dodatne analize videa in ugotavljanja, ali gre za deepfake, pa za zagotavljanje pristnosti uporablja povezovanje posameznih posnetkov s strojno opremo, na kateri so bili ustvarjeni. Foresight označi vse zapise, ko so ustvarjeni, s posebnim nizom šifriranih metapodatkov. Podatki so shranjeni v običajnih formatih, v predogledu strani Android policija podjetje je dokazalo, da je tako zaščiteno sliko mogoče shraniti v formatu JPEG. Tako ni strahu pred nezdružljivimi formati podatkov.

Toda tehnologija trpi zaradi vrste majhnih muh. Največji je verjetno dejstvo, da datoteke še ne beležijo sprememb, ki so bile v njih narejene. Rešitev je vključitev več podjetij, ki bi podpirala ta način varovanja. O uspehu tehnologije bo tako odločalo predvsem sodelovanje največjih proizvajalcev fotoaparatov in mobilnih naprav na čelu s Samsungom oz. Applem. Se bojite, da bi kdo zlorabil vaš videz? Delite svoje mnenje z nami v razpravi pod člankom.

Danes najbolj brano

.