當眼見不再為憑...AI換臉恐成惡整新武器
2019/09/15 05:30
〔記者劉慶侯/台北報導〕Deepfake「變臉」技術出現,雖是科技的一大進步,但犯罪惡行也恐升級,檢警擔心若被人拿來用於栽贓、製造事端等犯罪行為,就不再只是知名人物被「借臉」的少數人受害,而是全民都可能成為受害人,而且相關犯行偵查的複雜性也跟著升高。
由此看,「有圖有真相」的諺語,將因「深偽科技(變臉、仿真)」的日趨成熟,被大大的顛覆。
偵查複雜性升高 全民都可能受害
檢警表示,以目前「假新聞」層出不窮情況,再加上國內選情十分激烈,如果現今有人運用製作的「深偽」影片惡意抹黑攻訐,比如將一段影片匿名PO網,陷害已婚者偷帶女子進入摩鐵,或陷害公務、執法人員上聲色場所縱情玩樂,又或者流出某人吸毒、從事不法等畫面,往往讓當事人一時之間百口莫辯,或再如何辯解也沒人相信。
因為「有影片、有真相」,等到很久以後真相水落石出,傷害早已造成;更嚴重的情況是,萬一偽影片是從我司法管轄不到的境外領域流出,一旦找不出偽片來源,就難釐清真相,受害人恐萬劫不復。
警方人士認為,隨著Deepfake的開發普及化,未來法律訴訟事件可能會愈來愈多,屆時能否及時查知真偽,還原出真相,或開發出足以快速反制的鑑驗技術,值得正視。