南韓總統大選DeepFake 技術被用到了韓國大選中,構造了是世界上第一個官方deepfake 政界候選人。Deepfake技術在選舉中獲得更普遍的使用。這是不可避免的/AI形象“AI Yoon”迅速席捲網絡。該形象的創建者處理了數十段尹錫悅的演講視頻和音頻。在平均網速全球第一的韓國,尹錫悅AI形象的幽默視頻已有數百萬人觀看。韓國人用deepfake給總統競選人做了個數字化身,在線接受問答韓國人用deepfake給總統競選人做了個數字化身,在線接受問答/「AI Yoon」 @ 姜朝鳳宗族 :: 痞客邦 ::


發現包括抖音、小紅書、B站等中國社群平台上出現和她長得一模一樣的網紅,詭異的是,明明長著一樣的臉蛋和身材,但在各個平台帳號的名字都不一樣,有的叫「安娜」,有的叫「娜塔莎」;共同點是,這些「克隆網紅」都宣稱自己來自俄羅斯,在中國生活多年,深深愛著中國,還講了一口流利中文。她在完全不知情的情況下被盜臉,在中國社群平台上的「另一個自己」,除了盜用她在YouTube的創作影片放到中國平台,還會大肆吹捧中國好、中國棒,甚至提到烏俄戰爭爆發後,全世界都背棄俄羅斯,只有中國這個真朋友願意站在俄國身邊,一邊大讚中俄友誼長存,一邊痛罵烏克蘭,還宣稱要嫁給中國的男人。也因為以外國人身分吹捧中國,蘿伊克的「克隆網紅」收穫不少小粉紅追蹤,其中名叫「娜塔莎」的帳號更有超過14萬名粉絲,遠超本尊在YouTube的追蹤人數,更順勢做起帶貨,賣俄國的東西給中國人。AI盜臉烏美女變俄洋五毛!舔共還說要嫁中國人 本尊發現氣炸! - 國際 - 自由時報電子報 https://bit.ly/3OP3YL1
(151) Olga Loiek - YouTube https://bit.ly/3T4H1pC
(151) Somebody Cloned Me in China... - YouTube https://bit.ly/3OIXfCf
How to Escape the Burnout Cycle | never fall into this trap again - YouTube https://bit.ly/3URIn8u


網紅「小玉」涉賣換臉謎片賺千萬 一審判5年6個月
2022年7月21日 上午1:27
網紅「小玉」朱玉宸涉利用Deep Fake軟體技術,換臉製造名人的假成人片,上網販賣獲利超過1338萬,受害人多達119位,包括立委高嘉瑜、高雄市議員黃捷等人,檢方日前依販賣猥褻影像、加重誹謗及《個人資料保護法》等起訴小玉及莊姓助理。
新北地院今(21)天依個資法119罪,判小玉5年6月徒刑,均得易科罰金共198萬元,犯罪所得1200多萬沒收;而莊姓助理依個資法119罪,判刑3年8月,得易科罰金132萬元,犯罪所得130萬元沒收,全案仍可上訴網紅「小玉」涉賣換臉謎片賺千萬 一審判5年6個月 https://bit.ly/3PGnSWL

Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以
------------------------
律師表示,被害人很害怕,被告卻理所當然,建議審判長對朱玉宸一罪一罰,判合併應執行12年徒刑;莊姓助理合併應執行8年徒刑,「量刑也是代表被害人的心聲」。
網紅「小玉」朱玉宸涉以「深偽Deep Fake」的AI換臉技術,將100多位知名女性民代、網紅與直播主合成A片女優,上網販賣獲利逾1300萬元,被依違反《個人資料保護法》等罪嫌起訴;《蘋果日報》報導,新北地院今依個資法119罪,判小玉5年6月徒刑,均得易科罰金共198萬元,犯罪所得1200萬餘元沒收。助理莊男依《個資法》119罪判刑3年8月,得易科罰金132萬元,犯罪所得130萬元沒收。
百位女明星、網紅、政治人物受害,網紅小玉「Deepfake換臉」販售A片賺千萬被捕
119人受害,92人提告,警方沒收近千萬犯罪所得
《中央社》報導,網紅朱玉宸與助理莊炘睿利用人工智慧與合成軟體,合成119名被害人臉部圖像,製作猥褻與色情影片並散播,涉犯妨害風化、個資法、加重誹謗等罪。
DeepFaceLab程式軟體是透過人工智慧模擬演算,將被害人臉部特徵移植到AV女優臉上,朱玉宸等人成立網路帳號、粉絲團、影音頻道,上傳短片招攬網友付費為會員後,即可瀏覽換臉影片。檢警去年10月偵辦,查出119人受害,包括立委高嘉瑜、高雄市議員黃捷、「最美博士」許藍方等名人,迄今有92人提告。
《自由時報》報導,檢方調查,朱嫌一方面註冊並建立名為「台灣網紅挖面」的推特(Twitter)帳號及粉絲團(後更名為「台灣網紅影片合成」),開始上傳並播放片長約30秒的合成換臉宣傳短片,另以Telegram通訊軟體群組,招攬網友加入網頁粉絲團。
檢方調查,去年2月起,2人另在YouTube社群平台建立「盜臉駭客」頻道,在該頻道上傳及播放合成的換臉宣傳短片,且可藉由該YouTube頻道,直接點選連結進入「台灣網紅挖面」的推特頁面,進行購買及註冊會員程序,並依金額不同,可瀏覽不同長度的換臉影片,亦可單次或集資購買及瀏覽。
《蘋果日報》報導,檢警2021年10月17日到小玉位於新北市樹林區大雅路的工作室及住處搜索,當場扣得現金456萬5000元,小玉銀行帳戶裡則有存款259萬餘元,此外,並查扣小玉的一輛2016年份M-Benz GLC Coupe GLC300賓士車,於偵查期間委託法務部行政執行署變價拍賣以195萬2000元拍定,扣案的犯罪所得總計為912萬餘元。
至於小玉販售變臉A片總共賺了多少錢,檢方估計金額高達1338萬餘元,由於目前只查扣到小玉912萬餘元財產,因此請法院宣告沒收912萬餘元並追徵剩餘的犯罪所得。
小玉道歉稱已經反省,被害人黃捷等不原諒
《ETtoday》報導,新北地院6月開庭時,黃捷等5位受害人親自出庭,表示不原諒朱男,氣憤至今仍有不雅片在網路流傳,5位受害人都要求依法重判,黃捷等4人並附帶求償各100萬元,其中盧姓受害人餘怒未消、不肯在朱男面前開口,以手勢比出1,0,0表達,第5位受害人僅求償10萬元,她覺得換臉影片跟她本人「很不像」。
朱男出庭認罪自稱已反省,對著庭內5位被害人說:「很誠摯道歉!」不過他的律師指稱朱男「都是因為會員的要求」,才剪輯換臉A片販賣,犯罪所得已被檢方查扣900多萬元,請被害人向國庫申請彌補所受損害,希望法官考量朱男「道歉多次」,從輕量刑。
《聯合報》報導,同案被告莊姓助理則說,他一時被金錢迷惑,才會犯罪,非常對不起被害人;辯護律師曾家貽則表示,莊姓助理從小父母離異,在艱困環境成長,每月僅分得10萬元分紅,不法獲利共130萬元,分得相當少利益,盼審判長從輕量刑。
但告訴代理人認為,被害人很害怕,被告卻理所當然,建議審判長對朱玉宸一罪一罰,判合併應執行12年徒刑;莊姓助理合併應執行8年徒刑,「量刑也是代表被害人的心聲」。
立委也成「Deepfake換臉」受害者,高嘉瑜推修《刑法》比照韓國加重7年有期徒刑
Deepfake換臉犯罪修正草案出爐,婦團質疑:虛擬合成影片最重可判7年,為何散布真實影像只處2年以下?
《中央社》報導,接受16名告訴人委任的律師林瓊嘉表示,委任他的每名受害人都分別求償120萬元,他說,聯合國大會通過「消除對婦女一切形式歧視公約」,被告從中獲利1300多萬元的收入,短時間只剩900萬元;被告很難體會資料散播後,造成被害人痛苦有多深。
林瓊嘉同時希望,經各別犯罪事實分別量刑後,朱玉宸合併執行12年有期徒刑,莊炘睿合併執行8年有期徒刑,這提議也獲得部分律師的同樣意見。
《聯合報》報導,審判長認為,朱玉宸兩人不思循正途賺錢,卻藉由網路販賣合成猥褻影像,破壞社會善良風俗,且網路散播快速,猥褻影像一旦上傳,難以收回、阻止,嚴重影響被害人身心名譽,行為惡劣,但考量兩人犯後始終坦承犯行,試圖與被害人和解賠償損害,態度尚佳,依個資保護法119罪各處朱玉宸5月,合併應執行5年6月徒刑,莊姓助手各處3月,合併應執行3年8月徒刑,均可易科罰金
網紅小玉「Deepfake換臉A片」119人受害,一審判刑5年6個月,沒收犯罪所得1200萬餘元 - The News Lens 關鍵評論網 https://bit.ly/3zkSGqI
---------------------
新北地檢署偵辦網紅「小玉」朱玉宸涉利用Deep Fake深偽技術,換臉製造名人的假A片上網販賣一案,查扣朱男用犯罪所得購買的1輛賓士休旅車,並在偵結前依法先拍賣保值,將由行政執行署新北分署於下周一(13日)上午10時,以公開喊價方式開箱拍賣,新北分署歡迎民眾與車商競標,以免錯過可惜。
▲▼網紅「小玉」賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
▲網紅「小玉」朱玉宸涉賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
▲▼網紅「小玉」賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
▲網紅「小玉」朱玉宸涉賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
朱男將被拍賣的這輛賓士休旅車,款式為MERCEDES-BENZ(GLC 300 4MATIC COUPE),排氣量 1991CC,2016年11月出廠,車身白色,據網路資料顯示,這款新車售價約300萬元,朱男去年買的是中古車。
新北分署指出,這輛賓士休旅車可正常發動行駛,儀表板里程數顯示為6萬0267 公里,以肉眼檢視車輛外觀,無毀損情形,左側前後車門加裝氛圍燈,車內乾淨整潔,朱男表示車內設備包括音響、座椅都是原廠配備,他自費22萬元加裝自駕系統。
▲▼網紅「小玉」賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
▲網紅「小玉」朱玉宸涉賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
新北分署表示,有意競標者請於13日上午9時到新北分署13樓「禮股」會合,由專人引導至地下4樓停車場先行察看車輛狀況,並應於上午10時前,持身分證明文件完成登記領牌與簽署承諾書手續,準時入場,拍賣設有底價但不公開,競標無須預繳保證金,出價最高者得標,現場繳清價款與3500元鑑價費,當場點交,得標者過戶時須自行繳清車輛所欠稅、費與罰單,目前已知該車尚欠300元罰鍰。
▲▼網紅「小玉」賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
▲網紅「小玉」朱玉宸涉賣名人換臉假A片,坐享賓士休旅車將被法拍。(圖/行政執行署新北分署提供)
新北分署提醒,有興趣參與競標之民眾請上新北分署官網(https://www.pcy.moj.gov.tw/)首頁,點閱「動產拍賣」專區,瀏覽相關拍賣公告,以上拍賣資訊如與拍賣公告所載不符,應以拍賣公告為準。另因須配合政府第二級警戒防疫政策,將限量開放民眾入場競標及觀看,以登記領牌者優先入場,並全程佩戴口罩與簡訊實聯制登記,另將全程以臉書直播投開標過程。
至於檢方偵辦進度,據悉已有70多位被害人提告,多為女性網紅、直播主或藝人,檢警仍在清查有無遭朱男換臉製作假A片,最快將在明年(2022)1月偵結,初估朱男犯罪所得約1000萬元。
網紅小玉換臉名人賣A片賣錢 百萬賓士GLC300休旅車將被拍賣 | ETtoday社會新聞 | ETtoday新聞雲 https://bit.ly/3oiLMf9

網紅小玉換臉名人賣A片賣錢 百萬賓士GLC300休旅車將被拍賣 | ETtoday社會新聞 | ETtoday新聞雲

Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以

Deepfake 假造名人 A 片!網紅小玉遭警方逮捕 - INSIDE

網紅小玉因涉嫌盜用知名人士影音製作成人影片遭逮捕。   圖:翻攝自小玉YouTube頻道Deepfake換臉做A片!網紅小玉遭警逮捕 | 電競 | 新頭殼 Newtalk https://bit.ly/3jf9fM6
擁有百萬訂閱數的網紅小玉於今(18)日因涉嫌盜用脫口秀演員龍龍、網紅奎丁、白癡公主、高雄鳳山區民代黃捷與民進黨立委高嘉瑜等知名人物的影像資料,並利用AI換臉軟體「Deepfake」製作成人影片非法牟取暴利遭警方逮捕。
據了解,於今年四月宣布退出YouTube界的小玉(本名朱玉宸)利用近年造成熱議的Ai換臉技術在通訊軟體Telegram上的群組「台灣網紅挖面」販售知名網紅、政治人物的換臉假成人影片。而早在去年10月底,慘遭換臉的網紅奎丁就曾於個人YouTube頻道披露該非法群組的存在,並根據群組內的資料公布了肖像權遭侵害的相關人士名單。
奎丁曾於個人頻道披露台灣網紅挖面的存在。 圖:翻攝自奎丁Zanny YouTube頻道
目前已知受害人數已經超過50人,除了一眾知名台灣女性政治人物、實況主、網紅外,連日籍女星新垣結衣、橋本環奈甚至是男性網紅「館長」陳之漢都出現在名單內。根據奎丁實測,該群組的入會費為400元,而換臉成人影片則是另外單獨計價,除了購買非法影片外,群組內的成員甚至能透過投票或是客製化訂製換臉影片。目前該群組的人數約為6,000人警方表示,小玉的非法獲利已有500萬元以上。
小玉曾於頻道上利用換臉技術假冒韓國瑜。 圖:翻攝自小玉YouTube頻道 網紅小玉涉嫌用Deepfake製作換臉不雅片、遭法辦!為何讓AI變頭號網路犯罪公敵?|數位時代 BusinessNext
事實上,小玉曾在去年4月發布了一支關於Deepfake技術的影片,他在片中表示,自己透過騰訊QQ以150人民幣(約新台幣650元)購買了換臉軟體,只花了30分鐘就能夠製作出假冒韓國瑜的影片。小玉當初曾在片尾呼籲網友們重視此類技術可能造成的假新聞議題,並表示自己也曾深受其害。不過如今當事人卻因為使用同樣的技術盜用他人肖像權不法獲利被捕,可說是相當的諷刺。Deepfake換臉做A片!網紅小玉遭警逮捕 | 電競 | 新頭殼 Newtalk https://bit.ly/3jf9fM6

Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以


售「變臉」不雅片獲利!小玉50萬交保、笑笑未涉案釋回 網紅小玉涉嫌用Deepfake製作換臉不雅片、遭法辦!為何讓AI變頭號網路犯罪公敵?|數位時代 BusinessNext
 售「變臉」不雅片獲利!小玉50萬交保、笑笑未涉案釋回 https://bit.ly/3lRcf3h
小玉複訊後50萬交保。(圖/TVBS)© 由 TVBS新聞網 提供 小玉複訊後50萬交保。(圖/TVBS)
百萬YouTuber「小玉」在網路經營社群軟體,涉嫌販賣「變臉」後的不雅合成影片,牟利高達上千萬元,昨(17)日遭刑事局警方逮捕,警過檢方訊問完畢後,諭知「小玉」朱玉宸50萬元交保,而莊姓共犯10萬元交保,另外同樣也因本案遭警方逮捕的網紅笑笑,則是被檢察官認定未涉案,獲得釋回。
笑笑因小玉被警方逮捕,檢察官複訊後認為未涉案釋回。(圖/Instagram笑笑)© 由 TVBS新聞網 提供 笑笑因小玉被警方逮捕,檢察官複訊後認為未涉案釋回。(圖/Instagram笑笑)
據了解,刑事局警方經過數日蒐證調查後,於昨日到「小玉」位在樹林區的住處,而該處所同樣也是小玉的工作室,另外兩間房則是分別由22歲的莊男及24歲的小玉搭檔「網紅笑笑」承租。警方在場至少扣得放在保險櫃裡的458多萬元的現金及賓士車。檢察官複訊後,傍晚分別依妨害風化罪諭令小玉50萬、莊男10萬元交保,笑笑則獲請回。
莊姓男子10萬元交保。(圖/TVBS)© 由 TVBS新聞網 提供 莊姓男子10萬元交保。(圖/TVBS)
檢方指出本案由小玉、莊男二人所為,從109年7月開始至今,多次散布、播送及販賣猥褻物品,均具有不斷反覆實施的特性,觸犯刑法第235條第1項。另外2人還涉及刑法第235條第2項之意圖散布、播送、販賣而製造、持有猥褻影音紀錄物品罪嫌,由刑法第235條第1項吸收,不另論罪。
網紅笑笑複訊後獲釋回。(圖/TVBS)© 由 TVBS新聞網 提供 網紅笑笑複訊後獲釋回。(圖/TVBS)
刑事局表示,小玉透過AI Deepfake「偷臉、移植」,而Deepfake技術釋透過人工智慧與模型重建追蹤等方式,將他人圖像的表情,「替換」到指定影片上,而達成合成影片特效。不過如果不當使用合成於不雅片上,卻會造成網路性暴力的情形發生,觸犯法律規範,且逾越道德界線。警方指出本案若有遭竊取肖像權作為不雅影片的被害人,可向刑事警察局報案,以利後續偵查與刑事賠償事宜。
售「變臉」不雅片獲利!小玉50萬交保、笑笑未涉案釋回 https://bit.ly/3lRcf3h


Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以

偽造 CEO 語音騙走 712 萬元,語音版 Deepfake 詐騙案正在興起 This is what a deepfake voice clone used in a failed fraud attempt sounds like - The Verge
作者 雷鋒網 | 發布日期 2020 年 08 月 04 日 偽造 CEO 語音騙走 712 萬元,語音版 Deepfake 詐騙案正在興起 | TechNews 科技新報 https://bit.ly/31g7zrX
從圖像、影片到語音,DeepFake 正在建構一個虛假的世界。 This is what a deepfake voice clone used in a failed fraud attempt sounds like - The Verge
我們可以看到,在馬斯克的這段演講影片中,Deepfake 的換臉技術幾乎達到人眼無法區別的地步。
不過,隨著技術不斷成熟,Deepfake 卻帶來隱藏的「虛假」風險。自從 2017 年,一位網友將女星蓋兒‧加朵和成人電影女主做了人臉交換,偽造了一段色情影片後,有關濫用 Deepfake 製造虛假、不良內容的影片一直充斥於網路。
為了應對 Deepfake 換臉技術帶來的種種風險,2019 年,Facebook 斥巨資發起「Deepfake 檢測挑戰賽」,這項挑戰賽一直延續到現在,其辨識準確率已經達到 82.56%。
不過,令人擔憂的是,有人又將虛假的矛頭指向 Deepfake 語音。有報導稱,一家英國能源公司被敲詐了 24 萬美元(約台幣 712 萬元),其背後正是利用語音版 Deepfake 技術。
攻擊者假冒公司 CEO 製造了一段虛假語音,以電子郵件的方式發給公司下屬員工,要求其向指定帳戶完成匯款。員工稱,假冒語音中的音調、口吻和口音都與公司 CEO 頗為相似,對他產生了誤導乖乖轉帳。其實,諸如此類的詐騙案件已經發生了不只一起。
對此,安全諮詢公司 Nisos 在分析過偽造語音後發出警告,Deepfake 語音詐騙正在興起,必須提高警惕。
Deepfake 語音複製曝光
最近一家科技公司也收到一份自稱公司 CEO 的語音郵件,要求「立即提供協助以完成緊急商業交易」。不過,這次員工發現了語音中的異常,詐騙沒有成功。
可以聽出這段語音的品質並不是很好,有點機械、不連貫,但員工說口音和音調還是大致相似的。
Deepfake 語音複製的品質,主要取決於假冒對象的錄音,數量越多、品質越好,偽造的逼真度也就越高。對於公司高層而言,他們在電話會議、YouTube、社交媒體或者 TED 演講中的錄音很容易取得,也由此成為了詐騙集團的偽造對象。
隨後,該公司將這段偽造的語音檔交給一家安全諮詢公司 Nisos。Nisos 使用一款名為 Spectrum3d 的音頻頻譜圖工具,分析了 Deepfake 的偽造語音。
▲ Deepfake 音頻頻譜圖。
可以看到頻譜圖中的音調幾乎一直處於峰值狀態,這與我們日常講話的高低音轉換顯然有很大差異,另外,研究人員稱,他們在語音中沒有發現任何噪音的痕跡,顯然說明這段語音是透過電腦軟體合成的。
與正常人聲的頻譜圖對比來看,結果更是一目了然,音高頻率、幅度更加自然,同時也能夠檢測數量微弱的背景噪音。
▲ 正常人聲頻譜圖。
由於未獲取足夠的樣本,詐騙集團採用的是何種 Deepfake 軟體合成技術還不得而知。不過,攻擊者為製造高逼真度的詐欺語音,需要滿足以下幾個條件:
捕獲幾乎沒有背景噪音的高品質語音。
在無法通話的場景下,分階段發送語音進行溝通。
以留言的方式進行,避免面對面交談。
如何辨別語音詐欺
雖然這次 Deepfake 偽造語音存在明顯瑕疵,但只要獲取高品質的語音樣本,其偽造程度還是能夠以假亂真。
另外,Nisos 公司表示,語音的深度偽造不僅與人的語氣有關,還與特定的言語舉止有關。但是這個目標已經能夠實現,比如攻擊者會採用會採用類似於 Yandex 反向圖像搜尋的語音工具,透過大量樣本的建構和訓練,將原始語音轉換為目標語音的模型。
目前語音詐欺案件已經陸續出現,隨著 Deepfake 軟體的使用更加容易,語音合成處理的品質越來越高,此類詐欺案件也會愈加普遍。
不過,Nisos 公司強調由於技術的局限性,此類詐欺事件還是很容易識破的,比如透過電話溝通再度確認。
Deepfake 技術無法實現連貫的語音通話,因此攻擊者通常採用語音郵件的形式與對方溝通。另外,也可以透過詢問一些只有內部才知道的事情來確認對方的身分。此外,攻擊者會盜用公司高級管理人員的 email 來與下屬員工進行溝通,因此,加強 email 安全防護也是非常必要的。 This is what a deepfake voice clone used in a failed fraud attempt sounds like - The Verge
此外,除了經濟詐騙外,攻擊者還可能透過引導員工登入不安全網站等行為,對公司的網路或物理資產造成破壞。偽造 CEO 語音騙走 712 萬元,語音版 Deepfake 詐騙案正在興起 | TechNews 科技新報 https://bit.ly/31g7zrX


AI 換臉用來拍電影願望終於要實現了?迪士尼自研演算法突破高畫質百萬畫素 | TechNews 科技新報

Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以

AI 換臉用來拍電影願望終於要實現了?迪士尼自研演算法突破高畫質百萬畫素 | TechNews 科技新報


Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以

惡劣!韓國業者「變臉」偽造A片 台灣明星也受害
分享惡劣!韓國業者「變臉」偽造A片 台灣明星也受害到Facebook分享惡劣!韓國業者「變臉」偽造A片 台灣明星也受害
韓國色情業者以「Deepfake」技術,複製名人臉部影像,移植色情片女演員身上。(記者劉慶侯翻攝自網站)
2019-09-15 00:11
〔記者劉慶侯/台北報導〕我國到南韓發展的人氣女歌手,驚傳被南韓AV影視業者利用時下最新科技「Deepfake」,將她的面貌「完美的複製」後,「換到」色情片女演員身上。由於影像流暢、動作自然、面容維妙維肖,意外造成影片一躍成為目前最夯的「AV鉅片」,更在網路間四處流竄瘋傳。
國內的網路警察巡邏時發現這支影片,看到台灣全國民眾心目中的「國民寶貝」,居然被韓國色情業者如此糟蹋,氣的「拳頭都硬」了,試圖利用管道進行檢舉舉發。
Deepfake「深偽技術」,是英文「deep learning」(深度學習)和「fake」(偽造)的混成新詞,專指用藉助人工智能抓取特定對象大量的影片、照片,組合而成的人體圖像影像合成;昔日在專業用詞上,則被稱為「人類影像合成(Human image synthesis)」技術。
這位人氣女歌手被他們鎖定作為對象的原因,是因她近年屢被選為全球百大美女,倍受國際歌迷喜愛,再加上要蒐集她的影像、照片非常容易,易於組織成大數據資料,再以Deepfake技術生成活生生的動作影像。
事實上,這個南韓的AV色情網網站,已大量合成偽製各個南韓當紅女影歌紅星,作為他們的AV片的女主角,賺取鉅額暴利和點擊率。這個不法網站目前似乎尚未遭到南韓警方注意和查緝,以致訂閱者有愈來愈多的趨勢。
Deepfake技術開始被外界注意到,應可推溯至2017年12月,有位網民以「Deepfakes」為名,在人氣論壇Reddit上發布了偽造的色情影片,把「神力女超人(Wonder Woman)」女主角蓋兒加朵(Gal Gadot)的樣貌,「換」到色情片女演員身上,幾可亂真。其他知名受害女星還有史嘉蕾.強森(Scarlett Johansson)、泰勒·絲薇芙特(Taylor Swift)、艾瑪華森(Emma Watson)、娜塔莉波曼(Natalie Portman)等。
隨後,有越來越多人利用這項技術,把一些名人臉孔轉接到A片上面,如美國前總統歐巴馬,和他的妻子蜜雪兒(Michelle Obama)、美國現任總統的女兒伊凡卡.川普(Ivanka Trump)、凱特王子妃(Kate Middleton)等人的深偽再製影片,都很廣泛地在各大網路平台流傳。
近年,deepfake更加晉階,出現了「影片換臉」AI技術,能分析目標對象各個角度的大量照片後,再透過演算法製造出目標對象的各種表情,藉此和影片中某個角色的面部表情完全契合,在影像合成後,乍看之下就像目標對象真的參與了影片演出。


Deepfake,是英文「deep learning」(深度學習)和「fake」(偽造)的混成詞[1],專指用基於人工智慧的人體圖像合成技術。此技術可將已有的圖像和影片疊加至目標圖像或影片上。
Deepfake亦可用來製作虛假的名人性愛影片和報復性色情媒體[2]。帶色情成份的Deepfake作品於2017年間在網際網路上流出,特別是在Reddit上[3]。這些Deepfake作品現已被Reddit、Twitter和Pornhub等網站禁止發布[4][5][6]。Deepfake也可以用以製造假新聞及惡意惡作劇[7][8]。 在Youtube或Vimeo等流行的在線視頻流媒體網站上可以很容易地找到非色情的Deepfake影片。[來源請求]而FakeApp是一款使用TensorFlow開源軟體庫的Deepfake影片製作程式[9][10]。
偽造面部表情和將其渲染至目標影片的技術在2016年出現,此技術允許近實時地偽造現有2D視頻中的面部表情


https://is.gd/1A1bxz

Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以


想要打贏與 Deepfake 製作者之間的「軍備競賽」看起來長路漫漫,但這場關於檢測工具的競賽馬上就要全面展開,來自各方的力量將一同抗衡作惡的 Deepfake──我們應該樂觀一點
Google、亞馬遜、Facebook 三巨頭齊上陣,槍口瞄準 Deepfake | TechNews 科技新報 http://bit.ly/2rC5d9j

Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以


最近一篇學術界論文就提到,有方法可以準確辨認出經過DeepFake造手腳影片。
人工智能(AI)技術持續進化,本應用於人臉辨析等方便人們工作、生活,奈何不少不懷好意的科技專才就用到錯誤地方,是以DeepFake技術,已經用於不少假新聞甚至製作色情影片當中。
但最近一篇學術界論文就提到,有方法可以準確辨認出經過DeepFake造手腳影片。根據台灣科技新報報導,一篇刊登在 IEEE PAMI (模式分析與機器智能彙刊)上的論文稱,可以通過辨識臉部因心跳血流產生的微弱變化,辨識出影片採用的是哪種DeepFake演算法。
>>>【Game界熱話】任天堂《超級瑪利歐3D收藏輯》擊敗動森 成為日本9月份最暢銷遊戲
>>>【Apple漏洞】蘋果T2晶片現安全漏洞 黑客可植入惡意程式操控
論文指出,血管遍布人體全身,包括臉上。比如在睡覺的時候,你可能會感覺到臉部血液流動產生的輕微「跳動」感。隨著心跳導致的血液流動,人體皮膚也會出現區域性顏色變化。常見的脈搏血氧儀,其工作方式其實就是辨識這種變化(學名叫做光體積變化描記圖法 Photoplethysmography,簡稱 PPG)。
因心跳產生的皮膚顏色變化,在人臉上同樣會出現,只是極其微弱,對肉眼不可見,在影片裡就更難看出來了。不過對影片進行特定處理,增強顏色變化的效果,肉眼就可以很明顯地觀察出來。
其實現時的Apple Watch 和一大堆血氧儀都採用這種方法,它的準確率和心電圖基本吻合。3位分別來自紐約州立大學賓漢頓分校和英特爾公司的研究人員,在論文中提出一個重要的主張:無論是在空間維度還是時間維度上,DeepFake的假人臉都無法還原這種因血液流動造成的微弱變化。
FakeCatcher的準確率能夠超過90%,更厲害的是,FakeCatcher不但能認出影片的真假,還能準確辨識出假影片用的是哪種 DeepFake演算法。
【對抗假新聞】研究員發現新武器 偵測換面DeepFake技術 - 香港經濟日報 - 即時新聞頻道 - 科技 - D201010 https://bit.ly/34Lus8x
DeepFake的假人臉,體現不了這種微弱變化,在大量測試後,研究人員發現:DeepFake影片裡的人臉,讀取到的PPG信號是不穩定的。如果對DeepFake影片進行增強,會發現血流變化產生的顏色變化在人臉上顯示非常不自然,變化的頻率也完全不像真的心跳。這種方法成為FakeCatcher。
在Face Forensics++、CelebDF等常用的假臉數據集上,FakeCatcher的準確率能夠超過90%。更厲害的是,FakeCatcher不但能認出影片的真假,還能準確辨識出假影片用的是哪種 DeepFake演算法,因為每種演算法的殘差效果雜訊都有明顯的特徵。研究人員透露,他們在DeepFakes、Face2Face、FaceSwap和NeuralTex 4種主流演算法上的辨識準確率整體超過了93%。
【對抗假新聞】研究員發現新武器 偵測換面DeepFake技術 - 香港經濟日報 - 即時新聞頻道 - 科技 - D201010 https://bit.ly/34Lus8x

Deepfake也可以用以製造假新聞及惡意惡作劇-色情業者以

arrow
arrow
    全站熱搜

    nicecasio 發表在 痞客邦 留言(0) 人氣()