Yahoo奇摩 網頁搜尋

搜尋結果

  1. 深度偽造 (英語: Deepfake ),簡稱 深偽 ,是英文「deep learning」( 深度學習 )和「fake」(偽造)的 混成詞 [1] ,專指基於 人工智慧 的 人體圖像合成 技術的應用。. 此技術可將已有的圖像或影片 疊加 (英語:Superimposition) 至目標圖像或影片上。. 偽造面部 ...

  2. 2021年10月19日 · Deepfake生成機制1:自動編碼器(Autoencoder). 這項看似神奇的換臉招數,究竟是怎麼做出來的呢?. Deepfake的生成一般會有兩種方法。. 一個叫做自動編碼器(AutoEncoder),另一個叫做生成對抗網路(Generative Adversarial Network, GAN),兩者都是AI深度學習的應用方式 ...

  3. 2023年4月4日 · Deepfake教學丨隨著科技的發展,已全面進入了一個AI人工智能時代!人工智能技術的蓬勃發展使得我們可以創建非常逼真的虛擬影像,這其中就包括深度偽造技術。新Monday為您介紹深度偽造技術,並整合了市面上人氣的Deepfake App及網站推介,讓大家了解Deepfake技術的原理和如何創建自己的Deepfake作品 ...

  4. 2023年10月12日 · 眼見不能為憑,生成式AI好用卻危險?. Deepfake 5種分辨深偽小絕招. 你看過美國前總統川普被警方逮捕的影片嗎?. 又或是英國女王在皇宮中大跳熱舞的片段?. 多年來,人們普遍相信著「有圖有真相」的道理,然而,隨著圖像與影音相關的生成式AI越發成熟,我們 ...

  5. 難辨虛偽和真實,Deepfake技術造成的AI倫理與法規挑戰. Author 作者 許志仲/成功大學統計學系助理教授. deepfake 深度學習 隱私 偽造 透明度 AI倫理 被動偵測 法律防治 社會教育. 在近年來人工智慧(artificial intelligence, AI)技術發展中最具爭議和吸引力的技術 ...

  6. Deepfake AI 影片換臉教學. Deepfake 技術可以將照片或影片中人物的臉換成另一人的臉,此技術雖然有實際用途,但也帶來了巨大的風險和挑戰。. 隨著 AI 技術的門檻愈來愈低,創造真實頭像、聲音和動作的技術變得更加經濟實惠,只需幾分鐘的範例影片和約 1,000 ...

  7. en.wikipedia.org › wiki › DeepfakeDeepfake - Wikipedia

    While the act of creating fake content is not new, deepfakes leverage tools and techniques from machine learning and artificial intelligence, [4] [5] [6] including facial recognition algorithms and artificial neural networks such as variational autoencoders (VAEs) and generative adversarial networks (GANs).

  8. 2022年1月26日 · Deepfake 辨偽技術如何在魔高一尺時,能道高一丈呢?. ——成大統計所許志仲專訪. A編編 ・2022/01/26 ・3499字 ・閱讀時間約 7 分鐘. 相關標籤: AI (95) deepfake (7) GAN (4) 五官 (2) 人臉 (1) 人臉辨識 (1) 偽造特徵 (1) 換臉 (7) 深度造假 (5) 生成對抗網路 (2) 熱門標籤 ...

  9. 2022年1月24日 · 編按:你的理智知道「眼見不為憑」,但你的眼睛還是會背叛你的理智,不自覺得被眼前的影像所吸引,儘管你真的、真的知道他是假的。. Youtuber 小玉於2021年底涉嫌利用 Deepfake 技術,偽造多位名人的色情影音內容並販售的事件,既不是第一起、也不是 ...

  10. mitsloan.mit.edu › ideas-made-to-matter › deepfakes-explainedDeepfakes, explained - MIT Sloan

    2020年7月21日 · To make a deepfake video, a creator swaps one person’s face and replaces it with another, using a facial recognition algorithm and a deep learning computer network called a variational auto-encoder [VAE], said Matt Groh, a research assistant with the Affective Computing Group at the MIT Media Lab.

  1. 其他人也搜尋了