Yahoo奇摩 網頁搜尋

  1. 相關搜尋:

  1. 林亞蒓部落格 相關

    廣告
  2. 過去一個月已有 超過 1 萬 位使用者造訪過 tw.strikingly.com

    部落格解決方案為您量身訂製。免費架設網站和商店。 良好的SEO最佳化效果,助力網站排名提升。

搜尋結果

  1. 2018年8月15日 · 2018-08-15. 分享本文. 據《 聯合新聞網 》表示天空部落格yam 天空尖兵部落格將於 10 月 1 日前刪除過去用戶的檔案,包含照片跟網誌,但在 9 月 17 以前還能正常運作。 天空部落格也會分三個階段暫停服務。 9 月 17 日凌晨 12 點以前,舊用戶都可以正常使用網誌功能;但到 10 月 1 日中午 12 點前,新舊用戶只能瀏覽頁面,無法再新增或修改資料,中午一過將刪除全部非保留的資料跟檔案。

  2. 2023年8月17日 · 黃俊誠. 2023-08-17. 分享本文. 臺灣之光再一樁! 這次我們有了屬於自己的語言模型,再也不是只能輸入英文的 AI 聊天框,而是一個專門為臺灣人量身打造的大型語言模型 – Taiwan-LLaMa v1.0。 它的名字由 META AI 模型(LLaMa)延伸發想,從臺灣本土文化到口語化詞彙,都完美融入在裡頭。 AI 模型融入臺灣用語,繁體中文版 LLaMa 出自「臺大博士生」之手! 該 LLaMa 模型取名為-Taiwan-LLaMa v1.0 , 不僅支援繁體中文以符合臺灣人用語,還進行了特殊調校,以適應臺灣在地使用習慣。 它基於 LLaMa 2 架構,包括了超過 50 億個 token 預訓練模型,並在超過 49 萬多次的繁體中文對話數據上進行了微調。

    • 可解釋的人工智慧,能協助行銷人員制定策略與分析成果
    • 可解釋的人工智慧,能協助開發者分辨偏見的好壞
    • 運作透明化,模型開發人員的責任增加
    • 了解 Ai 模型的運作機制,是企業的致勝關鍵

    人工智慧模型的可解釋程度須視行銷人員欲了解的內容而定。演算法背後的運作機制可能不是行銷人員關注的重點,他們希望了解更多的是哪些功能或系統輸入實例會影響模型產出的建議,以為後續行動進行更妥善的規劃。 舉例而言,人工智慧模型會基於不同信號而將顧客判定為猶豫型顧客。這也許是因為該顧客曾多次將游標移動到同一商品上,又或者是因為他將某件商品放入購物車很長一段時間,卻遲遲未結帳。行銷人員針對上述兩種情況所採取的行動可能會有所不同,對於前者,行銷人員只需推薦數種與該顧客關注商品相似的品項;對於後者則可考慮提供限時免運優惠,以觸發最終的購買行為。 林博士補充道:「行銷人員必須明白哪些關鍵因素會影響模型的決策。儘管對行銷人員而言,了解模型背後的演算法非常具有挑戰性,但假使能明白哪些因素在人工智慧的決策過程中發...

    林博士表示:「由於用以訓練模型的資料可能自帶偏見,且演算法在設計上也可能在有意無意間摻入偏見,因此,偏見無可避免地存在於所有人工智慧模型中。然而,並非所有的人工智慧偏見都是壞事。」 事實上,偏見也可用於做出準確的預測;但在將其應用於諸如種族和性別等敏感領域時,務必要採取謹慎的態度。 林博士進一步說明:「可解釋的人工智慧可協助我們區分模型在進行決策時,使用的是有益的或是有害的偏見,還可告訴我們在模型制定決策的過程中,哪些因素扮演的角色更為重要。雖然 XAI 無法檢測出偏見,但仍有助於人類理解模型決策的過程是否存在偏見。」 林博士也補充,可解釋的人工智慧還能夠協助人們理解偏見的來源,究竟是源自用以訓練人工智慧模型的資料,抑或模型對於不同標籤的權重等。

    對許多人而言,人工智慧的運作模式宛如「黑箱作業」:即輸入資料後,經由一連串不透明的演算法推導出結果,或提出應採取行動的建議。當模型產出的結果乍看之下似乎違背直覺甚至有誤時,便可能導致不信任的情況發生。 林博士解釋:「XAI 使這些模型對人類而言更容易理解、也更加合理,且每個人都可針對模型產出的結果進行研究,以決定是否採納其建議。換句話說,XAI 不僅將人類納入決策過程,更讓人們成為做出最終決定前的最後一道防線,使整個流程具備更高的可信度。」 他也補充說明,未來的人工智慧模型將有能力向人們解釋其制定決策的方式,並將決策攤在眾人面前以供檢視,而這意味著模型開發人員的責任也將有所增加。相較於以往的黑箱作業,如今人們可以追溯人工智慧模型做出的決策,相信在不久的將來,會出現能自行解釋運作原理的人工智慧...

    學術界至今已提出許多研究報告,希望促進人工智慧或其他演算法的自我解釋能力。 林博士指出:「有些模型要比其他模型更容易解釋。例如,深度學習模型就是難以解讀的模型之一,為了解讀深度學習模型的運作機制,某些研究會建議使用代理模型模仿深度學習模型的行為,因為代理模型往往更容易解釋。」 他還補充,另一種方法則是從模型的設計著手,建構更容易解釋的模型。例如,在神經網路中使用較少參數,將有望降低複雜度並實現相似的準確性,從而使模型本身更具可解釋性。 隨著越來越多企業部署人工智慧,能否了解模型背後的運作機制,儼然已成為企業致勝與否的關鍵。唯有掌握人工智慧模型的運作方式,才能夠深入了解其決策背後的成因、識別任何須排除的偏見,從而增進人們對該系統的信任。XAI 不僅將人工智慧和機器學習的黑箱打開,更為人們提供瞭...

  3. 2019年1月21日 · 整體來說,這份資源可以理解為是深度學習領域的導航,一共將深度學習各方面的資源分成了 7 大類。 具體是: 論文資源版塊,一共分成 3 個類別,分別是模型、核心和應用。 在每個類別之下,又進行了兩次細化分類。 以模型分類為例: 在模型分類中,細化到卷積網路、循環網路、自編碼器、生成模型和概率模型。 在每個模型下面會根據模型的用途進行分類,來給出相關的論文。 比如卷積網路,提供了關於圖像分類、句子分類、視頻分類、人臉辨識等方面應用論文,並附上論文的連結,部分論文有相應的實現程式碼,還對論文進行了星級評價。 數據集版塊,也是 3 個類別,分別是圖片數據集、文本與自然語言處理數據集和語音技術數據集。 每個方向,也會再進一步分類,並在給出資源連結的同時,附以相應數據集的特點與用途。 以圖片數據集為例:

  4. 2020年12月10日 · 但這完全超出他的能力範圍,因此,這位老師希望 AI 專業人士能給予這個孩子一些指導。而看過這位高中生的部落格後,不少網友都大讚他是「天才高中生」! 甚至有人高呼他的研究比不少研究生還強,未來不可限量……

  5. 2021年4月23日 · The Antipodean 早午餐,圖/ 痞客邦部落格「娛婦莎莎 Sarah」 提供。. (本文訊息由 痞客邦 提供,內文與標題經 VidaOrange 修訂後刊登。. 近年來台灣的早午餐(brunch)種類和形式相當多元,可說是百花齊放,不論是訴求高 CP 值、澎湃食材或者健康取向,都各 ...

  6. 2019年5月8日 · Sarah Leo 在經濟學人雜誌中擔任資料視覺化記者(Visual data journalist),她在一篇部落格中介紹到:雖然對於每一張圖表,他們都儘量準確地以最能支持故事表達的方式來視覺化數字,但有時候也會犯錯。 為了能夠做的更好,他們在錯誤中不斷總結教訓,不斷的自我改進。 為此 Sarah Leo 還把經濟學人的錯誤總結為 3 點,並寫成一篇 文章 ,供大家參考。 下文是大數據文摘對此文章的編譯。 原文 傳送門. 深入瞭解我們的記錄後,我找到了幾個有用的例子。 我將針對數據視覺化的問題分為三類:誤導性圖表、模糊的圖表、未能說明問題的圖表。 免責聲明:大多數「原始」圖表是在我們的圖表重新設計之前發佈的。 改進的圖表是為了符合我們的新規格而繪製的。 它們的數據完全一致。

  1. 相關搜尋

    林亞蒓