機器學習模型解釋的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦李金洪寫的 全格局使用PyTorch:深度學習和圖神經網路 實戰篇 和的 新機器智能都 可以從中找到所需的評價。
另外網站可解釋人工智慧XAI 把黑箱模型變透明|投書- 未來城市@天下也說明:Appier首席機器學習科學家林守德解釋,如果行銷人員想針對不同客群,提供不同的優惠訊息,人工智慧將是可以利用的工具;「一旦掌握了人工智慧模型區分 ...
這兩本書分別來自深智數位 和浙江教育出版社所出版 。
國立陽明交通大學 材料科學與工程學系所 韋光華所指導 陳重豪的 調控高分子給體二維共軛側鏈與設計共軛中心核與pi-架橋小分子受體結構與性質之系統性研究 (2021),提出機器學習模型解釋關鍵因素是什麼,來自於有機太陽能電池、高分子側鏈工程、反式元件、低掠角廣角度散色、低掠角小角度散色。
而第二篇論文國立政治大學 資訊管理學系 洪為璽所指導 洪御哲的 應用文字探勘於業配文揭露偵測 (2021),提出因為有 業配文、內容行銷、文字探勘、機器學習、自然語言處理的重點而找出了 機器學習模型解釋的解答。
最後網站機器學習跟統計學差在哪?哈佛博士 - 報橘則補充:我們通常不關心模型是否可以解釋。機器學習只在乎結果。就好比對公司而言,你的價值只用你的表現來衡量。而統計建模 ...
全格局使用PyTorch:深度學習和圖神經網路 實戰篇
為了解決機器學習模型解釋 的問題,作者李金洪 這樣論述:
熟悉基礎,精通實戰。 接續了上一本實戰篇的基礎,本書將介紹目前最流行的物體辨識和自然語言處理在圖神經網路上的最完整應用。當你熟悉了神經網路之後,接下來要精進的就是針對網路結果的強化及最佳化。在GNN的基礎上,針對目前最流行的視覺處理模型進行修改、架設及強化,並且實際應用在現有的平台上。本書的重點就是大量了使用現有的Python函數庫,並且應用了最新的資料集,讓你能真正看到資料套用在模型上的強大能力。在針對Pytorch的函數庫上,不但有視覺應用,更有號稱人工智慧明珠的NLP應用。使用了Torchtext以及NLP的唯一/最佳選擇Huggingface Transformers。而大家
耳熟能詳,但又不知道怎麼用的模型,包括GPT-2、Transformer-XL、ALBERT、ELECTRA、DistillBERT等,在書中都有詳細介紹。另外為了解開DL的神祕,本書也難得介紹了Captum套件,讓深度神經網路更具可解釋性。本書最後也不忘介紹ZSL、這種極少量資料就可訓練高精度模型的方法。有關異質圖神經網路部分,也有大量DGL和NetworkX的範例,實戰篇+基礎篇兩本書,要不充分了解GNN都不行。 本書特色 ~GNN 最強實戰參考書~ ●使用圖型的預訓練模型、Torschvision,GaitSet模型、CASIA-B資料集 ●高級NLP模型訓練及微調、BE
RTology、CBOW、Skip-Gram、Torchtext、spaCy ●文字使用模型TextCNN來把玩IMDB資料庫 ●高階工程師才會用的Mist啟動函數、Ranger最佳化器 ●正宗NLP函數庫Huggingface Transformers詳解、AutoModel、AutoModelWithMHead、多頭注意力、PretrainedTokernizer
機器學習模型解釋進入發燒排行的影片
「孫在陽」直播-國立陽明交通大學-數據科學之視覺化分析
大數據利用時間的特性,以統計圖表呈現分析結果,以然成為一種企業尋找管理策略的方法。商業智慧的成功,當然也可以促成醫學智慧的成功。
孫在陽老師主講,[email protected]
範例、講義下載:https://goo.gl/ytzRxT
時間軸
00:00:00 PPT簡報實務應用簡介
00:03:09 建立模型
00:03:54 依統計目的的圖表設計
00:10:40 ICD 9:434.90 屬於 TIA
00:14:32 依疾病碼做腦中分疾病分類
00:20:50 建立標題
00:21:23 01.ICD比例統計
00:26:20 02.ICD次數統計
00:28:30 視覺化
00:32:16 加入時間特性做連續型分析
00:49:20 自動分析
00:54:35 知識
01:01:14 關鍵影響因數
01:50:01 分解樹
調控高分子給體二維共軛側鏈與設計共軛中心核與pi-架橋小分子受體結構與性質之系統性研究
為了解決機器學習模型解釋 的問題,作者陳重豪 這樣論述:
此研究中,我們通過引入具有(苯並二噻吩)-(噻吩)(噻吩)-四氫苯並惡二唑(BDTTBO)主鏈的新型供體-受體(D/A)共軛聚合物製備了用於有機光伏(OPV)的三元共混物。在BDTTBO單體中BDT供體單元上修飾不同的共軛側鏈聯噻吩 (BT)、苯並噻吩 (BzT) 和噻吩並噻吩 (TT)(記為 BDTTBO-BT、BDTTBO-BzT 和 BDTTBO-TT)。然後,我們將 BDTTBO-BT 或 BDTTBO-BzT 或 BDTTBO-TT 與聚(苯並二噻吩-氟噻吩並噻吩)(PTB7-TH)結合起來,以擴大太陽光譜的吸收並調整活性層中 PTB7-TH 和富勒烯的分子堆積,從而增加短路電流密
度。我們發現參入10%的BDTTBO-BT高分子以形成 PTB7-TH:BDTTBO-BT:PC71BM 形成三元共混物元件活性層可以將太陽能元件的功率轉換效率從 PTB7-TH 的二元共混物元件 9.0% 提高到 10.4%: PC71BM 轉換效率相對增長超過 15%。於第二部分,我們比較在BDTTBO單體中BDT供體單元上修飾硫原子或氯原子 取代和同時修飾硫原子和氯原子取代的側鏈聚合物供體與小分子受體光伏的功率轉換效率 (PCE) 的實驗結果與由監督產生的預測 PCE。使用隨機森林算法的機器學習 (ML) 模型。我們發現 ML 可以解釋原子變化的聚合物側鏈結構中的結構差異,因此對二元共混
系統中的 PCE 趨勢給出了合理的預測,提供了系統中的形態差異,例如分子堆積和取向被最小化。因此,活性層中分子取向和堆積導致的結構差異顯著影響 PCE 的預測值和實驗值之間的差異。我們通過改變其原始聚合物聚[苯並二噻吩-噻吩-苯並惡二唑] (PBDTTBO) 的側鏈結構合成了三種新的聚合物供體。同時修飾硫原子和氯原子取代的側鏈結構用於改變聚合物供體的相對取向和表面能,從而改變活性層的形態。 BDTSCl-TBO:IT-4F 器件的最高功率轉換效率 (PCE) 為 11.7%,與使用基於隨機森林算法的機器學習預測的 11.8% 的 PCE 一致。這項研究不僅提供了對新聚合物供體光伏性能的深入了解
,而且還提出了未明確納入機器學習算法的形態(堆積取向和表面能)的可能影響。於第三部分,為了理解下一代材料化學結構的設計規則提高有機光伏(OPV)性能。特別是在小分子受體的化學結構不僅決定了其互補光吸收的程度,還決定了與聚合物供體結合時本體異質結 (BHJ) 活性層的形態。通過正確選擇受體實現優化的OPV 元件性能。在本研究中,我們選擇了四種具有不同共軛核心的小分子受體——稠環核心茚二噻吩、二噻吩並茚並茚二噻吩(IDTT)、具有氧烷基-苯基取代的IDTT稠環核心、二噻吩並噻吩-吡咯並苯並噻二唑結構相同的端基,標記為 ID-4Cl、IT-4Cl、m-ITIC-OR-4Cl 和 Y7,與寬能帶高分子
PTQ10 形成二共混物元件。我們發現基於 Y7 受體的器件在所有二元混合物器件中表現出最好的光伏性能,功率轉換效率 (PCE) 達到 14.5%,與具有 10.0% 的 PCE 的 ID-4Cl 受體相比,可以提高 45%主要歸因於短路電流密度 (JSC) 和填充因子 (FF) 的增強,這是由於熔環核心區域中共軛和對稱梯型的增加,提供了更廣泛的光吸收,誘導面朝向並減小域尺寸。該研究揭示了核心結構單元在影響有源層形態和器件性能方面的重要性,並為設計新材料和優化器件提供了指導,這將有助於有機光伏技術的發展。最後,我們比較了具有 AD-A´-DA 結構的合成小分子受體——其中 A、A´ 和 D 分
別代表端基、核心和 π 價橋單元—它們與有機光伏聚合物 PM6 形成二共混物元件。 增加核苝四羧酸二亞胺 (PDI) 單元的數量並將它們與噻吩並噻吩 (TT) 或二噻吩吡咯 (DTP) π 橋單元共軛增強了分子內電荷轉移 (ICT) 並增加了有效共軛,從而改善了光吸收和分子包裝。 hPDI-DTP-IC2F的吸收係數具有最高值(8 X 104 cm-1),因為它具有最大程度的 ICT,遠大於 PDI-TT-IC2F、hPDI-TT-IC2F和 PDI-DTP-IC2F。 PM6:hPDI-DTP-IC2F 器件提供了 11.6% 的最高功率轉換效率 (PCE);該值是 PM6:PDI-DTP-
IC2F (4.8%) 設備的兩倍多。從一個 PDI 核心到兩個 PDI 核心案例的器件 PCE 的大幅增加可歸因於兩個 PDI 核心案例具有 (i) 更強的 ICT,(ii) 正面分子堆積,提供更高的和更平衡的載波遷移率和 (iii) 比單 PDI 情況下的能量損失更小。因此,越來越多的 PDI 單元與適當的髮色團共軛以增強小分子受體中的 ICT 可以成為提高有機光伏效率的有效方法
新機器智能
為了解決機器學習模型解釋 的問題,作者 這樣論述:
人工智能領域一直以來堅信:只要人工智能系統能產生類似於人類的行為,它就是智能的。於是,我們看到了能夠打敗國際象棋冠軍的計算機棋手,能夠根據路況選擇行駛路線的無人駕駛汽車,能夠做手術的“醫生”……人們甚至開始擔憂:有朝一日,機器人會不會超越人類,進而奴役人類? 在《新機器智能》一書中,科技界一代傳奇傑夫·霍金斯指出,如今的人工智能並不智能。要想創造眞正的機器智能,蕞快的途徑是理解大腦的工作原理,然後在計算機中模仿這些原理。霍金斯一生痴迷兩件事——計算機和大腦。早在幾十年前,他創建的Palm掌上電腦就在商業上取得了巨大成功,也成為現代智能手機的原型。但霍金斯一心想弄清楚大
腦的工作原理。經過數十年的不懈努力,他終於發現了其中的奧秘:大腦學習世界的一個模型,並使用這個模型來預測未來。人類的創造力、意識都是通過這個模型產生的。這一全新的智能理論框架被命名為“記憶-預測模型”,它改變了人們對智能的看法,也為開發眞正的機器智能奠定了堅實的基礎。 《新機器智能》主題宏達又足夠吸引人,深入探討了智能的核心問題:計算機真的智能嗎?大腦是如何工作的?為什麼弄清大腦的工作原理如此困難?如果不以行為來定義,那應該怎樣定義智能呢?“記憶-預測模型”的含義是什麼?如果你想了解自身、了解智能、了解機器智能,那麼一定不要錯過霍金斯的這一本里程碑式作品。 傑夫·霍金斯,科技界一代
傳奇,美國知名發明家、計算機科學家和神經科學家,于2003年當選美國國家工程院院士。Palm掌上電腦創始人,Numenta公司創始人。1992年創立Palm公司。1996年,該公司推出的創新產品PalmPolit一經上市便取得了創奇般的成功,18個月內銷量超過100萬台,將蘋果和微軟的同期產品遠遠甩在身後。多年來深耕對大腦的探索,致力於解釋大腦是如何工作的。他認為只有把人類智能弄明白,才能製造出像人類大腦一樣工作的機器智能,著有《千腦智能》《新機器智能》。 桑德拉·布萊克斯利,科學作家,《紐約時報》撰稿人。
應用文字探勘於業配文揭露偵測
為了解決機器學習模型解釋 的問題,作者洪御哲 這樣論述:
業配文是在廣告媒體內容中有目的地整合品牌或品牌說服性訊息,以換取贊助商的報酬。在網際網路與行動裝置的普及下,社群媒體快速成長,捧紅了許多「網紅」高影響力者,看上此高度個人化與可控制內容的特性,使廠商將資源投入在這些人身上,以獲取商品的曝光與銷售。但是業配文常常會有假分享真業配的問題,讓消費者認為是自己的真實體驗分享,而非商業贊助,可能誤導消費者進行消費,故本研究目的在於能否建立一個模型找出背後可能是未揭露的業配文章。首先,先搜集痞客邦百大部落客的資料,建立會揭露業配之部落客名冊,再搜集該部落客發表過的所有文章,藉由揭露文字標注業配文與非業配文。然後透過機器學習方法SVM、CNN與Google
所開發的深度語言模型BERT進行訓練與比較,最後以CNN平均得出最高的準確度83.625%,同時,在我們標注的未揭露業配文章資料中,CNN能夠偵測業配文的準確度為90.69%。最後,應用逐層相關傳播LRP解釋CNN模型,觀察哪些常出現業配文文字最可能被預測為業配文,比較模型與人為觀點,並藉此找出業配文的特徵,以提供給消費者進行判斷。
想知道機器學習模型解釋更多一定要看下面主題
機器學習模型解釋的網路口碑排行榜
-
#1.机器学习模型的可解释性研究- Heywhale.com
机器学习模型 的可解释性研究. 目录 收起. 1. 引言. 1.1 加载必要的依赖项. 1.2 载入数据集. 1.3 特征工程. 1.4 划分训练集和测试集. 1.5 训练分类模型. 於 www.heywhale.com -
#2.【技术分享】机器学习模型可解释性 - 腾讯云
机器学习模型 的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发 ... 於 cloud.tencent.com -
#3.可解釋人工智慧XAI 把黑箱模型變透明|投書- 未來城市@天下
Appier首席機器學習科學家林守德解釋,如果行銷人員想針對不同客群,提供不同的優惠訊息,人工智慧將是可以利用的工具;「一旦掌握了人工智慧模型區分 ... 於 futurecity.cw.com.tw -
#4.機器學習跟統計學差在哪?哈佛博士 - 報橘
我們通常不關心模型是否可以解釋。機器學習只在乎結果。就好比對公司而言,你的價值只用你的表現來衡量。而統計建模 ... 於 buzzorange.com -
#5.机器学习模型的可解释性 - 人工智能
模型 可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入 ... 於 www.6aiq.com -
#6.可解释性相关研究及应用|CCF DL Focus On Interpretability of ...
近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是伴随着模型复杂度的增加,机器学习算法 ... 於 www.ccf.org.cn -
#7.又一个机器学习模型解释神器:LIME - Python数据挖掘- 简书
在机器学习的许多应用中,要求用户信任模型来帮助他们做出决策。医生肯定不会仅仅因为“模型这么说”就给病人做手术。即使在风险较低的情况下, ... 於 www.jianshu.com -
#8.可解釋機器學習:黑盒模型可解釋性理解指南 - 博客來
本書是一本關於使機器學習模型及其決策具有可解釋性的書。本書探索了可解釋性的概念,介紹了簡單的、可解釋的模型,例如決策樹、決策規則和線性回歸,重點 ... 於 www.books.com.tw -
#9.如何攻击深度学习系统——可解释性及鲁棒性研究 - 安全客
表征学习的目标是寻求更好的表示方法并创建更好的模型来从大规模未标记数据中学习这些表示方法。可以看到,相比于传统的模式识别、机器学习需要手工提取 ... 於 www.anquanke.com -
#10.机器学习模型可解释性方法、应用与安全研究综述
迄今为止,学术界对模型可解释性仍缺乏统一的认识,可解释性研究的体系结构尚不明确.在综述中,回顾了机器学习中的可解释性问题,并对现有的研究工作进行了系统的总结和 ... 於 crad.ict.ac.cn -
#11.华为云- 可解释机器学习模型
本文介绍了【模型可解释性的符号语言基础】相关内容,与您搜索的可解释机器学习模型相关。邀你共享云计算使用和开发经验,汇聚云上智慧,共赢智慧未来. 於 www.huaweicloud.com -
#12.谈谈机器学习模型的可解释性- 程序员大本营
谈谈机器学习模型的可解释性 ... 随着AI和机器学习的发展,越来越多的决策会交给自动化的机器学习算法来做。但是当我们把一些非常重要的决定交给机器的时候,我们真的放心么 ... 於 www.pianshen.com -
#13.可解釋機器學習:黑盒模型可解釋性理解指南| 天瓏網路書店
可解釋機器學習:黑盒模型可解釋性理解指南Interpretable Machine Learning ; 頁數: 244 ; 裝訂: 平裝 ; ISBN · 7121406063 ; ISBN-13 · 9787121406065 ; 商品描述. 機器學習雖然 ... 於 www.tenlong.com.tw -
#14.使用LIME 解釋複雜的分類模型 - David's Perspective
許多領域問題除了準確的預測外,更需要了解為什麼模型會得出這樣的預測,以便辨認模型的前在風險及輔助人類做決策,因此可解釋的機器學習模型是近年 ... 於 taweihuang.hpd.io -
#15.AI人工智慧模型的”可解釋性” - 學聯網部落格
總之,不同的模型會有不同的優缺點,為了滿足各式各樣類型的需求以及限制,我們也必須隨時做出不同演算法的調整及優化阿! *決策樹是機器學習裡面一種基於樹狀所產生的演算 ... 於 blog.sharecourse.net -
#16.深度學習的可解釋性研究(一):讓模型「說人話」 - 人人焦點
北航智慧城市興趣組BIGSCITY是隸屬於北京航空航天大學計算機學院的一個學術研究小組,小組致力於研究機器學習與數據挖掘在城市科學、社會科學等領域的交叉 ... 於 ppfocus.com -
#17.为什么需要可解释性机器学习? - 手机21IC电子网
在工业界中,数据科学或机器学习的主要焦点是更偏“应用”地解决复杂的现实世界至关重要的问题,而不是理论上有效地应用这些模型于正确的数据。 於 www.21ic.com -
#18.什麼是機器學習? – 企業機器學習介紹 - Amazon AWS
機器學習 是一門開發演算法和統計模型的科學,這些算法和模型可以讓電腦系統根據模式和推理來執行任務,而不需要由人類輸入精確的指令。電腦系統使用機器學習演算法處理 ... 於 aws.amazon.com -
#19.《可解释机器学习》中文版重磅开源
作者认为,可解释性在机器学习甚至日常生活中都是相当重要的一个问题。建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读本 ... 於 www.080910t.com -
#20.机器学习模型的“可解释性”研究 - 索信达
任”的领域,使用模型来诊断疾病更加需要可解释性。但讽刺的是,. 即使神经网络可解释性差,在乳腺癌切片的图像诊断上,机器学习模. 型可以达到89%的准确性,而训练过的 ... 於 www.datamargin.com -
#21.浅谈机器学习模型的可解释性和透明性 - 电子发烧友
对于机器学习模型来说,我们常常会提到2个概念:模型准确性(accuracy)和模型复杂度(complexity)。 於 www.elecfans.com -
#22.深度學習解釋 - Home2 - 人文暨社會科學院
授課日期 授課時間 授課地點 老師 2019‑12‑06 16:30 ‑ 19:30 電算中心IB107 陳永祥 2019‑12‑07 09:00 ‑ 16:30 電算中心IB107 陳永祥 於 chss1.npust.edu.tw -
#23.自动、高效和可解释的深度学习模型构建研究
博士毕业于澳大利亚悉尼科技大学,曾就职于丹麦奥尔堡大学计算机学院助理教授,澳大利亚莫纳什大学研究员。主要从事机器学习和人工智能方向,涉及领域包括 ... 於 sist.shanghaitech.edu.cn -
#24.【机器学习】4 款超级棒的模型可解释性工具包 - 技术圈
近年来机器学习模型可解释性成为大家关注的热点,我们不再满足于模型效果,而是对模型效果的产生原因有了更多的思考,这样的思考不仅有助于模型和特征 ... 於 jishuin.proginn.com -
#25.揭秘深度學習:Sophos 如何建立機器學習模型
當我向別人解釋我是一名資料科學家,工作是負責建立機器學習模型時,通常 ... 在Sophos,我們專注於深度學習(deep learning),這是機器學習的一種進階 ... 於 news.sophos.com -
#26.AI的可解釋性是什麼?能吃嗎? | CASE 報科學
機器學習 ,或是說人工智慧快速的發展,讓所謂的「預測能力」大大提升,但是你信任預測出來的結果嗎?或是說你相信這個模型嗎?專業領域內的學者有他們 ... 於 case.ntu.edu.tw -
#27.可解釋的機器學習 - 政府研究資訊系統GRB
近年來隨著人工智慧與智慧應用(intelligent applications) 的發展,演算法決策帶來的公平、透明、與究責等問題,讓學者專家們逐漸重視機器學習模型的可解釋性(machine ... 於 www.grb.gov.tw -
#28.機器學習好似黑箱,如何理解與解釋模型? - Soft & Share
LIME的觀念簡介. LIME是【Local Interpretable Model-Agnostic Explanations】的縮寫,不負責任翻譯就是【局部可理解的模型無關解釋 ... 於 softnshare.com -
#29.使用GPU 加速SHAP 解释机器学习模型预测- NVIDIA 技术博客
为什么解释机器学习模型至关重要,特别是在高风险决策中? 我们如何区分可解释技术和可解释技术? 什么是SHAP 技术,它是如何用来解释模型的预测的? 於 developer.nvidia.com -
#30.万字长文概览深度学习的可解释性研究 - 极市开发者平台
而具体到机器学习领域来说,以最用户友好的决策树模型为例,模型每作出一个决策都会通过一个决策序列来向我们展示模型的决策依据:比如男性&未婚&博士&秃头的条件 ... 於 www.cvmart.net -
#31.10个最频繁用于解释机器学习模型的Python 库 - AI技术聚合
模型 训练:模型在准备好的数据上进行训练,传统的机器学习模型或深度学习神经网络都可以。模型的选择取决于要解决的问题和所需的可解释性水平。 於 aitechtogether.com -
#32.什麼是機器學習?| Oracle 台灣
機器學習 專注於從經驗中學習並隨著時間改善其決策或預測效能的軟體演算法。 ... 機器學習企業目標:建立客戶終生價值的模型; 透過學習模擬客戶流失; 機器學習企業 ... 於 www.oracle.com -
#33.部署具模型可解釋性的AutoML - TIBCO Software
TIBCO 與位於台灣的台北Women Who Code 非營利組織攜手合作,介紹如何部署具模型可解釋性的autoML。 機器學習模型在詐騙偵測、客戶流失率、預測維護等許多企業問題方面 ... 於 www.tibco.com -
#34.关于机器学习模型的可解释性算法 - 中文社区- 电子创新网
模型 可解释性汇总. 简介. 目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓 ... 於 imgtec.eetrend.com -
#35.6 個機器學習可解釋性框架! - 閱坊
SHapley Additive explanation (SHapley Additive explanation) 是一種解釋任何機器學習模型輸出的博弈論方法。它利用博弈論中的經典Shapley 值及其相關 ... 於 www.readfog.com -
#36.深度学习的可解释性研究(一):让模型「说人话」 | 雷峰网
北航智慧城市兴趣组BIGSCITY是隶属于北京航空航天大学计算机学院的一个学术研究小组,小组致力于研究机器学习与数据挖掘在城市科学、社会科学等领域的交叉 ... 於 www.leiphone.com -
#37.《可解释机器学习:模型方法与实践》 - 442.0新台幣
可解释机器学习:模型方法与实践,索信达控股邵平杨健颖苏思达等. 於 megbook.com.tw -
#38.衔接自然科学与机器学习- 李剑超的博文 - 科学网—博客
自然科学与机器学习之间如何实现有效的衔接?我们从知识维度空间和数字化两个方面 ... 因此,建议构建一个辅助网络,以实现机器学习模型的解释功能。 於 blog.sciencenet.cn -
#39.[廣宣學堂] 模型探索技法: 可解釋的AI模型 - KKTIX
機器學習 的模型可解釋化,是近年新興的研究主題。如何讓訓練的模型符合實際需要狀況、不產生偏差,透過Google提供探索工具,評估在長期的預測行為上, ... 於 broadmission.kktix.cc -
#40.【QA】什麼是可解釋AI(Expalainable AI)? - Cupoy
機器學習 或深度學習一直以來被視為「黑盒子」,但在現實產品佈署過程中,不只需要模型效能好,為何模型會有... 於 www.cupoy.com -
#41.逻辑+AI 我们提出一个结合机器学习模型的新型规则系统
学术界和工业界广泛认为当前的机器学习系统几乎完全以统计学或盲模型的方式 ... 结构性的因果推理研究角度切入,用机器学习提高应用准确性,用规则保证结果可解释性。 於 www.sics.ac.cn -
#42.可解释机器学习book - RPubs
另一个是:可解释性是人类可以一致地预测模型结果的程度4. 机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。如果一个模型的决策 ... 於 rpubs.com -
#43.可解釋人工智慧 - 维基百科
可解釋人工智慧(英語:Explainable AI,縮寫為XAI)指的是讓專家能夠理解人工智慧之成果的方法與技術。它相對於黑箱式的機器學習,因為黑箱式的機器學習的設計者本身 ... 於 zh.wikipedia.org -
#44.基于LIME的改进机器学习可解释性方法 - 汉斯出版社
但这些高性能的模型就像黑盒子,缺乏决策逻辑的透明度和可解释性。LIME (Local Interpretable Model-agnostic Explanation)是由Marco Tulio Ribeiro等人提出的一种XAI ( ... 於 www.hanspub.org -
#45.金融风控场景的机器学习模型可解释性浅析 - 网易
而随着机器学习发展和应用的深入,模型“可解释性”的问题也越来越被公众关注。2021年出台的《个人信息保护法》,要求自动化决策应当保证决策的透明度和结果 ... 於 www.163.com -
#46.机器学习的可解释性-人工智能 - 上海期智研究院
深度学习技术的蓬勃发展给众多领域带来了革命性的进步,在很多任务中深度学习模型的表现甚至超过了人类,尤其是在图像、自然语言处理等领域。然而,大多数这些精确的 ... 於 sqz.ac.cn -
#47.收藏| 可解释机器学习发展和常见方法! - 伙伴云
最近,arXiv上的一篇论文简要介绍了解释机器学习(IML)领域的历史,给出了最先进的可解释方法的概述,并讨论了遇到的挑战。 当机器学习模型用在产品、决策或者研究过程中的 ... 於 www.huoban.com -
#48.可解釋機器學習發展和常見方法! - 古詩詞庫
通常會通過分析模型元件,模型敏感性或替代模型來區分IML方法。 分析可解釋模型的成分. 為了分析模型的組成部分,需要將其分解為 ... 於 www.gushiciku.cn -
#49.入门可解释机器学习和可解释性【内容分享和实战分析】
在机器学习逐渐黑盒化的情况下,人们对模型的可解释性也提出了要求。可解释人工智能(XAI)被列为数据和分析技术领域的top10重要趋势之一。在2017年,美国国防部开展 ... 於 tianchi.aliyun.com -
#50.机器学习模型可解释性方法、应用与安全研究综述 - 浙江大学
尽管机器学习在许多有意义的任务中. 胜过人类,但由于缺乏可解释性,其表现和. 应用也饱受质疑[7]。对于普通用户而言机器. 学习模型尤其是深度神经网络(Deep Neural. 於 nesa.zju.edu.cn -
#51.深度学习模型可解释性的研究进展
一方面会降低模型的可. Page 2. 2. 信度,难以建立人与机器之间的信任;另一方面也. 会带来难以解决的安全问题,比如[4]对抗样本攻击模. 型时,很难说明是哪些原因导致结果 ... 於 imsg.ac.cn -
#52.机器学习的可解释性为何如此重要? - 睿象云
在传统统计学中,我们通过数据构建并验证假设来建立模型。通过构建的模型我们可以得到一系列规则并应用于业务中去。例如市场部门就可以通过构建与竞争者 ... 於 aiops.com -
#53.監督式學習?增強學習?聽不懂的話,一定要看這篇入門的機器 ...
訓練機器學習模型時,技術上有哪些重要的部分呢?#硬塞科技字典,人工智慧,機器學習,增強學習, ... 聽不懂的話,一定要看這篇入門的機器學習名詞解釋! 於 www.inside.com.tw -
#54.美國國防部也在用「可解釋的智慧技術」是什麼? - DigiTimes
現今諸多機器學習應用都呈現超越人類的效能,技術的突破在於我們可以訓練具龐大參數的機器學習模型;從傳統僅使用幾十個參數的方法(如SVM)提升到包含 ... 於 www.digitimes.com.tw -
#55.模型黑盒|机器学习模型的“可解释性”研究- InfoQ 写作平台
但讽刺的是,即使神经网络可解释性差,在乳腺癌切片的图像诊断上,机器学习模型可以达到89%的准确性,而训练过的病理学家只有73%的平均准确率。由此可见, ... 於 xie.infoq.cn -
#56.金融风控场景的机器学习模型可解释性浅析 - 科技- 中华网
而随着机器学习发展和应用的深入,模型“可解释性”的问题也越来越被公众关注。2021年出台的《个人信息保护法》,要求自动化决策应当保证决策的透明度和结果 ... 於 m.tech.china.com -
#57.思考模型的可解釋性 - iThome
如果就機器學習、深度學習的術語來說,這些模型因為被儲存下來之後,於是,後人才得以直接使用、組合,從而能去解釋、模擬,以及預測更複雜的現象。 於 www.ithome.com.tw -
#58.知其所以然】周博磊:生成模型的可解释性与交互内容创作
20210811【知其所以然:因果推理与学习】张含望:真正的无偏 模型. 20210428【可 解释机器学习 -知其所以然】史作强:PDE-based. 於 www.bilibili.com -
#59.唯一《可解释机器学习》中文书来了:复旦研究生翻译 - 量子位
作者认为,可解释性在机器学习甚至日常生活中都是相当重要的一个问题。建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读本 ... 於 www.qbitai.com -
#60.大鼻觀點-統計與資料科學- 【使用LIME 解釋複雜的分類模型】...
... 更需要了解為什麼模型會得出這樣的預測,以便辨認模型的前在風險及輔助人類做決策,因此可解釋的機器學習模型是近年機器學習發展的重要方向。 在分類模型中, ... 於 www.facebook.com -
#61.LLM、運算民主化和開源模型的未來 - 電子工程專輯
... 將深入探討人工智慧(AI)和機器學習(ML)中一些最有趣的技術報導。 ... 而當AI融入其中時,無論是ADAS還是自動駕駛車,像可解釋性和冗餘這樣熟悉的 ... 於 www.eettaiwan.com -
#62.你知道機器學習(Machine Learning),有幾種學習方式嗎?
若要簡單解釋這三者的關係:大數據為材料、機器學習是處理方法,而人工 ... 將成為推薦系統模型評估的資料,算法也根據目標有所不同,較為常見的三種 ... 於 www.ecloudvalley.com -
#63.XAI| 模型可解釋性的重要- Sherry.AI - Medium
大多數的情況下,高準確率的模型往往過於複雜,導致人類難以理解其決策與行動背後的原因,因此機器學習(例如:深度學習)常被視為黑盒子(black ... 於 medium.com -
#64.可解釋機器學習技術之後置全局可解釋詳解 - 壹讀
機器學習模型 從大量訓練數據中自動地學習有用模式,並將學到的知識保存到模型結構和參數中。後置全局可解釋旨在為預先訓練的模型所獲得的知識提供全局 ... 於 read01.com -
#65.使用可视化解释机器学习模型的调查调查,Information ... - X-MOL
近年来,机器学习的研究变得非常流行,提出了许多类型的模型来理解和预测来自不同领域的数据的模式和趋势。随着这些模型变得越来越复杂,用户也越来越难以评估和信任 ... 於 www.x-mol.com -
#66.机器学习模型可解释的重要及必要性- AI量化知识库- BigQuant
在某些领域,特别是在金融领域,比如保险、银行等,数据科学家们通常最终不得不使用更传统更简单的机器学习模型(线性模型或决策树)。原因是模型的可解释 ... 於 bigquant.com -
#67.拥抱AI,网络安全的机会在哪里
AI Safety的具体内容包括:与人类意图对齐Alignment,可解释 ... 传统机器学习方法没有假设输入模型的数据可能有误,意图不轨的攻击者可以通过注入 ... 於 www.secrss.com -
#68.阅读报告:可解释性机器学习模型| Academic - Hu Huaping
阅读报告:可解释性机器学习模型 · 2.1 线性回归 · 2.2 逻辑斯蒂克回归 · 2.3 广义线性GLM、广义加法GAM及相关模型 · 2.4 决策树(decision Tree) · 2.5 决策 ... 於 huhuaping.com -
#69.每日AI前沿术语:可解释机器学习(Explainable Artificial ...
然而,由于缺乏理解机器学习模型做出推理的依据,用户很难信任模型提供的结果。因此,出现了名为可解释机器学习的技术。今天我们就讲讲这个概念。 知识点. 於 hub.baai.ac.cn -
#70.可解釋與可視化AI技術發展現況與應用機會分析 - IEK產業情報網
本文重點為探討人工智慧在資料取得和模型運作兩方面的黑箱問題,其相關的改善方式發展現況,以及改善後可能衍生出的應用機會。人類經驗的無形性使機器學習發生困難的 ... 於 ieknet.iek.org.tw -
#71.利用機器學習模型解釋工具來了解Pokemon 對戰勝率 ... - InfuseAI
1. 介紹什麼是可解釋性AI(Explainable AI)? 2. 可解釋性AI 工具介紹 3. 範例- 透過SHAP 套件來解釋寶可夢(Pokemon) 對戰模型 ... 於 blog.infuseai.io -
#72.深度學習與機器學習的比較: 差別為何? - Zendesk
雖然基本的機器學習模型在功能上會越來越精進,但還是需要人為介入指引。 如果人工智慧演算法傳回不準確的預測,工程師就要介入並進行調整。 於 www.zendesk.tw -
#73.智慧医疗的机器学习模型可解释性方法研究综述
智慧医疗的机器学习模型可解释性方法研究综述. 摘要:. 深度学习模型强大的表现力,将我们带入一个“智能”时代,同时也因为它. 的不透明性和不可解释性,停下了快速发展 ... 於 esnl.hnu.edu.cn -
#74.终于有人把可解释机器学习讲明白了 - 51CTO
为了解决模型的“黑盒”问题,科学家们提出了可解释机器学习。除了预测的精准性之外,可解释性也是机器学习模型是否值得信赖的重要衡量标准。 於 www.51cto.com -
#75.机器学习模型的可解释性 - 闪念基因
人性化解释:人类能够理解决策原因的程度,人们可以持续预测模型结果的程度标示。 ➀. 动. 机. 在工业界中,数据科学或机器学习的主要焦点是更偏“应用 ... 於 flashgene.com -
#76.代码案例详解!如何让机器学习模型自解释! - ShowMeAI
本文讲解一种比较全能的『机器学习模型可解释性』方法——SHAP。通过调用Python的SHAP工具库,对机器学习模型做可解释性分析,判断不同特征对于当前模型 ... 於 www.cnblogs.com -
#77.常用AI/机器学习模型可解释技术与工具 - ITPUB博客
大家对机器学习模型的可理解性和可解释性越来越感兴趣。研究人员和机器学习从业者已经设计了许多模型解释技术。在这篇文章中,我们将对八种流行的模型 ... 於 blog.itpub.net -
#78.求解网络安全问题的可解释机器学习 - Toooold
学界对可解释人工智能(XAI)及其子方向可解释机器学习进行了多个角度的研究,本文从网络安全中最让人头疼的流量检测的例子出发,简单介绍黑盒可解释模型 ... 於 toooold.com -
#79.人工智慧、機器學習和深度學習是什麼? - CloudMile
本文將會解釋人工智慧、機器學習和深度學習到底是什麼東西。 ... 機器學習是AI 的次領域,主要是透過數學方式開發可執行特定工作的模型。 於 mile.cloud -
#80.李春晓:可解释人工智能(XAI)元年——XAI在金融领域中的应用 ...
因而,机器学习模型的精度和可解释性,形成了一对此消彼长的矛盾。比如在反洗钱、反欺诈等领域,为了达到较高的预测精度要求,银行里逐步使用复杂的黑盒模型( ... 於 itf.sjtu.edu.cn -
#81.技术专栏丨论机器学习模型的可解释性 - 墨天轮
技术专栏丨论机器学习模型的可解释性. TalkingData 2019-08-15. 140. 在2019年2月,波兰政府增加了一项银行法修正案,该修正案赋予了客户在遇到负面信用决策时可获得 ... 於 www.modb.pro -
#82.模型可解釋性- Azure Machine Learning | Microsoft Learn
了解機器學習模型如何使用Azure Machine Learning CLI 及Python SDK,在定型與推斷期間進行預測。 於 learn.microsoft.com -
#83.可解释的AI - 中国 - IBM
可解释的人工智能(XAI) 是一套流程和方法,可使人类用户能够理解和信任机器学习算法所产生的结果和输出。 可解释的AI 用于描述AI 模型、其预期影响和潜在偏见。 於 www.ibm.com -
#84.一文读懂可解释机器学习简史,让你的模型再也不是「Black ...
最近几年有很多关于可解释机器学习的相关研究, 但是从数据中学习可解释模型的历史由来已久。 线性回归早在19世纪初就已经被使用,从那以后又发展成各种各 ... 於 tech.sina.com.cn -
#85.简单梳理一下机器学习可解释性(Interpretability) - 知乎专栏
这两个词在一开始的时候其实是经常互换的,大家都指的是一个意思,就是对模型的行为有一个解释。之后两个名词又有了些细微的差别:Interpretability或者Interpretable AI是 ... 於 zhuanlan.zhihu.com -
#86.機器學習是什麼、有何應用?和深度學習的差異 - ALPHA Camp
機器學習 Machine Learning (簡稱ML)是AI人工智慧的一門科學, ... 深度學習Deep Learning 是機器學習的分支,大多數的深度學習模型是基於多層神經 ... 於 tw.alphacamp.co -
#87.机器学习可解释性-The explanation of Machine Learning
「无限宽度限制」为理论分析提供了一个起点,但它通常与现实世界的深度学习模型几乎没有什么相似之处,尤其是普通的深度神经网络,在那种情况下,抽象将越 ... 於 wqw547243068.github.io -
#88.何謂機器學習? - Trend Micro
機器學習 (ML) 是人工智慧(AI) 的一種,讓系統從資料當中反複學習,其方法是透過各種演算法來識別資料中的模式,然後使用可產生精確模型的資料來加以訓練, ... 於 www.trendmicro.com -
#89.模型可解释性- 机器学习 - 思否
随着大量科学家在机器学习领域的持续投入,如今各种模型五花八门,且毋庸置疑这些模型在生产环境都产生的一定的效果。 但计算机系统做出的这些预测或决策 ... 於 segmentfault.com -
#90.谈谈机器学习模型的可解释性原荐 - OSCHINA
机器学习 算法可以看成是如上图所示的黑盒子模型,训练数据流入黑盒子,训练出一个函数(这个函数也可以称之为模型),输入新的数据到该函数得出预测结果。 於 my.oschina.net -
#91.机器学习模型的可解释性 - CSDN博客
综述机器学习业务应用以输出决策判断为目标。可解释性是指人类能够理解决策原因的程度。机器学习模型的可解释性越高,人们就越容易理解为什么要做出某 ... 於 blog.csdn.net -
#92.《可解释的机器学习--黑盒模型可解释性理解指南 ... - GitHub
可解释的机器学习--黑盒模型可解释性理解指南》,该书为《Interpretable Machine Learning》中文版- GitHub - MingchaoZhu/InterpretableMLBook: 《可解释的机器学习-- ... 於 github.com -
#93.可解釋的表徵學習- 使用基於模型的深度規則森林 - 博碩士論文網
受益於運算成本的下降,深度學習模型被廣泛應用到許多任務中。雖然這類模型在預測上的表現比傳統機器學習模型改善許多,但由於這類模型的模型結構過於複雜, ... 於 ndltd.ncl.edu.tw -
#94.机器学习模型可解释性实践指南(Aporia) - 稀土掘金
随着越来越多的企业采用机器学习来支持其决策过程,充分了解ML 模型如何进行预测至关重要。构建和扩展模型. 於 juejin.cn -
#95.如何信任机器学习模型的预测结果 - MathWorks
本文将通过两个篇幅向大家介绍机器学习模型的可信性,即机器学习预测结果的解释,以及MATLAB如何支持对机器学习模型预测结果的解释,并通过一个例子说明在MATLAB中的 ... 於 ch.mathworks.com -
#96.6分鐘解釋大部分的機器學習模型 - 每日頭條
在上一篇文章中,我解釋了什麼是回歸併展示了如何在應用中使用它。 本周,我將介紹實踐中使用的大多數常見機器學習模型,以便我可以花更多的時間來 ... 於 kknews.cc -
#97.解釋結構化資料的模型預測(上) - iKala Cloud
機器學習 技術快速演進,現在資料科學家已經能用更加精準的模型來處理各種難解的問題。然而,模型的複雜度與精準度直接. 於 ikala.cloud