出版時間:2009-8 出版社:電子工業(yè) 作者:蔣艷凰 編 頁數(shù):282
Tag標(biāo)簽:無
內(nèi)容概要
本書比較全面系統(tǒng)地介紹了機器學(xué)習(xí)的方法和技術(shù),不僅詳細(xì)闡述了許多經(jīng)典的學(xué)習(xí)方法,還討論了一些有生命力的新理論、新方法。全書共分為13章,分別介紹了機器學(xué)習(xí)的基本概念、最近鄰規(guī)則、貝葉斯學(xué)習(xí)、決策樹、基于事例推理的學(xué)習(xí)、關(guān)聯(lián)規(guī)則學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、支持向量機、遺傳算法、集成學(xué)習(xí)、糾錯輸出編碼、聚類分析、強化學(xué)習(xí)。各章對原理的敘述力求概念清晰、表達(dá)準(zhǔn)確,突出理論聯(lián)系實際,富有啟發(fā)性,易于理解?! ”緯勺鳛楦叩仍盒S嬎銠C、自動化、電子和通信等專業(yè)研究生和高年級本科生的教材和參考書。本書內(nèi)容對從事人工智能、機器學(xué)習(xí)、數(shù)據(jù)挖掘、模式識別等相關(guān)領(lǐng)域研究的科技人員具有較好的參考價值。
書籍目錄
第1章 緒論 1.1 機器學(xué)習(xí)概念 1.2 機器學(xué)習(xí)系統(tǒng) 1.2.1 學(xué)習(xí)系統(tǒng)模型 1.2.2 機器學(xué)習(xí)系統(tǒng)結(jié)構(gòu) 1.3 機器學(xué)習(xí)方法分類 1.3.1 監(jiān)督學(xué)習(xí) 1.3.2 非監(jiān)督學(xué)習(xí) 1.3.3 強化學(xué)習(xí) 1.4 一般性定理與規(guī)則 1.4.1 大多數(shù)原則 1.4.2 奧卡姆剃刀原理 1.4.3 無免費午餐定理 1.5 學(xué)習(xí)算法的評價 1.5.1 最短描述長度 1.5.2 預(yù)測精度分析 1.5.3 交叉驗證法 1.6 本書各章概要第2章 最近鄰規(guī)則 2.1 最近鄰分類 2.1.1 k-NN規(guī)則的思想 2.1.2 k-NN的距離度量 2.1.3 k-NN算法應(yīng)用示例 2.2 k-NN算法的缺陷及其改進(jìn) 2.2.1 k-NN算法的計算復(fù)雜度 2.2.2 降維法 2.2.3 預(yù)建結(jié)構(gòu)法 2.2.4 訓(xùn)練集裁減法第3章 貝葉斯學(xué)習(xí) 3.1 概率論基礎(chǔ) 3.1.1 隨機事件 3.1.2 事件間的關(guān)系與運算 3.1.3 概率的定義與性質(zhì) 3.1.4 統(tǒng)計概率 3.1.5 條件概率 3.1.6 概率密度 3.1.7 正態(tài)分布 3.2 貝葉斯定理 3.3 貝葉斯定理和概念學(xué)習(xí) 3.4 極大似然和最小誤差平方假設(shè) 3.5 貝葉斯最優(yōu)分類器 3.6 簡單貝葉斯分類器 3.7 貝葉斯網(wǎng)絡(luò) 3.7.1 貝葉斯網(wǎng)絡(luò)基本概念 3.7.2 因果關(guān)系網(wǎng) 3.7.3 貝葉斯網(wǎng)絡(luò) 3.7.4 聯(lián)合概率 3.7.5 D分離 3.7.6 貝葉斯網(wǎng)絡(luò)的推理模式 3.8 主觀貝葉斯方法 3.8.1 規(guī)則的不確定性 3.8.2 證據(jù)的不確定性 3.8.3 推理計算 3.9 貝葉斯學(xué)習(xí)的優(yōu)缺點第4章 決策樹 4.1 決策樹的創(chuàng)建 4.1.1 分而治之的思想 4.1.2 決策樹生成算法 4.2 分枝劃分標(biāo)準(zhǔn) 4.2.1 測試條件 4.2.2 直接劃分法 4.2.3 信息熵增益 4.2.4 增益比 4.2.5 Gini系數(shù) 4.2.6 最短距離劃分 4.2.7 最短描述長度 4.3 連續(xù)屬性離散化 ……第5章 基于事例推理的學(xué)習(xí)第6章 關(guān)聯(lián)規(guī)則學(xué)習(xí)第7章 神經(jīng)網(wǎng)絡(luò)第8章 支持向量機第9章 遺傳算法第10章 集成學(xué)習(xí)第11章 基于糾錯編碼的機器學(xué)習(xí)第12章 聚類分析第13章 強化學(xué)習(xí)附錄A 數(shù)據(jù)集描述參考文獻(xiàn)
章節(jié)摘錄
第1章 緒論1.5 學(xué)習(xí)算法的評價評價學(xué)習(xí)算法優(yōu)劣最常用的標(biāo)準(zhǔn)有:預(yù)測精度(泛化能力)、學(xué)習(xí)與分類速度、可理解性。在精度方面,幾乎所有的應(yīng)用領(lǐng)域都希望預(yù)測精度越高越好,因此提高泛化能力是人們永遠(yuǎn)的追求。在速度方面,人們總是希望處理速度越快越好,尤其是大規(guī)模監(jiān)督學(xué)習(xí)問題,學(xué)習(xí)或分類速度太慢的算法很難投入使用,加快處理速度也是人們永遠(yuǎn)的追求。分類器的可理解性是指,學(xué)習(xí)后得到的分類器的行為是否能夠被用戶理解。由于學(xué)習(xí)系統(tǒng)只是一種輔助手段,最終的決策還要由用戶來做,因此,可理解性強的分類器一般更容易被用戶接受。在實際應(yīng)用中,分類器很難在這三個方面都表現(xiàn)突出,例如,利用BP神經(jīng)網(wǎng)絡(luò)算法獲得的分類器預(yù)測精度高,分類速度也很快,但其訓(xùn)練過程慢,而且可理解性也很差。因此,用戶常常需要在這三個方面之間進(jìn)行權(quán)衡,以便更好地滿足應(yīng)用需求。下面我們對分類器的常用評價方法進(jìn)行簡單介紹。1.5.1 最短描述長度最短描述長度準(zhǔn)則(MinimumDescriptionLengthPrinciple,MDLP)是1983年由Rissanen首先提出的(Rissanenl983),并應(yīng)用于字符串的隨機復(fù)雜性研究(Rissanen1986)。Quinlan和Rivest將MDLP用于決策樹的創(chuàng)建(Quinlah1989)。
圖書封面
圖書標(biāo)簽Tags
無
評論、評分、閱讀與下載