統(tǒng)計學習理論

出版時間:2009-3  出版社:電子工業(yè)出版社  作者:Vladimir N.Vapnik  頁數(shù):559  字數(shù):934000  譯者:許建華,張學工  
Tag標簽:無  

內(nèi)容概要

本書的創(chuàng)立者是Vladimir N. Vapnik。統(tǒng)計學習理論是研究利用經(jīng)驗數(shù)據(jù)進行機器學習的一種一般理論,屬于計算機科學、模式識別和應(yīng)用統(tǒng)計學相交叉與結(jié)合的范疇。統(tǒng)計學習理論的基本內(nèi)容誕生于20世紀60~70年代,到90年代中期發(fā)展到比較成熟并受到世界機器學習界的廣泛重視,其核心內(nèi)容反映在Vapnik的兩部重要著作中,本書即是其中一部,另一部是“The Nature of Statistical Learning Theory”(《統(tǒng)計學習理論的本質(zhì)》)。 由于較系統(tǒng)地考慮了有限樣本的情況,統(tǒng)計學習理論與傳統(tǒng)統(tǒng)計學理論相比有更好的實用性,在這一理論下發(fā)展出的支持向量機(SVM)方法以其有限樣本下良好的推廣能力而備受重視。   本書是對統(tǒng)計學習理論和支持向量機方法的全面、系統(tǒng)、詳盡的闡述,是各領(lǐng)域中研究和應(yīng)用機器學習理論與方法的科研工作者和研究生的重要參考資料。

作者簡介

VIadimir N.Vaonik,Vapnik于1990年加入美國AT&T貝爾實驗室,現(xiàn)仍擔任顧問,1995年起任英國RoyalHolloway大學計算機和統(tǒng)計學教授。Vapnik教授從事計算機科學、理論與應(yīng)用統(tǒng)計學研究已有30多年,發(fā)表了7部學術(shù)著作和上百篇研究論文。他的主要學術(shù)成就是研究發(fā)展了一套基于經(jīng)

書籍目錄

引論:歸納和統(tǒng)計推理問題  0.1  統(tǒng)計學中的學習理論體系  O.2  統(tǒng)計推理的兩種方法:特殊方法(參數(shù)推理)和通用方法(非參數(shù)推理)  0.3 參數(shù)方法的體系  O.4 參數(shù)體系的缺點  0.5  經(jīng)典體系后的發(fā)展  0.6 復(fù)興階段  0.7 Glivenko—Cantelli—Kolmogomv理論的推廣  O.8  結(jié)構(gòu)風險最小化原則  0.9  小樣本集推理的主要原則  0.10 本書的要點第一部分  學習和推廣性理論 第1章  處理學習問題的兩種方法   1.1  基于實例學習的一般模型   1.2  最小化經(jīng)驗數(shù)據(jù)風險泛函的問題   1.3 模式識別問題   1.4  回歸估計問題   1.5  解釋間接測量結(jié)果的問題   1.6  密度估計問題(Fisher-Wald表達)     1.7  基于經(jīng)驗數(shù)據(jù)最小化風險泛函的歸納原則   1.8  解函數(shù)估計問題的經(jīng)典方法   1.9  隨機對象的識別:密度和條件密度估計   1.10 解近似確定性積分方程的問題   1.11 Glivenko—Cantelli定理   1.12 不適定問題   1.13 學習理論的結(jié)構(gòu) 第1章附錄  解不適定問題的方法   A1.1 解算子方程問題   A1.2 Tikhonov意義下的適定問題   A1.3 正則化方法 第2章  概率測度估計與學習問題   2.1  隨機實驗的概率模型   2.2 統(tǒng)計學的基本問題   2.3  估計一致收斂于未知概率測度的條件   2.4  部分一致收斂性和Glivenko.Cantelli定理的推廣   2.5  在概率測度估計一致收斂的條件下最小化風險泛函   2.6  在概率測度估計部分一致收斂的條件下最小化風險泛函   2.7  關(guān)于概率測度估計收斂方式和學習問題表達的評述 第3章  經(jīng)驗風險最小化原則一致性的條件   3.1  一致性的經(jīng)典定義   3.2  嚴格(非平凡)一致性的定義   3.3 經(jīng)驗過程   3.4  學習理論的關(guān)鍵定理(關(guān)于等價性的定理)  3.5  關(guān)鍵定理的證明   3.6  最大似然方法的嚴格一致性   3.7  頻率一致收斂于概率的充分必要條件   3.8  有界實函數(shù)集均值一致收斂于期望的充分必要條件   3.9  無界函數(shù)集均值一致收斂于期望的充分必要條件   3.10 Kant的劃分問題和Popper的不可證偽學說   3.11 不可證偽性定理   3.12 一致單邊收斂性經(jīng)驗風險最小化原則和一致性的條件   3.13 學習理論的三個里程碑 第4章  指示損失函數(shù)風險的界   4.1  最簡單模型的界:悲觀情況   4.2  最簡單模型的界:樂觀情況   4.3  最簡單模型的界:一般情況   4.4 基本不等式:悲觀情況   4.5  定理4.1的證明   4.6 基本不等式:一般情況   4.7  定理4.2的證明   4.8  主要的非構(gòu)造性的界   4.9  VC維   4.10 定理4.3的證明   4.11 不同函數(shù)集的VC維的例子 第4章附錄  關(guān)于ERM原則風險的下界 第5章  實損失函數(shù)風險的界 第6章  結(jié)構(gòu)風險最小化原則 第6章附錄  基于間接測量的函數(shù)估計 第7章  隨機不適定問題 第8章  估計給定點上的函數(shù)值第二部分  函數(shù)的支持向量估計 第9章  感知器及其推廣 第10章  估計指示函數(shù)的支持向量方法 第11章  估計實函數(shù)的支持向量方法 第12章  模式識別的支持向量機 第13章  函數(shù)逼近、回歸估計和信號處理的支持向量機第三部分  學習理論的統(tǒng)計學基礎(chǔ) 第14章  頻率一致收斂于概率的充分必要條件 第15章  均值一致收斂于期望的充分必要條件 第16章  均值一致單邊收斂于期望的充分必要條件注釋與參考文獻評述參考文獻中英文術(shù)語對照表

章節(jié)摘錄

  第一部分 學習和推廣性理論  第1章 處理學習問題的兩種方法  學習問題是指依據(jù)經(jīng)驗數(shù)據(jù)選取所期望的依賴關(guān)系的問題,在本章中我們考察兩種處理學習問題的方法?! 〉谝环N方法基于所選函數(shù)的品質(zhì)可以用風險泛函來評估這一思路。在這種情況下,從給定函數(shù)集中選取逼近函數(shù)就是基于經(jīng)驗數(shù)據(jù)最小化風險泛函的問題。這是一個非常一般性的問題。它存在于許多統(tǒng)計學問題中。在本書中我們考察其中3個問題:模式識別、回歸估計和密度估計。  處理學習問題的第二種方法基于估計所期望的隨機依賴關(guān)系(密度、條件密度和條件概率)。在僅已知方程某些成分的近似值的情況下,這種方法需要解積分方程(確定依賴關(guān)系)。利用估計出的隨機依賴關(guān)系,也可以解決模式識別和回歸估計問題。然而,解積分方程得到的函數(shù)能夠提供比這些問題本身所需的更多的細節(jié)。我們?yōu)檫@些細節(jié)付出的代價是必須解不適定問題?! ?.1 基于實例學習的一般模型  現(xiàn)在考察下列尋找函數(shù)依賴關(guān)系的模型,我們稱之為從實例學習的模型。

圖書封面

圖書標簽Tags

評論、評分、閱讀與下載


    統(tǒng)計學習理論 PDF格式下載


用戶評論 (總計7條)

 
 

  •   學習理論的經(jīng)典書籍
  •   很好的書。好像需要一些數(shù)學知識。
  •   翻譯和表述都不如《統(tǒng)計學習理論的本質(zhì)》好,本來想看看推導(dǎo)過程,但是有些失望,希望出版瓦普尼克的英文原版書。希望在下一版中多為讀者考慮一下,一本書讓難的東西易于理解才是好書,不要讓難者更難。
  •   自己是學這個專業(yè)的,泛函的東西多了一點,可能要有點基礎(chǔ)看比較好。里面的推導(dǎo),如果想研究理論的朋友,可以考慮的
  •   挺難,在看。
  •   書的質(zhì)量很好送貨也很快就是書的折扣太少了更便宜一點就好啦
  •   要有好的數(shù)學 基礎(chǔ) 才能看懂
 

250萬本中文圖書簡介、評論、評分,PDF格式免費下載。 第一圖書網(wǎng) 手機版

京ICP備13047387號-7