神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)

出版時(shí)間:2002-8  出版社:機(jī)械工業(yè)出版社  作者:(美)Martin T.Hagan Howard B.Demuth Mark Beale  頁(yè)數(shù):1冊(cè)  
Tag標(biāo)簽:無(wú)  

內(nèi)容概要

Martin T.Hagan,Howard B.Demuth:Neural Network Design Original copyright @ 1996 by PWS Publishing Company.All rights reserved. First published by PWS Publishing Company,a division of Thomsin Learning,United States of America. Reprinted for People's Republic of China by Thomson Asia Pte Ltd and China Machine Press and CITIC Publishing House under the arthorization of Thomson Learning.No part of this book may be reproduced in any form without the the prior written permission of Thomson Learing and China Machine Perss.

書籍目錄

Preface1 Introduction2 Neuron Model and network Architectures3 An Illustrative Example4 Perceptron Learning Rule5 Siganl and Weight Vector Spaces6 Linear Transformations for Neural Networks7 Supervised Hebbian Learning8 Performance Surfaces and Optimum Points9 Performance Optimization10 Widrow-Hoff Learning11 Backpropagation12 Variations on Backpropagation13 Associative Learning14 Competitive Networks15 Grossberg Network16 Adaptive Resonance Theory17 Stability18 Hopfield Network19 EpilogueAppendicesA BibliographyB NotationC SoftwareI index

圖書封面

圖書標(biāo)簽Tags

無(wú)

評(píng)論、評(píng)分、閱讀與下載


    神經(jīng)網(wǎng)絡(luò)設(shè)計(jì) PDF格式下載


用戶評(píng)論 (總計(jì)10條)

 
 

  •     還記得大一的時(shí)候,老師在黑板上只管照著課本將,講矩陣、講行列式..... 講的只是計(jì)算過程,和解題方法。對(duì)我來說線性代數(shù),就是死記硬背的沒有半點(diǎn)用處的東西。我現(xiàn)在才明白了,線性代數(shù),最主要的不是矩陣的那些計(jì)算,矩陣只是一個(gè)計(jì)算的表達(dá)方式和計(jì)算的工具,要理解線性代數(shù),是要真正的理解,線性空間和線性變換。而我上大一的時(shí)候,這些都是掛星號(hào)的一本書中最后面的內(nèi)容。
      本人計(jì)算機(jī)專業(yè),其他的專業(yè)學(xué)科對(duì)數(shù)學(xué)要求都不高。讓我一直忽略了數(shù)學(xué)的重要性,直到看到神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)的書,才讓我認(rèn)識(shí)到了數(shù)學(xué)的強(qiáng)大。
      初始對(duì)神經(jīng)網(wǎng)絡(luò)也是感到非常神秘,看著看著這本書的時(shí)候,其實(shí)有種讓我大失所望的感覺,并不是這本書不好。而是神經(jīng)網(wǎng)絡(luò)遠(yuǎn)沒我想象中的那么強(qiáng)大?,F(xiàn)在的感覺,除了受到真正的神經(jīng)網(wǎng)絡(luò)的一點(diǎn)啟發(fā)外,人工神經(jīng)網(wǎng)絡(luò)和神經(jīng)網(wǎng)絡(luò)沒半點(diǎn)聯(lián)系,僅僅是一些數(shù)學(xué)模型或計(jì)算過程的實(shí)現(xiàn)而已(個(gè)人理解,如有不妥,請(qǐng)海涵)。
  •     這段時(shí)間做畢業(yè)設(shè)計(jì)才看的這本書,全書循序漸進(jìn),開篇介紹了一下神經(jīng)網(wǎng)絡(luò)發(fā)展的概況,接著用幾個(gè)簡(jiǎn)單的例子讓讀者對(duì)神經(jīng)網(wǎng)路有一個(gè)比較感性的認(rèn)識(shí),然后有一些數(shù)學(xué)基礎(chǔ)的補(bǔ)充,對(duì)線性代數(shù)和微積分的一部分內(nèi)容進(jìn)行了簡(jiǎn)單的介紹,再后面就是各種模型,按照目錄的順序讀下去很容易理解,不過翻譯有些差強(qiáng)人意,還有少量印刷錯(cuò)誤,不過總的來說是很不錯(cuò)的一本教材,很適合我這個(gè)初學(xué)者。
  •     一句話:娓娓道來,醍醐灌頂!比國(guó)內(nèi)的教材好多了!只需要讀者有一點(diǎn)點(diǎn)數(shù)學(xué)知識(shí)(也就是懂一點(diǎn)點(diǎn)高數(shù)、線代的皮毛,不懂也可以,作者會(huì)負(fù)責(zé)地在書中相關(guān)地方講述)就可以了!
  •     這本是我非常推崇的神經(jīng)網(wǎng)絡(luò)的進(jìn)階讀本,理論的闡述非常的好。然后數(shù)學(xué)方面比較深??赡茏x起來會(huì)比較吃力但是挺好的。
  •     辭掉了工作,回家過年玩,拿出這本書來又看了一遍,說說這次的感覺:
      1 比起第一次接觸神經(jīng)網(wǎng)絡(luò)時(shí)感覺這本書簡(jiǎn)單多了,讀第二遍速度要快得多,并且也更理解一些原理上的東西
      
      2 不神秘了。第一次讀的時(shí)候感覺神經(jīng)網(wǎng)絡(luò)很強(qiáng)大,可以設(shè)計(jì)出許多很厲害的東西來,現(xiàn)在卻不這樣認(rèn)為了,書中講的東西其實(shí)很簡(jiǎn)單,要想讀完這本書就做出什么東西來基本不可能,但是書中所講的方法、原理能夠帶動(dòng)讀者從一種“神經(jīng)”的角度思考問題,說不定哪天你所遇到的難題就可以在這些基礎(chǔ)上解決。
      
      
      我是初學(xué)者,希望喜歡神經(jīng)網(wǎng)絡(luò)與機(jī)器學(xué)習(xí)的朋友加我好友,向你學(xué)習(xí):)
      
      左邊是:sdjllyh
      中間是:@
      右邊是:gmail.com
  •     兩年前看的了,買了一本此書的第二版 很不錯(cuò) 數(shù)學(xué)分析比較詳細(xì) 特別是書中有許多很有啟發(fā)性的例題 至于翻譯我覺得還不錯(cuò) 雖然有些明顯的印刷錯(cuò)誤(特別是忘記了負(fù)號(hào))
      
  •     這本身更像是Matlab神經(jīng)網(wǎng)絡(luò)工具箱的配套教材,但內(nèi)容稍顯單薄,而且深度有限,由于對(duì)許多基本概念作了非常淺顯易懂的講解,所以適合作為入門教材。
  •   我也認(rèn)同線性代數(shù)的理解,這本書還沒看,買本看看?。。?/li>
  •   懂不起,先踩一腳多
  •   數(shù)學(xué)部分看的很費(fèi)勁啊
 

250萬(wàn)本中文圖書簡(jiǎn)介、評(píng)論、評(píng)分,PDF格式免費(fèi)下載。 第一圖書網(wǎng) 手機(jī)版

京ICP備13047387號(hào)-7