国产极品粉嫩福利姬萌白酱_伊人WWW22综合色_久久精品a一国产成人免费网站_法国啄木乌AV片在线播放

全國 [城市選擇] [會員登錄] [講師注冊] [機構注冊] [助教注冊]  
中國企業培訓講師
人工智能之數據挖掘與機器學習
 
講(jiang)師:葉梓(zi) 瀏覽次數:2561

課(ke)程(cheng)描述INTRODUCTION

數(shu)據挖掘與機器學(xue)習課(ke)程

· IT人士· 其他人員

培訓講師:葉梓    課程價格:¥元/人(ren)    培訓天數:2天   

日程安排(pai)SCHEDULE



課程大綱Syllabus

數據挖掘與機器學習課程

課程大綱
一、概述
1、  概(gai)念(nian)與術語(yu)(人(ren)工(gong)智能、數據挖掘(jue)、機器(qi)學習…)
2、  數(shu)據(ju)挖(wa)掘的對象
3、  數據挖(wa)掘(jue)的關鍵技術
4、  知識的表達
二、數據預處理
1、  變(bian)量類型
2、  數據清理
3、  數據集成(cheng)和變換
4、  數(shu)據倉(cang)庫與(yu)數(shu)據方(OLAP)
5、  規范(fan)化(hua)
6、  數據(ju)壓縮(DCT、小(xiao)波變換)
三(san)、降維與(yu)維度歸約
1、  無標簽(qian)時(shi):PCA
2、  有(you)標簽時:Fisher線性判別(bie)(第一個“LDA”)
3、  知識的(de)約簡
4、  決策表(biao)的約(yue)簡
5、  粗糙(cao)集
四(si)、回歸與(yu)時(shi)序分析
1、  線性回歸
2、  非線性回歸
3、  logistics回歸
4、  平穩性(xing)、截尾與拖尾
5、  ARIMA
 
五、決策樹
1、  分類和(he)預測
2、  熵減過(guo)程(cheng)與貪心法
3、  ID3
4、  C4.5
5、  其他改進方(fang)法
6、  決策樹(shu)剪枝
7、  歸納學習
六(liu)、聚類
1、  監督學習(xi)與無監督學習(xi)
2、  K-means與(yu)k-medoids
3、  層次(ci)的方(fang)法
4、  基于密度的(de)方法
5、  基于網(wang)格(ge)的方法
6、  孤立點分(fen)析
7、  案例:鳶尾花數據的聚類
七、關聯(lian)規則與(yu)序列挖(wa)掘
1、  頻繁項集(ji)
2、  支持(chi)度與置信度
3、  Apriori性質
4、  連接與剪枝
5、  總有(you)“啤酒與尿布”以(yi)外的案例(li)吧?
6、  序列挖掘
八(ba)、惰性學習(xi)
1、  迫切學(xue)習與惰性學(xue)習
2、  K-NN分類算法
3、  基于案(an)例的推理
 
九、機器學習中性能評(ping)價指標(biao)
1、  準確率(lv);*率(lv)、召回率(lv);F1
2、  真(zhen)陽性率、假陽性率
3、  混淆矩(ju)陣
4、  ROC與AUC
5、  對數損失
6、  Kappa系數
7、  回(hui)歸:平均(jun)(jun)*誤(wu)差(cha)、平均(jun)(jun)平方誤(wu)差(cha)
8、  聚類:蘭德指數(shu)、互(hu)信息
十、樸素(su)貝葉斯與(yu)貝葉斯網絡
1、  概率論基礎:條件概率、聯合(he)概率、分布、共軛先驗。
2、  “概率派(pai)”與“貝(bei)葉斯派(pai)”
3、  樸素(su)貝葉斯(si)模型
4、  貝葉(xie)斯信念網絡
5、  應(ying)用案例介紹(shao)
十(shi)一、   ;    極大似然估(gu)計與EM算(suan)法
1、  極大(da)似然估計
2、  半監(jian)督學習
3、  EM算(suan)法
4、  EM算法(fa)應用:貝葉斯線性回歸
十二、       支持(chi)向量機
1、  統計學習問題
2、  結構風險(xian)最小歸納原理(li)
3、  支持向(xiang)量機(ji)
4、  核函數
5、  多分類的支持向量機
6、  用于(yu)連續值預(yu)測(ce)的支持向量機
7、  小(xiao)案例:“拆蚊(wen)香”
 
十三(san)、       BP神經網絡(luo)
1、  人工神(shen)經(jing)元及感知(zhi)機模型
2、  前向神經(jing)網絡
3、  sigmoid
4、  徑向基函數神(shen)經網絡(luo)
5、  誤差反向傳播
十四、       其他神經網絡(luo)
1、  hopfield網(wang)絡
2、  自組織特征映射神經網絡(luo)
3、  受限(xian)布爾茲曼機
4、  神經網絡的應用(yong)案例介(jie)紹
十五、       機器(qi)學習中(zhong)的最優化方法
1、  參數學習方(fang)法
2、  損失(shi)函數(shu)(或目標函數(shu))
3、  梯度下降
4、  隨機梯度下降
5、  牛頓法
6、  擬牛頓法(fa)
7、  蠻力(li)法也(ye)算(suan)嗎?
十六、       遺傳算法
1、  交叉、選(xuan)擇、變異
2、  基(ji)本算法
3、  神經網絡與遺傳算法結合(he)的案例:井(jing)字棋
 
十七(qi)、       隱馬爾科夫模(mo)型
1、  馬爾科夫過程
2、  隱馬爾科夫模型
3、  三(san)個(ge)基本問題(ti)(評估、解碼、學(xue)習)
4、  前向-后向算法
5、  Viterbi算法
6、  Baum-Welch算(suan)法
十八、       條件隨(sui)機場
1、  *熵(shang)理論
2、  無(wu)向(xiang)圖模型與(yu)MRF
3、  CRF與(yu)MRF的關系
4、  *團(tuan)與勢函數
5、  CRF的三個問題(概率(lv)計算、參數(shu)學(xue)習、預測)
6、  CRF進行(xing)詞(ci)性標注的案例
十九、       文本(ben)挖掘
1、文本分(fen)析功能
2、文(wen)本特征的提取
4、文本分類
5、文本(ben)聚(ju)類
6、文本摘要
二十(shi)、       Monte-Carlo法(fa)
1、  扔飛鏢計算圓周率
2、  Monte-Carlo積分
3、  接受(shou)-拒絕采樣
4、  重要性采樣
5、  MCMC方法的基本思路
6、  Metropolis-Hastings算法
7、  Gibbs采(cai)樣
 
二十一、從LSA到LDA
1、  LSA(潛(qian)在語義分析)
2、  pLSA
3、  第(di)二個“LDA”(潛在(zai)狄利克雷(lei)分布)
二十二、網頁排序與商品推薦
1、  page rank
2、  基于人口統計學的推薦
3、  基于內容的推薦
4、  協同過濾
5、  基于關聯規(gui)則(ze)推薦(jian)
6、  組(zu)合推薦
二(er)十三、組合的模型
1、  bagging
2、  co-training
3、  adaboost
4、  隨機森林(lin)
5、  GBDT
二十四、強化學習
1、  MDPs中的agent的屬性
2、  exploration and exploitation
3、  Bellman期望方程
4、  最(zui)優策略
5、  策略迭代與價值迭代
6、  Q學習算法
7、  DQN
二十(shi)五、綜合案例
1、  如何教(jiao)電腦玩“flappy
bird”
2、  待定(ding)

數據挖掘與機器學習課程


轉載://citymember.cn/gkk_detail/65681.html

已(yi)開課時間Have start time

在線報名(ming)Online registration

    參加課(ke)程(cheng):人工智能之數據挖掘與機器學習

    單位名稱:

  • 參加日期:
  • 聯系人(ren):
  • 手機號(hao)碼(ma):
  • 座機電話:
  • QQ或微信:
  • 參加(jia)人數(shu):
  • 開票信息:
  • 輸(shu)入驗證:  看不清楚?點擊驗證碼刷新
付款信息:
開戶名:上海投智企業管理咨詢有限公司
開戶行:中國銀行股份有限公司上海市長壽支行
帳號:454 665 731 584
葉梓
[僅限會員]

預約1小時微咨詢式培訓