監督學習演算法
① 監督學習是不是bp演算法
監督學習是你給定的數據它們都有標簽,然後訓練完了之後你再用別的不帶標簽的數據輸進去,系統給你算出一個標簽出來,這里的標簽可以是離散的,也可以是連續的
BP演算法是優化神經網路的一種演算法,它是利用鏈式法則和反向求導來實現的
兩個性質不一樣
② 監督學習 非監督學習 半監督學習 包含哪些演算法
半監督學習(Semi-Supervised Learning,SSL)是模式識別和機器學習領域研究的重點問題,是監督學習與無監督學習相結合的一種學習方法。半監督學習使用大量的未標記數據,以及同時使用標記數據,來進行模式識別工作。當使用半監督學習時,將會要求盡量少的人員來從事工作,同時,又能夠帶來比較高的准確性,因此,半監督學習目前正越來越受到人們的重視。
③ 多層感知器MLP 的 BP 演算法是不是有監督學習!
多層感知器MLP 的 BP 演算法是有監督學習。
MLP學習中的BP演算法是由學習過程由信號的正向傳播與誤回差的反向傳播兩個答過程組成。正向傳播時,輸入樣本從輸入層傳入,經各隱層逐層處理後,傳向輸出層。若輸出層的實際輸出與期望的輸出(教師信號)不符,則轉入誤差的反向傳播階段。誤差反傳是將輸出誤差以某種形式通過隱層向輸入層逐層反傳,並將誤差分攤給各層的所有單元,從而獲得各層單元的誤差信號,此誤差信號即作為修正各單元權值的依據。這種信號正向傳播與誤差反向傳播的各層權值調整過程,是周而復始地進行的。權值不斷調整的過程,也就是網路的學習訓練過程。此過程一直進行到網路輸出的誤差減少到可接受的程度,或進行到預先設定的學習次數為止。
BP演算法介紹
④ 有監督和無監督學習都各有哪些有名的演算法和深度學習
聽他人說的:無監督與監督學習的區別在於一個無教學值,一個有教學值。但是,個人認為他們的區別在於無監督學習一般是採用聚簇等演算法來分類不同樣本。而監督學習一般是利用教學值與實際輸出值產生的誤差,進行誤差反向傳播修改權值來完成網路修正的。但是無監督學習沒有反向傳播修改權值操作,當然這里只是說的是特徵提取階段。
⑤ 線性判別分析lda是有監督學習演算法嗎
用eviews計算,看各參數的T檢驗及F檢驗是否通過,如果F檢驗通過,但是有兩回個以上T檢驗不通過,答就有很大的可能是多重共線性了。還有就是看模型中所用的變數之間會不會明顯相關,就像,貨幣供應量和工資之類的。可以嘗試直接聯立兩個變數的方差,看變數間的R平方是不是很接近1,越接近1,說明多重共線性越明顯。希望對你有用
⑥ 機器學習非監督機器學習演算法有哪些
非監督機器學習可以分為以下幾類
(1)聚類:K-均值聚類、譜聚類、DBSCAN聚類、模糊聚類、GMM聚類、層次聚類等
(2)降維:PCA、t-SNE、MDS等
(3)其它:PageRank、SOM等
詳細介紹可以參考圖書:The Elements of Statistical Learning的第14章
⑦ 監督學習的監督學習中需要注意的問題:
1、偏置方差權衡
第一個問題就是偏見和方差之間的權衡。假設我們有幾種不同的,但同樣好的演算數據集。一種學習演算法是基於一個未知數的輸入,在經過這些數據集的計算時,系統會無誤的預測到並將正確的未知數輸出。一個學習演算法在不同的演算集演算時如果預測到不同的輸出值會對特定的輸入有較高的方差。一個預測誤差學習分類器是與學習演算法中的偏差和方差有關的。一般來說,偏差和方差之間有一個權衡。較低的學習演算法偏差必須「靈活」,這樣就可以很好的匹配數據。但如果學習演算法過於靈活,它將匹配每個不同的訓練數據集,因此有很高的方差。許多監督學習方法的一個關鍵方面是他們能夠調整這個偏差和方差之間的權衡(通過提供一個偏見/方差參數,用戶可以調整)。
2、功能的復雜性和數量的訓練數據
第二個問題是訓練數據可相對於「真正的」功能(分類或回歸函數)的復雜度的量。如果真正的功能是簡單的,則一個「不靈活的」學習演算法具有高偏壓和低的方差將能夠從一個小數據量的學習。但是,如果真功能是非常復雜的(例如,因為它涉及在許多不同的輸入要素的復雜的相互作用,並且行為與在輸入空間的不同部分),則該函數將只從一個非常大的數量的訓練數據,並使用可學習「靈活」的學習演算法具有低偏置和高方差。因此,良好的學習演算法來自動調整的基礎上可用的數據量和該函數的明顯的復雜性要學習的偏壓/方差權衡。
3、輸入空間的維數
第三個問題是輸入空間的維數。如果輸入特徵向量具有非常高的維數,學習問題是很困難的,即使真函數僅依賴於一個小數目的那些特徵。這是因為許多「額外」的尺寸可混淆的學習演算法,並使其具有高方差。因此,高的輸入維數通常需要調整分類器具有低方差和高偏置。在實踐中,如果工程師能夠從輸入數據手動刪除不相關的特徵,這是有可能改善該學習功能的准確性。此外,還有許多演算法的特徵選擇,設法確定相關特徵,並丟棄不相關的。這是維數降低,其目的是將輸入數據映射到較低維空間中運行的監督學習演算法之前的更一般的策略的一個實例。
4、雜訊中的輸出值
第四個問題是在所需要的輸出值(監控目標變數)的雜訊的程度。如果所希望的輸出值,通常是不正確的(因為人為錯誤或感測器的錯誤),則學習演算法不應試圖找到一個函數完全匹配的訓練示例。試圖以適應數據過於謹慎導致過度擬合。當沒有測量誤差(隨機雜訊),如果你正在努力學習功能,是您學習模式太復雜,你甚至可以過度擬合。在這種情況下的目標函數,該函數不能被模擬「腐化」你的訓練數據的那部分-這一現象被稱為確定性的雜訊。當任一類型的雜訊存在時,最好是去一個更高的偏見,低方差估計。
⑧ 如何將監督學習演算法應用到無監督學習上
這時有人可能會想,難道有監督學習和無監督學習就是非黑即白的關系嗎?有沒有灰呢?Good idea。灰是存在的。二者的中間帶就是半監督學習(semi-supervised learning)。對於半監督學習,其訓練數據的一部分是有標簽的,另一部分沒有標簽,而沒標簽數據的數量常常極大於有標簽數據數量(這也是符合現實情況的)。隱藏在半監督學習下的基本規律在於:數據的分布必然不是完全隨機的,通過一些有標簽數據的局部特徵,以及更多沒標簽數據的整體分布,就可以得到可以接受甚至是非常好的分類結果
⑨ 適合於多分類的半監督學習演算法有哪些
樸素貝葉斯(Naive Bayes, NB)
超級簡單,就像做一些數數的工作。如果條件獨立假設成立的話,NB將比鑒別模型(如Logistic回歸)收斂的更快,所以你只需要少量的訓練數據。即使條件獨立假設不成立,NB在實際中仍然表現出驚人的好。如果你想做類似半監督學習,或者是既要模型簡單又要性能好,NB值得嘗試。
Logistic回歸(Logistic Regression, LR)
LR有很多方法來對模型正則化。比起NB的條件獨立性假設,LR不需要考慮樣本是否是相關的。與決策樹與支持向量機(SVM)不同,NB有很好的概率解釋,且很容易利用新的訓練數據來更新模型(使用在線梯度下降法)。如果你想要一些概率信息(如,為了更容易的調整分類閾值,得到分類的不確定性,得到置信區間),或者希望將來有更多數據時能方便的更新改進模型,LR是值得使用的。
決策樹(Decision Tree, DT)
DT容易理解與解釋(對某些人而言——不確定我是否也在他們其中)。DT是非參數的,所以你不需要擔心野點(或離群點)和數據是否線性可分的問題(例如,DT可以輕松的處理這種情況:屬於A類的樣本的特徵x取值往往非常小或者非常大,而屬於B類的樣本的特徵x取值在中間范圍)。DT的主要缺點是容易過擬合,這也正是隨機森林(Random Forest, RF)(或者Boosted樹)等集成學習演算法被提出來的原因。此外,RF在很多分類問題中經常表現得最好(我個人相信一般比SVM稍好),且速度快可擴展,也不像SVM那樣需要調整大量的參數,所以最近RF是一個非常流行的演算法。
支持向量機(Support Vector Machine, SVM)
很高的分類正確率,對過擬合有很好的理論保證,選取合適的核函數,面對特徵線性不可分的問題也可以表現得很好。SVM在維數通常很高的文本分類中非常的流行。由於較大的內存需求和繁瑣的調參,我認為RF已經開始威脅其地位了。
回到LR與DT的問題(我更傾向是LR與RF的問題),做個簡單的總結:兩種方法都很快且可擴展。在正確率方面,RF比LR更優。但是LR可以在線更新且提供有用的概率信息。鑒於你在Square(不確定推斷科學家是什麼,應該不是有趣的化身),可能從事欺詐檢測:如果你想快速的調整閾值來改變假陽性率與假陰性率,分類結果中包含概率信息將很有幫助。無論你選擇什麼演算法,如果你的各類樣本數量是不均衡的(在欺詐檢測中經常發生),你需要重新采樣各類數據或者調整你的誤差度量方法來使各類更均衡。
⑩ 國內研究半監督學習演算法的牛人有哪些
南大周志華