監督學習無監督學習
❶ 機器學習的監督學習和無監督學習的區別
利 用一 組已 知 類 別的 樣本 調 整 分類 器 的 參數, 使 其 達到所 要求性 能 的過程 , 也稱為監 督 訓 練或 有 教師學習 。所給 的 學習樣本不帶有類 別 信 息, 就 是無監督學 習。 你 可以 在 米筐 社 區更 加 深 入討 論 這個 問 題 。
❷ 監督學習與無監督學習有什麼不同
監督學習是從標記的訓練數據來推斷一個功能的機器學習任務。在監督學習中,每個實例都是由一個輸入對象(通常為矢量)和一個期望的輸出值(也稱為監督信號)組成。監督學習演算法是分析該訓練數據,並產生一個推斷的功能,其可以用於映射出新的實例。
無監督學習是機器學習的一個分支,它從未經標記或分類的測試數據中學習。它本質上是一個統計手段,在沒有標簽的數據里可以發現潛在的一些結構。
兩者的主要區別是:
1.監督學習是一種目的明確的訓練方式,你知道得到的是什麼;而無監督學習則是沒有明確目的的訓練方式,你無法提前知道結果是什麼。
2.監督學習需要給數據打標簽;而無監督學習不需要給數據打標簽。
3.監督學習由於目標明確,所以可以衡量效果;而無監督學習幾乎無法量化效果如何。
❸ 為什麼說深度學習是無監督學習的一種
聽他人說的抄:無監督與監督學習的區別在於一個無教學值,一個有教學值。但是,個人認為他們的區別在於無監督學習一般是採用聚簇等演算法來分類不同樣本。而監督學習一般是利用教學值與實際輸出值產生的誤差,進行誤差反向傳播修改權值來完成網路修
❹ 有監督學習和無監督學習的區別
聽他人說的:無監督與監督學習的區別在於一個無教學值,一個有教回學值。但是,個人認答為他們的區別在於無監督學習一般是採用聚簇等演算法來分類不同樣本。而監督學習一般是利用教學值與實際輸出值產生的誤差,進行誤差反向傳播修改權值來完成網路修正的。但是無監督學習沒有反向傳播修改權值操作,當然這里只是說的是特徵提取階段。
❺ 機器學習 一 監督學習和無監督學習的區別
機器學習的常用方法,主要分為有監督學習(supervised learning)和無監督學習(unsupervised learning)。
監督學習,就是人們常說的分類,通過已有的訓練樣本(即已知數據以及其對應的輸出)去訓練得到一個最優模型(這個模型屬於某個函數的集合,最優則表示在某個評價准則下是最佳的),再利用這個模型將所有的輸入映射為相應的輸出,對輸出進行簡單的判斷從而實現分類的目的,也就具有了對未知數據進行分類的能力。在人對事物的認識中,我們從孩子開始就被大人們教授這是鳥啊、那是豬啊、那是房子啊,等等。我們所見到的景物就是輸入數據,而大人們對這些景物的判斷結果(是房子還是鳥啊)就是相應的輸出。當我們見識多了以後,腦子里就慢慢地得到了一些泛化的模型,這就是訓練得到的那個(或者那些)函數,從而不需要大人在旁邊指點的時候,我們也能分辨的出來哪些是房子,哪些是鳥。監督學習里典型的例子就是KNN、SVM。
無監督學習(也有人叫非監督學習,反正都差不多)則是另一種研究的比較多的學習方法,它與監督學習的不同之處,在於我們事先沒有任何訓練樣本,而需要直接對數據進行建模。這聽起來似乎有點不可思議,但是在我們自身認識世界的過程中很多處都用到了無監督學習。比如我們去參觀一個畫展,我們完全對藝術一無所知,但是欣賞完多幅作品之後,我們也能把它們分成不同的派別(比如哪些更朦朧一點,哪些更寫實一些,即使我們不知道什麼叫做朦朧派,什麼叫做寫實派,但是至少我們能把他們分為兩個類)。無監督學習里典型的例子就是聚類了
❻ 如何將監督學習演算法應用到無監督學習上
這時有人可能會想,難道有監督學習和無監督學習就是非黑即白的關系嗎?有沒有灰呢?Good idea。灰是存在的。二者的中間帶就是半監督學習(semi-supervised learning)。對於半監督學習,其訓練數據的一部分是有標簽的,另一部分沒有標簽,而沒標簽數據的數量常常極大於有標簽數據數量(這也是符合現實情況的)。隱藏在半監督學習下的基本規律在於:數據的分布必然不是完全隨機的,通過一些有標簽數據的局部特徵,以及更多沒標簽數據的整體分布,就可以得到可以接受甚至是非常好的分類結果
❼ 有監督學習和無監督學習的區別
機器學習任務根據訓練樣本是否有label,可以分為監督學習和無監督學習
監督學習的訓練樣本有label,主要是學習得到一個特徵空間到label的映射,如分類、回歸等
無監督學習的訓練樣本沒有label,主要是發現樣本的內部結構,如聚類、降維、可視化等
❽ 機器學習 一 監督學習和無監督學習的區別
1、機器學習按照方法來分類,可以分成四類,分別是:監督學習、無監督學習、半監督學習和強化學習。
2、監督學習針對有標簽數據集,它通過學習出一個模型(其實就是一個函數)來擬合數據,按照模型(函數)的輸出結果是否離散又可以分為兩類,分別是:(1)輸出結果為離散值,則為分類問題(常見的分類演算法:KNN、貝葉斯分類器、決策樹、SVM、神經網路、GBDT、隨機森林等);(2)輸出結果為連續值,則為回歸問題(有線性回歸和邏輯回歸兩種)。
3、無監督學習針對沒有標簽的數據集,它將樣本按照距離劃分成類簇,使得類內相似性最大,類間相似性最小。通過觀察聚類結果,我們可以得到數據集的分布情況,為進一步分析提供支撐。常見的聚類演算法有K-means、高斯混合模型和LDA。
❾ 監督學習和無監督學習之間有沒有界限
目標是我們不告訴計算機怎麼做,而是讓它(計算機)自己去學習怎樣做一些事情。非監督學習一般有兩種思路。第一種思路是在指導Agent時不為其指定明確的分類,而是在成功時採用某種形式的激勵制度。需要注意的是,這類訓練通常會置於決策問題的框架里,因為它的目標不是產生一個分類系統,而是做出最大回報的決定。這種思路很好的概括了現實世界,Agent可以對那些正確的行為做出激勵,並對其他的行為進行處罰。
強化學習的一些形式常常可以被用於非監督學習,由於沒有必然的途徑學習影響世界的那些行為的全部信息,因此Agent把它的行為建立在前一次獎懲的基礎上。在某種意義上,所有的這些信息都是不必要的,因為通過學習激勵函數,Agent不需要任何處理就可以清楚地知道要做什麼,因為它(Agent)知道自己採取的每個動作確切的預期收益。對於防止為了計算每一種可能性而進行的大量計算,以及為此消耗的大量時間(即使所有世界狀態的變遷概率都已知),這樣的做法是非常有益的。另一方面,在嘗試出錯上,這也是一種非常耗費時間的學習。
不過這一類學習可能會非常強大,因為它假定沒有事先分類的樣本。在某些情況下,例如,我們的分類方法可能並非最佳選擇。在這方面一個突出的例子是Backgammon(西洋雙陸棋)游戲,有一系列計算機程序(例如neuro-gammon和TD-gammon)通過非監督學習自己一遍又一遍的玩這個游戲,變得比最強的人類棋手還要出色。這些程序發現的一些原則甚至令雙陸棋專家都感到驚訝,並且它們比那些使用預分類樣本訓練的雙陸棋程序工作得更出色。
一種次要的非監督學習類型稱之為聚合(clustering)。這類學習類型的目標不是讓效用函數最大化,而是找到訓練數據中的近似點。聚合常常能發現那些與假設匹配的相當好的直觀分類。例如,基於人口統計的聚合個體可能會在一個群體中形成一個富有的聚合,以及其他的貧窮的聚合。