學習意味著通過學習或經(jīng)驗獲得知識或技能。 基于此,我們可以定義機器學習(ML)如下 -
它被定義為計算機科學領(lǐng)域,更具體地說是人工智能的應用,它提供計算機系統(tǒng)學習數(shù)據(jù)和改進經(jīng)驗而不被明確編程的能力。
基本上,機器學習的主要重點是讓電腦自動學習,無需人工干預。 現(xiàn)在的問題是,如何開始這樣的學習并完成? 它可以從數(shù)據(jù)觀察開始。 數(shù)據(jù)可以是一些例子,指導或一些直接的經(jīng)驗。 然后在這個輸入的基礎(chǔ)上,機器通過查找數(shù)據(jù)中的一些模式來做出更好的決定。
機器學習算法有助于計算機系統(tǒng)學習,而無需明確編程。 這些算法分為有監(jiān)督或無監(jiān)督。 現(xiàn)在讓我們來看看幾個常見的算法 -
這是最常用的機器學習算法。 它被稱為監(jiān)督學習算法,因為從訓練數(shù)據(jù)集中算法學習的過程可以被認為是監(jiān)督學習過程的教師。 在這種ML算法中,可能的結(jié)果是已知的,并且訓練數(shù)據(jù)也標有正確的答案。可以理解如下 -
假設(shè)有輸入變量x和輸出變量y,并且我們應用了一種算法來學習從輸入到輸出的映射函數(shù),例如 -
Y = f(x)
現(xiàn)在,主要目標是近似映射函數(shù),當有新的輸入數(shù)據(jù)(x)時,可以預測該數(shù)據(jù)的輸出變量(Y)。
主要監(jiān)督問題可分為以下兩類問題 -
決策樹,隨機森林,knn,邏輯回歸是監(jiān)督機器學習算法的例子。
顧名思義,這類機器學習算法沒有任何主管提供任何指導。 這就是為什么無監(jiān)督機器學習算法與一些人們稱之為真正的人工智能密切相關(guān)的原因。 可以理解如下 -
假設(shè)有輸入變量x,那么在監(jiān)督學習算法中就沒有相應的輸出變量。
簡而言之,可以說在無監(jiān)督學習中,沒有正確的答案,也沒有教師指導。 算法有助于發(fā)現(xiàn)數(shù)據(jù)中有趣的模式。
無監(jiān)督學習問題可以分為以下兩類問題 -
x和y商品的顧客。用于聚類的K-means,Apriori關(guān)聯(lián)算法是無監(jiān)督機器學習算法的例子。
增強機器學習算法
這些機器學習算法的使用量非常少。 這些算法訓練系統(tǒng)做出特定的決定。 基本上,機器暴露在使用試錯法不斷訓練自己的環(huán)境中。 這些算法從過去的經(jīng)驗中學習并嘗試捕獲最佳可能的知識以做出準確的決策。 馬爾可夫決策過程就是增強機器學習算法的一個例子。
在本節(jié)中,我們將學習最常見的機器學習算法。 算法如下所述 -
線性回歸
它是統(tǒng)計和機器學習中最著名的算法之一。
基本概念 - 主要是線性回歸是一個線性模型,假設(shè)輸入變量x和單個輸出變量y之間的線性關(guān)系。 換句話說,y可以由輸入變量x的線性組合來計算。 變量之間的關(guān)系可以通過擬合最佳線來確定。
線性回歸有以下兩種類型 -
線性回歸主要用于基于連續(xù)變量估計實際值。 例如,可以通過線性回歸來估計一天內(nèi)基于實際價值的商店總銷售額。
Logistic回歸
它是一種分類算法,也稱為logit回歸。
主要邏輯回歸是一種分類算法,用于根據(jù)給定的一組自變量來估計離散值,如0或1,真或假,是或否。 基本上,它預測的概率因此它的輸出在0和1之間。
決策樹
決策樹是一種監(jiān)督學習算法,主要用于分類問題。
基本上它是一個基于自變量表示為遞歸分區(qū)的分類器。 決策樹具有形成根樹的節(jié)點。 有根樹是一個帶有稱為“根”節(jié)點的定向樹。 Root沒有任何傳入邊緣,所有其他節(jié)點都有一個傳入邊緣。 這些節(jié)點被稱為樹葉或決策節(jié)點。 例如,考慮下面的決策樹來判斷一個人是否適合。
它用于分類和回歸問題。 但主要用于分類問題。 SVM的主要概念是將每個數(shù)據(jù)項繪制為n維空間中的一個點,每個特征的值是特定坐標的值。 這里n將是功能。 以下是了解SVM概念的簡單圖形表示 -

在上圖中,有兩個特征,因此首先需要在二維空間中繪制這兩個變量,其中每個點都有兩個坐標,稱為支持向量。 該行將數(shù)據(jù)分成兩個不同的分類組。 這條線將是分類器。
樸素貝葉斯
這也是一種分類技術(shù)。 這種分類技術(shù)背后的邏輯是使用貝葉斯定理來構(gòu)建分類器。 假設(shè)是預測變量是獨立的。 簡而言之,它假設(shè)類中某個特征的存在與任何其他特征的存在無關(guān)。 以下是貝葉斯定理的等式 -

樸素貝葉斯模型易于構(gòu)建,特別適用于大型數(shù)據(jù)集。
K-最近鄰居(KNN)
它用于問題的分類和回歸。 它被廣泛用于解決分類問題。 該算法的主要概念是它用來存儲所有可用的案例,并通過其k個鄰居的多數(shù)選票來分類新案例。 然后將該情況分配給通過距離函數(shù)測量的K近鄰中最常見的類。 距離函數(shù)可以是歐幾里得,明可夫斯基和海明距離。 考慮以下使用KNN -
K均值聚類
顧名思義,它用于解決聚類問題。 它基本上是一種無監(jiān)督學習。 K-Means聚類算法的主要邏輯是通過許多聚類對數(shù)據(jù)集進行分類。 按照這些步驟通過K-means形成聚類 -
隨機森林
它是一個監(jiān)督分類算法。 隨機森林算法的優(yōu)點是它可以用于分類和回歸兩類問題。 基本上它是決策樹的集合(即森林),或者可以說決策樹的集合。隨機森林的基本概念是每棵樹給出一個分類,并且森林從它們中選擇最好的分類。以下是隨機森林算法的優(yōu)點 -