在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 教程/ Python/ 人工智能機(jī)器學(xué)習(xí)
人工智能開發(fā)環(huán)境配置
計(jì)算機(jī)視覺
啟發(fā)式搜索
人工智能監(jiān)督學(xué)習(xí)(回歸)
賭勝負(fù)
強(qiáng)化學(xué)習(xí)
人工智能無監(jiān)督學(xué)習(xí):聚類
人工智能入門概念
深度學(xué)習(xí)
NLTK包
人工智能(Python)教程
神經(jīng)網(wǎng)絡(luò)
自然語言處理
人工智能邏輯編程
遺傳算法
人工智能監(jiān)督學(xué)習(xí)(分類)
人工智能數(shù)據(jù)準(zhǔn)備
人工智能機(jī)器學(xué)習(xí)
語音識(shí)別
分析時(shí)間序列數(shù)據(jù)

人工智能機(jī)器學(xué)習(xí)

學(xué)習(xí)意味著通過學(xué)習(xí)或經(jīng)驗(yàn)獲得知識(shí)或技能。 基于此,我們可以定義機(jī)器學(xué)習(xí)(ML)如下 -

它被定義為計(jì)算機(jī)科學(xué)領(lǐng)域,更具體地說是人工智能的應(yīng)用,它提供計(jì)算機(jī)系統(tǒng)學(xué)習(xí)數(shù)據(jù)和改進(jìn)經(jīng)驗(yàn)而不被明確編程的能力。

基本上,機(jī)器學(xué)習(xí)的主要重點(diǎn)是讓電腦自動(dòng)學(xué)習(xí),無需人工干預(yù)。 現(xiàn)在的問題是,如何開始這樣的學(xué)習(xí)并完成? 它可以從數(shù)據(jù)觀察開始。 數(shù)據(jù)可以是一些例子,指導(dǎo)或一些直接的經(jīng)驗(yàn)。 然后在這個(gè)輸入的基礎(chǔ)上,機(jī)器通過查找數(shù)據(jù)中的一些模式來做出更好的決定。

機(jī)器學(xué)習(xí)的類型(ML)

機(jī)器學(xué)習(xí)算法有助于計(jì)算機(jī)系統(tǒng)學(xué)習(xí),而無需明確編程。 這些算法分為有監(jiān)督或無監(jiān)督。 現(xiàn)在讓我們來看看幾個(gè)常見的算法 -

監(jiān)督機(jī)器學(xué)習(xí)算法

這是最常用的機(jī)器學(xué)習(xí)算法。 它被稱為監(jiān)督學(xué)習(xí)算法,因?yàn)閺挠?xùn)練數(shù)據(jù)集中算法學(xué)習(xí)的過程可以被認(rèn)為是監(jiān)督學(xué)習(xí)過程的教師。 在這種ML算法中,可能的結(jié)果是已知的,并且訓(xùn)練數(shù)據(jù)也標(biāo)有正確的答案。可以理解如下 -

假設(shè)有輸入變量x和輸出變量y,并且我們應(yīng)用了一種算法來學(xué)習(xí)從輸入到輸出的映射函數(shù),例如 -

Y = f(x)

現(xiàn)在,主要目標(biāo)是近似映射函數(shù),當(dāng)有新的輸入數(shù)據(jù)(x)時(shí),可以預(yù)測該數(shù)據(jù)的輸出變量(Y)。

主要監(jiān)督問題可分為以下兩類問題 -

  • 分類 - 當(dāng)有“黑色”,“教學(xué)”,“非教學(xué)”等分類輸出時(shí),問題被稱為分類問題。
  • 回歸 - 當(dāng)擁有“距離”,“千克”等真實(shí)值輸出時(shí),問題就稱為回歸問題。

決策樹,隨機(jī)森林,knn,邏輯回歸是監(jiān)督機(jī)器學(xué)習(xí)算法的例子。

顧名思義,這類機(jī)器學(xué)習(xí)算法沒有任何主管提供任何指導(dǎo)。 這就是為什么無監(jiān)督機(jī)器學(xué)習(xí)算法與一些人們稱之為真正的人工智能密切相關(guān)的原因。 可以理解如下 -

假設(shè)有輸入變量x,那么在監(jiān)督學(xué)習(xí)算法中就沒有相應(yīng)的輸出變量。

簡而言之,可以說在無監(jiān)督學(xué)習(xí)中,沒有正確的答案,也沒有教師指導(dǎo)。 算法有助于發(fā)現(xiàn)數(shù)據(jù)中有趣的模式。

無監(jiān)督學(xué)習(xí)問題可以分為以下兩類問題 -

  • 聚類 - 在聚類問題中,我們需要發(fā)現(xiàn)數(shù)據(jù)中的固有分組。 例如,按顧客的購買行為分組。
  • 關(guān)聯(lián) - 一個(gè)問題稱為關(guān)聯(lián)問題,因?yàn)檫@類問題需要發(fā)現(xiàn)描述大部分?jǐn)?shù)據(jù)的規(guī)則。 例如,找到同時(shí)購買xy商品的顧客。

用于聚類的K-means,Apriori關(guān)聯(lián)算法是無監(jiān)督機(jī)器學(xué)習(xí)算法的例子。

增強(qiáng)機(jī)器學(xué)習(xí)算法
這些機(jī)器學(xué)習(xí)算法的使用量非常少。 這些算法訓(xùn)練系統(tǒng)做出特定的決定。 基本上,機(jī)器暴露在使用試錯(cuò)法不斷訓(xùn)練自己的環(huán)境中。 這些算法從過去的經(jīng)驗(yàn)中學(xué)習(xí)并嘗試捕獲最佳可能的知識(shí)以做出準(zhǔn)確的決策。 馬爾可夫決策過程就是增強(qiáng)機(jī)器學(xué)習(xí)算法的一個(gè)例子。

最常見的機(jī)器學(xué)習(xí)算法

在本節(jié)中,我們將學(xué)習(xí)最常見的機(jī)器學(xué)習(xí)算法。 算法如下所述 -

線性回歸
它是統(tǒng)計(jì)和機(jī)器學(xué)習(xí)中最著名的算法之一。

基本概念 - 主要是線性回歸是一個(gè)線性模型,假設(shè)輸入變量x和單個(gè)輸出變量y之間的線性關(guān)系。 換句話說,y可以由輸入變量x的線性組合來計(jì)算。 變量之間的關(guān)系可以通過擬合最佳線來確定。

線性回歸的類型

線性回歸有以下兩種類型 -

  • 簡單線性回歸 - 如果線性回歸算法只有一個(gè)獨(dú)立變量,則稱為簡單線性回歸。
  • 多元線性回歸 - 如果線性回歸算法具有多個(gè)獨(dú)立變量,則稱其為多元線性回歸。

線性回歸主要用于基于連續(xù)變量估計(jì)實(shí)際值。 例如,可以通過線性回歸來估計(jì)一天內(nèi)基于實(shí)際價(jià)值的商店總銷售額。

Logistic回歸
它是一種分類算法,也稱為logit回歸。

主要邏輯回歸是一種分類算法,用于根據(jù)給定的一組自變量來估計(jì)離散值,如01,真或假,是或否。 基本上,它預(yù)測的概率因此它的輸出在01之間。

決策樹
決策樹是一種監(jiān)督學(xué)習(xí)算法,主要用于分類問題。

基本上它是一個(gè)基于自變量表示為遞歸分區(qū)的分類器。 決策樹具有形成根樹的節(jié)點(diǎn)。 有根樹是一個(gè)帶有稱為“根”節(jié)點(diǎn)的定向樹。 Root沒有任何傳入邊緣,所有其他節(jié)點(diǎn)都有一個(gè)傳入邊緣。 這些節(jié)點(diǎn)被稱為樹葉或決策節(jié)點(diǎn)。 例如,考慮下面的決策樹來判斷一個(gè)人是否適合。

支持向量機(jī)(SVM)

它用于分類和回歸問題。 但主要用于分類問題。 SVM的主要概念是將每個(gè)數(shù)據(jù)項(xiàng)繪制為n維空間中的一個(gè)點(diǎn),每個(gè)特征的值是特定坐標(biāo)的值。 這里n將是功能。 以下是了解SVM概念的簡單圖形表示 -

在上圖中,有兩個(gè)特征,因此首先需要在二維空間中繪制這兩個(gè)變量,其中每個(gè)點(diǎn)都有兩個(gè)坐標(biāo),稱為支持向量。 該行將數(shù)據(jù)分成兩個(gè)不同的分類組。 這條線將是分類器。

樸素貝葉斯
這也是一種分類技術(shù)。 這種分類技術(shù)背后的邏輯是使用貝葉斯定理來構(gòu)建分類器。 假設(shè)是預(yù)測變量是獨(dú)立的。 簡而言之,它假設(shè)類中某個(gè)特征的存在與任何其他特征的存在無關(guān)。 以下是貝葉斯定理的等式 -

樸素貝葉斯模型易于構(gòu)建,特別適用于大型數(shù)據(jù)集。

K-最近鄰居(KNN)

它用于問題的分類和回歸。 它被廣泛用于解決分類問題。 該算法的主要概念是它用來存儲(chǔ)所有可用的案例,并通過其k個(gè)鄰居的多數(shù)選票來分類新案例。 然后將該情況分配給通過距離函數(shù)測量的K近鄰中最常見的類。 距離函數(shù)可以是歐幾里得,明可夫斯基和海明距離。 考慮以下使用KNN -

  • 計(jì)算上KNN比用于分類問題的其他算法昂貴。
  • 變量的規(guī)范化需要其他更高的范圍變量可以偏差。
  • 在KNN中,需要在噪音消除等預(yù)處理階段進(jìn)行工作。

K均值聚類

顧名思義,它用于解決聚類問題。 它基本上是一種無監(jiān)督學(xué)習(xí)。 K-Means聚類算法的主要邏輯是通過許多聚類對數(shù)據(jù)集進(jìn)行分類。 按照這些步驟通過K-means形成聚類 -

  • K-means為每個(gè)簇選取k個(gè)點(diǎn),稱為質(zhì)心。
  • 每個(gè)數(shù)據(jù)點(diǎn)形成具有最接近質(zhì)心的群集,即k個(gè)群集。
  • 它將根據(jù)現(xiàn)有集群成員查找每個(gè)集群的質(zhì)心。
  • 需要重復(fù)這些步驟直到收斂。

隨機(jī)森林
它是一個(gè)監(jiān)督分類算法。 隨機(jī)森林算法的優(yōu)點(diǎn)是它可以用于分類和回歸兩類問題。 基本上它是決策樹的集合(即森林),或者可以說決策樹的集合。隨機(jī)森林的基本概念是每棵樹給出一個(gè)分類,并且森林從它們中選擇最好的分類。以下是隨機(jī)森林算法的優(yōu)點(diǎn) -

  • 隨機(jī)森林分類器可用于分類和回歸任務(wù)。
  • 可以處理缺失的值。
  • 即使在森林中有更多的樹,它也不會(huì)過度適合模型。