0人評分過此書

人工智慧AI與貝葉斯Bayesian迴歸的整合:應用STaTa分析

出版日期
2019/04/15
閱讀格式
PDF
書籍分類
學科分類
ISBN
9789577632210

本館館藏

借閱規則
當前可使用人數 30
借閱天數 14
線上看 0
借閱中 0
選擇分享方式

推薦本館採購書籍

您可以將喜歡的電子書推薦給圖書館,圖書館會參考讀者意見進行採購

讀者資料
圖書館
* 姓名
* 身分
系所
* E-mail
※ 我們會寄送一份副本至您填寫的Email中
電話
※ 電話格式為 區碼+電話號碼(ex. 0229235151)/ 手機格式為 0900111111
* 請輸入驗證碼
●國內第一本解說STaTa ——多達45 種貝葉斯迴歸分析運用的教科書。
●STaTa+AI+Bayesian超強組合,接軌世界趨勢,讓您躋身大數據時代先驅。
●超強統計軟體STaTa,簡單易懂,功能齊全,廣獲肯定。
●結合「理論、方法、統計」,讓讀者能精準使用Bayesian迴歸。
●內文包含大量圖片示意,配合隨書光碟資料檔,實地演練,學習更有效率。

  5G時代的來臨,聯手(AI)人工智慧邁入嶄新紀元,未來可預見日常將出現更密集的AI科技,更可能改變產業型態、生活體驗,甚至是人類的思考模式。

  AI又稱機器智能,迄今已是一門顯學,屬於自然科學和社會科學的交集。其中機器學習演算法及Bayesian後驗機率等貝氏推論,不僅適合傳統科學研究法,更適合於當今大數據(big data)時代的來臨。
 
  本書詳細說明STaTa運用中,45種Bayesian迴歸,以及實務上已非常成熟的AI統計應用技術,可供人工智慧、機器學習等自然科學和社會科研究者使用。內文包含大量圖片示意,搭配隨書附贈光碟,簡潔易懂,學習效果更顯著。
  • 自序
  • Chapter 01 人工智慧的基礎:機器學習理論及貝氏定理(Bayes' theorem)
    • 1-1 人工智慧(Artificial Intelligence,AI)
      • 1-1-1 AI 研究的議題
      • 1-1-2 強人工智慧 vs. 弱人工智慧
      • 1-1-3 AI 研究方法
    • 1-2 機器學習(machine learning)
      • 1-2-1 監督 vs. 非監督機器學習
      • 1-2-2 機器學習的演算法(algorithm)
      • 1-2-3 何謂 Features(≈自變數)、Training、Label(≈類別依變數)?
      • 1-2-4 監督機器學習⊃多變數線性迴歸(machine learning:linear regression with multiple variables)
      • 1-2-5 機器學習:梯度下降演算法(gradient descent algorithm)
      • 1-2-6 機器學習:特徵縮放(feature scaling)
    • 1-3 參數估計:最大概似估計、最大後驗(Max posterior)、貝葉斯估計
      • 1-3-1 何謂參數估計?
      • 1-3-2a 估計法一:最大概似估計(MLE)≠概似比(LR)
      • 1-3-2b 最大概似估計法(MLE)做分類
      • 1-3-3 估計法二:最大後驗(Max posterior)估計
      • 1-3-4 估計法三:貝葉斯估計
    • 1-4 期望最大化(EM)演算法
  • Chapter 02 貝葉斯(Bayesian)迴歸有 45 種
    • 2-1 貝氏定理與條件機率(重點整理)
      • 2-1-1 貝氏機率(Bayesian probability)
      • 2-1-2 貝氏(Bayes)定理、條件機率
    • 2-2 貝葉斯推論(Bayesian inference)
      • 2-2-1 貝葉斯法則(Bayesian rule)
      • 2-2-2 推論「排他性和窮舉命題」的可能性(inference over exclusive and exhaustive possibilities)
      • 2-2-3a 貝葉斯推論之數學性質(mathematical properties)
      • 2-2-3b 貝葉斯決策理論
      • 2-2-4 貝葉斯推論之案例
      • 2-2-5 頻率統計和決策理論之貝葉斯模型,誰優?Bayesian Information Criterion (BIC)
      • 2-2-6 貝葉斯認識論(Bayesian epistemology)
      • 2-2-7 貝葉斯推理的影響因素
    • 2-3 常見的分布有 15 種
    • 2-4 STaTa likelihood-based Bayesian 迴歸有 45 種
      • 2-4-1 STaTa 共 12 類:45 種 Bayesian 迴歸
      • 2-4-2 Metropolis-Hastings 演算法(bayesmh 指令)和 Monte Carlo
      • 2-4-3 貝葉斯線性迴歸的基本原理
    • 2-5 貝葉斯統計及正規化(Bayesian statistics and Regularization)
      • 2-5-1 過度適配 vs. 不足適配(overfitting and underfitting)
      • 2-5-2 Bayesian statistics 及正規化(regularization)
      • 2-5-3 最佳成本函數之正規化(optimize cost function by regularization)
  • Chapter 03 最大概似(ML)各家族(family):機器學習技術
    • 3-1 最大概似(ML)之 Regression 家族(family)
      • 3-1-1 迴歸分析介紹
      • 3-1-2 線性迴歸(linear regression)
    • 3-2 多元迴歸的自變數選擇法有三:子集合選取法、正規化、資訊準則法(bayesstats ic 指令)
      • 3-2-1 迴歸模型與正規項(regulation):Ridge 迴歸、Lasso 迴歸原理
      • 3-2-2 脊迴歸/嶺迴歸(ridge)的原理:多重共線性(ridgeregress 外掛指令)
      • 3-2-3a 迴歸正規項(regulation):lasso 迴歸、Ridg 迴歸、elastic-net 迴歸(lassoregress、ridgeregress、elasticregress 外掛指令)
      • 3-2-3b 機器學習演算法:套索迴歸(Lasso Regrission)(lassoregress、lasso2、elasticregress 指令)
      • 3-2-4a 機器學習演算法:脊迴歸(Ridge Regression)(rxridge、rxrcrlq、rxrmaxl 等 14 個指令)
      • 3-2-4b Ridge 迴歸分析:解決共線性(rxridg 外掛指令)
      • 3-2-5 機器學習演算法:彈性網路多工 Lasso 迴歸(multi task Lasso)(elasticregress 指令)
      • 3-2-6 邏輯斯迴歸(logistic regression)
    • 3-3 機器學習法:隨機森林(外掛指令randomforest)、支援向量機(外掛指令 svmachines)
      • 3-3-1 機器學習法:隨機森林(外掛指令:randomforest)
      • 3-3-2 機器學習法:支援向量機 SVM(外掛指令:svmachines)
    • 3-4 最大概似的 Kernel-Based 家族:小樣本、非線性及高維模型識別
      • 3-4-1 非線性分類之核函數
      • 3-4-2 支援向量機(SVM)分類器:原型、對偶型、核技巧、現代方法
      • 3-4-3a 支援向量機(SVM)原理:小樣本、非線性及高維模型識別
      • 3-4-3b 支援向量機做分類(svmachines 外掛指令)
      • 3-4-4 核迴歸/分段加權迴歸(kernel regression):非單調函數(lpoly、npregress、teffects 指令)
    • 3-5 最大概似(ML)之 Bayes-Based 家族(前導字「bayes:某迴歸」指令)
      • 3-5-1 判別模型(discriminative model)與生成模型(generative model)
      • 3-5-2 高斯判別分析(Gaussian discriminant analysis)
      • 3-5-3 樸素貝葉斯(naive bayes)演算法
  • Chapter 04 貝葉斯(Bayesian)線性迴歸之原理
    • 4-1 貝葉斯(Bayesian)分析
    • 4-2 參數估計:最大概似估計、最大後驗估計、貝葉斯估計
    • 4-3 貝葉斯(Bayesian)線性迴歸
      • 4-3-1a 線性迴歸之參數估計最小平方法(OLS)
      • 4-3-1b 貝葉斯(Bayesian)迴歸之原理
      • 4-3-2 貝葉斯線性迴歸:參數分布、預測分布、等價核
      • 4-3-3 貝葉斯線性迴歸:學習過程、優缺點、貝葉斯脊迴歸
    • 4-4 貝葉斯多元線性迴歸之原理(Bayesian multivariate linear regression)
  • Chapter 05 Bayes 線性迴歸(「bayes:regress」、「bayesgraph diagnostics」、「bayesstats ic」指令)
    • 5-1 線性 Bayesian 迴歸(先rsquare、再「bayes:regression」指令)
      • 5-1-1 OLS 先挑所有自變數的最佳組合(再 Bayes 線性迴歸)
      • 5-1-2 OLS 先挑所有自變數的最佳組合,再 Bayes 線性迴歸(bayes :regress y x1 x2 x3)
    • 5-2 方法一 Bayes 線性迴歸(bayes :regress ⋯指令)
      • 5-2-1 Bayes 線性迴歸及預測值:使用內定概似及先驗(uninformative data)(bayes :regress ⋯指令)
      • 5-2-2 Bayes 線性迴歸:自定概似及先驗(informative data)(bayes :regress⋯指令)
    • 5-3 方法二 Bayes 線性迴歸(bayesmh :regress ⋯指令)
    • 5-4 線性 Bayesian 迴歸模型(改用 bayesmh 指令)
      • 5-4-1 Bayesian 估計之原理及實作(「bayes:regress」指令)
      • 5-4-2 MCMC 收斂性(convergence)及假設檢定(hypotheses testing)
      • 5-4-3 先驗(Priors):Gibbs 採樣(sampling)
      • 5-4-4 自定先驗(Custom priors)
    • 5-5 Bayes 迴歸:縮減模型 vs. 完全模型,誰優?(bayesmh、bayesstats ic 指令)
  • Chapter 06 Metropolis-Hastings 演算法之 Bayesian 模型(bayesmh 指令)
    • 6-1 bayesmh 指令:「線性 vs. 非線性」、「單變量 vs. 多變量」、「連續 vs. 間斷」模型有 8 大類
    • 6-2 bayesmh 指令之範例
      • 6-2-1 範例1:OLS 線性迴歸(regress) vs. Bayesian 線性迴歸(bayes :regress)
      • 6-2-2 範例2:Bayesian normal linear regression with noninformative prior(未自定參數的分布)
      • 6-2-3 範例3:Bayesian linear regression with informative prior(自定參數的分布)
      • 6-2-4 範例4:Bayesian normal linear regression with multivariate prior
      • 6-2-5 範例5:檢查收斂性(Checking convergence)
      • 6-2-6 範例6:貝氏事後估計值摘要(Postestimation summaries)
      • 6-2-7 範例7:敵對模型的比較(Model comparison)
      • 6-2-8 範例8:假設檢定(Hypothesis testing)(bayestest model、interval interval)
  • Chapter 07 Bayesian 邏輯斯模型、多項邏輯斯模型(bayes:logistic、bayes:mlogit 指令)
    • 7-1 邏輯斯迴歸原理
    • 7-2 Bayesian logit 迴歸分析(bayes:logit、bayes :logistic 指令)
      • 7-2-1 範例1:貝氏 Logistic 迴歸(bayes:logit 指令)
      • 7-2-2 範例2:自定之資訊先驗(informative prior):貝氏 Logistic 迴歸(bayes:logit 指令)
    • 7-3 對照組:multinomial logistic 迴歸分析(bayes:mlogit 指令)
      • 7-3-1 多項(multinomial)邏輯斯迴歸之原理
      • 7-3-2 Multinomial Logit 迴歸分析:職業選擇種類(mlogit 指令)
      • 7-3-3 多項邏輯斯迴歸分析:乳房攝影(mammograph)選擇的因素(mlogit 指令)
    • 7-4 實驗組:Bayesian multinomial logistic 迴歸分析:健康保險(bayes:mlogit指令)
  • Chapter 08 聯立方程式:Bayesian multivariate 迴歸(bayes:mvreg 指令)
    • 8-1 多變量 Bayesian 迴歸分析(bayes:mvreg 指令)
  • Chapter 09 非線性迴歸:廣義線性模型(GLM)(Baye:glm 指令)
    • 9-1 廣義線性模型之原理
    • 9-2 當依變數是比例(proportion)時,如何做迴歸(glm 指令)?
    • 9-3 廣義線性迴歸(glm、baye:glm 指令)
  • Chapter 10 Survival 模型(baye:streg 指令)
    • 10-1 存活分析的原理
      • 10-1-1 存活分析之定義
      • 10-1-2 為何存活分析是臨床研究最重要的統計法?
      • 10-1-3 存活分析之三種研究目標
    • 10-2 存活分析 Bayesian 迴歸 (baye:streg 指令)
  • Chapter 11 多層次(multilevel)模型(bayes:mixed 指令)
    • 11-1 多層次模型的原理
    • 11-2 Bayesian 多層次模型:重複測量(bayes:mixed 指令)
  • Chapter 12 計數(count)模型、Zero-Inflated 模型(bayes:tpoisson、baye:zinb 指令)
    • 12-1 傳統原理:Count 依變數:Zero-Inflated Poisson 迴歸 vs. negative binomial 迴歸
      • 12-1-1 Poisson 分配
      • 12-1-2 負二項分配(Negative Binomial Distribution)
      • 12-1-3 零膨脹(Zero-Inflated)Poisson 分配
    • 12-2 單層次:Zero-Inflated Poisson 迴歸 vs. 負二項迴歸(zip、zinb 指令)
      • 12-2-1 傳統:Zero-Inflated Poisson 迴歸 vs. 負二項迴歸(zip、zinb 指令)
      • 12-2-2 Bayesian Poisson 迴歸(bayes:poisson)、Bayesian 零膨脹 Poisson 迴歸(bayes:zip 指令)
      • 12-2-3 Zero-Inflated negative binomial 模型(bayes:zinb 指令)
    • 12-3 Zero-Inflated ordered probit regression 練習:釣魚(zip 指令)
    • 12-4 零膨脹 Ordered probit 迴歸分析:抽菸嚴重度(zioprobit 指令)
    • 12-5 截斷(truncated)Poisson 迴歸分析(bayes:tpoisson 指令)
      • 12-5-1 截斷迴歸(truncated regression)(truncreg 指令)
      • 12-5-2 Bayesian 截斷 Poisson 迴歸(truncated regression)(bayes:tpoisson 指令)
  • Chapter 13 Bayesian 自我迴歸模型 (bayes:regress y L1.y 指令)
    • 13-1 時間列序之統計:自我迴歸(autoregressive models)
      • 13-1-1 ARIMA 建構模型之步驟
    • 13-2 穩定數列之自我迴歸模型(AR)
      • 13-2-1 AR(1)模型
      • 13-2-2 AR(2)模型
      • 13-2-3 何謂穩定性(定態)?
    • 13-3 Bayesian 自我迴歸之建模過程(bayes :regress y L.y 指令)
  • 參考文獻

評分與評論

請登入後再留言與評分
幫助
您好,請問需要甚麼幫助呢?
使用指南

客服專線:0800-000-747

服務時間:週一至週五 AM 09:00~PM 06:00

loading