Intro to Data Science : Lesson 3 #2
Intro to Data Science Online Course - Udacity
サボり明け
途中から
なんか動画に日本語字幕が出てる
(元々あったか記憶にない)
Lesson 3: Data Analysis
- tip of the iceberg
- How to predict?
- Machine Learning
- Statistics -> analyzing existing data
- Machine Learning -> predictions
- Types of Machine Learning
- Supervised Learning (教師あり学習)
- SPAM, price of house
- Unsupervised Learning (教師なし学習)
- Clustering
- group photos
- Supervised Learning (教師あり学習)
- 主成分分析
- 数式(equation)の作成
- 勾配降下法
- Linear regression 線形回帰
- cost
- Σ (Y predicted - Y actual)2
- gradient descent 最急降下法
[課題] Gradient Descent in Python
カンニング
DATA Analytics: Basic of Statistic and Machine Learning used for Analyze Data (3)
- データポイントの数
- 予測値を決める各要素の重要性(身長、体重、年齢 ...)
- numpy.dot 内積
[課題] 決定係数 coefficient of determination
a = np.square(data - predictions).sum() b = np.square(data - np.mean(data)).sum() r_squared = 1 - a/b return r_squared
You calculated R2 value correctly!
Your calculated R2 value is: 0.318137233709
自力でできた
解答
SST = ((data-np.mean(data))**2).sum() SSReg = ((predictions-data)**2).sum() r_squared = 1 - SSReg / SST
- OLS (Ordinary Least Squares)、最小二乗法
- local minimum
- cost function
- 安定配座 (stable conformation)
- 信頼区間
アドバイス
- 考えること
- 3つの分野 - コード、分析、数学
- t検定 + 線形回帰 (勾配降下法)
1h
すでに終わった章のコンテツが拡充されている気がする