Udemy

Platform

日本語

Language

Math

Category

ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1

Learn essence of "Computer Vision: Models, Learning, and Inference"

4.33 (1427 reviews)

Students

10.5 hours

Content

Aug 2015

Last Update
FREE
Regular Price


What you will learn

確率変数,同時確率,条件付き確率,周辺化,ベイズの定理を説明できる

ベルヌーイ分布,ベータ分布,ディリクレ分布,正規分布,逆ガンマ分布,逆ウィシャート分布,それらの共役関係を説明できる

正規分布やカテゴリ型分布などのパラメータを,最尤推定,事後確率最大推定,ベイズ推定で求められる

正規分布の性質(共分散,共分散の分解,変数の線形変換,周辺分布,条件付き分布)を説明できる

識別モデルと生成モデルにおける回帰と識別(線形回帰・ロジスティック回帰)と,その応用例を理解できる

複雑な確率分布を,潜在変数を用いた混合分布で表現する方法(EMアルゴリズム,混合正規分布,robust t-distribution, factor analysis)を理解できる

回帰モデル(線形回帰,ベイズ線形回帰,非線形回帰,カーネル回帰,Gaussian process regression,Relevance vector regression)を理解できる

識別モデル(ロジスティック回帰,ベイズ・非線形・双対・カーネルロジスティック回帰,Relevance vector machine, ブースティング,Random trees/forests/ferns)を理解できる

グラフィカルモデルと,そこにおける変数の条件付き独立を説明できるようになる

chain型(HMM)とtree型のグラフィカルモデルにおけるMAP推定と周辺分布最大推定を理解できる

動的計画法(DP),forward-backwardアルゴリズム,確率伝播(belief propagation, BP)アルゴリズム,和積(sum-product)アルゴリズムを理解できる

grid型のグラフィカルモデル(MRF)におけるMAP推定をグラフカットを用いて解く方法を理解できる

max flow / min cutとMRFの関係を説明できる

2値・多値のMRFのための適切なグラフカットを説明できる

MRFにおける列モジュラ性の重要性を理解できる

コンピュータビジョンにおける統計的機械学習の応用を理解できる


Description

このオンラインレクチャーでは,確率的な手法を用いるパターン認識や機械学習の基礎を学ぶことができます.資料は,"Computer vision: models, learning and inference"の著者Simon Princeがwebで公開しているスライドを用いていますが,話題はコンピュータビジョンに限らず,確率モデルや最尤推定,ベイズ推定を扱っています. 

スライドを動画で説明した後,復習クイズを出題しています.ぜひ挑戦してください(iPad/Androidアプリ版ではクイズが表示されないようですので,webで見てください). 

このオンラインレクチャーでは,書籍のPartIII(Chapter 12)までの統計的機械学習の基礎を扱います.(Chapter 13以降の画像を扱う話題は別途作成予定) 

Computer vision: models, learning and inference 

The slide is copyrighted by Simon J. D. Prince, the author of the book "Computer vision: models, learning and inference", and is available at the book website.

The use of the slide for this online lecture is approved by Simon J. D. Prince and recognized by a contact person of the book publisher. The lecturer thanks them for their kind agreement. 



Screenshots

ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1
ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1
ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1
ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1

Content

Introduction and course guide はじめに

コース紹介

テキスト

コンピュータビジョンの応用例

Introduction to probability 確率の入門

Random variables 確率変数

確率変数

Joint probability 同時確率

同時確率

Marginalization 周辺化

周辺化

Conditional probability 条件付き確率

条件付き分布

Bayes' rule ベイズの定理

ベイズの定理

Independence 独立

独立

Expectation 期待値

期待値

Chapter 2 Summary まとめ

section 2 worksheet

Common probability distribution 一般的な確率分布

Probability distributions 確率分布

Bernoulli and Beta distributions ベルヌーイ分布とベータ分布

ベルヌーイ分布とベータ分布

Categorical and Dirichlet distributions カテゴリ型分布とディリクレ分布

カテゴリ分布とディリクレ分布

Normal and Normal inverse Gamma distributions 正規分布と正規逆ガンマ分布

正規分布と正規逆ガンマ分布

Multivariate normal and normal inverse Wishart distributions 多変数正規分布と逆ウィシャート分布

多変数正規分布と正規逆ウィシャート分布

Conjugate Distributions 分布の共役性

Conjugate and Bayes' rule 共役分布とベイズの定理

分布の共役性

Chapter 3 summary まとめ

section 3 worksheet

Fitting probability models 確率分布のパラメータ推定

Fitting probability models 確率分布のパラメータ推定

Maximum Likelihood 最尤推定

最尤推定

Maximum a posteriori 事後確率最大推定

MAP推定

Bayesian Approach ベイズ推定

ベイズ推定

ML, MAP, Bayes

ML, MAP, Bayes

Worked example 1: 正規分布の推定

正規分布の推定

Worked example 1: ML

正規分布の推定:最尤推定

Worked example 1: MAP

正規分布の推定:MAP推定

Worked example 1: Bayes

正規分布の推定:ベイズ推定

Worked example 2: カテゴリ型分布の推定

Worked example 2: ML

カテゴリ型分布の推定:最尤推定

Worked example 2: MAP

カテゴリ型分布の推定:MAP推定

Worked example 2: Bayes

カテゴリ型分布の推定:Bayes推定

Chapter 4 summary まとめ

section 4 worksheet

Normal distribution 正規分布

Normal distribution 正規分布

Transformations of Normal 正規分布の変換

正規分布の変換

Marginal and conditional of Normal 正規分布の周辺分布と条件付き分布

正規分布の周辺化・条件付き確率

Self-conjugacy 自己共役性

自己共役

Chapter 5 summary まとめ

Learning and inference in computer vision 識別モデル・生成モデルによる学習と推論

discriminative / generative models 識別モデルと生成モデル

識別モデルと生成モデル

regression with discriminative model 識別モデルによる線形回帰

識別モデルによる回帰

regressin with generative model 生成モデルによる線形回帰

生成モデルによる回帰

classification with discriminative model 識別モデルによる識別:ロジスティック回帰

識別モデルによる分類

classification with generative model 生成モデルによる識別

生成モデルによる分類

which model? どちらがよい?

どちらがよい?

applications 応用

chapter 6 summary まとめ

section 6 worksheet

Modeling complex densities

Why not Gaussian? 正規分布は単純なモデル

Three extensions 正規分布の3つの拡張

Hidden variables and EM algorithm 潜在変数とEMアルゴリズム

潜在変数とEM

Gaussian Mixture Model 混合正規分布

混合正規分布

t-distribution t-分布

t-分布

factor analysis 因子分析

因子分析

combining models モデルの組み合わせ

EM algorithm EMアルゴリズム

EMアルゴリズム

applications 応用

chapter 7 summary まとめ

section 7 worksheet

Regression models

linear regression 線形回帰

three extentions 3つの拡張

Bayesian regression ベイズ回帰

ベイズ回帰

Nonlinear regression 非線形回帰

Gaussian process regression ガウス過程回帰

ガウス過程回帰

Sparse regression スパース線形回帰

スパース線形回帰

Dual linear regression 双対線形回帰

双対線形回帰

Relevance vector regression 関連ベクトル回帰

関連ベクトル回帰

applications 応用

Chapter 8 summary まとめ

section 8 worksheet

Classification models

Logistic regression ロジスティック回帰

ロジスティック回帰

ML for logistic regressoin ロジスティック回帰の最尤推定

ロジスティック回帰の最尤推定

Nonlinear optimization 非線形最適化

非線形最適化

Gradient decent 最急降下法

最急降下法

Newton method ニュートン法

ニュートン法

ML solution for logistic regressoin ロジスティック回帰の最尤推定解

ロジスティック回帰の最尤推定解

From logistic regression ロジスティック回帰を拡張する

ロジスティック回帰の問題点

bayesian logistic regression ベイズロジスティック回帰

ベイズロジスティック回帰

inference of bayesian logistic regression ベイズロジスティック回帰の推論

ベイズロジスティック回帰の推論

Nonlinear logistic regression 非線形ロジスティック回帰

非線形ロジスティック回帰

dual logistic regression / Gaussian process classification 双対ロジスティック回帰とガウス過程識別器

双対ロジスティック回帰

Relevance vector classification 関連ベクトル識別器

関連ベクトルマシン

Incremental learning / Boosting 逐次学習・ブースティング

逐次学習・ブースティング

Branching logistic regression ロジスティック決定木

ロジスティック決定木

Multi-class logistic regression 多クラスロジスティック回帰

多クラスロジスティック回帰

Random tree, farn, forest ランダム木・ファーン・フォレスト

ランダム木

Non-probablistic classifiers 確率モデルを用いない識別器

非確率的識別器

Applications 応用

Chapter 9 summary まとめ

section 9 worksheet

Graphical models

Graphical models グラフィカルモデル

condtional independence 条件付き独立

条件付き独立

Directed model / Bayes net 有向グラフ/ベイズネット

有向グラフィカルモデル

D-separation 有向分離

有向分離の説明

有向分離

有向分離の問題

Markov blanket マルコフブランケット

マルコフブランケット

Plates プレート

プレート

Undirected model / Markov net 無向グラフ/マルコフネット

無向グラフィカルモデル

Cliques クリーク

クリーク

Comparing directed/undirected models 有向・無向グラフの比較

有向・無向グラフィカルモデル

Typical graphical models and inference 典型的なグラフィカルモデルと推論

典型的なグラフィカルモデル

MAP, marginal, max-marginal MAP推定,周辺分布推定,最大周辺推定

周辺分布推定

Ancestral sampling 伝承サンプリング

伝承サンプリング

Gibbs sampling ギブスサンプリング

ギブスサンプリング

Learning graphial models グラフィカルモデルの学習

グラフィカルモデルの学習

Contrastive divergence コントラスティブダイバージェンス

コントラスティブダイバージェンス

Chapter 10 summary まとめ

section 10 worksheet

Models for chains and trees

chain and tree models チェインモデルとツリーモデル

(un)directed chain model 有向(無向)チェインモデル

チェインモデルとツリーモデル

DP for MAP of chain 1 チェインモデルのMAP推定のためのDP 1

DPによるチェインモデルのMAP推定1

DP for MAP of chain 2 チェインモデルのMAP推定のためのDP 2

DPによるチェインモデルのMAP推定2

DP for MAP of tree ツリーモデルのMAP推定のためのDP

DPによるツリーモデルのMAP推定

Max marginal for chain チェインモデルの周辺分布最大推定

チェインモデルの周辺分布最大推定

forward backard algorithm for chain チェインモデルのための前進後退アルゴリズム

forward-backwardアルゴリズム

factor graph and sum-product algorithm 因子グラフと和積アルゴリズム

sum-productアルゴリズム

forward pass of sum-product 和積アルゴリズムの前進パス

sum-productのforwardパス

backward pass of sum-product 和積アルゴリズムの後退パス

sum-productのbackwardパス

sum-product for tree ツリーモデルのための和積アルゴリズム

ツリーモデルにおけるsum-productアルゴリズム

learning graphical model parameters グラフィカルモデルのパラメータ学習

グラフィカルモデルの学習

models with loops ループのあるグラフィカルモデル

ループのあるグラフィカルモデル

Applicatons 応用

Chapter 11 summary まとめ

section 11 worksheet

Models for grids

Grid model and MRF グリッド型グラフィカルモデルとマルコフ確率場

グリッド型グラフィカルモデルとMRF

MRF マルコフ確率場

MRF

Denoise example ノイズ除去の例

ノイズ除去の例

Max flow / min cut グラフの最大流・最小切断

最大流・最小切断

Graph Cut for MAP of binary MRF 2値MRFのMAP推定のためのグラフカット

2値MRFのグラフカット

Reparametrizations グラフの再パラメータ化

グラフの再パラメータ化

Submodularity 劣モジュラ性

劣モジュラ性

Graph Cut for MAP of multi-label MRF 多値MRFのMAP推定のためのグラフカット

多値MRFのグラフカット

Submodularity and convexity 劣モジュラ性と凸性

劣モジュラ性と凸性

Alpha expansion アルファ拡張

アルファ拡張

Alpha expansion graph construction アルファ拡張のためのグラフ構築

アルファ拡張のためのグラフ構築

Alpha expansion cut example アルファ拡張のカットの例

アルファ拡張のカット例

Conditional random fields, CRF 条件付き確率場

CRF

Applications 応用

Chapter 12 summary まとめ

section 12 worksheet

Concluding summary

Wrapup おわりに

section 1 to 12 worksheet

Bonus track おまけ

How to create a see-through video lecture 透明映像の作り方


Reviews

松本哲朗1 May 2021

図や文字が透過されていて、講師が指を刺しながら説明するので、どこの説明なのかわかりやすい。ただし、英語のテキストを日本語で解説するため、読めない人には少しわかりづらい。小テストで、理解を確認しながら進むので、習得の指標になる。人が画面に出ると、聞かなきゃってなるので、モチベーションが維持できて良いです。

足立康二3 May 2020

今までベイズ推定は予測モデル等への活用しか知りませんでしたが、コンピュータービジョンの分野でこれだけ活用されているのは知りませんでした。内容は難しくてあまり理解できたとは言えませんが、技術的背景を含めて知ることができました。

多佳子30 October 2019

ただでさえ解りにくいのに、大学教員などにありがちな英語表記ばかりで更に理解を妨げている。教える姿勢に疑問を感じざるを得ない。また、説明も親切とは言えない。 聞き取りづらいとか誤りが多いといったことはないので、その点はいいと思う。

s
s8 May 2019

大学、大学院の授業より、遥かに満足度の高い講座だった。 無駄が少なく簡潔、短時間で学習できるので、学習時間の確保が難しい社会人でも、忘却のハードルが問題にならない。 数理展開は、数学教科化せずに簡潔に説明されいる為、他の書籍、HPなどを探す手間が省け、納得感をもって本講の主題に集中して取り組める。 本講座を無料で提供してくれた講師の方に感謝します。

かた29 September 2018

なかなかコンピュータビジョンの手軽な教材がないのでこのようなオープンソースの教材はとてもありがたいです。文系でもコンピュータビジョンに携われることを夢みさせてくれるような教材だと思っています。こんなにしっかりテストや解説がついて無料というのも、また素晴らしいです!

松永17 September 2018

確率的なアプローチの初心者な人には本を読むよりわかりやすく時間もかかりません。この手の書籍を読むのに挫折した人は先にこれを観ておけば理解は相当楽になると思います。自分の場合はこの動画がなければわからない内容ばかりでした。

Y
Y26 July 2017

他のmoocも使用して機械学習を勉強しています。それぞれ違ったアプローチで分かりやすく説明されています。もちろん本コース/レクチャもとても分かり易くて助かりました。 しかしpythonライブラリ(或いはmatlab/octaveなど)を使用したアプリケーション側からのアプローチの場合は数学的詳細をなるべく隠してしまいますし、数学的な側からのアプローチではせっかくのライブラリ群から何を選択するのかなどが見えない状態のようです。 つまり数学ーアルゴリズムーアプリケーションの関係が判ると良いと思いますが、深く(時間も長く)なってしまう為に難しいでしょうか。 本コースの原著を読めば書いてあるのか? 読んでみます。 [ Pythonで機械学習 ]のコースで実施されているのかわかりませんが、 「pythonコードでこんな場合は本コースのどこそこのアイデアを使用して...」など連携があると良いですね。既になっている場合はすみません。 とても分かり易かったです。有難う。


52106

Udemy ID

5/3/2013

Course created date

11/7/2019

Course Indexed date
Bot
Course Submitted by