Сергей Николенко
Random facts:
• 20 января --- Иван-бражник: крестьяне запивали зло, чтобы слёз не было
метод наименьших квадратов
метод наименьших квадратов
3
метод наименьших квадратов
𝑁
RSS(w) = ∑(𝑦𝑖 − x⊤ 2
𝑖 w) .
𝑖=1
• Как минимизировать?
3
метод наименьших квадратов
3
байесовская регрессия
𝑡 = 𝑦(x, w) + 𝜖, 𝜖 ∼ 𝒩(0, 𝜎2 ).
Иными словами,
4
байесовская регрессия
𝑀−1
𝑦(x, w) = 𝑤0 + ∑ 𝑤𝑗 𝜙𝑗 (x) = w⊤ 𝜙(x)
𝑗=1
4
байесовская регрессия
4
байесовская регрессия
𝑁
𝑝(t ∣ X, w, 𝜎2 ) = ∏ 𝒩 (𝑡𝑛 ∣ w⊤ 𝜙(x𝑛 ), 𝜎2 ) .
𝑛=1
𝑁 1 𝑁 2
ln 𝑝(t ∣ w, 𝜎2 ) = − ln(2𝜋𝜎2 ) − 2 ∑ (𝑡𝑛 − w⊤ 𝜙(x𝑛 )) .
2 2𝜎 𝑛=1
4
байесовская регрессия
𝑁 1 𝑁 2
ln 𝑝(t ∣ w, 𝜎2 ) = − ln(2𝜋𝜎2 ) − 2 ∑ (𝑡𝑛 − w⊤ 𝜙(x𝑛 )) .
2 2𝜎 𝑛=1
1 𝑁
∇w ln 𝑝(t ∣ w, 𝜎2 ) = ∑ (𝑡 − w⊤ 𝜙(x𝑛 )) 𝜙(x𝑛 ).
𝜎2 𝑛=1 𝑛
4
байесовская регрессия
4
байесовская регрессия
2 1 𝑁 2
𝜎𝑀𝐿 = ∑ (𝑡 − w⊤
𝑀𝐿 𝜙(x𝑛 )) ,
𝑁 𝑛=1 𝑛
4
полиномиальная аппроксимация
𝑀
𝑓(x, w) = 𝑤0 + ∑ 𝑤𝑗 𝜙𝑗 (x) = w⊤ 𝜙(x).
𝑗=1
𝑓(𝑥, w) = 𝑤0 + 𝑤1 𝑥 + 𝑤2 𝑥2 + … + 𝑤𝑀 𝑥𝑀 .
5
полиномиальная аппроксимация
6
полиномиальная аппроксимация
7
полиномиальная аппроксимация
8
полиномиальная аппроксимация
9
значения rms
10
можно собрать больше данных...
11
можно собрать больше данных...
12
значения коэффициентов
13
спасибо!
Спасибо за внимание!
14