• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

浅谈matplotlib 绘制梯度下降求解过程

python 搞代码 4年前 (2022-01-08) 14次浏览 已收录 0个评论

这篇文章主要介绍了浅谈matplotlib 绘制梯度下降求解过程,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

机器学习过程中经常需要可视化,有助于加强对模型和参数的理解。

下面对梯度下降过程进行动图演示,可以修改不同的学习率,观看效果。

 import numpy as np import matplotlib.pyplot as plt from IPython import display X = 2*np.random.rand(100,1) y = 4+3*X+np.random.randn(100,1) # randn正态分布 X_b = np.c_[np.ones((100,1)),X] # c_行数相等,左右拼接 eta = 0.1 # 学习率 n_iter = 1000 # 迭代次数 m = 100 # 样本点个数 theta = np.random.randn(2,1) # 参数初始值 plt.figure(figsize=(8,6)) mngr = plt.get_current_fig_manager() # 获取当前figure manager mngr.window.wm_geometry("+520+520") # 调整窗口在屏幕上弹出的位置,注意写在<p style="color:transparent">来源gao!%daima.com搞$代*!码$网</p>打开交互模式之前 # 上面固定窗口,方便screentogif定位录制,只会这种弱弱的方法 plt.ion()# 打开交互模式 plt.rcParams["font.sans-serif"] = "SimHei"# 消除中文乱码 for iter in range(n_iter): plt.cla() # 清除原图像 gradients = 2/m*X_b.T.dot(X_b.dot(theta)-y) theta = theta - eta*gradients X_new = np.array([[0],[2]]) X_new_b = np.c_[np.ones((2,1)),X_new] y_pred = X_new_b.dot(theta) plt.axis([0,2,0,15]) plt.plot(X,y,"b.") plt.plot(X_new,y_pred,"r-") plt.title("学习率:{:.2f}".format(eta)) plt.pause(0.3) # 暂停一会 display.clear_output(wait=True)# 刷新图像 plt.ioff()# 关闭交互模式 plt.show()

学习率:0.1,较合适

学习率:0.02,收敛变慢了

学习率:0.45,在最佳参数附近震荡

学习率:0.5,不收敛

以上就是浅谈matplotlib 绘制梯度下降求解过程的详细内容,更多请关注gaodaima搞代码网其它相关文章!


搞代码网(gaodaima.com)提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发送到邮箱[email protected],我们会在看到邮件的第一时间内为您处理,或直接联系QQ:872152909。本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:浅谈matplotlib 绘制梯度下降求解过程
喜欢 (0)
[搞代码]
分享 (0)
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址