《回归》心得体会7篇

时间:2024-03-26 15:41:32 分类:心得体会

通过写心得体会,我们可以与读者分享自己的成长故事,激励他们追求自己的梦想,将内心的真实想法写进心得体会,才能让读者感受到真实的情感,下面是小淘范文网小编为您分享的《回归》心得体会7篇,感谢您的参阅。

《回归》心得体会7篇

《回归》心得体会篇1

6月30日晚,在香港会展中心举行了《心连心创未来》庆祝香港回归25周年文艺晚会,25年实践充分证明,“一国两制”最符合国家利益、最符合香港情况、最有利于保持香港长期繁荣稳定,是祖国内地和香港之间的“最大公约数”。

“一国两制”血浓于水。25年前,当五星红旗在香港会展中心冉冉升起的那一刻,中国向全世界宣示了香港自古以来就是中国不可分割的一部分,任何试图分裂祖国的敌对势力或行为都将受到两岸同胞的共同抵御,国家领土完整的主权不容侵犯。一直以来,我们都是同一个母亲—中国,一直都是骨肉相连、血浓于水。“一国两制”始终将我们两岸同胞的心紧紧连在一起,不管遇到什么困难,历经什么磨难,我们都风雨同舟,共同前进,这是祖国内地和香港之间亘古不变的关系。

“一国两制”共创繁荣。今天,在“一国两制”、港人治港、高度自治的方针下,香港发展日益走向繁荣昌盛的康庄大道。实践证明,“一国两制”是符合我国国情,是有利于推进祖国的和平统一大业,促进我国社会主义现代化建设的正确方向,是有利于促进香港地区的繁荣稳定与发展的行动指南。我们要坚持一个国家的领导亘古不变,要坚持两种制度共创发展,继续将“一国两制”引向深入,不断推动祖国内地和香港之间的长期稳定与繁荣发展。

《回归》心得体会篇2

今天是香港回归26周年纪念日,从1997年7日1日零点,我国对香港特别行政区恢复行使主权以来,已经过了整整26周年。在这个十分重要的日子,我的心情异常激动、热血沸腾。26年前香港回归交接仪式的情景仍历历在目,义勇军进行曲的旋律仍盘旋于耳畔,并深深地刻进了脑海。

香港,在经历了百年沧桑后,终于回到了祖国母亲的怀抱,沉睡了百年的雄狮苏醒了。为了香港回归,为了香港回归后的繁荣稳定,国家实行了“一国两制”、港人治港,高度自制的方针。香港在经历了狂风暴雨后,而今沐浴着和风细雨。

香港,美丽繁荣。那充满童趣的迪士尼乐园,是每个孩子向往的地方;美丽的维多利亚港海滨;繁华的铜锣湾,是人们生活、旅游的好去处。

如今,香港正在飞速地发展。香港,让亿万中华儿女欢欣鼓舞的时刻,香港必将拥有更加美好、更加辉煌的明天!香港,这个无比璀璨的“东方之珠”,百年后的回归,让祖国母亲喜笑颜开,终于不再让祖国母亲魂牵梦萦。作为一名中华儿女,我骄傲!我自豪!

这颗“东方明珠”的璀璨、耀眼,让世界瞩目。今天全国各民族的兄弟姐妹为你庆祝回归26周年。愿紫荆花开得灿烂、绚丽、芬芳、永恒;五星红旗飘得庄严、神圣!

普天同庆,迎你回归的日子里,欢腾的香江之水为你舒展着秀美的笑容。当鲜艳的五星红旗高高飘扬在香港上空时,举世瞩目,万众欢腾。哦,香港,祝福你。

祝福你!香港,鲜红的五星红旗将在你的头顶上空永远高高飘扬!

《回归》心得体会篇3

从1999年12月20日到20__年12月20日,__载春华秋实,__载奋斗征程,__载如诗如歌。作为一名共产党员对澳门发展取得的成就感到十分自豪。__年澳门的发展证明了一国两制制度的正确性;印证了澳门把握新机遇,助力经济发展的时代篇章;港珠澳大桥的通车,凑响了澳门时代发展的音……__年澳门的沧海巨变,书写了太多引以为澳的故事。

映日莲花别样黄,一国两制续新篇。回归祖国__年来,澳门发生了日新月异的变化,数百载沧桑,__载巨变。澳门今日的繁荣稳定证明了一国两制是完全行得通、办得到、得人心的。在澳门实践一国两制不仅体现了共产党人的大胆创新,还深深的透彻着共产党人强烈的爱国情感。新时代的党员干部要有一颗爱国心,在任何情况下都不能弱化,更不能丢。风雨如晦,爱国的初心不改,爱国情感在为民服务中得到升华和凝练。党员干部在实际的工作中应脚踏实地,矜矜业业,无论在什么岗位,都应以爱国为出发点,尽心尽力为国家和人民谋福利。新时代的党员干部要敢于创新,与时俱进,要有灵敏的嗅觉和锐利的目光去观察,去预见,去发现,去体验新时代发展变化,及时嗅出变化气息,从而采取新颖的方式及时应对工作中的困难。

把握新机遇,助力经济发展。__年不经意之间,澳门的gdp竟然增长了近8倍,人均gdp已高居世界第二。机遇是可遇不可求的,澳门抓住机遇,推动澳门经济适度多元可持续发展。新时代的党员干部一样也要抓住时代的发展机遇,主动作为,用好机遇。古人有言不可失者,时也;所当乘者,机也。时运难遇,机遇难遇。当机遇来临时,我们要牢牢把握,然而机遇降临自身的前提是要有一身过硬的技术本领,不忘为民服务初心,多到群众中去走走,去听听群众的声音,真心为民解难题,办实事。只有干出来的精神,没有等出来的辉煌。党员干部要有干大事、创大业的追求,提升求突破的胆识,争当先进标兵的气魄,在新时代敢担当善作为的浪潮中争先锋,要有一股干就干得好,争就争第一的拼劲,不断克服工作、学习、生活中的艰难险阻。百舸争流,奋楫者先;千帆竞渡,勇进者胜。新时代的党员干部要以干字当头,才能抓住机遇,拥抱机遇。

港珠澳大桥通车,奏响时代发展音。美丽的大桥跨越伶仃洋,西接澳门,是粤港澳三地首次合作的超大型跨海交通工程,港珠澳这座圆梦桥、同心桥、自信桥、复兴桥,是连接粤港澳三地的民心桥,也是中国桥梁走出去的靓丽风景线。港珠澳大桥是中华儿女不怕困难,敢于挑战的名族精神的重要体现。新时代的党员干部要正视工作、生活中的种.种艰难险阻,卯足力气向前拼搏,敢啃硬骨头,要有刻苦专研的工匠精神。党员干部在从事工作中要锲而不舍,追求卓越,发扬一丝不苟,精益求精的敬业精神,在实际工作中精于工,品于行,不断追求各项工作有序开展和完善,切实提高群众的获得感、幸福感。

在庆祝澳门回归祖国母亲__周年之际,真诚祝福澳门明天更加美好,更加繁荣。新时代的党员干部要汲取澳门__年的成功发展经验,做一个有强烈的爱国心,自我创新意识不断增强,敢于把握机遇,敢担当,善作为的新时代答卷人,谱写新时代奋斗篇章。

:

《回归》心得体会篇4

今天,站在澳门西望洋山上远眺,只见高楼林立、长虹卧波,入夜则流光溢彩、灯火通明。时间是一支如椽巨笔,记录着像一只棋子跌出棋盘的边缘的昨天,也刻画下物换星移幸福从此登岸的今天。

20年意气风发,日新月异的濠江故事精彩纷呈。难忘回归前夕的愁云密布,澳门连续4年经济负增长,1999年入境游客不足800万人次,失业率达6.4%。20年来,回到祖国怀抱的澳门一改颓势,2018年,澳门本地生产总值已从1999年的519亿澳门元增加至4447亿澳门元,人均gdp在世界名列前茅,入境总旅客超过3580万人次。2019年发布的《全球经济自由度指数》报告显示,澳门在全球180个经济体中排名第三十四位,在亚太地区43个经济体中排名第九位,成为世界上最活跃的微型经济体之一。经济适度多元发展初见成效,*、旅游、会展、餐饮、酒店及零售业欣欣向荣,一个生机勃勃的澳门以崭新的姿态屹立在南海之滨。

20年洗尽铅华,良政善治的澳门实践逐渐成型。澳门的历史,一度刻写在光怪陆离的地名上:苏亚利斯博士大马路、罅些喇提督大马路、嘉乐庇总督大桥……历,葡萄牙先后委任了127任澳门总督,直到1997年,才有一位华人在澳葡政府中担任司级职务。回归以来,澳门依法顺利进行五任行政长官选举和六届立法会选举,至2018年底已完成800多部法律和行政法规的制定修订。行政机关和立法机关既相互配合又相互制约且重在配合,司法机关独立行使职权。今天的澳门行政主导体制运行顺畅,依法治理能力和水平显著提升,开辟了良好的政治局面。

20年和谐稳定,安定祥和的民生画卷不断铺展。今天的澳门,洋溢小城故事多、充满喜和乐的氛围,但谁能想到在回归之前,这里曾是截然不同的景象?回归之后,特区政府在中央政府支持下打击犯罪,一年时间就让凶杀案件减少了72%,纵火案件减少了40%。获得感、幸福感、安全感不仅来自治安改善。一份《澳门这十年》的民生工作总结中,介绍了一个普通澳门人家的民生礼包:从幼儿园至高中的15年免费教育,看得到真金白银的现金分享计划,长者、婴幼儿、中小学生、孕妇纳入免费医疗,青年创业获得免息贷款……居者有其屋、病者有其医、老者有其养、少者有其学,特区政府施政所向让澳门居民所需所盼成为现实。

澳门是squo;一国两制squo;制度卓有成效的榜样世界看到的是基本法保障下澳门居民享有的繁荣和稳定……这些来自外国观察家的判断,印证着一国两制在澳门的巨大成功。回归20年,是澳门历发展最快的时期。也曾经历挑战,也曾面对风雨,但以祖国为坚强后盾,澳门在向阳而生中穿越风雨,在艰辛成长中加冠而立,30多平方公里土地上发生着数百年来最辉煌的巨变,波光潋滟的濠镜焕发出前所未有的光彩。

《回归》心得体会篇5

20年前的今天,澳门在外漂泊,经历满身苍夷后重新回到了祖国母亲的怀抱,这是一个令人感动的日子,这也是一个值得庆贺的日子,20年前,不管是澳门同胞还是大陆同胞,都为这一天等待了许久,也期待了许久,当澳门同胞回来的那一刻,相信很多人都会喜极而泣,也会祖国日渐的强大感到欣慰。

在20年后的今天,我们的'生活日渐富裕,我们的祖国更加强大,我们的生活充满着希望,祖国母亲也迎来了一次又一次的举国盛会。在今天这个特殊的日子里,我们不仅缅怀过去,感恩为现在的生活做出贡献的人们,更加祈祷与祝福今后中国更加美好。

在祈祷的同时我们也应该对自己的言行有所规划,祖国的美好的未来是需要我们每一名国人做出努力与贡献的,作为学生,我们应该努力学习知识,为祖国的发展蓄力;作为工作者,我们应该在岗位中恪尽职守,让祖国的日常运行规范正常,同时也要不断创新进取,争取更好的国力。

在今后,我们应该更加努力,为祖国的强大努力,为祖国的团结努力,生活会更加美好,明天也会更加美好!

它山之石可以攻玉,以上就是差异网为大家带来的5篇《澳门回归心得体会》,希望对您有一些参考价值。

《回归》心得体会篇6

香港,上世纪亚洲四小龙之一,也是世界性经济都市之一,更是中华人民共和国不可分割的领土之一。前几天,电视、报纸、杂志都在热议香港回归祖国_周年,以致于这一话题成为了街头小巷茶余饭后的热门谈资。我没有去过香港,香港只存在于我的脑海中,但是香港回归的意义是每一个中国人都应该了解的,香港回归祖国_周年也是每一个中国人的骄傲。自1997年7月到现在,恍惚间_年就过去了,_年对一个人来说是多么漫长,可是_年对于香港回归祖国却不漫长。

回顾香港过去_年的历史,我们能看到香港的繁荣富强,我们能看到大陆人民和香港的互帮互助,我们更能看到中华民族的伟大复兴。当然,我们从中,最能看到的是中国人民的自强不息。这_年的历史,是香港重回祖国怀抱的历史,是香港人民重新融入中华民族大家庭的历史,更是要记录到历史中的历史。

一百多年前,香港被割让给英国,那是中华民族耻辱的开端,也是中国人民抗争的开端。可以说,耻辱开始的时候,也就是抗争开始的时候,耻辱不止,中华民族的抗争也不会停止。_年前,香港和平回归,中国人民关于香港割让的耻辱终于终结,一个世纪的分离终于结束,香港重新回到祖国的怀抱,重新回到中国人民的手中。这是一个伟大的时刻,也是一个必将被历史和人民所铭记的时刻。这也是一代代中国人自强不息的见证,也是中国人民和中华民族屹立世界之林的重大见证。

我们在庆贺香港回归的同时,我们在庆贺香港回归_年的同时,也不能忘记了先贤们的努力,不能忘记无数仁人志士为之而努力的过程,我们更不能忘记历史的教训和借鉴。_年的历史,_年的时间,终于证明时代的伟大选择,也证明了无数中国人为之努力没有白费。现如今的香港经济繁荣富强,文化丰富多彩,人民安居乐业,各行各业都朝着日益繁荣发达的方向发展,这不禁让人为香港感到自豪,也为中华民族感到自豪。我们坚信香港是打不败的,中国是打不败的,中国人民是打不败的,中华民族更是打不败的。我们为祖国自豪!

《回归》心得体会篇7

本文主要讲述的内容是线性回归,它是一种回归拟合问题,会对连续性数据做出预测,而非判别某个样本属于哪一类。

本文主要包括的内容有如下几部分:

回归预测,回归预测,说到底就包括两个部分。

一个是回归(拟合),另一个是预测。回归是为预测做准备或者说是铺垫,只有基于已有的数据集我们才能构建一个的回归模型,然后根据这个回归模型来处理新样本数据的过程就是预测。

而线性回归就是我们的回归模型属于线性的,也就是说我们样本的每个属性特征都最多是一次的(进来的读者 应该都知道吧)

为了让读者对线性回归有个基本的了解,我们来聊聊小姐姐的相亲故事。

故事是这样的。

在很久很久以前,有位小姐姐打算去相亲,她比较在意对象的薪资情况,但这种事情也不太好意思直入主题,你说是吧?所以呢,她就想着通过相亲对象本身的属性特征来达到一个预测薪资的目的。

假如说这位小姐姐认为对象的薪资主要有两个部分的数据的组成,分别是对象的年龄和头发量。对此,小姐姐想要构建出这么一个关于薪资的线性模型:

中文形式的描述就是:

所以呢,小姐姐现在的目的就是想要得到这么一个东西

的值,然后观察和询问相亲对象的发量以及年龄,就可以根据这个线性模型计算得出其相亲对象的薪资情况。

那么,该如何得到

的值呢???就在小姐姐脑阔疼得厉害之时,我是这么手握手教小姐姐的:“小姐姐,你可以先相亲1000个对象,观察并询问对象的发量和年龄之后,然后通过社会工程学来得到他的薪资情况。有了这1000组对象数据之后,你就能训练出

的值,从而得到误差达到最小值的这个线性模型”

小姐姐听完我的讲述之后,真的是一语惊醒梦中人啊,心想:妙啊,就这么干!!!

以上例子中的内容纯属我胡扯,只为描述线性回归的过程,不代表任何观点。

通过上述小姐姐的相亲故事,相信大家都已经对线性回归的过程有了一个基本的认识,而要具体操作线性回归,我们还需明白一个在机器学习领域中比较重要的算法,也就是梯度下降算法。

要理解梯度下降算法,我们可以将其类比成一个人下山的过程,这也是我们理解梯度下降算法时候最常用的一个例子,也就是这么一个场景:

有个人被困在山上,他现在要做的就是下山,也就是到达山的最低点。但是呢,现在整座山烟雾缭绕,可见度非常的低,

所以下山的路径暂时无法确定,他必须通过自己此刻所在地的一些信息来一步步找到下山的路径。此时,就是梯度下降算法大显身手的时候了。具体怎么做呢?

是这样的,首先会以他当前所在地为基准,寻找此刻所处位置的最陡峭的地方,然后朝着下降的方向按照自己的设定走一步。

走一步之后,就来到了一个新的位置,然后将这个新的位置作为基准,再找到最陡峭的地方,沿着这个方向再走一步,如此循环往复,知道走到最低点。这就是梯度下降算法的类别过程,上山同理也是一样,只不过变成了梯度上升算法。

梯度下降算法的基本过程就类似于上述下山的场景。

首先,我们会有一个可微分的函数。这个函数就类似于上述的一座山。我们的目标就是找到这个函数的最小值,也就是上述中山的最低点。

根据之前的场景假设,最快的下山的方式就是找到当前位置最陡峭的方向,然后沿着此方向向下走,在这个可微分函数中,梯度反方向就代表这此山最陡峭的方向,也就是函数下降最快的方向。因为梯度的方向就是函数变化最快的方向(在后面会详细解释)

所以,我们重复利用这个方法,在达到一个新的位置之后,反复求取梯度,最后就能到达局部的最小值,这就类似于我们下山的过程。

而求取梯度就确定了最陡峭的方向,也就是场景中测量方向的手段。那么为什么梯度的方向就是最陡峭的方向呢?接下来,我们从微分开始讲起:

对于单变量微分来讲,由于函数只有一个变量,所以此时的梯度就是函数的微分,所代表的意义就是在该点所对应的斜率。

对于多变量函数来讲,此时的梯度就不再是一个具体的值,而是一个向量。我们都知道,向量是有方向的,而该梯度的方向就代表着函数在指定点中上升最快的方向。

这也就说明了为什么我们需要千方百计地求取梯度!我们需要到达山底,就需要在每一步观测到此时最陡峭的地方,梯度就恰巧告诉了我们这个方向。

梯度的方向是函数在给定点上升最快的方向,那么梯度的反方向就是函数在给定点下降最快的方向,这正是我们所需要的。所以我们只要沿着梯度的方向一直走,就能走到局部的最低点!

现在,我们不妨通过代码来模拟实现这个过程。假如说,我们现在的目标函数是:

则其对对应的梯度为:

对此,我们可以通过如下代码来模拟梯度下降的过程,以寻找出到达最低点时候的 x 值:

通过上述代码,我们可以发现,当函数值达到最低点的时候,此时我们的 x=-0.9999517797740893,与我们手动计算的 x=-1基本可以划等号,这就是梯度下降所解决的问题。

针对上述代码,这里我们主要说两个点:

①:x_new = x_old - learning_rate * gradient(x_old)

在前进过程中更新x_new的时候,是通过x_old来进行的,之所以在梯度前加一个fuhao,主要是为了朝着梯度相反的方向前进。

梯度的反方向就是函数在此点下降最快的方向。那么如果是上坡,也就是梯度上升算法,此时x_new的更新过程也就不需要加上fuhao了。

至于什么时候是梯度上升,什么时候是梯度下降,这个是根据我们实际情况是求最小值,还是最大值来决定的。

②:learning_rate

learning_rate在梯度下降算法中被称作为学习率或者说是步长,意味着我们可以通过learning_rate来控制每一步走的距离,其实就是不要走太快,从而错过了最低点。

同时也要保证不要走得太慢,导致我们打到最低点需要花费大量的时间,也就是效率太低了,需要迭代很多次才能满足我们的需求。所以learning_rate的选择在梯度下降法中往往是很重要的!

需要合理的选择learning_rate值,一般来讲可取0.01,具体问题还需具体分析。

总而言之,梯度下降算法主要是根据函数的梯度来对x的值进行不断的更新迭代,以求得函数到达最小值时候的x值。

当然了,以上是该算法的一般形式,同时各位研究者也是提出了一些梯度下降算法的变种形式,主要有以下三种:

我们都知道,人的大脑中包含了大量的神经元细胞,每个神经元都通过树突来获取输入的信号,然后通过轴突传递并输出信号,而神经元与神经元之间相互连接从而构成了巨大的神经网络。生物神经元的结构如下图所示:

图片来源:维基百科

1943年,心理学家沃伦·麦卡洛克(warren mcculloch)和数理逻辑学家沃尔特·皮茨(walter pitts)通过对生物神经元的研究,提出了模拟生物神经元机制的人工神经网络的数学模型,这一成果被美国神经学家弗兰克·罗森布拉特(frank rosenblatt)进一步发展成感知机(perceptron)模型,这也是现代深度学习的基石。

我们从神经元的结构出发,来模拟这个神经元的信号处理过程。

如下图a所示,神经元输入向量

,经过函数映射:fθ:x->y 后来得到y,其中θ为函数f的自身参数。在这里,我们考虑一种简化的情况,也就是线性变换:

因为其中的w和x都是向量,所以我们将其展开为标量形式可表示为:

上述计算的逻辑过程可通过下图b直观展现

以上神经元含有多个输入,为了方便理解,我们不妨进一步简化模型,此时的n=1,即我们假设该线性模型为:y=wx+b其中 w 体现的是模型的斜率,而b体现的是截距,或者在这里我们说是偏置。

我们知道,对于一条直线来讲,我们只需要已知两个点,求解二元一次方程组,就能得到该直线的具体表达式,也就是求解出 w,b 的值。

理想状态下的确是这样的,但是现实总是残酷的,我们所获取到的数据可能存在一定的误差,此时我们就根本无法构建出这么一条完美的直线来切合这些数据点。我们不妨用 ε 来表示该观测误差,假设该误差满足

的高斯分布,则我们的模型可转换为:

虽然我们不可能通过一条直线来完美的通过这些数据点,所以我们现在的需求就是尽可能找到这么一条直线,使得所有数据点到这条直线的“距离”最小,那么得到的这条直线就是我们比较满意的模型。

那么如何衡量所有数据点到达这条直线的“距离”最小?如何衡量这个模型的“好”与“不好”呢?这个时候就需要引出我们的损失函数了,

一个很自然的想法就是求出当前模型的所有采样点上的预测值与真实值之间差的平方和的均值来作为这个模型的损失函数,也就是我们常常所提到的均方误差,损失函数 l 表达如下:

当我们的损失函数计算的值比较大的时候,此时说明该直线的拟合效果并不好,当我们的损失函数计算的值比较小的时候,说明此时的拟合效果达到了一个不错的程度。

所以,我们不妨令损失函数值达到最小时,此时的模型参数为

,则为:

读到这里,各位看官是不是知道下文如何走笔的了。没错,接下来就是通过梯度下降算法来求解该损失函数的最小值,

对此,我们需要求解出损失函数分别对 w,b 的偏导,求解过程如下:

即:

得到偏导之后,我们就可以根据旧的 w,b 更新得到新的 w,b ,这就是一次更新迭代过程。更新之后,我们再次重新计算偏导并更新参数,如此不断循环往复,知道我们计算的损失函数的值得到一个我们可接受的范围,即达到了我们的目的。

下面,我们通过代码来模拟实现这个过程。

运行结果如下,可以看出数据分布大致可通过一条直线来进行拟合:

根据数据和当前的w、b值计算均方误差""" explain: 计算均方误差 parameters: x_data: 数据样本的一个属性 y_data: 数据样本的另一个属性 w_now: 当前的w参数 b_now: 当前的b参数 return: mse_value: 均方误差值"""def calc_mse(x_data, y_data, w_now, b_now): x_data, y_data = np.mat(x_data), np.mat(y_data) _, data_number = x_data.shape return np.power(w_now * x_data + b_now - y_data, 2).sum() / float(data_number)单次对w、b参数进行更新迭代""" explain: 更新迭代一次w、b parameters: x_data: 数据样本的一个属性 y_data: 数据样本的另一个属性 w_now: 当前的w参数 b_now: 当前的b参数 learning_rate: 学习率 return: w_new: 更新迭代之后的w b_new: 更新迭代之后的b"""def step_gradient(x_data, y_data, w_now, b_now, learning_rate): x_data, y_data = np.mat(x_data), np.mat(y_data) w = (w_now * x_data + b_now - y_data) * x_data.t * 2 / x_data.shape[1] b = (w_now * x_data + b_now - y_data).sum() * 2 / x_data.shape[1] return w_now - w * learning_rate, b_now - b * learning_rate多次迭代更新w、b(外循环)""" explain: 多次迭代更新w、b(外循环) parameters: x_data: 数据样本的一个属性 y_data: 数据样本的另一个属性 starting_w: 初始的w参数 starting_b: 初试的b参数 learning_rate: 学习率 max_iter:最大迭代次数 return: w:得到的最终w b: 得到的最终b loss_list: 每次迭代计算的损失值"""def gradient_descent(x_data, y_data, starting_b, starting_w, learning_rate, max_iter): b, w = starting_b, starting_w loss_list = list() for step in range(max_iter): w, b = step_gradient(x_data, y_data, w, b, learning_rate) loss = calc_mse(x_data, y_data, w, b) loss_list.append(loss) return w, b, np.array(loss_list)拟合结果的可视化""" explain: 拟合结果的可视化 parameters: x_data: 数据样本的一个属性 y_data: 数据样本的另一个属性 w: 拟合得到的模型w参数 b: 拟合得到的模型b参数 loss_list: 每次更新迭代得到的损失函数的值"""def plot_result(x_data, y_data, w, b, loss_list): from matplotlib import pyplot as plt %matplotlib inline plt.subplot(2, 1, 1) plt.scatter(x_data, y_data) x_line_data = np.linspace(-10, 10, 1000) y_line_data = x_line_data * w + b plt.plot(x_line_data, y_line_data, "--", color = "red") plt.subplot(2, 1, 2) plt.plot(np.arange(loss_list.shape[0]), loss_list) plt.show()程序运行结果如下:

从上方的运行结果来看,我们可以分析得到线性回归模型的拟合效果还不错,完全能够体现出数据的分布规律。

另外,通过损失函数的变化图以及具体数值,我们可以观察到,前期损失值的变化非常的大,到了后期基本居于平缓,

看比如说第一次到后面计算的损失值分别为14.215、4.0139、1.941188…..,这就是梯度下降法所体现出来的效果,也就是说我们的损失函数值越大,我们梯度下降法优化的效果也就越明显。

完整代码:

以上就是本文线性回归的全部内容了,

这里我们对线性回归做一个简单的总结:

优点:结果比较容易理解,计算上并不复杂,没有太多复杂的公式和花里胡哨的内容缺点:对非线性的数据拟合不好,时间复杂度还有一定的优化空间适用数据类型:数值型和标称型数据

我是老贤,爱专研,爱分享,热衷于各种技术,学习之余喜欢下棋、听音乐、聊动漫,希望借此一亩三分地记录自己的成长过程以及生活点滴,也希望能结实更多志同道合的圈内朋友!

原文链接:

pick/

《《回归》心得体会7篇.doc》
将本文的Word文档下载,方便收藏和打印
推荐度:
点击下载文档

相关文章

最新文章

分类

关闭