我理想中的下一代个人计算设备

昨晚看WWDC18,苹果在介绍iOS12时第一个介绍的就是AR软件的更新和改进。但是在我看来,目前在手机和平板上使用AR产品是反直觉和不自然的。用手举起一个手机或者一块板子玩AR游戏或者使用地图导航是很奇怪的,很多时候甚至是脱裤子放屁。更加直观和自然的方式是眼镜类的产品。

我于两年前在LOFTER上更新了一点想法:

我觉得,下一代计算设备会像一个眼镜一样,它和google glass类似(所以我希望Google不要放弃这个项目啊)AR技术将在现实场景上叠加信息。例如物品价格,实体路线图,甚至是鸟的种类和相关信息,这些功能的实现取决于开发者的开发,就像智能手机一样,可以在固定的地方购买下载程序安装到自己的眼镜中。

而它的主要的交互方式就是语言交互,配合一些基本的手势,可能我们现在觉得在大街上一个人说话有些奇怪,要是再加上一些手势动作就像一个神经病一样。但是人人都变得这样就不会觉得奇怪了。可能移动电话才普及的时候人们也觉得在大街上一个人说话很奇怪。

这样一款产品为了续航大多数计算都在云端进行因此需要高速便宜的移动网络支持,而交互方式需要机器有很强的智能。现在炒的很火的技术诸如ar vr技术,人工智能,高速移动网络,语音识别与交互都会集中在这一款产品之上。这款产品还会运用诸如骨传导将声音由眼镜架传到耳朵,或者在支付和身份验证的时候用虹膜扫描。它会追踪记录我们的每一个行动,包括身体状况,与每个人的会面,每天的进食、饮水等情况,这需要众多传感器和更安全的存储和通信系统。

我发现,现在的技术都在指向这样一款产品

现在看来,我仍然没有改变我的想法。只是觉得,如果在电池和网络没有大的革新的情况下,将这款眼镜产品作为像Apple Watch一样的手机的附属产品,计算和连接互联网都由手机完成,或许是一个不那么激进的方案。

作为生存基础的怀疑

今天微博上某个热点事件的反转,让我想起了去年在读牛津通识的《科学哲学》的时候写的读后感,今天看来仍然对我十分有意义,所以再次转出来:

当我们在说什么或者我们在听别人说什么的时候,我们真的知道我们自己或者别人在说什么吗?

先说主观的因素,生活中发生的事情大多介于极好和极坏之间,在不同的人的眼里,这件事情偏好还是偏坏是不同的,所以他们给出的评价也是不同的。事情就像一个大球,从不同角度看过去都是一个圆,人们大都觉得自己看清了这件事情,但是他们总是没能看得完全。凑巧的是,要看到这个球的全貌,往往要在自己的角度看了之后跑到相反的角度再去看。

还有客观的因素。我们每天接收到浩如烟海的信息,能辨真假的相当的少。一个新闻少写几个字就能影响我们的判断,举个例子,假如某新闻说A是一个杀人犯,我们大多数人对A的评价肯定是负面的,但是如果新闻加上A是为了保护家人或者为了保护弱者过失杀了一个罪恶的人,极端一点,就像电影中的超级英雄,为了保护地球杀了很多人,我们对A的评价估计就会发生很大的变化了。一条新闻要想完整的传送信息是不可能的,一个有良知的媒体只能最大限度的还原真相,但是我们怎么知道媒体是不是少说了点什么关键信息(不管是有意还是无意的)?现在无良媒体这么多,新闻舆论反转也是常有的事情。我们也被带了一波又一波节奏。不光是媒体,个人也是如此。受到自己情绪和立场的影响,个人说的也不太可能是真正的实情,他们说的只是他们认为的实情,或是删减增添后的「实情」。就拿暑假的家金来说,在知乎上有个问题是参加家金是怎样一种体验?这个问题下面有几十个回答,尽管题目问的就是个人体验,但是很多回答通篇是真实的句子真的没有两个,而且是从旁人的角度一眼就能看出问题的那一种失实。造成这种情况的原因可能是对其他人工作的不了解,以自我中心。还有可能是为了渲染情绪的刻意夸大(说实话,现在的不少大学生戾气是真的重)。要命的是他们的逻辑形式上是没问题的,读者不了解情况就会默认他们的前提是正确的,那么推出的结论就如作者所写的那样。生活中的信息真真假假,靠谱的方法就是网上信息信3分,实际生活中别人说话信7分,就算是亲人说话也只信9分不能全信,因为你也不知道你家人说的话是从哪个卖菜老大爷那儿听来的。这个方法也是很无奈了,怀疑是没有办法的办法。

据我观察,我们在生活中的言谈中,有很大一部分情况是自己都不知道自己在说什么,我们说话仅仅只是为了表明态度。最常见的便是政治,说实话,那些政治事件离我们比较远,专家学者或者亲历者都很难说清楚,我们周围人的谈论又能信几分呢?他们把N手的资料汇编整理然后再在社交媒体上发出来,看似头头是道,其实狗屁不通。我估计,很多时候他们都是在立个空靶子来打,根本自己言谈的是什么都不知道。况且用不同的视角去看一个事情就大都能得出有几分道理的结论,就像我开头所说,事情总是在几个极端之间,就看你从哪个角度看过去罢了。我这么说不是说我们就不能发表评论不能说话,不能去知乎回答问题,我想说的是看看就行了,别太当回事儿,还有就是少谈论没底的东西(这句话说了也白说,什么是自己有底的东西很难界定)。

总是持怀疑态度是蛮累的一件事,《人类简史》中说信任是人类生存的基础之一,我们也不能总是怀疑别人说的每一个字。稍微简便一点的方法是,当你看到的听到的东西具有煽动性时,你就要怀疑一下了(比如我这篇推送),尝试去否定对方的说法。但是,不要为了否定而否定,否定完了还要看是否合理,更不要为了辩论而辩论想要赢对方,这可是相当愚蠢的,也是很累的,我是回复了一次知乎评论之后就再也不想在知乎上说话了,看看就好。

看起来我的观点有点懒,总想着别人把完全真实的东西摆在眼前。我们的时间和精力毕竟有限,要去一一求证我们收到信息的真伪也是几乎不能办到的事情。况且很多事情,我们永远不知道现在知道的是不是一定是真的,能做到的是相信最有可能是真的的表述,相信的是目前来看以自身能力提不出反驳的东西。

在碰到任何一个陈述句时,在前面加上个为什么将陈述句变为疑问句会引发更多的思考。就算这是一个现在看起来完全无误的命题,在问句形式下也能挖掘出更多信息。比如现在普遍认同的命题「男女平等」,转换为「为什么男女应该平等」。在问句形式下,我们就要为男女平等辩护,提出我们的理由,直到我们自己认为无法反驳为止。在这个过程中,就会引出一些新问题,例如是不是在所有情况下男女都应该平等等等。与此同时,在与别人交流中,这种方法更像是苏格拉底的「审视」方式,从不同角度攻击一个论点,要么这个论点站不住脚彻底垮台,要么这个论点在别人的攻击下不断完善。社会心理学上说,人们在团队中容易从众和做出比平常更加冒险的决定,但只要有一人提出反对意见,从众的人就会更多的思考自己的立场。作为团队的一员,就算自己是拥护这个方案的,也要从不同角度提出反对意见,让这个方案更加牢靠。

怀疑是令人讨厌的,特别是你在怀疑别人的话时,别人的自尊会受到一定的冲击,并且你的怀疑别人可能一时半会儿回应不了,这会使对方陷入尴尬的境地。这是交流方面的话题,就要根据实际情况处理了。总的来说,在一些是是而非的命题上,多问个为什么显然是有用的。

最后瞎说一个猜想,关于归纳论证的,我们通过归纳论证得出了很多结论,但是至少现在我们还不能在理性上说服自己,就如同我们知道明天太阳会升起,但是从逻辑上讲这是有漏洞的。我猜这事儿会不会跟时间有关,我们不能看到未来的事情,所以不能穷尽所有的可能性,因此不能把话说绝了,但是如果我们跳出时间,是否能一眼看穿?举例来说,在纸上生活着一个二维小人,纸上面有一个封闭的正方形,正方形里有一个圆 ,正方形外有三个圆,二维小人生活在正方形以外,那么他永远不知道纸上有几个圆,因为他能观察到的只有正方形之外的三个圆,不知道正方形里面是否有圆。但是我们三维空间的人却能一眼看出纸上有四个圆。以此类推,我们现在因为时间原因无法穷尽所有可能性,但是一旦跳出了时间之外,在更高维度是否就能一眼看出我们困惑问题的答案呢?以上纯属瞎扯,若有问题,概不负责。。。

信任是人类生存的基础,怀疑也是。

我是一般只关注不转发带有强烈感情色彩的内容。事实上,生活里带有强烈感情色彩和意识形态输出的内容都应该警惕。但是这种“作壁上观”的态度也有弊端,比如有些事件如果没有社会的关注和转发,相关部门或者当事人是不会作出反应和改正的。这也算是怀疑带来的效率上的损失吧。矛盾真是无处不在!

 

 

观看之道

我知道这本书首先是在听《一天世界》《72:降低信噪比》这一期节目的时候,主播提到了这本书。然后在前两天洗澡的时候想听点什么,就顺手点开了优酷上的《一千零一夜》,这一期梁文道讲的也是这本书。一段时间内两次听到有人推荐这本书,觉得有些缘分,于是就从图书馆借出了这本书。

《观看之道》是根据BBC在上个世纪一档节目整理出来的。约翰伯格的这本小册子不厚,但是我并没有读得太懂,只能大致聊聊。

全书一共七章,一百来页,但是只有三万来个字,因为书里面有很多图片(7章里有三章全是图片)。首先从设计上,第一章是总论,之后每两章为一个部分。先是没有任何文字解释地展示很多图片,让读者自己去感受(说实话,黑白印刷体验和观感并不怎么好,而且2005年的书纸张还泛黄了),在接下来的一章里,作者才来发表自己的观点。

首先是总论,作者在最先就表明了“观看先于言语”的观点。我们看世界的方式受到了经验和知识的影响。这也是为什么这本书要先放出图片,再来发表讨论。当照相技术的发明使得复制绘画作品成为可能的时候,那么原作和复制品的区别在哪儿呢?我们对杰作的研究很多都关注于证明这幅作品是原作而不是仿冒品,作品的权威性和独特性就只能体现在存在性上,就因为这是原作,所以它是好的。我们观赏艺术品的方式笼罩在专家学者营造的虔诚而神秘的气氛中,那些专业而晦涩的术语,让我们远离了作品真正要表达的东西,失去了不受先前影响从“心”观赏作品的机会。

下一章探讨了女性与艺术的关系。我们能看到很多作品里面都有女性形象,而且很多还是裸女。这与女性作为被观察者的身份有关。在过去,女性均是以观察者和被观察者的双重身份存在的。男性的优劣可以通过非外表的能力来体现,比如口才、演技、知识等等,而女性只能通过外表来体现。所以女性无时不刻不在观察自己的举止,来吸引男性的关注,这种两性关系是不平等的。男性拥有裸女绘画并欣赏它们,这是财富和地位象征,而女性处于从属地位。如今这种情况也并没有改变太多。那些观看了成人视频享受了它带来的愉悦之后还要鄙视和道德谴责其中的女性演员的人更是虚伪。

第三部分谈到了油画与财富的关系。作者认为油画发展的这几百年与作为财富的象征密不可分。油画肖像是一种对富贵身份的炫耀和自我欣赏,即便是风景画,也是炫耀其拥有财富的一种表现。

最后一部分是关于广告的。广告通过影像传达出了购买会让你更好的的幻想。将幻想中的将来的美好生活放到你的眼前。比如一家人坐在汽车里的美好场景,或是美女模特在海边舒服的躺着。给人一种购买了我也如此的幻觉。广告的目的在于使观赏者对他当前的生活方式萌生不满,但并非使他不满意社会的生活方式,而是让他对此中自己的生活方式感到不满,而广告向观赏者提供了一项改善现状的选择。广告的信誉并不会因为幻想不能实现而受到削减,因为广告用将来时态表达,而这未来成果的兑现却是绵绵无尽期的。

总的来说,整本书探讨了影像的阶级性、性别性、物质性和目的性。

书店:从兴趣到放弃

今天读完了凑单书《我的奇妙书店》,听这个名字感觉就卖不出去。凑单买来放在床头熄灯之前读两页,今天有空干脆直接读完了。

全书讲了一对德国汉堡夫妇一时冲动买下了维也纳的一家旧书店然后放弃高薪工作从头开始忙碌最后坚持下来还开了另一家书店的故事。整本书很琐碎,所以今天读两页明天读三页完全不影响整体理解。夫妇俩从头开始装修、进货、拆货、摆放、整理、介绍、对账……从早忙到晚,从年初忙到年尾。还要照顾读幼儿园的女儿,忍受与在汉堡读书的儿子的离别之苦。整本书简直是开书店的劝退文。总结下来,他们能够坚持下来,一靠的是对书的热情,二靠的是顾客、邻居和朋友的帮助,最主要靠的还是他们国家对书价格的控制,使得人们在书店买书和在亚马逊上买书的价格是一样的。

以前看《东京本屋》的时候也了解到,相同的价格控制在日本也有,我记得书应该是不能随意打折的。而在我们国家就没有这方面的保护。京东搞活动时可以做到满400减300,算下来一本标价100的书实际也就支付了25块钱。在知道这种信息的情况下,书店很多时候就是给电商做嫁衣。小书店根本开不走,人们去的都是像方所、言几又这样的大书店(这些大书店我感觉赚钱主要靠咖啡和文创产品,而小书店没地方搞这些),而且一部分人还是去拍照的。

开一间书店,每天坐着阅读喝茶、看世间纷纷扰扰更像是一种不差钱之后养老的选择而不是一桩在年轻可以干的事业。

作为一个读者,我肯定是支持电商打折的,但是我又不希望街上的实体书店都消失,这真是一件矛盾的事情。

Python机器学习入门(2.1)

本章主要探讨一些监督学习的算法,因为内容较多,学一点就更新一点。本节主要是K近邻和线性模型。

首先,监督学习问题分为两种,一是分类,二是回归。如垃圾邮件的学习识别就是分类问题,而房价预测就是回归问题。在监督学习中,我们通过利用训练集使程序能够对没有见过的数据进行预测的过程就是泛化的过程。在进行训练之前,我们首先要识别数据的某些特征,将他们作为训练的内容。过于关注细节,使得模型在训练集上表现很好,但是泛化到测试集上效果很差就代表过拟合,而无法抓住数据特征,使得模型在训练集上效果就很差就表示欠拟合。模型复杂度越高,训练精度越高,但是泛化能力可能先提高后下降,这就需要我们进行取舍。有效数据集越大,我们就能构建一个更复杂的模型。

下面开始介绍几种不同的算法:

k近邻

这种算法就是第一章预测花的种类所用到的算法。首先是k近邻分类。对于设定只有一个邻居的时候,算法就将离需要预测的点最近的那个点作为结果输出。对于多个邻居的时候,算法就会进行投票(计算有多少个邻居属于类别1,多少个邻居属于类别2……),最后选出票数最多的作为结果输出。

其次就是k近邻回归,类似的,单一邻居输出最近邻的目标值,多邻居时输出这些邻居的平均值。

k近邻算法很好理解,但是如果训练集很大,速度就会很慢。这种算法不太适用于很多特征值都是0的情况。

线性回归模型

线性模型利用输入特征的线性函数进行预测。对于一般的的回归问题,线性模型预测的一般公式是:y = w[0]*x[0]+w[1]*x[1]+……+w[p]*x[p]+b。其中x[n]代表特征,w代表相应特征给定的参数,b也是需要给定的参数。如果特征只有一个的话,就是高中学的直线方程。

第一个回归方法是线性回归,又称为普通最小二乘法。就是模型寻找参数w和b,使得预测值减去实际值的平方和除以样本数最小。对于一维数据集来说,以内模型非常受限,所以很容易欠拟合。对于高维数据集,经常会发生过拟合的情况。岭回归就是常见的替代方法。

岭回归的预测公式与线性回归相同,只是对模型对于w的选择加了约束(w应该尽可能小,即w应该尽可能接近0)。直观看来,即每一个特征对结果的输出影响尽可能小。这种约束是正则化的一个例子,正则化是指对模型进行显性约束。在岭回归下,模型的训练集分数一般低于线性回归下的分数,但是测试集分数高于线性回归下的分数,即一般来说泛化性能更好。在小数据集的情况下,线性回归基本学不到什么东西,岭回归效果要好很多。随着数据量的增加,两者的差异逐渐减小。

正则化的另一个例子是Lasso,也是约束w使其靠近0,但是用到的方法不同,lasso会自动忽略一些特征值,即使一些w为0,这样使模型更为容易解释。我们可以通过调整参数alpha的值来确定忽略的强度,当alpha的值很小的时候,约束就很小了,结果与线性回归的结果类似。

线性回归模型首选岭回归,如果参数很多,而只有一些是重要的就可以选择Lasso。

用于分类的线性模型

线性模型用于分类问题主要有两类,一是二分类,二是多分类。二分类主要用这个公式来进行预测:y=w[0]*x[0]+w[1]*x[1]+……+w[p]*x[p]+b>0。这看起来和线性回归的公式类似,只是没有返回一个求和值,而是在值小于0时预测类别-1,大于0预测类别+1。二分类主要通过直线、平面或者超平面来分类两个类别。

最常见的两种分类算法是Logistic回归和线性支持向量机。两个模型都默认使用L2正则化,决定正则化强度的是参数c,c越小正则化越强,w就越趋近于0.

多分类线性模型看起来像二分类的加强版,常见方法是一对多,就是对每个类别进行一次二分类,分为此类别和其他两种情况,尽可能将此类别和其他分开。每一个类别都对应一个二类分类器,使用置信方程:w[0]*x[0]+w[1]*x[1]+……+w[p]*x[p]+b。然后在每一个测试点上运行所有的二类分类器,得到分数最高的作为结果输出。

上图中,三条线中间的部分里的点会分配到最接近的线所在的类别。

线性模型的速度非常快,适用于有大量数据的数据集,特别是对于特征数量大于样本数量的时候。但在更低维的空间中,其他模型的泛化能力可能更好。

 

 

 

TEDxSWUFE 2018春季分享会

从到西财以来,每一学期我都会参加的活动就是TEDxSWUFE举办的分享会。每次请的嘉宾类型不一,讲的内容我感兴趣的不感兴趣的都有。总的来说,比起漫天飞舞的各类财经比赛,这算是这个学校比较有意思的活动了。

本次的主题是未定义,各个讲者的演讲勉强都能沾上一点边吧。趁着现在才听完,大概记录一下。

第一位讲者是电子科大的老师,主要是分享了人工智能和人的智能,为了照顾听众的零基础,讲得很通俗。感觉这个老师有一点紧张,内容也是根据ppt现场讲述的。现在人工智能缺乏的是确立自我意识,有了自我意识能区分你我他,就能像人一样作出利己或者利他的决策,这是我们作为一个智能生物的原动力。有了原动力之后我们会通过不断的实践和试错来积累经验,并通过文字语言保存流传下来。通过更细的社会分工,更高效的完成知识的发现和积累,完成人作为物种的迭代和升级。但这会带来一个牢笼一样的问题,将人们锁在自己的领域里。人工智能就有望解决这个问题,通过更高效的迭代方式,来实现快速的自我进化。之后因为时间超了,讲得很快就没太听清楚。

第二位讲者是一个摄影师,分享了成都一个专注于在城里拍雪山的社群的故事。杜甫的“窗含西岭千秋雪,门泊东吴万里船。”这句诗说明了在成都这个低海拔的地区是能看到五六千米的雪山的。但是由于现在空气污染和城市高楼的影响,成都城里的人们越来越难看到雪山了。讲者分享了自己所在社群拍摄的相关照片和所做的研究,还是比较有意思的。能为了一个兴趣聚集起一群人,并共同得出一些成果(他们的照片上了《中国国家地理》)是一件很幸福的事情。

第三位讲者是一名声乐老师,同时运营一个关注罕见病患者的公益组织。她和她的组织教这些血友病的孩子唱歌戏剧和绘画,并一起参加一些公益演出,来帮助这些孩子获得和一般孩子一样的成长体验。因为患有血友病的孩子由于安全原因,家长一般是不愿意他们到处跑跑跳跳的。

第四位讲者是一位撰稿人、插画师,同时还是一位模特。她在某一天突然想起小时候画画的梦想,并不断的自学和探索,不断的发现自己想要做的事情,拓展了生活的宽度。我们在进行未来的职业规划的时候,想的大多数是发展前景、薪水这些问题,基本没有问过自己想干什么。自己想干什么这个问题很难回答,所以讲者鼓励大家不断的尝试新事物,可以去各地旅行,或者与各种人接触,提升生活的新鲜感,从中有可能会发现自己想要干的事情。讲者主要是通过自己儿时和现在的故事来讲述的,她也建议我们可以想想自己小时候想干什么,从中获得启发。因为那时思考这些问题的时候没有现在这么多诸如买房买车的因素的影响,比较纯真。

最后一位讲者是一位数据科学家小哥,讲得是他和别人最近发表在顶级期刊上的文章。内容是关于学术界的性别歧视。PPT里面全是数据图,小哥讲得也很快。首先是通过大数据分析,说明了男女在学术界的不平等,这种不平等并不是由于男女科学家的能力的差异,从而攻破了女生理工科不行的偏见。这种差异是由于平均来看,女性在学术界待的时间比男性要短3年,所以,研究成果产出的数量要少一些。为什么女性在学术界呆的时间要少一些呢?一种是系统性的原因,一种是结构性的原因。优秀的女性科学家受到了更多的歧视,他们的努力工作得不到回报。在最后,研究还通过控制变量,消除了歧视因素和时间等因素,发现男女在学术上的成就是没有显著性差别的。

虽然这次活动的微信推送显得活动内容比较无聊,但是还好没有放弃参加。事实证明这次活动还是挺有意思的,特别是最后两位讲者,感觉非常酷哇!

送你一颗子弹

《送你一颗子弹》断断续续读了接近一个月。因为是在各种零散时间里用手机读的,我在食堂吃饺子的时候,在课上别人展示的时候,在轻轨上等等不同时间地点都可能会想起来翻两页,所以这本书的细节我也记不得什么了,只是知道在这本书里,作者谈论了生活中的琐碎小事:有智斗不打扫厨房卫生的室友,有和邻居濒死的大爷的交集,有搬家的苦恼,有对在无聊饭局上和天文老教授交谈的吐槽……零零种种,主题不一。

这本书是从byte.coffee这个播客节目听来的(安利一下这档播客和它的主播)。书的作者刘瑜是个研究政治的女博士(现在是国内某高校的老师了),她的书还有《民主的细节》、《观念的水位》等等。这些书在学校图书馆网站上显示都有,但是在书架上却神秘的全部消失了。

书是一本有趣的书,大多数文章都能让人会心一笑。我看这种书乃至其他文学类的书,都图一个感受人的气息或者烟火气。这种东西听起来很悬,比如当你在图书馆专心读一本书或者写一篇文章时猛地抬起头,看见周围阳光下或者灯光下专心为自己的事情忙碌的人的时候或者干完一天的事情提着宵夜从小吃街回寝室穿过人群的时候,都能感受到这种气息。

我在不少人的文章里看到过这样的观点:由于对现实没有什么指导意义或者指导意义不明显,小说、传记或是文学类书籍是不怎么值得花时间一读的,我们应该把时间花在能指导实践的内容上。但是对我来说,整日泡在没有人的气息的东西里,总会生出一种虚无的感觉。比如整日沉浸在数字、经管或者其他文本里,总会在某个时刻发出我在干什么的疑问。每当这时,找一本小说、随笔或者流畅的传记来读一下,就会让人放宽心:大家都是这样,我不是一个人。

又是一年4月

去年4月,我尝试每天拍一段6秒左右的视频最后拼一段大约三分钟的视频发到微博上。今年4月,我也拍了这么一段视频,总的看起来今年4月比去年更加单调了,每天都在为今天可以拍什么而烦恼,日子就像从一个模子里刻出来的一样。

不光4月,事实上,从三月开始复习,日常生活就变成这个样子了。这段时间估计是上大学以来每天最规律也最充实的日子。每天早上8点起床,洗漱吃早饭刷微博到9点,开始干上午的事情,中午十二点吃饭上会儿网,13点开始睡午觉。14点开始干下午的事情。下午5点吃饭,18:30开始弄晚上的事情。晚上九点结束之后去操场跑几圈,然后回寝室看剧玩游戏结束一天。

虽然看起来比较单调,但是确实收获不少。除了在复习之外,还能抽空看看感兴趣的书(争取在毕业之前把架子上库存的书看完),学点有意思的东西,更一更一时兴起开通的博客。

话虽如此,即便最近忙起来没时间搞其他的,做讲义赶进度还要抽空翻完初会的教材,但是有时候还是感觉很没有意义,事情一大堆但是什么都不想干,感觉人生很无聊。对抗这种消极情绪的最好办法就是去跑步,跑完之后洗个澡吃点东西打打游戏睡觉,在永恒的无意义中一头扎进暂时的欢愉的迷雾里寻求解脱。

说得乱七八糟的,其实这篇博客只是为了发剪辑的视频也没有其他啥意思。

两篇高中古文

本周无聊项目的主题是背诵一篇初高中古文。以下是@Astrawfnutroneer 的总结:

想起的第一句就是,岳阳楼记,浩浩汤汤。。。
后来看了看,出师表没啥意思,滕王阁序好长,桃花源记不错正准备选了,还是第一印象好,特别是,不以物喜,不以己悲,就岳阳楼记了。
然后又三心二意看了下醉翁亭记,醉翁之意不在酒,在乎山水之间也~哎呀,也挺美。初中特别喜欢写长短的,语文老师还说我写随笔长短句挺顺溜,曾经有个笔记本写词的,结果,上了工科,写论文全是数据说话,别说初中语文,小学语文都退了。。。不禁流下本可以xxx的泪水
岳阳楼记
范仲淹
庆历四年春,滕子京谪(zhé)守巴陵郡。越明年,政通人和,百废具兴。乃重修岳阳楼,增其旧制,刻唐贤今人诗赋于其上。属(zhǔ)予(yú)作文以记之。
予观夫(fú)巴陵胜状,在洞庭一湖。衔远山,吞长江,浩浩汤汤(shāng),横无际涯;朝晖夕阴,气象万千。此则岳阳楼之大观也。前人之述备矣。然则北通巫峡,南极潇湘,迁客骚人,多会于此,览物之情,得无异乎?
若夫淫雨霏霏,连月不开;阴风怒号,浊浪排空;日星隐曜(yào),山岳潜形;商旅不行,樯(qiáng)倾楫(jí)摧;薄(bó)暮冥冥,虎啸猿啼。登斯楼也,则有去国怀乡,忧谗畏讥,满目萧然,感极而悲者矣。
至若春和景明,波澜不惊,上下天光,一碧万顷;沙鸥翔集,锦鳞游泳,岸芷(zhǐ)汀(tīng)兰,郁郁青青。而或长烟一空,皓月千里,浮光跃金,静影沉璧;渔歌互答,此乐何极!登斯楼也,则有心旷神怡,宠辱偕忘,把酒临风,其喜洋洋者矣。
嗟(jiē)夫(fú)!予(yú)尝求古仁人之心,或异二者之为,何哉(zāi)? 不以物喜,不以己悲;居庙堂之高则忧其民;处(chǔ)江湖之远则忧其君。是进亦忧,退亦忧。然则何时而乐耶?其必曰:“先天下之忧而忧,后天下之乐而乐”乎。噫(yī)!微斯人,吾谁与归?
时六年九月十五日。
我本周选择的是我认为整个义务教育阶段语文课本里边写得最好的文言文,现在读起来还是觉得很棒。下面不加授权的引用全文。
—唐代·王勃《滕王阁序》
豫章故郡,洪都新府。星分翼轸,地接衡庐。襟三江而带五湖,控蛮荆而引瓯越。物华天宝,龙光射牛斗之墟;人杰地灵,徐孺下陈蕃之榻。雄州雾列,俊采星驰。台隍枕夷夏之交,宾主尽东南之美。都督阎公之雅望,棨戟遥临;宇文新州之懿范,襜帷暂驻。十旬休假,胜友如云;千里逢迎,高朋满座。腾蛟起凤,孟学士之词宗;紫电青霜,王将军之武库。家君作宰,路出名区;童子何知,躬逢胜饯。
时维九月,序属三秋。潦水尽而寒潭清,烟光凝而暮山紫。俨骖騑于上路,访风景于崇阿。临帝子之长洲,得仙人之旧馆。层峦耸翠,上出重霄;飞阁流丹,下临无地。鹤汀凫渚,穷岛屿之萦回;桂殿兰宫,即冈峦之体势。
披绣闼,俯雕甍,山原旷其盈视,川泽纡其骇瞩。闾阎扑地,钟鸣鼎食之家;舸舰迷津,青雀黄龙之舳。云销雨霁,彩彻区明。落霞与孤鹜齐飞,秋水共长天一色。渔舟唱晚,响穷彭蠡之滨,雁阵惊寒,声断衡阳之浦。
遥襟甫畅,逸兴遄飞。爽籁发而清风生,纤歌凝而白云遏。睢园绿竹,气凌彭泽之樽;邺水朱华,光照临川之笔。四美具,二难并。穷睇眄于中天,极娱游于暇日。天高地迥,觉宇宙之无穷;兴尽悲来,识盈虚之有数。望长安于日下,目吴会于云间。地势极而南溟深,天柱高而北辰远。关山难越,谁悲失路之人;萍水相逢,尽是他乡之客。怀帝阍而不见,奉宣室以何年?
嗟乎!时运不齐,命途多舛。冯唐易老,李广难封。屈贾谊于长沙,非无圣主;窜梁鸿于海曲,岂乏明时?所赖君子见机,达人知命。老当益壮,宁移白首之心?穷且益坚,不坠青云之志。酌贪泉而觉爽,处涸辙以犹欢。北海虽赊,扶摇可接;东隅已逝,桑榆非晚。孟尝高洁,空余报国之情;阮籍猖狂,岂效穷途之哭!
勃,三尺微命,一介书生。无路请缨,等终军之弱冠;有怀投笔,慕宗悫之长风。舍簪笏于百龄,奉晨昏于万里。非谢家之宝树,接孟氏之芳邻。他日趋庭,叨陪鲤对;今兹捧袂,喜托龙门。杨意不逢,抚凌云而自惜;钟期既遇,奏流水以何惭?呜乎!胜地不常,盛筵难再;兰亭已矣,梓泽丘墟。临别赠言,幸承恩于伟饯;登高作赋,是所望于群公。敢竭鄙怀,恭疏短引;一言均赋,四韵俱成。请洒潘江,各倾陆海云尔:
滕王高阁临江渚,佩玉鸣鸾罢歌舞。
画栋朝飞南浦云,珠帘暮卷西山雨。
闲云潭影日悠悠,物换星移几度秋。
阁中帝子今何在?槛外长江空自流。
当不再为了考试或者其他目的去重读这些东西,感觉还是挺有意思的。

Python机器学习入门(1)

趁着前两天世界读书日促销把一直放在购物车里的书清空了,其中就有《Python机器学习基础教程》。今天下午有点时间就读了第一章导论部分。以一个关于花的品种的例子介绍了机器学习的大致流程。接下来我凭自己的理解大概记录一下(表述极其不准确)。

首先机器学习分为了监督学习和无监督学习。导论部分的例子是一个典型的监督学习。监督学习会告诉算法一些数据和结果,比如告诉四个关于花瓣长度的数据,然后再告诉算法这些数据所代表的花。这样经过一定地训练后,算法就能够在你给出一组全新数据时给你反馈预测结果。无监督学习就只告诉数据不告诉结果,过程会更加复杂一些。

本书使用的是scikit-learn这个库,使用anaconda基本只需要conda install scikit-learn就好了,其他诸如pandas这些库都已经内置了。

接下来就是第一个项目,鸢尾花分类,使用的数据是这个库内置的类似于教学数据一样的东西。首先导入数据,通过一些命令查看数据。其实我感觉在做自己的项目的时候将数据下载下来自己就知道数据是什么样子了,只需要确认一下数据的类型和形式就好。接下来就是衡量一下模型是否能成功,通过画散点图等一些骚操作就能把数据表现成如下的形式。虽然代码只有两行,但是里面的参数我是不知道是啥意思的。

图像把4个特征两两组合作图,可以看出区分度还是很高的。

接下来就是找模型,scikit-learn这个库内置了许多算法,这部分作者会在第二章开始介绍。这个导入项目使用了K近邻算法,就是在你给出一组数据之后,算法在加载的数据集里面找到最相似的那个数据,然后把结果赋给新给的数据。至于有几个邻居之类的问题就不是这一章讨论的。

接下来就是把数据分成训练集和测试集,按照经验来说一般是3:1的比例,75%拿来训练,25%拿来测试。scikit-learn专门有一个函数来做这个事情。之后就是训练和作出预测,这个挺简单的,两三行代码就完成了。

最后是评估模型,即是评估预测结果和我们已知结果之间的差距,可以用numpy的mean函数也可以用scikit-learn的score函数。本次测试的结果是0.97,准确度达到了97%,看起来很好了。

第一次接触机器学习,前面有天看了一下Google出的基于自己家的tensorflow的机器学习入门教程,机翻的教程还是比较吃力,找本书来自己照着敲更靠谱些。