2013-2014学年科研沙龙活动记录(一)
微博持续更新中 @北大互联网中心CIRE
时间:2013年10月10日
地点:A118会议室
主讲人:陈艺勇、严春伟
主持人:于倩
参与人员:实验室全体同学。
活动内容:
首先由主持人介绍2013-2014学年科研沙龙线上与线下活动计划,以及相应的主讲人和听众互动的奖励机制。
第一位主讲人是陈艺勇。主题是“paxos及Chubby”,主要参考论文为:Paxos Made Simple。Paxos以及Chubby:The Chubby lock service for loosely-coupled distributed systems。主讲人从背景、基础知识以及应用分别进行了介绍,通过讲解,大家了解到Paxos是一个基于消息传递,在分布式环境下保证数据一致性的模型,其通过在进行数据更改之前先询问数据是否已经被更改这样的形式,保证不会两个进程都修改相同的数据。之后主讲人给出了paxos的一个应用Chubby及其相应概念。在问答环节,大家纷纷针对自己不懂得地方进行了热烈讨论与提问,尤其13级的同学们都在积极互动,其中王如慧、吴迪和欧阳陶旭分别获得了“好问题奖”。
Q&A 摘要提取:
(王如慧)问:例子中的延迟请求,在已经选出master之后,为什么还可以被同意?进程发出请求,为什么只发给了两个数据块,这两个是有意义的吗?还是随机的的?
答:这个不是同意,是接收到了信号。是为了节约时间,因此在请求时,只发送给大部分的数据副本即可。
(欧阳陶旭)问:Paxos方法的亮点与优势是什么?
答:通过转发的方式,面向全新的分布式系统。
(吴迪)问:几个进程同时去申请操作数据,一个进程成功获得数据的控制权了,其它进程的请求怎么处理?
答:一个进程获得数据的控制权,那么在一定时间内数据变归该进程所有,其它进程的请求便会拒绝,如果想要操作数据,只能等一定时间后重新申请控制权
第二位主讲人是严春伟。主题是“深度学习简介”。参考文献主要有standford 深度学习教程以及deeplearning.net 网站上相应的内容,清晰的讲述了从浅层机器学习到神经网络到深度学习的发展过程和各自优缺点。讲演过程中,逻辑清晰,表达流畅。同学们听的非常认真。在问答环节,大家积极的提问。12级的陈艺勇以及13级的马一宁、吴迪、张宇骁、候超俊分别针对机器学习、抽取过程和无监督学习与严春伟进行讨论,气氛十分活跃。
最终“好问题奖”确定为13级的马一宁、候超俊以及张宇骁。
Q&A 摘要提取:
(马一宁)问:对于deep learning来说,就是逐层进行抽象,那每层抽象的feature是如何选择的?另外是属于无监督的机器学习么?
答:属于无监督的机器学习,feature是根据经验来选择的,每层抽象出来形成“字典”供下一层继续学习。
(候超俊)问:像素是以求和的形式进行窗口取值的,这样反应的数据会不会失真?可不可以以求平均数的形式?
答:这样取值会失真,deep learning的算法就是以牺牲可以接受的数据精度为代价,进行的模型提取,只要取值的数据反应图层的数据就行,所以直接求平均数也是可以的。
(张宇骁)问:deeplearning每一层的重构的具体意义是什么,怎么重构?
答:重构的目的是为了进一步减少信息量,即通过对上一层传来的数据学习得来的抽象出来的元素集合组成的字典中的元素的组合来试图再现上一层获取的数据,用来确定本层所获取的字典或对上层数据的抽象是几乎正确的,而本层的数据量相对于上层则是大大减少了的,是对上一层的归纳抽象,这样逐层减少信息量,最后留下事物的本身特质,比如是人还是猫。具体的方法还待研究。
最后是所有听众对两位主讲人根据整个报告的逻辑、内容充实性、表述能力等进行投票。投票方式为:事先发给每人两张牌,花色为一红一黑,红色和黑色分别代表两个主讲人。每人交上红色或者黑色牌,来支持自己更认可的主讲人。最终投票结果是陈艺勇12票,严春伟11票。陈艺勇赢得优胜奖,严春伟赢得鼓励奖。
附:
获奖名单:
优胜奖:陈艺勇
鼓励奖:严春伟
好问题奖:王如慧、吴迪、欧阳陶旭;
马一宁、候超俊、张宇骁。
PPT、活动录像存放地址:
ftp://www.icnlab.cn/Bigdata/2013-2014学年科研沙龙/20131010...